CN114862710A - 红外和可见光图像融合方法及装置 - Google Patents
红外和可见光图像融合方法及装置 Download PDFInfo
- Publication number
- CN114862710A CN114862710A CN202210454565.1A CN202210454565A CN114862710A CN 114862710 A CN114862710 A CN 114862710A CN 202210454565 A CN202210454565 A CN 202210454565A CN 114862710 A CN114862710 A CN 114862710A
- Authority
- CN
- China
- Prior art keywords
- layer
- fusion
- image
- detail
- base
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000007500 overflow downdraw method Methods 0.000 title claims abstract description 18
- 230000004927 fusion Effects 0.000 claims abstract description 165
- 238000000034 method Methods 0.000 claims abstract description 83
- 238000000354 decomposition reaction Methods 0.000 claims abstract description 48
- 238000005096 rolling process Methods 0.000 claims abstract description 16
- 239000013598 vector Substances 0.000 claims description 21
- 230000000007 visual effect Effects 0.000 claims description 15
- 239000011159 matrix material Substances 0.000 claims description 10
- 238000012549 training Methods 0.000 claims description 10
- 238000005516 engineering process Methods 0.000 claims description 8
- 238000012847 principal component analysis method Methods 0.000 claims description 8
- 238000009499 grossing Methods 0.000 claims description 6
- 210000002464 muscle smooth vascular Anatomy 0.000 claims description 5
- 238000001418 vibrating-sample magnetometry Methods 0.000 claims description 5
- 238000002156 mixing Methods 0.000 claims description 3
- 238000010586 diagram Methods 0.000 description 9
- 238000001914 filtration Methods 0.000 description 7
- 230000000694 effects Effects 0.000 description 6
- 230000006870 function Effects 0.000 description 6
- 238000011156 evaluation Methods 0.000 description 5
- 230000008569 process Effects 0.000 description 4
- 238000004458 analytical method Methods 0.000 description 3
- 238000007499 fusion processing Methods 0.000 description 3
- 238000003384 imaging method Methods 0.000 description 3
- 230000010355 oscillation Effects 0.000 description 3
- 238000004321 preservation Methods 0.000 description 3
- 238000012545 processing Methods 0.000 description 3
- 230000000717 retained effect Effects 0.000 description 3
- 230000015556 catabolic process Effects 0.000 description 2
- 238000006731 degradation reaction Methods 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 230000009467 reduction Effects 0.000 description 2
- 230000003252 repetitive effect Effects 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 230000001360 synchronised effect Effects 0.000 description 2
- 238000013459 approach Methods 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 230000004069 differentiation Effects 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 230000014759 maintenance of location Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 238000011158 quantitative evaluation Methods 0.000 description 1
- 238000011084 recovery Methods 0.000 description 1
- 238000010008 shearing Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/70—Denoising; Smoothing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/50—Image enhancement or restoration using two or more images, e.g. averaging or subtraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10048—Infrared image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20212—Image combination
- G06T2207/20221—Image fusion; Image merging
Landscapes
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Image Processing (AREA)
Abstract
本说明书实施例提供了一种红外和可见光图像融合方法及装置,其中,方法包括:利用滚动引导滤波器将源图像进行基础层和细节层分解,其中,细节层中包括大部分细节和外部噪声,基础层包括:残差细节和能量;基于构造的结构‑纹理分解模型将所述基础层再次分解,将所述基础层分解为基础结构层和基础纹理层;使用各层所对应的不同融合规则,对所述细节层、所述基础结构层和所述基础纹理层进行预融合;通过重构三层预融合层获取融合图像。不仅能有效地处理含噪图像的融合问题,而且对于无噪图像也具有较好的融合性能。
Description
技术领域
本文件涉及图像融合技术领域,尤其涉及一种红外和可见光图像融合方法及装置。
背景技术
近年来,无人机凭借其高灵活度、低成本以及易操作等优势在多个领域发挥着越来越重要的作用,在军事上,其常用于执行战场侦察及态势监控等任务。然而,随着战场实际需要的多样化及复杂化,单一成像传感器受限于自身的物理成像原理,只能感知部分目标或战场信息,很难完成多种目标背景下的探测和识别任务。因此,通过融合多种传感器图像数据以实现不同传感器数据之间的互补,可以得到更加直观、可靠和全面的目标或场景,进而为后续特征提取、目标识别和检测等任务提供强有力的数据支持,便于做出更加合理的决策。
图像融合大多是在像素级进行研究,其中,依据图像表示和融合过程的不同,图像融合大致可以分为四类:基于空间域的方法,基于变换域的方法,基于神经网络的方法和基于字典学习的方法。当前许多图像融合方法大都假设源图像无噪声,对噪声扰动情况的研究较少。然而,由于成像设备、拍摄环境等诸多因素的影响,在实际任务中获取的图像不可避免的存在噪声,直接进行图像融合时源图像中的噪声和细节信息可能被同等处理,导致融合效果不佳。针对噪声图像的融合,通常采用先融合后去噪或先去噪后融合的分步方法,即将去噪算法和融合算法相结合,实现融合去噪。然而,从效率和聚变性能的角度来看,分步推进的方式可能不是最好的选择。
为解决这一问题,出现了一些同步融合去噪方法。其中基于稀疏表示(SparseRepresentation,SR)的方法可同时解决图像融合和去噪两个问题。现有技术中心提出了一种有效的基于SR的图像去噪算法,该方法建立了噪声标准差与稀疏重建误差之间的联系,能够以参数自适应的方式有效地实现图像去噪。随后,一些学者提出了基于SR的联合图像去噪融合算法,实现了融合与去噪的同步。为了进一步提高融合性能,解决融合耗时长的问题,提出了一种自适应SR方法用于图像融合和去噪,该方法根据训练样本的梯度特征对多个特征字典进行预训练,再根据图像梯度特征自适应选择合适的字典,可以有效地实现图像的融合和去噪。现有技术中还通过引入核局部回归权值进行特征聚类,设计了一种基于字典学习的多模态图像融合方法,该方法能有效地抑制噪声产生,且融合降噪性能良好。为降低直接用SR处理的噪声源图像去噪时可能会对图像的边缘信息造成的损伤,此外,还提出了一种基于稀疏低秩字典学习的医学图像融合方法。在该方法中,源图像被看作是粗尺度和细尺度分量的叠加,有效的解决了上述问题。然而,以上研究不能同时兼顾无噪声和有噪声的图像融合,是目前亟需解决的问题。
发明内容
本发明的目的在于提供一种红外和可见光图像融合方法及装置,旨在解决现有技术中的上述问题。
本发明提供一种红外和可见光图像融合方法,包括:
利用滚动引导滤波器将源图像进行基础层和细节层分解,其中,细节层中包括大部分细节和外部噪声,基础层包括:残差细节和能量;
基于构造的结构-纹理分解模型将所述基础层再次分解,将所述基础层分解为基础结构层和基础纹理层;
使用各层所对应的不同融合规则,对所述细节层、所述基础结构层和所述基础纹理层进行预融合;
通过重构三层预融合层获取融合图像。
本发明提供一种红外和可见光图像融合装置,包括:
第一分解模块,用于利用滚动引导滤波器将源图像进行基础层和细节层分解,其中,细节层中包括大部分细节和外部噪声,基础层包括:残差细节和能量;
第二分解模块,用于基于构造的结构-纹理分解模型将所述基础层再次分解,将所述基础层分解为基础结构层和基础纹理层;
预融合模块,用于使用各层所对应的不同融合规则,对所述细节层、所述基础结构层和所述基础纹理层进行预融合;
融合模块,用于通过重构三层预融合层获取融合图像。
采用本发明实施例,不仅能有效地处理含噪图像的融合问题,而且对于无噪图像也具有较好的融合性能。
附图说明
为了更清楚地说明本说明书一个或多个实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本说明书中记载的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1是本发明实施例的红外和可见光图像融合方法的流程图;
图2是本发明实施例的图像结构-纹理分解的示意图;
图3是本发明实施例的融合去噪方法结构图;
图4是本发明实施例的在第二和第四行输入图像中加入σ=30的高斯白噪声的三尺度分解图像的示意图;
图5是本发明实施例的细节层融合过程的示意图;
图6是本发明实施例的五对源图像的示意图;
图7是本发明实施例的不同C值在细节层融合和去噪的结果(噪声水平20)的示意图;
图8是本发明实施例的无噪声红外可见光灰度图像融合结果的示意图;
图9是本发明实施例的无噪声红外可见光彩色图像融合结果的示意图;
图10是本发明实施例的含噪声红外可见光灰度图像融合结果的示意图;
图11是本发明实施例的含噪声红外可见光彩色图像融合结果的示意图;
图12是本发明实施例的红外和可见光图像融合装置的示意图。
具体实施方式
为提高噪声源图像的处理效果,本发明实施例提出一种基于三尺度分解和稀疏表示的红外和可见光图像融合方法及装置。利用滚动引导滤波器将源图像进行基础层和细节层分解,根据图像特征自适应确定最大稀疏重构误差参数,从而同时实现对细节分量的融合和去噪;构造结构-纹理分解模型,将基础层再次分解,以充分利用基础分量中的细节和能量,并使用不同的融合规则对结构层和纹理层融合,最终通过重构细节、基础结构和基础纹理层来得到融合图像。实验结果表明,本发明实施例不仅能有效地处理含噪图像的融合问题,而且对于无噪图像也具有较好的融合性能。
为了使本技术领域的人员更好地理解本说明书一个或多个实施例中的技术方案,下面将结合本说明书一个或多个实施例中的附图,对本说明书一个或多个实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本说明书的一部分实施例,而不是全部的实施例。基于本说明书一个或多个实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都应当属于本文件的保护范围。
方法实施例
根据本发明实施例,提供了一种红外和可见光图像融合方法,图1是本发明实施例的红外和可见光图像融合方法的流程图,如图1所示,根据本发明实施例的红外和可见光图像融合方法具体包括:
步骤101,利用滚动引导滤波器将源图像进行基础层和细节层分解,其中,细节层中包括大部分细节和外部噪声,基础层包括:残差细节和能量;
步骤102,基于构造的结构-纹理分解模型将所述基础层再次分解,将所述基础层分解为基础结构层和基础纹理层;
步骤103,使用各层所对应的不同融合规则,对所述细节层、所述基础结构层和所述基础纹理层进行预融合;
步骤104,通过重构三层预融合层获取融合图像。
在步骤101中,利用滚动引导滤波器将源图像进行基础层和细节层分解具体包括:
在步骤102中,基于构造的结构-纹理分解模型将所述基础层再次分解,将所述基础层分解为基础结构层和基础纹理层具体包括:
在步骤103中,使用各层所对应的不同融合规则,对所述细节层、所述基础结构层和所述基础纹理层进行预融合具体包括:
基于SR方法,通过建立稀疏重构误差与噪声标准差之间的联系,实现融合去噪,进行细节层的预融合;
采用基于视觉显著图VSM的加权平均技术对基础结构层进行预融合;
采用主成分分析方法对基础纹理层进行预融合。
其中,基于SR方法,通过建立稀疏重构误差与噪声标准差之间的联系,实现融合去噪,进行细节层的预融合具体包括:
通过滚动引导滤波器生成训练数据的细节层,从细节图像中收集8×8大小的块,构建最终的训练集,采用KSVD算法得到字典D;
对每个源图像取8×8大小的块,并对其进行归一化,通过求解以下目标函数,采用正交匹配追踪算法OMP生成细节层SR系数:
采用“绝对值-最大”方案生成融合稀疏系数:
其中,采用基于视觉显著图VSM的加权平均技术对基础结构层进行预融合具体包括:
构造VSM,设置IP代表图像I中的一个像素p的强度值,像素p的显著值V(p)被定义为
其中,N表示I中的像素总数,j代表像素强度,Mi代表强度等于j的像素数,L 表示灰度级数,如果两个像素有相同的强度值,其显著值是相等的;
然后将V(p)归一化到[0,1];
其中,权重Wb被定义为:
其中,采用主成分分析方法对基础纹理层进行预融合具体包括:
从两个特征值中找出最大的特征值,即λmax=max(λ1,λ2),将相对应于λmax的特征向量作为最大特征向量φmax,计算出对应于φmax的主成分P1和P2,并将其值归一化:
将主成分P1和P2作为权重,融合为最终的基础纹理层的预融合图像Fb,t:
在步骤104中,通过重构三层预融合层获取融合图像具体包括:
根据公式15后去最终的融合图像F为:
F=Fd+Fb,s+Fb,t 公式15。
以下结合附图,对本发明实施例的上述技术方案进行详细说明。
本发明实施例提出一种基于三尺度分解和稀疏表示的红外和可见光图像融合方法,利用SR能够充分利用基于空间域的方法在融合性能和计算效率方面的优点,处理图像融合中的噪声问题,并构建了一种三尺度分解模型,通过滚动引导滤波将图像分解为基础分量和细节分量,再通过结构-纹理分解对基础层进行处理,有效提取基础分量中的详细纹理信息,以提高融合图像表达细节信息的能力。
下面首先对上述涉及到的关键理论进行详细说明。
1、滚动引导滤波(Rolling guidance filter,RGF):
RGF它具有尺度感知和边缘保持的特性。因此,其不仅对噪声的去除能力较好,而且能够维持源图像的结构和边缘特性。RGF包括两个主要步骤:小结构去除和边缘恢复。
第一步是利用高斯滤波器去除小结构。从输入图像I中过滤的图像G可表示为:
G=Gaussian(I,σs) (1)
其中Gaussian(I,σs)表示以标准差σs作为尺度参数的高斯滤波。该过滤器可以去除规模小于规模空间理论中的σs的结构。
第二步是使用引导滤波器进行迭代边缘恢复,因为它具有较高的计算效率和良好的边缘保持特性。该步骤是一个恢复的图像Jt迭代更新的过程,且初始图像J1是高斯平滑图像G。第t次迭代可以表示为
u=RGF(I,σs,σr,T) (3)
其中T为迭代次数,u为滤波输出。
2、结构-纹理分解
在结构-纹理分解中,图像I可以分解为I=S+T,即看作是结构成分S和纹理成分T的叠加。在结构-纹理分解模型中,结构成分主要由一些非重复的边缘和平滑的能量区域组成,而纹理成分则是重复的振荡信息和噪声。为此,定义了结构纹理的局部特征,并提出了区间梯度算子。将离散信号I中的像素p的区间梯度滤波器(Interval Gradient Filter,IGF)定义为其可以表示为
定义kr和kl是标准化系数,表示为
与传统的正向微分不同,区间梯度测量的是像素左右两边的加权平均差值。为了获得结构信息,结构区域中不应该存在纹理信息,结构区域的局部窗口Ω(p)只能包含增加或减少的信息,不能包含重复的纹理。
将输入信号I的梯度细化为如下的区间梯度
其中ε为小常数,通常设置为10-4。
为了消除信号中残留的振荡信号,得到输入信号的结构分量,在引导滤波的基础上,由回归梯度得到临时滤波结果
其中Np表示I中的像素数,I0为I中的最小值(最左)。通过求解式(13)可得到一维信号引导滤波的最优系数ap和bp。
对于二维图像信号,利用一维信号在x和y方向上交替的区间梯度滤波,以迭代的方式收敛得到最终图像的结构层。由图2中图像放大的区域可以看出,几乎所有的振动和重复信息都被保留到了纹理层,而亮度和弱边缘信息则被保留到了结构层。
3、三尺度分解和稀疏表示模型:
为解决在去噪的同时有效保留细节的问题,构建一种新的图像融合模型,如图3所示。与传统的双尺度分解方案不同,为了更好地去噪和利用基础层的有用信息,首先利用RGF将源图像分解为基础和细节分量,此时大部分细节和外部噪声都能被有效地保留到细节层中,基础层则包含残差细节和能量;然后对基础层进行结构-纹理分解,最终源图像被分解为细节、基础结构和基础纹理三个分量。根据每一层的特点,采用三种已建立的融合规则生成各层的预融合。其中,对于细节层的融合,通过建立稀疏重构误差与噪声标准差之间的联系,有效实现融合去噪;对于基础结构层,采用基于视觉显著图(Visual saliencymap,VSM)的加权平均技术进行预融合;对于基础纹理层,采用主成分分析方法进行预融合。最后,通过重构三层预融合层得到融合结果。
分解模型:
为了有针对性地去除附着在图像细节层上的噪声,首先对源图像进行基础和细节分解:
对于基础层融合通常采用绝对值-最大或平均的方法,但这些方法产生的融合结果可能会由于对比度降低和边缘退化而变差。但对图像进行多次分解仍不能将图像基础、细节信息很好地分离,且多次分解必然会增加重构过程的复杂性,导致结果不佳。为解决此问题,引入结构-纹理分解模型对进行分解,得到其结构层
经过上述操作,得到图像的细节层、基础结构层和基础纹理层。
图4中的每一组图像包含一个无噪声图像和相应的噪声图像,这两组图像验证了提出的三尺度分解方法的有效性,特别是对于有噪声的输入图像。由图4可知:
(1)通过RGF进行分解,大部分噪声和细节保留到细节层。同时,可以看到基础层仍然包含一定的细节信息。
(2)经过结构-纹理分解处理后,结构层几乎不包含局部振荡信息,局部区域通常只包含强度信息或少数明显的边缘结构。
(3)无噪声和噪声图像产生的结构和纹理层非常相似,即噪声信息几乎完全存在于细节层中。
融合规则:
根据三个部分的特点,本发明实时提供了三种不同的融合规则。
1、细节层融合:
基于SR的方法可以很好地实现细节层的融合去噪。包括两个步骤:字典学习和稀疏系数生成。在第一阶段,通过式(14)的滚动引导滤波器生成训练数据的细节层,从细节图像中收集8×8大小的块,构建最终的训练集,采用 KSVD算法可以得到过完备字典D。在第二阶段,对每个源图像取8×8大小的块,并对其进行归一化,通过求解以下目标函数,采用正交匹配追踪算法 (Orthogonal Matching Pursuit,OMP)生成细节层SR系数:
2、基础结构层融合:
由于基础结构层来自源图像的基础分量,因此该层包含的细节较少,如图 5第四列的图像所示。因此,采用基于(Visual saliency map)VSM的加权平均技术融合基础结构层Fb,s。
本发明实施例采用方法构造VSM,让IP代表图像I中的一个像素p的强度值。像素p的显著值V(p)被定义为
式中N表示I中的像素总数,j代表像素强度,Mj代表强度等于j的像素数,L 表示灰度级数(本发明实施例优选为256)。如果两个像素有相同的强度值,其显著值是相等的。然后将V(p)归一化到[0,1]。
式中权重Wb被定义为
3、基础纹理层融合
与基础结构层相比,基础纹理层包含了视觉上重要的信息或图像特征,如边缘、直线和轮廓等活动信息,能够反映出原始基础图像的主要细节。因此,采用主成分分析方法来有效检测这些特征。
从两个特征值中找出最大的特征值,即λmax=max(λ1,λ2)。将相对应于λmax的特征向量作为最大特征向量φmax。计算出对应于φmax的主成分P1和P2,并将其值归一化:
这些主成分P1和P2作为权重,融合为最终的基础纹理图像Fb,t
得到这三个预融合分量后,最终的融合图像F为:
F=Fd+Fb,s+Fb,t (31)
下面进行实验分析和结果的详细说明。
1、实验设置
实验中使用的五对源图像,图像源可从公共网站http://imagefusion.org/获得。如图6所示。并且选择了五个近期的方法,包括ADF、FPDE、GTF、IFEVIP、 TIF,将其在同样的实验环境下进行对比验证,采用熵EN、边缘信息保留度 QAB/F、Chen-Blum提出的指标QCB、互信息MI、Wang等人提出的指标QW、Yang 等提出的指标QY6个指标对融合结果进行定量评价。
2、参数设置
此处主要对式(22)中的自由参数C进行分析。由于模型中的去噪过程仅针对细节分量,为直观分析不同C下的融合去噪性能,仅对细节融合结果进行分析,如图7所示。以图7中(a1,a2)、(b1,b2)两对图像为例,分别加入σ=20的高斯噪声,生成不同C的融合图像。
对于(a1)和(a2)图像融合,可以看出:①当C<0.0035,融合细节层的噪声图像相对明显[图7(a3-a7)],特别是当C是远远低于0.0035,去噪效果有限;②当 C=0.0035时,大部分噪声已经消除;③当C>0.0035时,噪声很难发现,但此时,融合的细节层遇到了过平滑效应。因此,C=0.0035是一个明显的分界值,从细节保护角度来看,C=0.0035可达到该图像对融合的最佳视觉效果。因此,对于灰度图像的融合,C的最佳值为0.0035。
对于(b1)和(b2)图像融合,可以看出:①当C<0.002时,融合细节层中很容易看到一些噪声[图7(b3-b4)];②当C=0.002时,噪声得到大大降低和抑制,同时细部保存较好[图7(b5)];③当C>0.002时,去噪性能较好,但图7(b6-b10) 中的细节或多或少被破坏,一些细微的边缘被平滑。随着C的增加,更多的细节被遗漏了[对比图7(b6-b10)]。因此,综合考虑融合和去噪的性能,对于彩色图像融合,C的最佳值为0.002。
3、无噪声图像融合与评价
图8为三对无噪声红外与可见光灰度图像融合示例,图9为两对红外可见光彩色图像融合示例,其中图8(a1,b1,c1)和图9(a1,b1)为红外图像,图8(a2,b2,c2) 和图9(a2,b2)为可见光图像;图8(a3-a8,b3-b8,c3-c8)和图9(a3-a8,b3-b8)为不同方法得到的融合结果。
从图8可以看出,ADF、FPDE和GTF方法得到的融合图像与所提出的方法得到的结果图相比对比度更低;IFEVIP方法保持了良好的对比度,但视觉效果过于增强,导致图8(a6)误差明显;TIF方法存在内部特征模糊的现象。因此,在融合结果中,本发明实施例可以有效地分离出不同图像的分量信息,结合各自的融合规则可将源图像的有用信息传递到融合图像中,在对比度和细节保持方面获得了最佳的视觉性能。
图9展示了两组红外/可见光彩色图像融合,可以看出,ADF、FPDE、GTF 方法的亮度明显低于IFEVIP和TIF方法,但TIF方法存在噪声效应,IFEVIP 方法引入了伪影。FPDE和GTF方法虽然结构得到了较好的保存,但细节相对弱化和丢失。总体上看,图9(a8)和(b8)中的亮度、结构和细节与其他方法相比表现出了更好的性能,这意味着所提方法可以产生更优的视觉效果。除主观视觉分析外,对上述融合结果进行定量评价,结果如表1所示。根据表中数据可以看出,本发明实施例的客观评价显著高于其他方法,特别是对于指标EN、QCB和QY总是表现得更优。在所有的量化评估中,只有个别地方不是最佳的,但这并不影响本文方法的优势。
综上,对于无噪声图像融合,本文方法在主观和客观上都具有良好的表现。
表1无噪声图像融合结果定量指标
图10为一对含噪声红外与可见光灰度图像融合示例,图11为一对含噪声红外可见光彩色图像融合示例,其中(a1-a2,b1-b2,c1-c2)分别为加入10级、20 级和30级高斯噪声的扰动源图像,(a3-a8,b3-b8,c3-c8)为不同方法得到的融合结果。
从图10、图11含噪声图像融合结果可以看出:
①当高斯噪声水平为10时,ADF、FPDE和IFEVIP方法的去噪能力有限,其融合结果不能很好地保留有用信息;GTF和TIF方法能在一定程度上有效去噪,但不能保护源图像的亮度,这两种方法可以在噪声环境下进行融合,但会引入一些不相关的信息,从而导致不真实的视觉效果。与其他方法相比,本文方法在细节保持方面具有最好的融合能力,同时融合结果中噪声显著降低,具有良好的去噪性能。
②当噪声水平达到20时,ADF、FPDE、IFEVIP和TIF方法产生的融合结果的结构会受到严重的破坏,大量明显的误差信息会被引入融合结果中。GTF 方法在一定程度上抑制了噪声,但出现了对比度降低和过度平滑现象。相比之下,本文提出的方法不仅能将源图像的细节、亮度和结构保留到融合图像中,而且能有效地消除噪声,具有良好的去噪性能。
③当噪声等级为30时,ADF、FPDE、GTF、IFEVIP和TIF方法中的细节和小结构被破坏,并且均存在噪声。通过对比,本文方法不仅保留了对比度和结构,而且有效、适当地去噪,从而获得了更好的融合性能。
基于以上主观分析,本文方法可以有效地实现图像融合和去噪的同步进行,并且相比于一些最新的方法产生更好的视觉效果。
不同方法产生的噪声融合结果的客观评价如表2、3、4所示。与五种先进的图像融合方法相比,该方法能得到更好的定量评价,与无噪声图像融合客观评价结果基本一致,这验证了所提方法的有效性和优越性。
综上,对于含噪声图像融合,本文方法在主观和客观上都具有良好的表现。
表2 σ=10时图像融合结果定量指标
表3 σ=20时图像融合结果定量指标
表4 σ=30时图像融合结果定量指标
综上所述,本发明实时提出一种基于三尺度分解和稀疏表示的红外和可见光图像融合去噪方法,充分利用RGF滤波器和SR方法的优点。采用稀疏表示对细节层图像进行融合,自适应得到融合的细节层图像,通过结构-纹理分解有效利用基础分量中的潜在细节。该方法易于实现,可以兼顾无噪声图像融合和含噪声图像融合。需要说明的是,本发明实施例只讨论两个源图像的情况,在实际应用中可以将所提出的方法推广到两个以上源图像的融合问题中。
装置实施例
根据本发明实施例,提供了一种红外和可见光图像融合装置,图12是本发明实施例的红外和可见光图像融合装置的示意图,如图12所示,根据本发明实施例的红外和可见光图像融合装置具体包括:
第一分解模块120,用于利用滚动引导滤波器将源图像进行基础层和细节层分解,其中,细节层中包括大部分细节和外部噪声,基础层包括:残差细节和能量;
第二分解模块122,用于基于构造的结构-纹理分解模型将所述基础层再次分解,将所述基础层分解为基础结构层和基础纹理层;
预融合模块124,用于使用各层所对应的不同融合规则,对所述细节层、所述基础结构层和所述基础纹理层进行预融合;
融合模块126,用于通过重构三层预融合层获取融合图像。
所述第一分解模块120具体用于:
所述第二分解模块122具体用于:
所述预融合模块124具体用于:
基于SR方法,通过建立稀疏重构误差与噪声标准差之间的联系,实现融合去噪,进行细节层的预融合;
采用基于视觉显著图VSM的加权平均技术对基础结构层进行预融合;
采用主成分分析方法对基础纹理层进行预融合。
所述预融合模块124具体用于:
通过滚动引导滤波器生成训练数据的细节层,从细节图像中收集8×8大小的块,构建最终的训练集,采用KSVD算法得到字典D;
对每个源图像取8×8大小的块,并对其进行归一化,通过求解以下目标函数,采用正交匹配追踪算法OMP生成细节层SR系数:
采用“绝对值-最大”方案生成融合稀疏系数:
构造VSM,设置IP代表图像I中的一个像素p的强度值,像素p的显著值V(p) 被定义为
其中,N表示I中的像素总数,j代表像素强度,Mj代表强度等于j的像素数, L表示灰度级数,如果两个像素有相同的强度值,其显著值是相等的;
然后将V(p)归一化到[0,1];
其中,权重Wb被定义为:
从两个特征值中找出最大的特征值,即λmax=max(λ1,λ2),将相对应于λmax的特征向量作为最大特征向量φmax,计算出对应于φmax的主成分P1和P2,并将其值归一化:
将主成分P1和P2作为权重,融合为最终的基础纹理层的预融合图像Fb,t:
融合模块具126体用于:
根据公式15后去最终的融合图像F为:
F=Fd+Fb,s+Fb,t 公式15。
本发明实施例是与上述方法实施例对应的系统实施例,各个模块的具体操作可以参照方法实施例的描述进行理解,在此不再赘述。
最后应说明的是:以上各实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述各实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分或者全部技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的范围。
Claims (10)
1.一种红外和可见光图像融合方法,其特征在于,包括:
利用滚动引导滤波器将源图像进行基础层和细节层分解,其中,细节层中包括大部分细节和外部噪声,基础层包括:残差细节和能量;
基于构造的结构-纹理分解模型将所述基础层再次分解,将所述基础层分解为基础结构层和基础纹理层;
使用各层所对应的不同融合规则,对所述细节层、所述基础结构层和所述基础纹理层进行预融合;
通过重构三层预融合层获取融合图像。
4.根据权利要求1所述的方法,其特征在于,使用各层所对应的不同融合规则,对所述细节层、所述基础结构层和所述基础纹理层进行预融合具体包括:
基于SR方法,通过建立稀疏重构误差与噪声标准差之间的联系,实现融合去噪,进行细节层的预融合;
采用基于视觉显著图VSM的加权平均技术对基础结构层进行预融合;
采用主成分分析方法对基础纹理层进行预融合。
5.根据权利要求4所述的方法,其特征在于,
基于SR方法,通过建立稀疏重构误差与噪声标准差之间的联系,实现融合去噪,进行细节层的预融合具体包括:
通过滚动引导滤波器生成训练数据的细节层,从细节图像中收集8×8大小的块,构建最终的训练集,采用KSVD算法得到字典D;
对每个源图像取8×8大小的块,并对其进行归一化,通过求解以下目标函数,采用正交匹配追踪算法OMP生成细节层SR系数:
采用“绝对值-最大”方案生成融合稀疏系数:
采用基于视觉显著图VSM的加权平均技术对基础结构层进行预融合具体包括:
构造VSM,设置IP代表图像I中的一个像素p的强度值,像素p的显著值V(p)被定义为
其中,N表示I中的像素总数,j代表像素强度,Mj代表强度等于j的像素数,L表示灰度级数,如果两个像素有相同的强度值,其显著值是相等的;
然后将V(p)归一化到[0,1];
其中,权重Wb被定义为:
采用主成分分析方法对基础纹理层进行预融合具体包括:
从两个特征值中找出最大的特征值,即λmax=max(λ1,λ2),将相对应于λmax的特征向量作为最大特征向量φmax,计算出对应于φmax的主成分P1和P2,并将其值归一化:
将主成分P1和P2作为权重,融合为最终的基础纹理层的预融合图像Fb,t:
6.根据权利要求5所述的方法,其特征在于,通过重构三层预融合层获取融合图像具体包括:
根据公式15后去最终的融合图像F为:
F=Fd+Fb,s+Fb,t 公式15。
7.一种红外和可见光图像融合装置,其特征在于,包括:
第一分解模块,用于利用滚动引导滤波器将源图像进行基础层和细节层分解,其中,细节层中包括大部分细节和外部噪声,基础层包括:残差细节和能量;
第二分解模块,用于基于构造的结构-纹理分解模型将所述基础层再次分解,将所述基础层分解为基础结构层和基础纹理层;
预融合模块,用于使用各层所对应的不同融合规则,对所述细节层、所述基础结构层和所述基础纹理层进行预融合;
融合模块,用于通过重构三层预融合层获取融合图像。
9.根据权利要求8所述的装置,其特征在于,所述所述预融合模块具体用于:
通过滚动引导滤波器生成训练数据的细节层,从细节图像中收集8×8大小的块,构建最终的训练集,采用KSVD算法得到字典D;
对每个源图像取8×8大小的块,并对其进行归一化,通过求解以下目标函数,采用正交匹配追踪算法OMP生成细节层SR系数:
采用“绝对值-最大”方案生成融合稀疏系数:
构造VSM,设置IP代表图像I中的一个像素p的强度值,像素p的显著值V(p)被定义为
其中,N表示I中的像素总数,j代表像素强度,Mj代表强度等于j的像素数,L表示灰度级数,如果两个像素有相同的强度值,其显著值是相等的;
然后将V(p)归一化到[0,1];
其中,权重Wb被定义为:
从两个特征值中找出最大的特征值,即λmax=max(λ1,λ2),将相对应于λmax的特征向量作为最大特征向量φmax,计算出对应于φmax的主成分P1和P2,并将其值归一化:
将主成分P1和P2作为权重,融合为最终的基础纹理层的预融合图像Fb,t:
10.根据权利要求9所述的装置,其特征在于,所述融合模块具体用于:
根据公式15后去最终的融合图像F为:
F=Fd+Fb,s+Fb,t 公式15。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210454565.1A CN114862710A (zh) | 2022-04-26 | 2022-04-26 | 红外和可见光图像融合方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210454565.1A CN114862710A (zh) | 2022-04-26 | 2022-04-26 | 红外和可见光图像融合方法及装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114862710A true CN114862710A (zh) | 2022-08-05 |
Family
ID=82633242
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210454565.1A Pending CN114862710A (zh) | 2022-04-26 | 2022-04-26 | 红外和可见光图像融合方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114862710A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115082968A (zh) * | 2022-08-23 | 2022-09-20 | 天津瑞津智能科技有限公司 | 基于红外光和可见光融合的行为识别方法及终端设备 |
CN116503454A (zh) * | 2023-06-27 | 2023-07-28 | 季华实验室 | 红外和可见光图像融合方法、装置、电子设备及存储介质 |
-
2022
- 2022-04-26 CN CN202210454565.1A patent/CN114862710A/zh active Pending
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115082968A (zh) * | 2022-08-23 | 2022-09-20 | 天津瑞津智能科技有限公司 | 基于红外光和可见光融合的行为识别方法及终端设备 |
CN116503454A (zh) * | 2023-06-27 | 2023-07-28 | 季华实验室 | 红外和可见光图像融合方法、装置、电子设备及存储介质 |
CN116503454B (zh) * | 2023-06-27 | 2023-10-20 | 季华实验室 | 红外和可见光图像融合方法、装置、电子设备及存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Yeh et al. | Multi-scale deep residual learning-based single image haze removal via image decomposition | |
Zhang et al. | Fast depth image denoising and enhancement using a deep convolutional network | |
Zhu et al. | A fast single image haze removal algorithm using color attenuation prior | |
Varghese et al. | Video denoising based on a spatiotemporal Gaussian scale mixture model | |
Rajkumar et al. | A comparative analysis on image quality assessment for real time satellite images | |
CN110443768B (zh) | 基于多重一致性约束的单帧图像超分辨率重建方法 | |
CN111062880A (zh) | 一种基于条件生成对抗网络的水下图像实时增强方法 | |
CN106548159A (zh) | 基于全卷积神经网络的网纹人脸图像识别方法与装置 | |
CN114862710A (zh) | 红外和可见光图像融合方法及装置 | |
CN113837974B (zh) | 一种基于改进beeps滤波算法的nsst域电力设备红外图像增强方法 | |
CN108932699B (zh) | 基于变换域的三维匹配调和滤波图像去噪方法 | |
CN111340716A (zh) | 一种改进双重判别对抗网络模型的图像去模糊方法 | |
Student | Study of image fusion-techniques method and applications | |
Dou et al. | Asymmetric CycleGan for unpaired NIR-to-RGB face image translation | |
Rai et al. | Robust face hallucination algorithm using motion blur embedded nearest proximate patch representation | |
He et al. | Structure-preserving texture smoothing via scale-aware bilateral total variation | |
Verma et al. | FCNN: fusion-based underwater image enhancement using multilayer convolution neural network | |
TRIVEDI et al. | MOSAICFUSION: Merging modalities with Partial differential equation and Discrete cosine transformation | |
Trivedi et al. | Hybrid Model for Infrared and Visible Image Fusion | |
Wang et al. | Rapid nighttime haze removal with color-gray layer decomposition | |
Shuang et al. | Algorithms for improving the quality of underwater optical images: A comprehensive review | |
Tun et al. | Joint Training of Noisy Image Patch and Impulse Response of Low-Pass Filter in CNN for Image Denoising | |
Kugu | Satellite image denoising using Bilateral Filter with SPEA2 optimized parameters | |
Weligampola et al. | A retinex based gan pipeline to utilize paired and unpaired datasets for enhancing low light images | |
CN116051444A (zh) | 一种有效的红外与可见光图像自适应融合方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |