CN112001870A - 基于卷积字典学习的可见光与红外图像融合方法 - Google Patents
基于卷积字典学习的可见光与红外图像融合方法 Download PDFInfo
- Publication number
- CN112001870A CN112001870A CN202010800244.3A CN202010800244A CN112001870A CN 112001870 A CN112001870 A CN 112001870A CN 202010800244 A CN202010800244 A CN 202010800244A CN 112001870 A CN112001870 A CN 112001870A
- Authority
- CN
- China
- Prior art keywords
- fusion
- image
- frequency component
- visible light
- fused
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000007500 overflow downdraw method Methods 0.000 title claims abstract description 14
- 230000004927 fusion Effects 0.000 claims abstract description 70
- 230000009466 transformation Effects 0.000 claims abstract description 4
- 238000000034 method Methods 0.000 claims description 29
- 238000011156 evaluation Methods 0.000 description 14
- 238000000354 decomposition reaction Methods 0.000 description 5
- 238000001514 detection method Methods 0.000 description 4
- 230000000694 effects Effects 0.000 description 4
- 238000004458 analytical method Methods 0.000 description 3
- 230000002146 bilateral effect Effects 0.000 description 3
- 230000007547 defect Effects 0.000 description 3
- 238000001914 filtration Methods 0.000 description 3
- 238000005457 optimization Methods 0.000 description 3
- 238000012545 processing Methods 0.000 description 3
- 238000012360 testing method Methods 0.000 description 3
- 238000012549 training Methods 0.000 description 3
- 238000010586 diagram Methods 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000012733 comparative method Methods 0.000 description 1
- 125000004122 cyclic group Chemical group 0.000 description 1
- 230000007812 deficiency Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 238000001303 quality assessment method Methods 0.000 description 1
- 230000005855 radiation Effects 0.000 description 1
- 239000000779 smoke Substances 0.000 description 1
- 239000000126 substance Substances 0.000 description 1
- 230000001131 transforming effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/50—Image enhancement or restoration using two or more images, e.g. averaging or subtraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10048—Infrared image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20048—Transform domain processing
- G06T2207/20056—Discrete and fast Fourier transform, [DFT, FFT]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20212—Image combination
- G06T2207/20221—Image fusion; Image merging
Landscapes
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Image Processing (AREA)
Abstract
本发明公开了一种基于卷积字典学习的可见光与红外图像融合方法,包括以下步骤:步骤1,源图像分解;将可见光与红外图像分解成低频分量和高频分量;步骤2,低频分量融合;对低频分量使用平均值融合策略;步骤3,高频分量融合;首先使用卷积字典获得高频分量的稀疏系数;然后对采用最大值策略获得高频分量的融合稀疏系数;最后逆变换得到融合后的高频分量。步骤4,图像重构。本发明的优点是:不仅较好保留边缘细节信息,而且能有效地避免伪影,加速融合速度。
Description
技术领域
本发明涉及图像融合技术领域,特别涉及一种基于卷积字典学习的可见光与红外图像融合方法。
背景技术
在光线照度充足的条件下,可获得高清晰的、高亮度的可见光图像,人眼能轻松地识别该图像中的目标,然而当光线较暗或者在烟云密布的恶劣环境下,人眼很难识别目标的轮廓。与目标的可见光图像不同,目标的热图像不是人眼所能看到的可见光图像,而是表面温度分布图像。热红外图像通过红外感温仪收集、记录目标辐射出来的人眼看不到的热红外辐射信息,热红外图像常用于获取高温目标的信息,如,火灾、夜间监控、地质找矿等。但是红外图像没有可见光图像那样的高清晰和高亮度,只能识别大致的目标轮廓,而很难识别到目标的具体细节信息。因此通过融合技术手段,将两种类型的图像进行信息融合,获得的融合图像为后期的检测、识别和跟踪提供清晰可靠的图像基础。
红外和可见光融合算法是多模态融合算法的一种应用,近年来,随着信号处理的数学理论迅速发展,许多红外与可见光融合算法被不断地提出和实现。基于多尺度几何分析和基于稀疏域的融合算法最为流行,前者利用多尺度几何分析理论构建最优图像表示,所获得图像具有多分辨率、局部特性、方向性和各向异性等性质,但易受制于分解层数和分解函数;后者以学习方式获得过完备字典来替代固定的基函数,学习的过完备字典不仅能够提升图像的稀疏表示性能,而且适应不同类型的图像数据。
相比于传统的字典,利用卷积字典的平移不变性可捕获图像中常见的偏移局部模式。因此,卷积字典学习在图像处理领域有着广泛的应用。目前比较流行的卷积字典学习方法有两种:增广拉格朗日(AL)方法和可变交替方向乘法器(ADMM)方法。但是上述两者都有缺点:AL方法的参数整定过程不简单,而且在实际应用中,AL方法的收敛性取决于非凸卷积字典学习问题的AL参数;ADMM算法的记忆变量收敛稳定性不理想。
发明内容
本发明针对现有技术的缺陷,提供了一种基于卷积字典学习的可见光与红外图像融合方法,解决了现有技术中存在的缺陷。
为了实现以上发明目的,本发明采取的技术方案如下:
一种基于卷积字典学习的可见光与红外图像融合方法,包括以下步骤:
步骤1,源图像分解;
步骤2,低频分量融合;
对低频分量使用平均值融合策略,
步骤3,高频分量融合;
步骤4,图像重构;
融合图像可通过以下策略重构,
{xF}为融合图像。
与现有技术相比,本发明的优点在于:
不仅较好保留边缘细节信息,而且能有效地避免伪影。根据应用场景的变化和数据量的增加,在保证融合性能较优的前提下,利用快速收敛的方法来加速融合速度。
附图说明
图1是本发明实施例中图像融合方法框架图;
图2是本发明实施例中红外与可见光测试图像图;
图3是本发明实施例中所有方法作用于‘Leaves’图像上的融合结果图;
图4是本发明实施例中所有方法作用于‘Road’图像上的融合结果图;
图5是本发明实施例中所有方法作用于‘T1’图像上的融合结果图。
具体实施方式
为使本发明的目的、技术方案及优点更加清楚明白,以下根据附图并列举实施例,对本发明做进一步详细说明。
卷积字典学习是一种求解多凸优化问题,该问题对应于优化以下联合模型(时域):
其中,是一组学习的综合卷积字典滤波,D是字典滤波尺寸K是卷积算子的个数;表示训练图像集,M是训练图像的个数;是循环卷积算子;表示稀疏编码系数;是|A|=N和的投影矩阵,A是集合中不同索引的列表,这些索引对应于截断填充卷积的边界,N是训练图像的维度,是填充卷积后的维数。
使用Parseval关系,模型(1)等价于以下联合优化模型(频域):
《Convolutional dictionary learning:Acceleration and convergence》的作者Il Yong Chun提出使用two-block和multi-block方案的BPG-M算法来求解上述的多凸优化问题(2)。我们将该策略应用到50幅512×512的USC-SIPI图像数据集(M=50),分别获得两种11×11×100的卷积字典滤波。
所提的融合方法
根据卷积字典,结合卷积稀疏表示的图像融合策略,提出一种基于卷积字典学习的红外可见光图像融合算法。融合方法大致包括4个步骤:源图像分解;低通分量融合;高频分量融合;图像重构。所述融合算法步骤如图1所示。
步骤1,源图像分解;
步骤2,低频分量融合;
低频分量包含图像的整体信息,为保证融合后的图像保留基本图像框架,我们对该部分使用平均值融合策略,
步骤3,高频分量融合;
步骤4,图像重构;
融合图像可通过以下策略重构,
融合图像为{xF}。
以下为本发明方法的实验与分析
图2给出了3组红外可见光测试图像(‘Leaves’、‘Road’、‘T1’)证明所提算法的有效性和优越性。3组测试场景包括丰富复杂的信息,如目标板、门店招牌、行人、路灯、车辆、屋顶等(详见图2中用红色虚线框标记的部分)。图2的第一行表示可见光源图像,第二行表示同一场景同一时间的热红外图像。
(1)融合图像结果图
图3显示‘Leaves’图像作用于所有方法的融合结果。(a)表示基于CVT的算法融合结果;(b)表示V.P.S.Naidu提出的基于多分辨率奇异值分解的融合结果(MSVD);(c)表示B.K.Shreyamsha Kumar提出的基于像素重要性的交叉双边滤波图像融合算法(CBF);(d)表示刘春辉提出基于稀疏域显著性检测的红外与可见光图像融合结果(JSRSD);(e)和(f)表示本发明所提两种算法(使用multiBlock和twoBlock方案的卷积字典学习)的融合结果。为方便观测融合结果,本发明将所有方法的目标板使用红色虚线框标记,并将标记的部分放大。基于CVT和CBF的融合图像的融合信息不均匀,造成融合结果出现融合信息混乱的现象(详见图2(a)和图2(c)的目标板中间部分);基于MSVD的融合结果相比于CVT和CBF,没有出现信息紊乱,但是图像模糊(详见图2(b)中的目标板周围);基于JSRSD的融合结果亮度是最高的,但是融合后的树叶和目标板之间的边缘出现了噪点;虽然本发明的结果亮度不是最高的,但是融合图像不仅能较完整的保留整体信息,而且局部细节纹理等信息也很好地融合。
图4显示‘Road’图像作用于所有方法的融合结果。(a)表示基于CVT的算法融合结果;(b)表示V.P.S.Naidu提出的基于多分辨率奇异值分解的融合结果(MSVD);(c)表示B.K.Shreyamsha Kumar提出的基于像素重要性的交叉双边滤波图像融合算法(CBF);(d)表示刘春辉提出基于稀疏域显著性检测的红外与可见光图像融合结果(JSRSD);(e)和(f)表示表示本发明所提两种算法(使用multiBlock和twoBlock方案的卷积字典学习)的融合结果。为方便观测融合结果,本发明将所有方法的车辆、行人、门店招牌、路面使用红色虚线框标记,并将标记的部分放大。基于CBF融合图像的路面出现噪点(详见图4(c)中红色虚线框标记的部分);基于JSRSD的融合结果整体效果很差(如图4(d)中的车辆和门店招牌出现融合信息不均匀的缺陷);基于MSVD的融合结果模糊,出现重影(如图4(b)中的门店招牌和行人);基于CVT的融合图像较优于前面三种方法,但是仍有不足的地方(如图4(a)中的行人周围出现黑色伪影)。综合所有融合结果,所提方法不仅在整体融合上获得较优的效果,而且边缘和细节部分处理的相对较好。
图5显示‘T1’图像作用于所有方法的融合结果。(a)表示基于CVT的算法融合结果;(b)表示V.P.S.Naidu提出的基于多分辨率奇异值分解的融合结果(MSVD);(c)表示B.K.Shreyamsha Kumar提出的基于像素重要性的交叉双边滤波图像融合算法(CBF);(d)表示刘春辉提出基于稀疏域显著性检测的红外与可见光图像融合结果(JSRSD);(e)和(f)表示表示本发明所提两种算法(使用multiBlock和twoBlock方案的卷积字典学习)的融合结果。为方便观测融合结果,本发明将所有方法的车辆、行人、屋顶、路灯使用红色或者黄色虚线框标记,并将标记的部分放大。基于JSRSD的融合结果中的路灯和车辆信息被完全破坏,几乎看不清楚图像整体轮廓(如图5(d)中的红色和黄色虚线框标记的部分);基于MSVD的融合结果优于JSRSD,但图像仍然模糊(如图5(b)中行驶的车和路灯);基于CBF融合图像的行人和屋顶天空均出现黑色伪影(详见图5(c)中虚线框标记的部分);基于CVT和本发明提出的方法优于前面的3种对比方法,但从整体效果和细节部分来看,我们的方法优于CVT方法。
(2)客观评价
为保证本发明方法的融合性能,我们使用3种Q-系列客观评价指标(QAB/F,Qe和Qp)用来证明算法的优越性。客观非参考质量评估指标QAB/F利用局部度量策略来估计源图像显著信息在融合结果中的表现程度;基于边缘的结构相似指标Qe表示融合图像保存边缘和减少周围振铃伪影的能力;基于相位一致性的图像融合度量Qp使用相位一致性(提供图像特征的绝对度量)来定义评估度量。表1-表3分别表示所有融合算法作用于3幅红外可见光图像的客观评价结果。从三个表中可以看出,本发明的两种基于卷积字典学习融合方法的评价指标值最高。对于
‘Leaves’图像,使用multiBlock和twoBlock方案的两种融合算法的评价指标QAB /F,Qe和Qp的平均值是0.6969,0.5963,0.7797,相比于CBF融合算法,所提方法在三个评价指标上分别提高了2.73%,7.06%,12.18%;对于‘Road’图像,使用multiBlock和twoBlock方案的两种融合算法的评价指标QAB/F,Qe和Qp的平均值是0.6063,0.4812,0.5673,相比于JSRSD融合算法,所提方法在三个评价指标上分别提高了11.48%,30.87%,51.74%;对于‘T1’图像,使用multiBlock和twoBlock方案的两种融合算法的评价指标QAB/F,Qe和Qp的平均值是0.6203,0.4961,0.5881,相比于CVT融合算法,所提方法在三个评价指标上分别提高了16.38%,14.93%,24.88%。综合客观评价指标可以看出,本发明提出的方法既保留了源图像显著信息和特征,又提高了融合图像的边缘信息和降低伪影效果。
表1所有融合方法作用于‘Leaves’图像上的客观评价结果
表2所有融合方法作用于‘Road’图像上的客观评价结果
表3所有融合方法作用于‘T1’图像上的客观评价结果
本领域的普通技术人员将会意识到,这里所述的实施例是为了帮助读者理解本发明的实施方法,应被理解为本发明的保护范围并不局限于这样的特别陈述和实施例。本领域的普通技术人员可以根据本发明公开的这些技术启示做出各种不脱离本发明实质的其它各种具体变形和组合,这些变形和组合仍然在本发明的保护范围内。
Claims (1)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010800244.3A CN112001870A (zh) | 2020-08-11 | 2020-08-11 | 基于卷积字典学习的可见光与红外图像融合方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010800244.3A CN112001870A (zh) | 2020-08-11 | 2020-08-11 | 基于卷积字典学习的可见光与红外图像融合方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN112001870A true CN112001870A (zh) | 2020-11-27 |
Family
ID=73464121
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010800244.3A Pending CN112001870A (zh) | 2020-08-11 | 2020-08-11 | 基于卷积字典学习的可见光与红外图像融合方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112001870A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114037631A (zh) * | 2021-11-08 | 2022-02-11 | 燕山大学 | 一种图像纹理增强方法、装置、电子设备及存储介质 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108399611A (zh) * | 2018-01-31 | 2018-08-14 | 西北工业大学 | 基于梯度正则化的多聚焦图像融合方法 |
CN109559292A (zh) * | 2018-11-22 | 2019-04-02 | 西北工业大学 | 基于卷积稀疏表示的多模态图像融合方法 |
CN111429392A (zh) * | 2020-04-13 | 2020-07-17 | 四川警察学院 | 基于多尺度变换和卷积稀疏表示的多聚焦图像融合方法 |
CN111429393A (zh) * | 2020-04-15 | 2020-07-17 | 四川警察学院 | 基于卷积弹性网络的多聚焦图像融合方法 |
-
2020
- 2020-08-11 CN CN202010800244.3A patent/CN112001870A/zh active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108399611A (zh) * | 2018-01-31 | 2018-08-14 | 西北工业大学 | 基于梯度正则化的多聚焦图像融合方法 |
CN109559292A (zh) * | 2018-11-22 | 2019-04-02 | 西北工业大学 | 基于卷积稀疏表示的多模态图像融合方法 |
CN111429392A (zh) * | 2020-04-13 | 2020-07-17 | 四川警察学院 | 基于多尺度变换和卷积稀疏表示的多聚焦图像融合方法 |
CN111429393A (zh) * | 2020-04-15 | 2020-07-17 | 四川警察学院 | 基于卷积弹性网络的多聚焦图像融合方法 |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114037631A (zh) * | 2021-11-08 | 2022-02-11 | 燕山大学 | 一种图像纹理增强方法、装置、电子设备及存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Ma et al. | FusionGAN: A generative adversarial network for infrared and visible image fusion | |
Wang et al. | Dehazing for images with large sky region | |
CN108090886B (zh) | 一种高动态范围红外图像的显示与细节增强方法 | |
CN102646269B (zh) | 一种拉普拉斯金字塔的图像处理方法及其装置 | |
CN111161360B (zh) | 基于Retinex理论的端到端网络的图像去雾方法 | |
CN111429392A (zh) | 基于多尺度变换和卷积稀疏表示的多聚焦图像融合方法 | |
CN106846289A (zh) | 一种基于显著性迁移与细节分类的红外光强与偏振图像融合方法 | |
CN113129236B (zh) | 基于Retinex和卷积神经网络的单张低光照图像增强方法及系统 | |
CN111899209B (zh) | 基于卷积匹配追踪字典学习的可见光红外图像融合方法 | |
Lin et al. | Adaptive infrared and visible image fusion method by using rolling guidance filter and saliency detection | |
CN114155161B (zh) | 图像去噪方法、装置、电子设备与存储介质 | |
CN111899208A (zh) | 基于卷积分析算子的多模态图像融合方法 | |
Honnutagi et al. | Fusion-based underwater image enhancement by weight map techniques | |
Zhu et al. | Low-light image enhancement network with decomposition and adaptive information fusion | |
CN111311503A (zh) | 一种夜晚低亮度图像增强系统 | |
CN112001870A (zh) | 基于卷积字典学习的可见光与红外图像融合方法 | |
Agrawal et al. | A novel contrast and saturation prior for image dehazing | |
Lai et al. | A two-stage and two-branch generative adversarial network-based underwater image enhancement | |
Liu et al. | Joint dehazing and denoising for single nighttime image via multi-scale decomposition | |
Roy et al. | A scheme for edge-based multi-focus color image fusion | |
Gasparyan et al. | Iterative retinex-based decomposition framework for low light visibility restoration | |
CN109359654B (zh) | 基于频率调谐全局显著度和深度学习的图像分割方法及系统 | |
CN111899207A (zh) | 基于局部处理卷积字典学习的可见光与红外图像融合方法 | |
Muhammad et al. | Matlab Program for Sharpening Image due to Lenses Blurring Effect Simulation with Lucy Richardson Deconvolution | |
Zhang et al. | A target-aware fusion framework for infrared and visible images |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20201127 |
|
RJ01 | Rejection of invention patent application after publication |