CN112669249A - 结合改进nsct变换和深度学习的红外与可见光图像融合方法 - Google Patents

结合改进nsct变换和深度学习的红外与可见光图像融合方法 Download PDF

Info

Publication number
CN112669249A
CN112669249A CN202110056492.6A CN202110056492A CN112669249A CN 112669249 A CN112669249 A CN 112669249A CN 202110056492 A CN202110056492 A CN 202110056492A CN 112669249 A CN112669249 A CN 112669249A
Authority
CN
China
Prior art keywords
image
infrared
fusion
visible light
filter
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202110056492.6A
Other languages
English (en)
Inventor
王曰尧
刘伟
郭德福
王鹏
闫福文
陈继铭
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Xi'an Zhongkelide Infrared Technology Co ltd
Original Assignee
Xi'an Zhongkelide Infrared Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Xi'an Zhongkelide Infrared Technology Co ltd filed Critical Xi'an Zhongkelide Infrared Technology Co ltd
Priority to CN202110056492.6A priority Critical patent/CN112669249A/zh
Publication of CN112669249A publication Critical patent/CN112669249A/zh
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)

Abstract

本发明涉及一种红外图像与可见光图像融合方法,具体涉及一种结合改进NSCT变换和深度学习的红外与可见光图像融合方法。本发明的目的是解决现有红外图像与可见光图像融合方法存在难以进行快速有效的图像融合的技术问题,提供一种结合改进NSCT变换和深度学习的红外与可见光图像融合方法。该方法结合结合改进NSCT变换和深度学习进行红外与可见光图像融合,以生成符合人眼视觉系统的融合结果图。采用改进型非下采样轮廓波变换NSCT对待融合图像进行自适应分解,对相应尺度的子带图像利用深度学习确定融合权重。采用本发明方案融合红外图像与可见光图像,可丰富图像细节和光谱信息,提高分辨率,使人产生更完整的场景感知。

Description

结合改进NSCT变换和深度学习的红外与可见光图像融合方法
技术领域
本发明涉及一种红外图像与可见光图像融合方法,具体涉及一种结合改进NSCT变换和深度学习的红外与可见光图像融合方法。
背景技术
不同光谱的图像传感器有时会具有较好的互补特性。比如,红外图像传感器是根据物体红外辐射的差异成像,反映的是物体的热辐射特性,由于红外图像的获取不依赖于外部光线,能够克服天气环境等的影响,并极好地获得夜间或雾天等情况下的目标信息,故具有全天候工作的特点。而可见光图像传感器是根据物体对可见光的不同反射能力成像,反映的是物体表面的可见光反射特性,可见光图像的细节纹理信息通常比较丰富,图像的获取易受光照、天气以及目标被遮挡等因素的影响,导致无法较好地获取目标信息,不具有全天候工作的特点。红外图像通常对比度和分辨率较低,缺乏细节信息,而可见光图像通常具有较高的对比度和分辨率,边缘纹理等细节信息比较丰富。由于二者各自应用的局限性,单一的可见光或红外传感器技术已经不能满足要求越来越高的应用场景要求。而由于红外图像和可见光图像具有良好的互补特性,实践表明,在很多场景中将这两种传感器获取的图像进行有效地融合处理,能够充分保留各自传感器的优点,克服各自应用的不足之处,获得对于场景全面准确的图像描述,达到对信息的充分利用,同时提高系统分析决策的准确性和可靠性。
近年来,基于多分辨、多尺度的图像融合算法一直是图像融合研究的热点。现有的图像多尺度分析方法主要包括金字塔变换、小波变换、轮廓波变换、非下采样轮廓波变换和NSCT变换等。金字塔变换中图像分解的各尺度之间存在相关性,使得图像融合效果不理想。小波变换是一种正交分解的方法,可提取图像低频信息和水平、垂直及对角三个方向的高频信息,小波变换具有方向性和时频特征,小波变换的问题在于:分解方向仅有三个,不能很好地满足人眼识别特性的需求,同时小波变换存在信号能量泄漏,在边缘处的能量和频率会出现较严重的失真,在图像融合中会出现边缘效应。轮廓波变换具有多方向性和时频特征,但存在Gibbs现象,影响融合图像的质量。非下采样轮廓波变换改善了Gibbs现象,但是图像融合速度较慢。传统NSCT变换的各个滤波器相互不结合,具有多尺度、多方向、消除Gibbs现象和位移不变性的优点,但存在计算量大、分解效率低下等弊端。现有的快速NSCT变换将多个滤波器两两结合,在保留传统NSCT变换多尺度、多方向、消除Gibbs现象和位移不变性的基础上做了进一步改进,根据图像信号特征对图像进行自适应分解,得到一系列的高频子带图像和低频子带图像,各子带图像之间具有较强的局部正交性,能够有效地表示图像的特征信息,尽管运行速度相比传统NSCT变换有所加快,而且也能够获取较好的图像分解效果,但由于运行速度提高程度有限,应用于图像融合时,仍然速度较慢。
总之,现有的各种图像融合算法因存在各种不足,均难以快速有效地进行红外图像与可见光图像的图像融合。
发明内容
本发明的目的是解决现有红外图像与可见光图像融合方法存在难以进行快速有效的图像融合的技术问题,提供一种结合改进NSCT变换和深度学习的红外与可见光图像融合方法。
为解决上述技术问题,本发明提供的技术解决方案如下:
一种结合改进NSCT变换和深度学习的红外与可见光图像融合方法,其特殊之处在于,包括以下步骤:
1)图像分解
采用改进型非下采样轮廓波变换NSCT,对待融合的红外图像A与可见光图像B分别进行多个尺度、方向的分解,获取多个红外低频子带图像、红外高频子带图像、可见光低频子带图像和可见光高频子带图像;
所述改进型非下采样轮廓波变换NSCT为采用融合滤波器组的NSCT变换;所述融合滤波器组通过分别卷积不同尺度和不同方向的滤波器获得;
2)融合权重获取
基于深度学习方式,获取红外融合权重与可见光融合权重;
3)图像融合与重构
3.1)利用步骤2)获取的红外融合权重与可见光融合权重,对步骤1)所得红外低频子带图像与可见光低频子带图像进行融合,得到低频子带融合图像,对红外高频子带图像与可见光高频子带图像进行融合,得到高频子带融合图像;
3.2)利用改进型非下采样轮廓波变换NSCT,对低频子带融合图像与高频子带融合图像进行重构,最终得到待融合红外图像A与可见光图像B融合后的图像。
进一步地,步骤1)中,所述改进型非下采样轮廓波变换NSCT采用双层滤波器组结构,第一层为非下采样金字塔多尺度滤波器组NSPFB,第二层为非下采样方向滤波器组NSDFB。
进一步地,步骤1)中,所述非下采样金字塔滤波器组NSPFB的低通滤波器包括低通分解滤波器和低通重构滤波器{H0(X),H1(X)},非下采样金字塔滤波器组NSPFB的高通滤波器包括高通分解滤波器和高通重构滤波器{G0(X),G1(X)},非下采样金字塔滤波器组NSPFB满足Bezout恒等式的1D多项式函数:
Figure BDA0002901025880000031
Figure BDA0002901025880000032
所述非下采样方向滤波器组NSDFB的扇形滤波器包括扇形分解滤波器和扇形重构滤波器{U0(X),U1(X)},非下采样方向滤波器组NSDFB的棋盘滤波器包括棋盘分解滤波器和棋盘重构滤波器{V0(X),V1(X)},非下采样方向滤波器组NSDFB满足Bezout恒等式的1D多项式函数,用f(x)替换X:
Figure BDA0002901025880000033
Figure BDA0002901025880000034
所述融合滤波器组为:
F(z)=H0(Xi)*G0(Xi)*U0(Xi)*V0(Xi)
其中,H0(Xi)为NSPFB低通分解滤波器集合{H0(X)}中的一个低通分解滤波器;G0(Xi)为NSPFB高通分解滤波器集合{G0(X)}中的一个高通分解滤波器;U0(Xi)为NSDFB扇形分解滤波器集合{U0(X)}中的一个扇形分解滤波器;V0(Xi)为棋盘分解滤波器集合{V0(X)}中的一个棋盘分解滤波器。
进一步地,2.1)从Image Net数据集上获取相同数量的红外图像和可见光图像,将红外图像和张可见光图像均按照预定比例分为训练数据和测试数据;将红外图像的训练数据和可见光图像的训练数据的集合作为训练数据集;将红外图像的测试数据和可见光图像的测试数据的集合作为测试数据集;对训练数据集和测试数据集分别进行预处理;
2.2)构建基于VGG-19深度卷积神经的融合规则预测网络模型;
2.3)利用步骤2.1)预处理后的训练数据集对步骤2.2)构建的基于VGG-19深度卷积神经的融合规则预测网络模型进行训练,得到训练后的基于VGG-19深度卷积神经的融合规则预测网络模型;
2.4)利用步骤2.1)预处理后的测试数据集对步骤2.2)训练后的基于VGG-19深度卷积神经的融合规则预测网络模型进行归一化处理;
2.5)获取VGG-19深度卷积神经的融合规则预测网络模型归一化处理后Relu1_2层、Relu2_2层、Relu3_2层、Relu4_2层分别输出的多张特征图,采用L1范数,将每层输出的多张特征图生成为一张具有代表性的特征图,得到红外特征图
Figure BDA0002901025880000041
和可见光特征图
Figure BDA0002901025880000042
Figure BDA0002901025880000043
其中,
Figure BDA0002901025880000044
表示第k个选定层输出的所有特征图在坐标点(x,y)处的值组成的C维向量,
Figure BDA0002901025880000045
为第k个选定层具有代表性的红外特征图
Figure BDA0002901025880000046
或可见光特征图
Figure BDA0002901025880000047
k∈{1,2,3,4},分别表示Relu1_2层、Relu2_2层、Relu3_2层、Relu4_2层;c∈{1,2,…,C},C表示选定层的特征图总数,C=64×2k-1
2.6)基于窗口局部能量融合规则,确定红外特征图
Figure BDA0002901025880000048
和可见光特征图
Figure BDA0002901025880000049
分别的初始红外融合权重
Figure BDA00029010258800000410
和初始可见光融合权重
Figure BDA00029010258800000411
并利用下式,计算红外特征图
Figure BDA00029010258800000412
和可见光特征图
Figure BDA00029010258800000413
分别的候选红外融合权重
Figure BDA00029010258800000414
和候选可见光融合权重
Figure BDA00029010258800000415
Figure BDA0002901025880000051
Figure BDA0002901025880000052
2.7)对所有候选红外融合权重
Figure BDA0002901025880000053
求平均,得到所述红外融合权重wA-i(x,y),对所有候选可见光融合权重
Figure BDA0002901025880000054
求平均,得到所述可见光融合权重wB-i(x,y)
Figure BDA0002901025880000055
Figure BDA0002901025880000056
进一步地,步骤3)中,所述红外低频子带图像与可见光低频子带图像进行融合、红外高频子带图像与可见光高频子带图像进行融合时,所采用的融合公式:
Figure BDA0002901025880000057
其中,
Figure BDA0002901025880000058
代表待融合的红外子带图像;
Figure BDA0002901025880000059
代表待融合的可见光子带图像。
进一步地,步骤1)中,所述非下采样金字塔滤波器组NSPFB的图像分解尺度层数为3;所述非下采样方向滤波器组NSDFB的方向分解级数为3。
进一步地,步骤2.6)中,所述窗口局部能量融合规则采用的窗口大小为3×3或5×5。
进一步地,步骤2.1)中,所述数量为10000张;所述预定比例为4:1。
本发明相比现有技术具有的有益效果如下:
1、本发明提供的结合改进NSCT变换和深度学习的红外与可见光图像融合方法,采用改进型非下采样轮廓波变换NSCT对待融合图像进行自适应分解,对相应尺度的分量(子带图像)适用基于深度学习的融合权重,可用于红外图像与可见光图像的融合场景,红外图像可反映出目标的轮廓,可见光图像具有丰富的光谱信息。这种融合图像,可丰富图像细节和光谱信息,提高分辨率,使人产生更完整的场景感知。
2、本发明提供的结合改进NSCT变换和深度学习的红外与可见光图像融合方法,采用改进的NSCT转换,对待融合的红外图像进而可见光图像进行多尺度分解得到不同频率的高、低频子带图像,对高、低频子带图像分别进行融合,最终利用改进NSCT重构将分解并融合后的子带图像重构,大大加快了算法运行速度。
3、本发明提供的结合改进NSCT变换和深度学习的红外与可见光图像融合方法,利用基于VGG-19卷积神经网络的深度学习图像融合规则分别针对高、低频子带不同的特点,匹配更加适合的图像融合权重,突出红外图像的目标区域,并保留更多的可见光图像的细节信息,提高图像融合视觉效果,使融合图像信息更丰富,更适合人眼观察和计算机处理。
附图说明
图1为本发明结合改进NSCT变换和深度学习的红外与可见光图像融合方法的框图;
图2为本发明改进型非下采样轮廓波变换NSCT获取的示意图;
图3为本发明深度学习的示意图;
图4为采用本发明方法的一组红外图像、可见光图像和融合图像,其中,a为可见光图像,b为红外图像,c为融合图像;
图5为采用本发明方法的另一组红外图像、可见光图像和融合图像,其中,a为可见光图像,b为红外图像,c为融合图像。
具体实施方式
下面结合附图和实施例对本发明作进一步地说明。
一种结合改进NSCT变换和深度学习的红外与可见光图像融合方法,针对灰度图融合,如图1所示,包括以下步骤:
1)图像分解
采用改进型非下采样轮廓波变换NSCT,对待融合的红外图像A与可见光图像B分别进行多个(至少两个)尺度、多个(至少两个)方向的分解,获取多个红外低频子带图像、红外高频子带图像、可见光低频子带图像和可见光高频子带图像;
所述改进型非下采样轮廓波变换NSCT为采用融合滤波器组的NSCT变换;所述融合滤波器组通过分别卷积不同尺度和不同方向的滤波器获得;
所述改进型非下采样轮廓波变换NSCT采用双层滤波器组结构,第一层为非下采样金字塔多尺度滤波器组NSPFB,第二层为非下采样方向滤波器组NSDFB。所述非下采样金字塔滤波器组NSPFB的图像分解尺度层数为3;所述非下采样方向滤波器组NSDFB的方向分解级数为3。与Contourlet变换的滤波器组不同,本发明采用的改进型非下采样轮廓波变换NSCT仅仅采取上采样操作,不再进行下采样操作,经过一系列滤波器处理后得到一系列低频子带图像和高频子带图像;
所述非下采样金字塔滤波器组NSPFB的低通滤波器包括低通分解滤波器和低通重构滤波器{H0(X),H1(X)},非下采样金字塔滤波器组NSPFB的高通滤波器包括高通分解滤波器和高通重构滤波器{G0(X),G1(X)},非下采样金字塔滤波器组NSPFB满足Bezout恒等式的1D多项式函数:
Figure BDA0002901025880000071
Figure BDA0002901025880000072
所述非下采样方向滤波器组NSDFB的扇形滤波器包括扇形分解滤波器和扇形重构滤波器{U0(X),U1(X)},非下采样方向滤波器组NSDFB的棋盘滤波器包括棋盘分解滤波器和棋盘重构滤波器{V0(X),V1(X)},非下采样方向滤波器组NSDFB满足Bezout恒等式的1D多项式函数,用f(x)替换X:
Figure BDA0002901025880000073
Figure BDA0002901025880000074
如图2所示,所述融合滤波器组(即形成改进型分解和重构NSPFB和NSDFB,正向分解,逆向重构)为:
F(z)=H0(Xi)*G0(Xi)*U0(Xi)*V0(Xi)。
其中,H0(Xi)为NSPFB低通分解滤波器集合{H0(X)}中的一个低通分解滤波器;G0(Xi)为NSPFB高通分解滤波器集合{G0(X)}中的一个高通分解滤波器;U0(Xi)为NSDFB扇形分解滤波器集合{U0(X)}中的一个扇形分解滤波器;V0(Xi)为棋盘分解滤波器集合{V0(X)}中的一个棋盘分解滤波器;
2)融合权重获取
基于深度学习方式,获取红外融合权重与可见光融合权重,如图3所示,具体方法如下:
2.1)从Image Net数据集上获取相同数量(如10000张)的红外图像和可见光图像,将红外图像和张可见光图像均按照预定比例(如4:1)分为训练数据和测试数据;将红外图像的训练数据和可见光图像的训练数据的集合作为训练数据集;将红外图像的测试数据和可见光图像的测试数据的集合作为测试数据集;对训练数据集和测试数据集分别进行预处理;
2.2)构建基于VGG-19深度卷积神经的融合规则预测网络模型;
2.3)利用步骤2.1)预处理后的训练数据集对步骤2.2)构建的基于VGG-19深度卷积神经的融合规则预测网络模型进行训练,得到训练后的基于VGG-19深度卷积神经的融合规则预测网络模型;
2.4)利用步骤2.1)预处理后的测试数据集对步骤2.2)训练后的基于VGG-19深度卷积神经的融合规则预测网络模型进行归一化处理;VGG-19包含全连接层和19层卷积,每层的输出均可作为输入图像的特征图,根据不同类型的特征确定图像的融合权重,突出图像中的显著信息,可获得更可靠的融合结果;
2.5)获取VGG-19深度卷积神经的融合规则预测网络模型归一化处理后Relu1_2层、Relu2_2层、Relu3_2层及Relu4_2层分别输出的多张特征图,采用L1范数,将每层输出的多张特征图生成为一张具有代表性的特征图,得到红外特征图
Figure BDA0002901025880000081
和可见光特征图
Figure BDA0002901025880000082
Figure BDA0002901025880000083
其中,
Figure BDA0002901025880000084
表示第k个选定层输出的所有特征图在坐标点(x,y)处的值组成的C维向量,
Figure BDA0002901025880000085
为第k个选定层具有代表性的红外特征图
Figure BDA0002901025880000086
或可见光特征图
Figure BDA0002901025880000087
k∈{1,2,3,4},分别表示Relu1_2层、Relu2_2层、Relu3_2层、Relu4_2层;c∈{1,2,…,C},C表示选定层的特征图总数,C=64×2k-1
2.6)基于窗口局部能量融合规则,确定红外特征图
Figure BDA0002901025880000091
和可见光特征图
Figure BDA0002901025880000092
分别的初始红外融合权重
Figure BDA0002901025880000093
和初始可见光融合权重
Figure BDA0002901025880000094
并利用下式计算红外特征图
Figure BDA0002901025880000095
和可见光特征图
Figure BDA0002901025880000096
分别的候选红外融合权重
Figure BDA0002901025880000097
和候选可见光融合权重
Figure BDA0002901025880000098
所述窗口局部能量融合规则采用的窗口大小为3×3或5×5;在卷积神经网络中,池化操作是下采样的过程,VGG-19网络中,第k个选定层输出的特征图大小相比于网络输入图像大小缩小了2k倍,采用上采样操作使得融合权重矩阵大小与输入图像大小一致:
Figure BDA0002901025880000099
Figure BDA00029010258800000910
2.7)对所有候选红外融合权重
Figure BDA00029010258800000911
求平均,得到所述红外融合权重wA-i(x,y),对所有候选可见光融合权重
Figure BDA00029010258800000912
求平均,得到所述可见光融合权重wB-i(x,y)
Figure BDA00029010258800000913
Figure BDA00029010258800000914
3)图像融合与重构
3.1)利用步骤2)获取的红外融合权重与可见光融合权重,对步骤1)所得红外低频子带图像与可见光低频子带图像进行融合,得到低频子带融合图像,对红外高频子带图像与可见光高频子带图像进行融合,得到高频子带融合图像;
所述红外低频子带图像与可见光低频子带图像进行融合、红外高频子带图像与可见光高频子带图像进行融合时,所采用的融合公式:
Figure BDA00029010258800000915
其中,
Figure BDA00029010258800000916
代表待融合的红外子带图像;
Figure BDA00029010258800000917
代表待融合的可见光子带图像;
3.2)利用改进型非下采样轮廓波变换NSCT,对低频子带融合图像与高频子带融合图像进行重构,最终得到待融合红外图像A与可见光图像B融合后的图像。
图4和图5为采用本发明方法的两组图像,图4中,a为可见光图像,b为红外图像,c为融合图像;图5中,a为可见光图像,b为红外图像,c为融合图像。
本发明结合改进NSCT变换和深度学习,进行红外与可见光图像融合,以生成符合人眼视觉系统的融合结果图。采用改进型非下采样轮廓波变换NSCT对待融合图像进行自适应分解,对相应尺度的分量(子带图像)利用基于深度学习的融合规则。适用于红外图像与可见光图像的融合场景,红外图像可反映出目标的轮廓,可见光图像具有丰富的光谱信息。采用本发明方案融合红外图像与可见光图像,可丰富图像细节和光谱信息,提高分辨率,使人产生更完整的场景感知。
最后应说明的是:以上实施例仅用以说明本发明的技术方案,而非对其限制,对于本领域的普通专业技术人员来说,可以对前述各实施例所记载的具体技术方案进行修改,或者对其中部分技术特征进行等同替换,而这些修改或者替换,并不使相应技术方案的本质脱离本发明所保护技术方案的范围。

Claims (8)

1.一种结合改进NSCT变换和深度学习的红外与可见光图像融合方法,其特征在于,包括以下步骤:
1)图像分解
采用改进型非下采样轮廓波变换NSCT,对待融合的红外图像A与可见光图像B分别进行多个尺度、方向的分解,获取多个红外低频子带图像、红外高频子带图像、可见光低频子带图像和可见光高频子带图像;
所述改进型非下采样轮廓波变换NSCT为采用融合滤波器组的NSCT变换;所述融合滤波器组通过分别卷积不同尺度和不同方向的滤波器获得;
2)融合权重获取
基于深度学习方式,获取红外融合权重与可见光融合权重;
3)图像融合与重构
3.1)利用步骤2)获取的红外融合权重与可见光融合权重,对步骤1)所得红外低频子带图像与可见光低频子带图像进行融合,得到低频子带融合图像,对红外高频子带图像与可见光高频子带图像进行融合,得到高频子带融合图像;
3.2)利用改进型非下采样轮廓波变换NSCT,对低频子带融合图像与高频子带融合图像进行重构,最终得到待融合红外图像A与可见光图像B融合后的图像。
2.根据权利要求1所述的结合改进NSCT变换和深度学习的红外与可见光图像融合方法,其特征在于:
步骤1)中,所述改进型非下采样轮廓波变换NSCT采用双层滤波器组结构,第一层为非下采样金字塔多尺度滤波器组NSPFB,第二层为非下采样方向滤波器组NSDFB。
3.根据权利要求2所述的结合改进NSCT变换和深度学习的红外与可见光图像融合方法,其特征在于:
步骤1)中,所述非下采样金字塔滤波器组NSPFB的低通滤波器包括低通分解滤波器和低通重构滤波器{H0(X),H1(X)},非下采样金字塔滤波器组NSPFB的高通滤波器包括高通分解滤波器和高通重构滤波器{G0(X),G1(X)},非下采样金字塔滤波器组NSPFB满足Bezout恒等式的1D多项式函数:
Figure FDA0002901025870000021
Figure FDA0002901025870000022
所述非下采样方向滤波器组NSDFB的扇形滤波器包括扇形分解滤波器和扇形重构滤波器{U0(X),U1(X)},非下采样方向滤波器组NSDFB的棋盘滤波器包括棋盘分解滤波器和棋盘重构滤波器{V0(X),V1(X)},非下采样方向滤波器组NSDFB满足Bezout恒等式的1D多项式函数,用f(x)替换X:
Figure FDA0002901025870000023
Figure FDA0002901025870000024
所述融合滤波器组为:
F(z)=H0(Xi)*G0(Xi)*U0(Xi)*V0(Xi)
其中,H0(Xi)为NSPFB低通分解滤波器集合{H0(X)}中的一个低通分解滤波器;G0(Xi)为NSPFB高通分解滤波器集合{G0(X)}中的一个高通分解滤波器;U0(Xi)为NSDFB扇形分解滤波器集合{U0(X)}中的一个扇形分解滤波器;V0(Xi)为棋盘分解滤波器集合{V0(X)}中的一个棋盘分解滤波器。
4.根据权利要求3所述的结合改进NSCT变换和深度学习的红外与可见光图像融合方法,其特征在于,步骤2)的具体方法如下:
2.1)从Image Net数据集上获取相同数量的红外图像和可见光图像,将红外图像和张可见光图像均按照预定比例分为训练数据和测试数据;将红外图像的训练数据和可见光图像的训练数据的集合作为训练数据集;将红外图像的测试数据和可见光图像的测试数据的集合作为测试数据集;对训练数据集和测试数据集分别进行预处理;
2.2)构建基于VGG-19深度卷积神经的融合规则预测网络模型;
2.3)利用步骤2.1)预处理后的训练数据集对步骤2.2)构建的基于VGG-19深度卷积神经的融合规则预测网络模型进行训练,得到训练后的基于VGG-19深度卷积神经的融合规则预测网络模型;
2.4)利用步骤2.1)预处理后的测试数据集对步骤2.2)训练后的基于VGG-19深度卷积神经的融合规则预测网络模型进行归一化处理;
2.5)获取VGG-19深度卷积神经的融合规则预测网络模型归一化处理后Relu1_2层、Relu2_2层、Relu3_2层及Relu4_2层分别输出的多张特征图,采用L1范数,将每层输出的多张特征图生成为一张具有代表性的特征图,得到红外特征图
Figure FDA0002901025870000031
和可见光特征图
Figure FDA0002901025870000032
Figure FDA0002901025870000033
其中,
Figure FDA0002901025870000034
表示第k个选定层输出的所有特征图在坐标点(x,y)处的值组成的C维向量,
Figure FDA0002901025870000035
为第k个选定层具有代表性的红外特征图
Figure FDA0002901025870000036
或可见光特征图
Figure FDA0002901025870000037
分别表示Relu1_2层、Relu2_2层、Relu3_2层、Relu4_2层;c∈{1,2,…,C},C表示选定层的特征图总数,C=64×2k-1
2.6)基于窗口局部能量融合规则,确定红外特征图
Figure FDA0002901025870000038
和可见光特征图
Figure FDA0002901025870000039
分别的初始红外融合权重
Figure FDA00029010258700000310
和初始可见光融合权重
Figure FDA00029010258700000311
并利用下式,计算红外特征图
Figure FDA00029010258700000312
和可见光特征图
Figure FDA00029010258700000313
分别的候选红外融合权重
Figure FDA00029010258700000314
和候选可见光融合权重
Figure FDA00029010258700000315
Figure FDA00029010258700000316
Figure FDA00029010258700000317
2.7)对所有候选红外融合权重
Figure FDA00029010258700000318
求平均,得到所述红外融合权重wA-i(x,y),对所有候选可见光融合权重
Figure FDA00029010258700000319
求平均,得到所述可见光融合权重wB-i(x,y):
Figure FDA00029010258700000320
Figure FDA00029010258700000321
5.根据权利要求4所述的结合改进NSCT变换和深度学习的红外与可见光图像融合方法,其特征在于:
步骤3)中,所述红外低频子带图像与可见光低频子带图像进行融合、红外高频子带图像与可见光高频子带图像进行融合时,所采用的融合公式:
Figure FDA0002901025870000041
其中,
Figure FDA0002901025870000042
代表待融合的红外子带图像;NSCTi B(x,y)代表待融合的可见光子带图像。
6.根据权利要求2至5任一所述的结合改进NSCT变换和深度学习的红外与可见光图像融合方法,其特征在于:
步骤1)中,所述非下采样金字塔滤波器组NSPFB的图像分解尺度层数为3;所述非下采样方向滤波器组NSDFB的方向分解级数为3。
7.根据权利要求4所述的结合改进NSCT变换和深度学习的红外与可见光图像融合方法,其特征在于:
步骤2.6)中,所述窗口局部能量融合规则采用的窗口大小为3×3或5×5。
8.根据权利要求7所述的结合改进NSCT变换和深度学习的红外与可见光图像融合方法,其特征在于:
步骤2.1)中,所述数量为10000张;所述预定比例为4:1。
CN202110056492.6A 2021-01-15 2021-01-15 结合改进nsct变换和深度学习的红外与可见光图像融合方法 Pending CN112669249A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110056492.6A CN112669249A (zh) 2021-01-15 2021-01-15 结合改进nsct变换和深度学习的红外与可见光图像融合方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110056492.6A CN112669249A (zh) 2021-01-15 2021-01-15 结合改进nsct变换和深度学习的红外与可见光图像融合方法

Publications (1)

Publication Number Publication Date
CN112669249A true CN112669249A (zh) 2021-04-16

Family

ID=75415380

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110056492.6A Pending CN112669249A (zh) 2021-01-15 2021-01-15 结合改进nsct变换和深度学习的红外与可见光图像融合方法

Country Status (1)

Country Link
CN (1) CN112669249A (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113033518A (zh) * 2021-05-25 2021-06-25 北京中科闻歌科技股份有限公司 图像检测方法、装置、电子设备及存储介质
CN113723277A (zh) * 2021-08-27 2021-11-30 华中师范大学 一种融入多模态视觉信息的学习意图监测方法及系统
CN113793289A (zh) * 2021-09-10 2021-12-14 海南大学 基于cnn和nsct的多光谱图像和全色图像模糊融合方法
WO2023085464A1 (ko) * 2021-11-12 2023-05-19 한국전자기술연구원 다중 채널 정보 추출기를 포함하는 경량 딥러닝 장치

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107230196A (zh) * 2017-04-17 2017-10-03 江南大学 基于非下采样轮廓波和目标可信度的红外与可见光图像融合方法
CN108230260A (zh) * 2017-12-06 2018-06-29 天津津航计算技术研究所 一种新型红外图像与微光图像的融合方法
CN109308691A (zh) * 2017-07-28 2019-02-05 南京理工大学 基于图像增强与nsct的红外和可见光图像融合方法
CN109447909A (zh) * 2018-09-30 2019-03-08 安徽四创电子股份有限公司 基于视觉显著性的红外与可见光图像融合方法及系统
CN110148083A (zh) * 2019-05-17 2019-08-20 东南大学 基于快速bemd和深度学习的图像融合方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107230196A (zh) * 2017-04-17 2017-10-03 江南大学 基于非下采样轮廓波和目标可信度的红外与可见光图像融合方法
CN109308691A (zh) * 2017-07-28 2019-02-05 南京理工大学 基于图像增强与nsct的红外和可见光图像融合方法
CN108230260A (zh) * 2017-12-06 2018-06-29 天津津航计算技术研究所 一种新型红外图像与微光图像的融合方法
CN109447909A (zh) * 2018-09-30 2019-03-08 安徽四创电子股份有限公司 基于视觉显著性的红外与可见光图像融合方法及系统
CN110148083A (zh) * 2019-05-17 2019-08-20 东南大学 基于快速bemd和深度学习的图像融合方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
罗高鹏: "《基于多尺度变换的红外与可见光图像融合算法研究》", 《中国优秀硕士学位论文全文数据库》, pages 3 - 4 *

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113033518A (zh) * 2021-05-25 2021-06-25 北京中科闻歌科技股份有限公司 图像检测方法、装置、电子设备及存储介质
CN113033518B (zh) * 2021-05-25 2021-08-31 北京中科闻歌科技股份有限公司 图像检测方法、装置、电子设备及存储介质
CN113723277A (zh) * 2021-08-27 2021-11-30 华中师范大学 一种融入多模态视觉信息的学习意图监测方法及系统
CN113723277B (zh) * 2021-08-27 2024-02-27 华中师范大学 一种融入多模态视觉信息的学习意图监测方法及系统
CN113793289A (zh) * 2021-09-10 2021-12-14 海南大学 基于cnn和nsct的多光谱图像和全色图像模糊融合方法
CN113793289B (zh) * 2021-09-10 2023-06-20 海南大学 基于cnn和nsct的多光谱图像和全色图像模糊融合方法
WO2023085464A1 (ko) * 2021-11-12 2023-05-19 한국전자기술연구원 다중 채널 정보 추출기를 포함하는 경량 딥러닝 장치

Similar Documents

Publication Publication Date Title
CN109242888B (zh) 一种结合图像显著性和非下采样轮廓波变换的红外与可见光图像融合方法
CN108399611B (zh) 基于梯度正则化的多聚焦图像融合方法
CN112669249A (zh) 结合改进nsct变换和深度学习的红外与可见光图像融合方法
CN109509164B (zh) 一种基于gdgf的多传感器图像融合方法及系统
CN110533077B (zh) 用于高光谱图像分类的形状自适应卷积深度神经网络方法
CN113673590B (zh) 基于多尺度沙漏密集连接网络的去雨方法、系统和介质
CN112184604B (zh) 一种基于图像融合的彩色图像增强方法
CN104299232B (zh) 一种基于自适应窗方向波域和改进fcm的sar图像分割方法
CN113837974B (zh) 一种基于改进beeps滤波算法的nsst域电力设备红外图像增强方法
CN109886908B (zh) 红外图像与可见光图像融合方法
CN110097617B (zh) 基于卷积神经网络与显著性权重的图像融合方法
CN113298147B (zh) 基于区域能量和直觉模糊集的图像融合方法及装置
CN114782298B (zh) 一种具有区域注意力的红外与可见光图像融合方法
CN112842348B (zh) 一种基于特征提取与深度学习的心电信号自动分类方法
CN106886747A (zh) 一种基于扩展小波变换的复杂背景下舰船检测方法
CN111179208A (zh) 基于显著图与卷积神经网络的红外-可见光图像融合方法
CN110148083B (zh) 基于快速bemd和深度学习的图像融合方法
CN115578262A (zh) 基于afan模型的偏振图像超分辨率重建方法
Jiang et al. A dehazing method for remote sensing image under nonuniform hazy weather based on deep learning network
CN107358625B (zh) 基于SPP Net和感兴趣区域检测的SAR图像变化检测方法
CN114067217A (zh) 基于非下采样分解转换器的sar图像目标识别方法
CN106971402B (zh) 一种基于光学辅助的sar图像变化检测方法
CN117036875B (zh) 一种基于融合注意力gan的红外弱小移动目标生成算法
CN111275680B (zh) 基于Gabor卷积网络的SAR图像变化检测方法
CN117115675A (zh) 一种跨时相轻量化空谱特征融合高光谱变化检测方法、系统、设备及介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
CB03 Change of inventor or designer information
CB03 Change of inventor or designer information

Inventor after: Wang Yueyao

Inventor after: Liu Wei

Inventor after: Guo Defu

Inventor after: Wang Peng

Inventor after: Yan Fuwen

Inventor after: Chen Jiming

Inventor before: Wang Yueyao

Inventor before: Liu Wei

Inventor before: Guo Defu

Inventor before: Wang Peng

Inventor before: Yan Fuwen

Inventor before: Chen Jiming