CN110097617B - 基于卷积神经网络与显著性权重的图像融合方法 - Google Patents

基于卷积神经网络与显著性权重的图像融合方法 Download PDF

Info

Publication number
CN110097617B
CN110097617B CN201910336960.8A CN201910336960A CN110097617B CN 110097617 B CN110097617 B CN 110097617B CN 201910336960 A CN201910336960 A CN 201910336960A CN 110097617 B CN110097617 B CN 110097617B
Authority
CN
China
Prior art keywords
image
fusion
layer
refers
source image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201910336960.8A
Other languages
English (en)
Other versions
CN110097617A (zh
Inventor
郝群
闫雷
曹杰
袁莉莉
李国梁
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Institute of Technology BIT
Original Assignee
Beijing Institute of Technology BIT
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Institute of Technology BIT filed Critical Beijing Institute of Technology BIT
Priority to CN201910336960.8A priority Critical patent/CN110097617B/zh
Publication of CN110097617A publication Critical patent/CN110097617A/zh
Application granted granted Critical
Publication of CN110097617B publication Critical patent/CN110097617B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text

Abstract

本发明公开的基于卷积神经网络与显著性权重的图像融合方法,属于图像信息融合技术领域。本发明通过导向滤波实现源图像的基础层和细节层的分解,得到源图像的细节层和基础层;利用显著性权重对分解后的基础层进行融合,得到对比度增强的融合后的基础层图像;对源图像细节层进行多分辨率奇异值分解,将分解后源图像细节层进行卷积神经网络多层特征提取与融合,获得包含精细细节的源图像细节层融合,重构得到高质量融合图像。本发明获得的高质量融合图像具有较高的对比度信息,包含源图像的细节层信息,有助于突出显著性目标,提高目标识别的检测效率。此外,本发明根据实际融合需求,改变方法中的网络结构,实现不同的融合效果,具有较强的通用性。

Description

基于卷积神经网络与显著性权重的图像融合方法
技术领域
本发明涉及一种基于卷积神经网络与显著性权重的图像融合方法,特别是涉及图像在卷积神经网络中融合方法,属于图像信息融合技术领域。
背景技术
通过各种传感器获得的多传感器数据通过图像融合提供补充信息。与来自单个传感器的图像相比,图像融合产生了良好的可视化和丰富的信息。因此,它被广泛应用于许多领域,如遥感,模式识别,医学成像和军事。
一般图像融合方法分为四类:(1)多尺度分解;(2)稀疏表示;(3)空间域变换;以及(4)混合变换。自拉普拉斯金字塔的融合方法提出,基于多尺度分解理论的典型图像融合方法已应用于图像融合。此外,在该领域中已经提出了大量基于多尺度变换的图像融合方法。一些例子是形态金字塔,离散小波变换,双树复数小波变换,非下采样轮廓波变换,以及非下采样的基于剪切变换的方法。基于稀疏表示的方法建立在信号稀疏理论的基础上,其中自然信号可以近似表示为来自字典的“少数”原子的线性组合。与基于多尺度分解和基于稀疏表示的方法不同,基于空间域的方法将图像在不同的变换空间计算,例如PCA和IHS。基于混合变换的方法同时使用多种变换方法,旨在结合各种变换的优点以实现高融合效果。然而,这些方法增加了时间消耗。
最近,深度学习在许多图像处理任务中取得了优异的性能,例如图像抠图,识别和分类。此外,深度学习在图像融合中的应用已经在很大程度上引起了学术界的关注。当前已经实现了使用卷积神经网络来实现多焦点图像与红外/可见光图像融合。然而,对于实际应用,这种方法有两个缺点:1)基层的“平均”融合方案容易降低图像的对比度;2)VGG-19网络提取的图像特征相对较大,导致失去了细节。
发明内容
本发明公开的基于卷积神经网络与显著性权重的图像融合方法要解决的技术问题是:提高融合图像的对比度,增强融合图像的精细细节,提高融合图像质量。本发明融合后的高质量图像能够为后续的目标识别,目标探测等提供有力支撑,为解决图像融合领域相关工程问题提供支持。
本发明的目的是通过下述技术方案实现的。
本发明公开的基于卷积神经网络与显著性权重的图像融合方法,通过导向滤波实现源图像的基础层和细节层的分解,得到源图像的细节层和基础层。利用显著性权重对分解后的基础层进行融合,得到对比度增强的融合后的基础层图像。同时对源图像细节层进行多分辨率奇异值分解,将分解后的源图像细节层进行卷积神经网络多层特征提取与融合,获得包含精细细节的源图像细节层融合。最终重构得到高质量融合图像。该方法获得的高质量融合图像具有较高的对比度信息,包含源图像的细节层信息,有助于突出显著性目标,提高目标识别的检测效率。此外,根据实际融合需求,改变方法中的网络结构,实现不同的融合效果,具有较强的通用性。
本发明公开的基于卷积神经网络与显著性权重的图像融合方法,包括如下步骤:
步骤一:利用导向滤波实现源图像的基础层和细节层的分解,得到源图像的细节层和基础层。
源图像导向滤波分解公式为:
Figure BDA0002039445030000021
其中
Figure BDA0002039445030000022
Figure BDA0002039445030000023
指的是像素点p的梯度,
Figure BDA0002039445030000024
Figure BDA0002039445030000025
分别指的是图像水平和垂直的一阶差分算子。I指的是源图像,Ib是源图像的基础层,λ是正则化参数。
源图像的细节层Id由公式(3)决定:
Id=I-Ib (3)
Id指的是图像的细节层,Ib指的是图像的基础层。I指的是源图像。
步骤二:利用显著性权重对分解后的基础层进行融合,得到对比度增强的融合后的基础层图像。
利用显著性权重对分解后的基础层进行融合旨在将信息从多种源图像的基础层转移到融合图像。显著性权重方法计算每个像素相对于原始图像的重要性,通过显著性权重保持源图像中的对比度和纹理信息,并且能够提高基础层融合效果。
显著性权重是基于像素与所有其他像素的对比度来定义像素级显著性。像素p的显著性值Vk(p)定义如下:
Figure BDA0002039445030000031
k指的是源图像类型,k={源图像1,源图像2、……源图像S}。Ip指的是像素点p的强度。q指的是图像I中的任意像素,Iq指的是像素q的强度。所述源图像S根据实际图像融合需求而定。
公式(4)中,显著性值Vk(p)对每一个像素展开,写成:
Figure BDA0002039445030000032
N指的是图像中的像素数量。当像素值相等时,显著性值也相等,因此,公式(5)写成:
Figure BDA0002039445030000033
l指的是像素强度,Sl代表强度值等于l的像素的数量和,L指的是图像的灰度等级。
通过公式(6)获得原始图像的显著权重图。最终的显著性值Vk(p)是归一化形式。具有大的显著性权重的区域通常对应于强度和纹理区域,其信息对于融合是有用的和必需的。基础层融合规则为:
Figure BDA0002039445030000034
Vk1和Vk2指的是源图像k1,k2的显著性权重,
Figure BDA0002039445030000035
指的是源图像k1,k2的基础层,
Figure BDA0002039445030000036
指的是融合图像之后的基础层,所述的
Figure BDA0002039445030000037
即为对比度增强的融合后的基础层图像。
步骤二所述的多种源图像包可见光源图像、红外源图像、多聚焦图像种类,或者为所述种类图像中的任意S幅源图像,所述源图像S根据实际图像融合需求而定。
步骤三:对步骤一获得的源图像细节层进行多分辨率奇异值分解,将分解后的源图像细节层进行卷积神经网络多层特征提取与融合,获得包含精细细节的源图像细节层融合。
细节层包含图像的细节信息,然而,现有技术中在卷积神经网络的图像提取中,卷积神经网络更加关注图像的较大尺度的特征,提取图像的较大尺度的特征导致图像中的精细细节的丢失。
通过多分辨率奇异值分解方法有效保留图像的细节:
Figure BDA0002039445030000041
其中:le指的是分解的层数,j指的是不同的频率信息,并且j={LL,LH,HL,HH},k代表源图像,且k={源图像1,源图像2、……源图像S}。
在卷积神经网络的隐藏层中提取图像特征:
Figure BDA0002039445030000042
net指的是神经网络模型,name指的是神经网络中隐藏层的名称,M指的是为名name的隐藏层的输出通道数量,Φ指的是隐藏层的运算。
Figure BDA0002039445030000043
是卷积网络卷积神经网络的输入。
最终,利用l1范数得到最终的细节层图像:
Figure BDA0002039445030000044
w指的是滑动窗口,利用公式(10)得到最终的融合之后的多分辨率奇异值细节层:
Figure BDA0002039445030000045
其中:
Figure BDA0002039445030000046
Figure BDA0002039445030000047
分别对应在net网络模型中name隐藏层的输出结果。k1,k2指的是不同的源图像。最终的融合后的细节层通过多分辨率奇异值重构:
Figure BDA0002039445030000048
Figure BDA0002039445030000049
获得包含精细细节的源图像细节层融合。
步骤三中根据不同的实际应用需求,改变不同的net结构,实现不同的融合效果。
步骤四:基于步骤二得到基础层图像和步骤三得到的细节层图像,重构得到最终的高质量融合图像。
基于步骤二得到基础层图像和步骤三得到的细节层图像,利用公式(13)重构得到最终的高质量融合图像:
Figure BDA00020394450300000410
其中,
Figure BDA00020394450300000411
指的是基础层融合结果,
Figure BDA00020394450300000412
指的是细节层融合结果。
所述的高质量融合图像包含源图像的精细细节,且具有高对比度。
还包括步骤五:在后续目标识别和跟踪应用中,利用步骤四得到高质量融合图像能够突出显著性目标,提高目标识别的检测效率。
有益效果:
1、本发明公开的基于卷积神经网络与显著性权重的图像融合方法,利用显著性权重对分解后的基础层进行融合,提高融合图像的对比度信息,有助于突出显著性目标,提高目标识别的检测效率。
2、本发明公开的基于卷积神经网络与显著性权重的图像融合方法,通过对源图像基础层进行多分辨率奇异值分解,将分解后的源图像基础层进行卷积神经网络多层特征提取与融合,获得包含精细细节的源图像细节层融合,进而能够保留源图像中的背景细节,丰富融合图像的信息,提高融合图形的可视化效果,有助于进一步图像信息判定。
3、本发明公开的基于卷积神经网络与显著性权重的图像融合方法,根据不同的实际应用需求,改变不同的net结构,实现不同的融合效果,因此,具有较强的通用性,能够针对不同的图像测试不同的融合方法,节省人力和物力。
附图说明
图1为基于卷积神经网络与显著性权重的图像融合方法流程图;
图2为图像显著性权重图,图2(a)为红外源图像,图2(b)为红外图像的显著性权重,图2(c)为可见光源图像,图2(d)为可见光图像的显著性权重;
图3为选择的卷积神经网络VGG-19计算流程图;
图4为方法的融合效果示例,其中第一行是红外原图像,第二行是可见光源图像,第三行是融合之后的图像。
图5为方法12组图像融合结果的MS_SSIM评价指标曲线。
具体实施方式
为了更好的说明本发明的目的和优点,下面结合附图和实例对发明内容做进一步说明。
为了验证方法的可行性,源图像选择可见光图像、红外图像两种源图像各1张,即IR,VIS图像。神经网络模型net选择VGG-19网络,利用网络中4层隐含层name={relu1-1,relu2-1,relu3-1,relu4-1}。图像的灰度等级L=256.分解层数le=4.最终的图像融合结果,采用多尺度结构相似性MS_SSIM对选定的21组红外、可见光图像进行客观评价。
如图1所示,本发明公开的基于卷积神经网络与显著性权重的图像融合方法,包括如下步骤:
步骤一:利用导向滤波实现源图像的基础层和细节层的分解,得到源图像的细节层和基础层。
源图像导向滤波分解公式为:
Figure BDA0002039445030000061
其中
Figure BDA0002039445030000062
Figure BDA0002039445030000063
指的是像素点p的梯度,
Figure BDA0002039445030000064
Figure BDA0002039445030000065
分别指的是图像水平和垂直的一阶差分算子。I指的是源图像,Ib是源图像的基础层,λ是正则化参数。
源图像的细节层Id由公式(16)决定:
Id=I-Ib (16)
Id指的是图像的细节层,Ib指的是图像的基础层。I指的是源图像。
步骤二:利用显著性权重对分解后的基础层进行融合,得到对比度增强的融合后的基础层图像。
利用显著性权重对分解后的基础层进行融合旨在将信息从多种源图像的基础层转移到融合图像。显著性权重方法计算每个像素相对于原始图像的重要性,通过显著性权重保持源图像中的对比度和纹理信息,并且能够提高基础层融合效果。
显著性权重是基于像素与所有其他像素的对比度来定义像素级显著性。像素p的显著性值Vk(p)定义如下:
Figure BDA0002039445030000066
k指的是源图像类型,k={IR,VIS}。Ip指的是像素点p的强度。q指的是图像I中的任意像素,Iq指的是像素q的强度。
公式(17)中,显著性值Vk(p)对每一个像素展开,写成:
Figure BDA0002039445030000067
N指的是图像中的像素数量。当像素值相等时,显著性值也相等,因此,公式(18)写成:
Figure BDA0002039445030000071
l指的是像素强度,Sl代表强度值等于l的像素的数量和,L指的是图像的灰度等级,L=256。
通过公式(19)获得原始图像的显著权重图。最终的显著性值Vk(p)是归一化形式。具有大的显著性权重的区域通常对应于强度和纹理区域,其信息对于融合是有用的和必需的。基础层融合规则为:
Figure BDA0002039445030000072
VIR和VVIS指的是红外源图像IR、可见光源图像VIS的显著性权重,
Figure BDA0002039445030000073
指的是红外源图像IR、可见光源图像VIS的基础层,
Figure BDA0002039445030000074
指的是融合图像之后的基础层,所述的
Figure BDA0002039445030000075
即为对比度增强的融合后的基础层图像。
步骤三:对步骤一获得的源图像细节层进行多分辨率奇异值分解,将分解后的源图像细节层进行卷积神经网络多层特征提取与融合,获得包含精细细节的源图像细节层融合。
细节层包含图像的细节信息,然而,现有技术中在卷积神经网络的图像提取中,卷积神经网络更加关注图像的较大尺度的特征,提取图像的较大尺度的特征导致图像中的精细细节的丢失。
通过多分辨率奇异值分解方法有效保留图像的细节:
Figure BDA0002039445030000076
其中:le指的是分解的层数,le=4,j指的是不同的频率信息,并且j={LL,LH,HL,HH},k代表源图像,且k={IR,VIS}。
在卷积神经网络的隐藏层中提取图像特征:
Figure BDA0002039445030000077
net指的是神经网络模型,net=VGGG-19,name指的是神经网络中隐藏层的名称,name={relu1-1,relu2-1,relu3-1,relu4-1}.M指的是为名name的隐藏层的输出通道数量,Φ指的是隐藏层的运算。
Figure BDA0002039445030000078
是卷积网络卷积神经网络的输入。
最终,利用l1范数得到最终的细节层图像:
Figure BDA0002039445030000081
w指的是滑动窗口,利用公式(23)得到最终的融合之后的多分辨率奇异值细节层:
Figure BDA0002039445030000082
其中:
Figure BDA0002039445030000083
Figure BDA0002039445030000084
分别对应在VGG-19网络模型中name隐藏层的输出结果。最终的融合后的细节层通过多分辨率奇异值重构:
Figure BDA0002039445030000085
Figure BDA0002039445030000086
获得包含精细细节的源图像细节层融合。
步骤四:基于步骤二得到基础层图像和步骤三得到的细节层图像,重构得到最终的高质量融合图像。
基于步骤二得到基础层图像和步骤三得到的细节层图像,利用公式(26)重构得到最终的高质量融合图像:
Figure BDA0002039445030000087
其中,
Figure BDA0002039445030000088
指的是基础层融合结果,
Figure BDA0002039445030000089
指的是细节层融合结果。
所述的高质量融合图像包含源图像的精细细节,且具有高对比度。
步骤五:采用多尺度结构相似性对融合之后的图像进行客观评价。
本方法选定了21组红外和可见光图像进行融合,并计算融合结果的MS_SSIM值,具体见表1。
表1 21组融合图像的MS_SSIM值
Images 1 2 3 4 5 6 7 8 9 10 11
MS_SSIM 0.8933 0.9208 0.9250 0.9032 0.9412 0.90317 0.9339 0.8598 0.8467 0.8770 0.9245
Images 12 13 14 15 16 17 18 19 20 21
MS_SSIM 0.91229 0.90030 0.88266 0.88517 0.91045 0.90972 0.90464 0.87773 0.86363 0.89071
以上所述的具体描述,对发明的目的、技术方案和有益效果进行了进一步详细说明,所应理解的是,以上所述仅为本发明的具体实施例而已,并不用于限定本发明的保护范围,凡在本发明的精神和原则之内,所做的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

Claims (6)

1.基于卷积神经网络与显著性权重的图像融合方法,其特征在于:包括如下步骤,
步骤一:利用导向滤波实现源图像的基础层和细节层的分解,得到源图像的细节层和基础层;
步骤二:利用显著性权重对分解后的基础层进行融合,得到对比度增强的融合后的基础层图像;
步骤三:对步骤一获得的源图像细节层进行多分辨率奇异值分解,将分解后的源图像细节层进行卷积神经网络多层特征提取与融合,获得包含精细细节的源图像细节层融合;
步骤四:基于步骤二得到基础层图像和步骤三得到的细节层图像,重构得到最终的高质量融合图像;
步骤二实现方法为,
显著性权重是基于像素与所有其他像素的对比度来定义像素级显著性;像素p的显著性值Vk(p)定义如下:
Figure FDA0002600774310000011
k指的是源图像类型,k={源图像1,源图像2、……源图像S};Ip指的是像素点p的强度;q指的是图像I中的任意像素,Iq指的是像素q的强度;所述源图像S根据实际图像融合需求而定;
公式(1)中,显著性值Vk(p)对每一个像素展开,写成:
Figure FDA0002600774310000012
N指的是图像中的像素数量;当像素值相等时,显著性值也相等,因此,公式(2)写成:
Figure FDA0002600774310000013
l指的是像素强度,Sl代表强度值等于l的像素的数量和,L指的是图像的灰度等级;
通过公式(3)获得原始图像的显著权重图;最终的显著性值Vk(p)是归一化形式;具有大的显著性权重的区域通常对应于强度和纹理区域,其信息对于融合是有用的和必需的;基础层融合规则为:
Figure FDA0002600774310000021
Vk1和Vk2指的是源图像k1,k2的显著性权重,
Figure FDA0002600774310000022
指的是源图像k1,k2的基础层,
Figure FDA0002600774310000023
指的是融合图像之后的基础层,所述的
Figure FDA0002600774310000024
即为对比度增强的融合后的基础层图像;
步骤三实现方法为,
通过多分辨率奇异值分解方法有效保留图像的细节:
Figure FDA0002600774310000025
其中:le指的是分解的层数,j指的是不同的频率信息,并且j={LL,LH,HL,HH},k代表源图像,且k={源图像1,源图像2、……源图像S};
在卷积神经网络的隐藏层中提取图像特征:
Figure FDA0002600774310000026
net指的是神经网络模型,name指的是神经网络中隐藏层的名称,M指的是为名name的隐藏层的输出通道数量,Φ指的是隐藏层的运算;
Figure FDA0002600774310000027
是卷积网络卷积神经网络的输入;
最终,利用l1范数得到最终的细节层图像:
Figure FDA0002600774310000028
w指的是滑动窗口,利用公式(7)得到最终的融合之后的多分辨率奇异值细节层:
Figure FDA0002600774310000029
其中:
Figure FDA00026007743100000210
Figure FDA00026007743100000211
分别对应在net网络模型中name隐藏层的输出结果;k1,k2指的是不同的源图像;最终的融合后的细节层通过多分辨率奇异值重构:
Figure FDA00026007743100000212
Figure FDA00026007743100000213
获得包含精细细节的源图像细节层融合。
2.如权利要求1所述的基于卷积神经网络与显著性权重的图像融合方法,其特征在于:还包括步骤五,在后续目标识别和跟踪应用中,利用步骤四得到高质量融合图像能够突出显著性目标,提高目标识别的检测效率。
3.如权利要求1或2所述的基于卷积神经网络与显著性权重的图像融合方法,其特征在于:步骤一实现方法为,
源图像导向滤波分解公式为:
Figure FDA0002600774310000031
其中
Figure FDA0002600774310000032
Figure FDA0002600774310000033
指的是像素点p的梯度,
Figure FDA0002600774310000034
Figure FDA0002600774310000035
分别指的是图像水平和垂直的一阶差分算子;I指的是源图像,Ib是源图像的基础层,λ是正则化参数;
源图像的细节层Id由公式(12)决定:
Id=I-Ib (12)。
4.如权利要求3所述的基于卷积神经网络与显著性权重的图像融合方法,其特征在于:步骤四实现方法为,
基于步骤二得到基础层图像和步骤三得到的细节层图像,利用公式(13)重构得到最终的高质量融合图像:
Figure FDA0002600774310000036
其中,
Figure FDA0002600774310000037
指的是基础层融合结果,
Figure FDA0002600774310000038
指的是细节层融合结果;
所述的高质量融合图像包含源图像的精细细节,且具有高对比度。
5.如权利要求4所述的基于卷积神经网络与显著性权重的图像融合方法,其特征在于:步骤二所述的多种源图像包可见光源图像、红外源图像、多聚焦图像种类,或者为所述种类图像中的任意S幅源图像,所述源图像S根据实际图像融合需求而定。
6.如权利要求5所述的基于卷积神经网络与显著性权重的图像融合方法,其特征在于:步骤三中根据不同的实际应用需求,改变不同的net结构,实现不同的融合效果。
CN201910336960.8A 2019-04-25 2019-04-25 基于卷积神经网络与显著性权重的图像融合方法 Active CN110097617B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910336960.8A CN110097617B (zh) 2019-04-25 2019-04-25 基于卷积神经网络与显著性权重的图像融合方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910336960.8A CN110097617B (zh) 2019-04-25 2019-04-25 基于卷积神经网络与显著性权重的图像融合方法

Publications (2)

Publication Number Publication Date
CN110097617A CN110097617A (zh) 2019-08-06
CN110097617B true CN110097617B (zh) 2020-09-15

Family

ID=67445613

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910336960.8A Active CN110097617B (zh) 2019-04-25 2019-04-25 基于卷积神经网络与显著性权重的图像融合方法

Country Status (1)

Country Link
CN (1) CN110097617B (zh)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111464762A (zh) * 2020-03-30 2020-07-28 杭州电子科技大学 一种基于红外融合技术的夜间成像仪及成像方法
CN111784619B (zh) * 2020-07-03 2023-04-28 电子科技大学 一种红外和可见光图像的融合方法
CN112115979B (zh) * 2020-08-24 2024-03-22 深圳大学 一种红外图像和可见图像的融合方法及设备
CN113256525B (zh) * 2021-05-25 2023-01-10 烟台艾睿光电科技有限公司 红外热成像图像增强方法、装置、设备及可读存储介质
CN113793318B (zh) * 2021-09-13 2023-04-07 中国空气动力研究与发展中心超高速空气动力研究所 一种多区域复杂损伤缺陷特征综合分析方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108052988A (zh) * 2018-01-04 2018-05-18 常州工学院 基于小波变换的导向显著性图像融合方法
CN108648746A (zh) * 2018-05-15 2018-10-12 南京航空航天大学 一种基于多模态特征融合的开放域视频自然语言描述生成方法

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9965705B2 (en) * 2015-11-03 2018-05-08 Baidu Usa Llc Systems and methods for attention-based configurable convolutional neural networks (ABC-CNN) for visual question answering
CN109360175A (zh) * 2018-10-12 2019-02-19 云南大学 一种红外与可见光的图像融合方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108052988A (zh) * 2018-01-04 2018-05-18 常州工学院 基于小波变换的导向显著性图像融合方法
CN108648746A (zh) * 2018-05-15 2018-10-12 南京航空航天大学 一种基于多模态特征融合的开放域视频自然语言描述生成方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
Image Fusion technique using Multi-resolution singular Value decomposition;V.P.S. Naidu;《Defence Science Journal》;20110930;第61卷(第5期);正文第1-6节 *
Infrared and Visible Image Fusion using a Deep Learning Framework;Hui Li等;《IEEE Xplore》;20181129;摘要、正文第Ⅰ-Ⅲ节 *
基于卷积神经网络的红外图像融合算法;陈清江 等;《激光与红外》;20190131;第49卷(第1期);正文第1-4节 *

Also Published As

Publication number Publication date
CN110097617A (zh) 2019-08-06

Similar Documents

Publication Publication Date Title
CN110097617B (zh) 基于卷积神经网络与显著性权重的图像融合方法
CN105224942B (zh) 一种rgb-d图像分类方法及系统
Yuan et al. Regional spatially adaptive total variation super-resolution with spatial information filtering and clustering
CN110533077B (zh) 用于高光谱图像分类的形状自适应卷积深度神经网络方法
DE102015009981A1 (de) Verfahren und Vorrichtung zur Bildsynthese
CN111275655A (zh) 一种多聚焦多源图像融合方法
CN112669249A (zh) 结合改进nsct变换和深度学习的红外与可见光图像融合方法
Aghamaleki et al. Image fusion using dual tree discrete wavelet transform and weights optimization
Dongsheng et al. Multi-focus image fusion based on block matching in 3D transform domain
CN1545062A (zh) 综合边缘和纹理信息的金字塔图像融合方法
CN105809650A (zh) 一种基于双向迭代优化的图像融合方法
Yi et al. TCPMFNet: An infrared and visible image fusion network with composite auto encoder and transformer–convolutional parallel mixed fusion strategy
Patel et al. A review on infrared and visible image fusion techniques
Zhu et al. Multiscale channel attention network for infrared and visible image fusion
CN116310452B (zh) 一种多视图聚类方法及系统
CN116051444A (zh) 一种有效的红外与可见光图像自适应融合方法
Nirmala et al. A novel multimodal image fusion method using shift invariant discrete wavelet transform and support vector machines
Weligampola et al. A retinex based gan pipeline to utilize paired and unpaired datasets for enhancing low light images
Zhang et al. A generative adversarial network with dual discriminators for infrared and visible image fusion based on saliency detection
Luo et al. Infrared and visible image fusion based on VPDE model and VGG network
Fu et al. Deep Decomposition Network for Image Processing: A Case Study for Visible and Infrared Image Fusion
Wang et al. Multispectral image fusion approach based on GHM multiwavelet transform
CN111402183B (zh) 基于八度金字塔框架的多聚焦图像融合方法
Pang et al. Infrared and visible image fusion based on double fluid pyramids and multi-scale gradient residual block
Gao et al. Algorithms of image fusion based on wavelet transform

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant