CN108629757A - 基于复数剪切波变换与深度卷积神经网络的图像融合方法 - Google Patents
基于复数剪切波变换与深度卷积神经网络的图像融合方法 Download PDFInfo
- Publication number
- CN108629757A CN108629757A CN201810432232.2A CN201810432232A CN108629757A CN 108629757 A CN108629757 A CN 108629757A CN 201810432232 A CN201810432232 A CN 201810432232A CN 108629757 A CN108629757 A CN 108629757A
- Authority
- CN
- China
- Prior art keywords
- image
- low frequency
- convolutional neural
- neural networks
- depth convolutional
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 31
- 238000013527 convolutional neural network Methods 0.000 title claims abstract description 28
- 238000006243 chemical reaction Methods 0.000 title claims abstract description 15
- 230000004927 fusion Effects 0.000 claims abstract description 33
- 238000001914 filtration Methods 0.000 claims abstract description 19
- 238000000354 decomposition reaction Methods 0.000 claims abstract description 13
- 238000002156 mixing Methods 0.000 claims abstract description 12
- 238000010008 shearing Methods 0.000 claims abstract description 11
- 230000000694 effects Effects 0.000 claims abstract description 9
- 230000009466 transformation Effects 0.000 claims abstract description 9
- 230000004807 localization Effects 0.000 claims abstract description 6
- 230000008569 process Effects 0.000 claims abstract description 4
- 238000010586 diagram Methods 0.000 claims description 9
- 239000011159 matrix material Substances 0.000 claims description 9
- 238000005070 sampling Methods 0.000 claims description 7
- 230000011218 segmentation Effects 0.000 claims description 7
- 238000003384 imaging method Methods 0.000 claims description 5
- 238000001514 detection method Methods 0.000 claims description 4
- 238000013507 mapping Methods 0.000 claims description 3
- 238000012549 training Methods 0.000 claims description 3
- 230000008859 change Effects 0.000 claims description 2
- 238000007796 conventional method Methods 0.000 abstract 1
- 238000007500 overflow downdraw method Methods 0.000 description 6
- 238000013461 design Methods 0.000 description 4
- 230000000007 visual effect Effects 0.000 description 4
- 230000007812 deficiency Effects 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 239000012141 concentrate Substances 0.000 description 2
- 230000007547 defect Effects 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 238000013519 translation Methods 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000000903 blocking effect Effects 0.000 description 1
- 230000000052 comparative effect Effects 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- PCHJSUWPFVWCPO-UHFFFAOYSA-N gold Chemical compound [Au] PCHJSUWPFVWCPO-UHFFFAOYSA-N 0.000 description 1
- 239000010931 gold Substances 0.000 description 1
- 229910052737 gold Inorganic materials 0.000 description 1
- 238000000227 grinding Methods 0.000 description 1
- 238000010191 image analysis Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 238000012804 iterative process Methods 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000000877 morphologic effect Effects 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 238000000513 principal component analysis Methods 0.000 description 1
- 230000001737 promoting effect Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000000717 retained effect Effects 0.000 description 1
- 238000013316 zoning Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/50—Image enhancement or restoration using two or more images, e.g. averaging or subtraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于复数剪切波变换与深度卷积神经网络的图像融合方法,包括步骤:1)对两幅待融合的源图像进行复数剪切波分解,分解过程包括多尺度剖分和方向局部化,分解后得到的是低频子带图像和高频子带图像;2)对得到的高频部分用基于深度卷积神经网络的融合规则进行高频融合,得到所需的高频系数;用引导滤波对低频部分进行融合,得到所需的低频系数;3)对得到融合后的低频系数和高频系数进行复剪切波逆变换,得到所需的融合图像。本发明不仅能较好地显示图像中的目标信息和轮廓特征,而且对比度较高,并保持良好的细节信息而不产生伪影和失真,融合效果较优,相比于其他传统方法有较显著的优势。
Description
技术领域
本发明涉及图像摄影成像的技术领域,尤其是指一种基于复数剪切波变换与深度卷积神经网络的图像融合方法。
背景技术
单一的图像传感器可能由于自身的局限性无法获得一幅可以全面描述场景信息的图像,而不同的传感器得到的图像信息之间存在一定的互补特性,为了尽可能地将场景的全部信息真实而又详细地反映出来,提高图像清晰度以及可理解度,更符合机器以及人类视觉特性,满足实际需求,图像融合技术的研究就至关重要。
最经典的变换域融合方法是基于多尺度变换(MST)理论,自从基于拉普拉斯金字塔的融合方法提出以来,已经应用于图像融合已有三十多年。此后,大量基于多尺度变换的图像融合方法出现在这个领域。一些代表性的例子包括基于形态金字塔的方法,基于离散小波变换的方法,基于双树复小波变换的方法以及基于非下采样轮廓波变换的方法,本文所用到的复剪切波变换也是属于变换域中的一种。这些基于MST的方法共享一个通用的三步框架,即分解,融合和重构。众所周知,无论是变换域还是空间域图像融合方法,活动水平测量和融合规则是两个关键因素。在大多数现有的图像融合方法中,这两个问题分别考虑和手动设计。但问题是手动设计并不是一件容易的事情,而且,从某种角度来看,想出一个能够把所有必要的因素考虑在内的理想设计几乎是不可能的。
目前,国内外相关学者对图像融合问题,提出了一系列融合技术。传统的基于空间域的融合方法有加权平均法、主成分分析法和清晰度评价函数等,由于其本身固有的缺陷,融合的效果并不理想,往往会导致块效应。近些年来,多尺度变换已成为图像融合领域的研究热点,而小波变换的提出是多尺度变换的里程碑,但小波变换只能捕获有限的方向信息,且在分析点状瞬时状态奇异性时不是很优。为了克服小波变换的缺陷,具有代表性的多尺度变换,如轮廓波变换、曲线波变换、剪切波变换等方法相继被提出。在多聚焦图象融合中,有些文献提出了一种基于Shearlet的多聚焦图像融合算法,该算法通过计算区域能量值对融合图像的高低频系数进行选取,但由于融合规则比较简单以及缺乏平移不变性,导致融合结果对比度低,效果不太理想。有些文献通过Sigmoid函数来计算Shearlet子带系数在PCNN每个迭代过程中的点火输出幅度,能使融合图像具有较高的对比度,但融合结果中仍存在吉布斯现象。
鉴于复剪切波的多尺度、多方向分析和具有平移不变性的特点,本发明主要对其在图像融合领域中的应用进行了分析与研究,并将深度卷积神经网络应用到高频融合中,克服了现有融合方法的不足。
发明内容
本发明的目的在于克服现有技术的缺点与不足,提出了一种基于复数剪切波变换与深度卷积神经网络的图像融合方法,突破传统融合质量不高、伪吉布斯现象严重的现象,能很好地保留细节信息而不产生伪影和失真,使融合结果更符合人眼视觉特性,进一步满足在军事监测、医学图像分析、远程遥感等方面的应用。
为实现上述目的,本发明所提供的技术方案为:基于复数剪切波变换与深度卷积神经网络的图像融合方法,包括以下步骤:
1)对两幅待融合的源图像进行复数剪切波分解,分解过程包括多尺度剖分和方向局部化,分解后得到的是低频子带图像和高频子带图像;
2)对得到的高频部分用基于深度卷积神经网络的融合规则进行高频融合,得到所需的高频系数;用引导滤波对低频部分进行融合,得到所需的低频系数;
3)对得到融合后的低频系数和高频系数进行复剪切波逆变换,得到所需的融合图像。
在步骤1)中,所述多尺度剖分是指通过非下采样金字塔滤波器对复剪切波进行分解,经过一层分解后得到一个高频子带和一个低频子带,之后的非下采样金字塔滤波器分解只在上次分解后的低频子带上进行;所述方向局部化是指对多尺度分解后的高频子带采用复剪切波滤波器进行方向局部化。
在步骤2)中,对得到的高频部分用基于深度卷积神经网络的融合规则进行高频融合,步骤如下:
2.1.1)焦点检测
让A和B表示两个高频子带图像,通过向训练后的深度卷积神经网络模型输入A和B,得到一个分数图。分数图中每个系数的取值范围为0到1,表明图像中一对大小为16×16块的焦点属性。值越接近1或0,来自图像A或B的补丁块越集中。为了生成具有相同大小的源图像的焦点图(表示为M),我们将分数图中的每个系数的值分配给M中对应的块内的所有像素,并且平均重叠的像素。从直观上看,具有丰富细节的区域的值似乎接近1(白色)或0(黑色),而普通区域的值趋向于接近0.5(灰色)的值;
2.1.2)初始分割
为了尽可能保留有用的信息,焦点图M需要进一步处理。与大多数空间域多聚焦图像融合方法一样,也采用常用的“选择最大”策略来处理焦点图。相应地,将0.5的固定阈值应用于焦点图中,生成二元图T。也就是说,焦点图被如下公式分割:
其中(x,y)代表像素值,焦点图中几乎所有的灰色像素都被正确地分类,这说明了学习的深度卷积神经网络模型即使在源图像中的平滑区域也能获得精确的性能。
2.1.3)一致性验证
二进制分割图可能包含一些错误分类的像素,使用小区域去除策略可以很容易地将其删除。具体来说,一个小于区域阈值的区域在二进制映射中被反转。用该策略获得的初始决策图进行融合时,在聚焦和散焦区域之间的边界周围会存在一些不希望的伪像,影响最终的成像效果,可以利用引导滤波器来提高初始决策图的质量。引导滤波器是一种非常有效的边缘保留滤波器,可以将引导图像的结构信息转换为输入图像的滤波结果。采用初始融合图像作为引导图像来指导初始决策图的滤波。引导滤波算法中有两个自由参数:局部窗口半径r和正则化参数ε;
2.1.4)融合
利用得到的决策图D,我们用以下逐像素加权平均规则来计算融合图像F。
F(x,y)=D(x,y)A(x,y)+(1-D(x,y))B(x,y)
其中,(x,y)代表像素值,A和B代表输入的两个源图像高频子带图像。
在步骤2)中,用引导滤波对低频部分进行融合,具体是用引导滤波对低频系数加权矩阵进行优化,使得亮度或颜色相近的相邻像素值也具有相近的权重,从而满足空间一致性,步骤如下:
2.2.1)计算源图像低频系数的区域能量;
2.2.2)利用区域能量构建低频系数加权映射矩阵;
2.2.3)引导滤波优化权重矩阵;
2.2.4)低频系数融合。
在步骤3)中,具体是采用两幅图像来实现图像融合,而在实际应用中,要实现多幅源图像的融合,只需将其做相应扩展即可。
本发明与现有技术相比,具有如下优点与有益效果:
1、本发明首次将复剪切波和深度卷积神经网络进行结合,应用到图像融合中。
2、本发明首次实现了将深度卷积神经网络应用到高频系数中,更好的提取图像的细节信息。
3、本发明很好地保留图像的细节信息而不产生伪影和失真。
4、本发明通过使用深入的学习方法来解决活动水平测量和融合规则难以设计的问题。
5、本发明方法可以克服传统的稀疏表示不足的缺点,能够更好地提取待融合图像中的特征信息,且能够提高融合图像的质量。
附图说明
图1为本发明复剪切波分解示意图。
图2为本发明使用的深度卷积神经网络的融合规则结构图。
图3为本发明逻辑流程示意图。
图4为本发明使用的实施案例图。
具体实施方式
下面结合具体实施案例对本发明作进一步说明。
如图1至图4所示,本实施例所提供的基于复数剪切波变换与深度卷积神经网络的图像融合方法,使用了复剪切波、深度卷积神经网络和引导滤波器等,其包括以下步骤:
1)对两幅待融合的源图像进行复数剪切波分解,分解过程包括多尺度剖分和方向局部化,分解后得到的是低频子带图像和高频子带图像,如图1所示,其中,所述多尺度剖分是指通过非下采样金字塔滤波器对复剪切波进行分解,经过一层分解后得到一个高频子带和一个低频子带,之后的非下采样金字塔滤波器分解只在上次分解后的低频子带上进行;所述方向局部化是指对多尺度分解后的高频子带采用复剪切波滤波器进行方向局部化。
2)将第一步得到的高频子带用基于深度卷积神经网络的融合规则进行高频融合,步骤如下:
2.1)焦点检测
让A和B表示两个高频子带图像,通过向训练后的深度卷积神经网络模型输入A和B,得到一个分数图。分数图中每个系数的取值范围为0到1,表明图像中一对大小为16×16块的焦点属性。值越接近1或0,来自图像A或B的补丁块越集中。为了生成具有相同大小的源图像的焦点图(表示为M),我们将分数图中的每个系数的值分配给M中对应的块内的所有像素,并且平均重叠的像素。从直观上看,具有丰富细节的区域的值似乎接近1(白色)或0(黑色),而普通区域的值趋向于接近0.5(灰色)的值。
2.2)初始分割
为了尽可能保留有用的信息,焦点图M需要进一步处理。与大多数空间域多聚焦图像融合方法一样,也采用常用的“选择最大”策略来处理焦点图。相应地,将0.5的固定阈值应用于焦点图中,生成二元图T。也就是说,焦点图被如下公式分割:
其中(x,y)代表像素值,焦点图中几乎所有的灰色像素都被正确地分类,这说明了学习的深度卷积神经网络模型即使在源图像中的平滑区域也能获得精确的性能。
2.3)一致性验证
二进制分割图可能包含一些错误分类的像素,使用小区域去除策略可以很容易地将其删除。具体来说,一个小于区域阈值的区域在二进制映射中被反转。用该策略获得的初始决策图进行融合时,在聚焦和散焦区域之间的边界周围会存在一些不希望的伪像,影响最终的成像效果,可以利用引导滤波器来提高初始决策图的质量。引导滤波器是一种非常有效的边缘保留滤波器,可以将引导图像的结构信息转换为输入图像的滤波结果。采用初始融合图像作为引导图像来指导初始决策图的滤波。引导滤波算法中有两个自由参数:局部窗口半径r和正则化参数ε。在本文中,将r设为8,ε设为0.1。
2.4)融合
利用得到的决策图D,我们用以下逐像素加权平均规则来计算融合图像F。
F(x,y)=D(x,y)A(x,y)+(1-D(x,y))B(x,y)
其中(x,y)代表像素值,A和B代表输入的两个源图像高频子带图像。
如图2所示,经过焦点检测、初始分割、一致性验证,最后对高频子带经过融合可带到理想的高频子带融合图像,各个步骤中会得到分数图、焦点图和决策图,用来对各个部分融合用。
3)用引导滤波对低频部分进行融合,具体是用引导滤波对低频系数加权矩阵进行优化,使得亮度或颜色相近的相邻像素值也具有相近的权重,从而满足空间一致性,步骤如下:
3.1)计算源图像低频系数的区域能量;
3.2)利用区域能量构建低频系数加权映射矩阵;
3.3)引导滤波优化权重矩阵;
3.4)低频系数融合。
4)对得到融合后的低频系数和高频系数进行复剪切波逆变换,得到融合图像。如图3所示,显示了本发明的逻辑流程示意图,对两幅待融合的图像经过本流程融合以后,会得到如图4所示的融合结果。
本文发明中,采用两幅图像来实现图像融合。在实际应用中,要实现多幅源图像的融合,只需将其做简单地扩展即可。
综上所述,本发明方法融合的图像中细节处理地更加清晰,纹理结构较为清晰,重影基本消除,也更加明亮,源图像的边缘特征和轮廓信息保留较为完整,整体视觉效果更理想,也与主观目视效果保持一致,具有实际推广价值,值得推广。
以上所述实施例只为本发明之较佳实施例,并非以此限制本发明的实施范围,故凡依本发明之形状、原理所作的变化,均应涵盖在本发明的保护范围内。
Claims (5)
1.基于复数剪切波变换与深度卷积神经网络的图像融合方法,其特征在于,包括以下步骤:
1)对两幅待融合的源图像进行复数剪切波分解,分解过程包括多尺度剖分和方向局部化,分解后得到的是低频子带图像和高频子带图像;
2)对得到的高频部分用基于深度卷积神经网络的融合规则进行高频融合,得到所需的高频系数;用引导滤波对低频部分进行融合,得到所需的低频系数;
3)对得到融合后的低频系数和高频系数进行复剪切波逆变换,得到所需的融合图像。
2.根据权利要求1所述的基于复数剪切波变换与深度卷积神经网络的图像融合方法,其特征在于:在步骤1)中,所述多尺度剖分是指通过非下采样金字塔滤波器对复剪切波进行分解,经过一层分解后得到一个高频子带和一个低频子带,之后的非下采样金字塔滤波器分解只在上次分解后的低频子带上进行;所述方向局部化是指对多尺度分解后的高频子带采用复剪切波滤波器进行方向局部化。
3.根据权利要求1所述的基于复数剪切波变换与深度卷积神经网络的图像融合方法,其特征在于:在步骤2)中,对得到的高频部分用基于深度卷积神经网络的融合规则进行高频融合,步骤如下:
2.1.1)焦点检测
让A和B表示两个高频子带图像,通过向训练后的深度卷积神经网络模型输入A和B,得到一个分数图,分数图中每个系数的取值范围为0到1,表明图像中一对大小为16×16块的焦点属性,值越接近1或0,来自图像A或B的补丁块越集中,为了生成具有相同大小的源图像的焦点图,表示为M,将分数图中的每个系数的值分配给M中对应的块内的所有像素,并且平均重叠的像素,从直观上看,具有丰富细节的区域的值接近1或0,而普通区域的值趋向于接近0.5的值;
2.1.2)初始分割
为了尽可能保留有用的信息,焦点图M需要进一步处理,与大多数空间域多聚焦图像融合方法一样,也采用常用的“选择最大”策略来处理焦点图,相应地,将0.5的固定阈值应用于焦点图中,生成二元图T,也就是说,焦点图被如下公式分割:
其中,(x,y)代表像素值,焦点图中几乎所有的灰色像素都被正确地分类,这说明学习的深度卷积神经网络模型即使在源图像中的平滑区域也能获得精确的性能;
2.1.3)一致性验证
二进制分割图可能包含一些错误分类的像素,使用小区域去除策略能够有效将其删除,具体来说,一个小于区域阈值的区域在二进制映射中被反转,用该策略获得的初始决策图进行融合时,在聚焦和散焦区域之间的边界周围会存在一些不希望的伪像,影响最终的成像效果,能够利用引导滤波器来提高初始决策图的质量,将引导图像的结构信息转换为输入图像的滤波结果,采用初始融合图像作为引导图像来指导初始决策图的滤波,其中引导滤波算法中有两个自由参数:局部窗口半径r和正则化参数ε;
2.1.4)融合
利用得到的决策图D,用以下逐像素加权平均规则来计算融合图像F
F(x,y)=D(x,y)A(x,y)+(1-D(x,y))B(x,y)
其中,(x,y)代表像素值,A和B代表输入的两个源图像高频子带图像。
4.根据权利要求1所述的基于复数剪切波变换与深度卷积神经网络的图像融合方法,其特征在于:在步骤2)中,用引导滤波对低频部分进行融合,具体是用引导滤波对低频系数加权矩阵进行优化,使得亮度或颜色相近的相邻像素值也具有相近的权重,从而满足空间一致性,步骤如下:
2.2.1)计算源图像低频系数的区域能量;
2.2.2)利用区域能量构建低频系数加权映射矩阵;
2.2.3)引导滤波优化权重矩阵;
2.2.4)低频系数融合。
5.根据权利要求1所述的基于复数剪切波变换与深度卷积神经网络的图像融合方法,其特征在于:在步骤3)中,具体是采用两幅图像来实现图像融合,而在实际应用中,要实现多幅源图像的融合,只需将其做相应扩展即可。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810432232.2A CN108629757A (zh) | 2018-05-08 | 2018-05-08 | 基于复数剪切波变换与深度卷积神经网络的图像融合方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810432232.2A CN108629757A (zh) | 2018-05-08 | 2018-05-08 | 基于复数剪切波变换与深度卷积神经网络的图像融合方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN108629757A true CN108629757A (zh) | 2018-10-09 |
Family
ID=63695923
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810432232.2A Pending CN108629757A (zh) | 2018-05-08 | 2018-05-08 | 基于复数剪切波变换与深度卷积神经网络的图像融合方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN108629757A (zh) |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109359597A (zh) * | 2018-10-18 | 2019-02-19 | 成都理工大学 | 基于多频融合深度学习的雷达步态识别方法 |
CN110047058A (zh) * | 2019-03-25 | 2019-07-23 | 杭州电子科技大学 | 一种基于残差金字塔的图像融合方法 |
CN110148083A (zh) * | 2019-05-17 | 2019-08-20 | 东南大学 | 基于快速bemd和深度学习的图像融合方法 |
CN110443775A (zh) * | 2019-06-20 | 2019-11-12 | 吉林大学 | 基于卷积神经网络的离散小波变换域多聚焦图像融合方法 |
CN110555820A (zh) * | 2019-08-28 | 2019-12-10 | 西北工业大学 | 基于卷积神经网络和动态引导滤波的图像融合方法 |
CN111027577A (zh) * | 2019-11-13 | 2020-04-17 | 湖北省纤维检验局 | 一种织物异常纹理类型识别方法和装置 |
CN111898476A (zh) * | 2020-07-12 | 2020-11-06 | 西北工业大学 | 一种耦合随机共振的自适应线谱增强方法 |
CN112184646A (zh) * | 2020-09-22 | 2021-01-05 | 西北工业大学 | 基于梯度域导向滤波和改进pcnn的图像融合方法 |
CN113487526A (zh) * | 2021-06-04 | 2021-10-08 | 湖北工业大学 | 一种结合高低频系数改进聚焦清晰度度量的多聚焦图像融合方法 |
CN115205181A (zh) * | 2022-09-15 | 2022-10-18 | 季华实验室 | 一种多聚焦图像融合方法、装置、电子设备及存储介质 |
CN117994146A (zh) * | 2024-02-29 | 2024-05-07 | 南京卓宇智能科技有限公司 | 一种基于非下采样剪切变换的红外和低照度图像融合方法 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103049895A (zh) * | 2012-12-17 | 2013-04-17 | 华南理工大学 | 基于平移不变剪切波变换的多模态医学图像融合方法 |
CN107067387A (zh) * | 2017-01-21 | 2017-08-18 | 山东理工大学 | 基于3d复数剪切波变换域广义统计相关模型的医学图像融合方法 |
-
2018
- 2018-05-08 CN CN201810432232.2A patent/CN108629757A/zh active Pending
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103049895A (zh) * | 2012-12-17 | 2013-04-17 | 华南理工大学 | 基于平移不变剪切波变换的多模态医学图像融合方法 |
CN107067387A (zh) * | 2017-01-21 | 2017-08-18 | 山东理工大学 | 基于3d复数剪切波变换域广义统计相关模型的医学图像融合方法 |
Non-Patent Citations (3)
Title |
---|
HAITHEM HERMESSI ET AL: "Convolutional neural network-based multimodal image fusion via similarity learning in the shearlet domain", 《NEURAL COMPUTING AND APPLICATIONS》 * |
YU LIU ET AL: "Multi-focus image fusion with a deep convolutional neural network", 《INFORMATION FUSION》 * |
杨艳春等: "基于引导滤波与改进PCNN 的多聚焦图像融合算法", 《光学学报》 * |
Cited By (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109359597A (zh) * | 2018-10-18 | 2019-02-19 | 成都理工大学 | 基于多频融合深度学习的雷达步态识别方法 |
CN109359597B (zh) * | 2018-10-18 | 2021-06-01 | 成都理工大学 | 基于多频融合深度学习的雷达步态识别方法 |
CN110047058B (zh) * | 2019-03-25 | 2021-04-30 | 杭州电子科技大学 | 一种基于残差金字塔的图像融合方法 |
CN110047058A (zh) * | 2019-03-25 | 2019-07-23 | 杭州电子科技大学 | 一种基于残差金字塔的图像融合方法 |
CN110148083A (zh) * | 2019-05-17 | 2019-08-20 | 东南大学 | 基于快速bemd和深度学习的图像融合方法 |
CN110443775A (zh) * | 2019-06-20 | 2019-11-12 | 吉林大学 | 基于卷积神经网络的离散小波变换域多聚焦图像融合方法 |
CN110443775B (zh) * | 2019-06-20 | 2022-12-16 | 吉林大学 | 基于卷积神经网络的离散小波变换域多聚焦图像融合方法 |
CN110555820A (zh) * | 2019-08-28 | 2019-12-10 | 西北工业大学 | 基于卷积神经网络和动态引导滤波的图像融合方法 |
CN111027577A (zh) * | 2019-11-13 | 2020-04-17 | 湖北省纤维检验局 | 一种织物异常纹理类型识别方法和装置 |
CN111898476A (zh) * | 2020-07-12 | 2020-11-06 | 西北工业大学 | 一种耦合随机共振的自适应线谱增强方法 |
CN112184646A (zh) * | 2020-09-22 | 2021-01-05 | 西北工业大学 | 基于梯度域导向滤波和改进pcnn的图像融合方法 |
CN113487526A (zh) * | 2021-06-04 | 2021-10-08 | 湖北工业大学 | 一种结合高低频系数改进聚焦清晰度度量的多聚焦图像融合方法 |
CN113487526B (zh) * | 2021-06-04 | 2023-08-25 | 湖北工业大学 | 一种结合高低频系数改进聚焦清晰度度量的多聚焦图像融合方法 |
CN115205181A (zh) * | 2022-09-15 | 2022-10-18 | 季华实验室 | 一种多聚焦图像融合方法、装置、电子设备及存储介质 |
CN117994146A (zh) * | 2024-02-29 | 2024-05-07 | 南京卓宇智能科技有限公司 | 一种基于非下采样剪切变换的红外和低照度图像融合方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108629757A (zh) | 基于复数剪切波变换与深度卷积神经网络的图像融合方法 | |
CN104809734B (zh) | 一种基于引导滤波的红外图像与可见光图像融合的方法 | |
CN109242888A (zh) | 一种结合图像显著性和非下采样轮廓波变换的红外与可见光图像融合方法 | |
CN109801250A (zh) | 基于adc-scm与低秩矩阵表达的红外与可见光图像融合方法 | |
CN103020920B (zh) | 一种低照度图像增强方法 | |
CN112184604B (zh) | 一种基于图像融合的彩色图像增强方法 | |
CN106846289B (zh) | 一种红外光强与偏振图像融合方法 | |
CN105719263B (zh) | 基于nsct域底层视觉特征的可见光和红外图像融合方法 | |
CN105139367A (zh) | 一种基于非下采样剪切波的可见光偏振图像融合方法 | |
CN102789635B (zh) | 一种图像增强方法和装置 | |
CN107451984A (zh) | 一种基于混合多尺度分析的红外与可见光图像融合算法 | |
CN101359399B (zh) | 光学图像去云方法 | |
CN107784642A (zh) | 一种红外视频和可见光视频自适应融合方法 | |
Bhatnagar et al. | An image fusion framework based on human visual system in framelet domain | |
CN109308691A (zh) | 基于图像增强与nsct的红外和可见光图像融合方法 | |
CN113837974B (zh) | 一种基于改进beeps滤波算法的nsst域电力设备红外图像增强方法 | |
CN105913404A (zh) | 基于帧累积的低照度成像方法 | |
Arivazhagan et al. | A modified statistical approach for image fusion using wavelet transform | |
CN104537678A (zh) | 一种从单幅遥感图像中去除云雾的方法 | |
CN114005042A (zh) | 基于阴影补偿和U-net的遥感影像城市建筑提取方法 | |
CN115689960A (zh) | 一种夜间场景下照度自适应的红外与可见光图像融合方法 | |
Dümbgen et al. | Near-infrared fusion for photorealistic image dehazing | |
CN112215787A (zh) | 基于显著度分析及自适应滤波器的红外和可见光图像融合方法 | |
CN110111259B (zh) | 一种基于区域引导的多源图像融合方法 | |
Patel et al. | A review on infrared and visible image fusion techniques |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20181009 |
|
RJ01 | Rejection of invention patent application after publication |