CN111429393A - 基于卷积弹性网络的多聚焦图像融合方法 - Google Patents

基于卷积弹性网络的多聚焦图像融合方法 Download PDF

Info

Publication number
CN111429393A
CN111429393A CN202010295452.2A CN202010295452A CN111429393A CN 111429393 A CN111429393 A CN 111429393A CN 202010295452 A CN202010295452 A CN 202010295452A CN 111429393 A CN111429393 A CN 111429393A
Authority
CN
China
Prior art keywords
image
fusion
detail
fused
component
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202010295452.2A
Other languages
English (en)
Inventor
张铖方
高志升
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sichuan Police College
Original Assignee
Sichuan Police College
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sichuan Police College filed Critical Sichuan Police College
Priority to CN202010295452.2A priority Critical patent/CN111429393A/zh
Publication of CN111429393A publication Critical patent/CN111429393A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10141Special mode during image acquisition
    • G06T2207/10148Varying focus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于卷积弹性网络的多聚焦图像融合方法,包括如下步骤:步骤1、源图像分解,对两个预先配准好的源图像sk(k=A,B)进行图像分解,获得它们的细节分量
Figure DDA0002452022620000011
和低频分量
Figure DDA0002452022620000012
步骤2、细节分量融合;步骤3、低频分量融合,根据设计的融合规则执行基本层
Figure DDA0002452022620000013
的融合;步骤4、图像重建,根据重建策略获得融合图像。本发明的优点是:解决了多尺度变换模型的细节捕捉能力弱的缺陷,克服稀疏域亮度较低和效率低的不足。充分利用了二尺度图像分解的优良时频特性和卷积弹性网络融合规则的优越性,不仅保留了源图像的细节,而且提高了融合图像的空间连续性,抑制了人工纹理的生成。

Description

基于卷积弹性网络的多聚焦图像融合方法
技术领域
本发明涉及卷积弹性网络模型技术领域,特别涉及基于卷积弹性网络的多聚焦图像融合方法。
背景技术
现有的多尺度变换和单一稀疏域多聚焦图像融合方法存在空间分辨率低、模糊性差的缺点,为解决上述问题,本发明结合卷积弹性网络的优越性,提出了一种新的卷积弹性网络模型的多聚焦图像融合算法,获得了较好的对比度和清晰度。
发明内容
本发明针对现有技术的缺陷,提供了一种基于卷积弹性网络的多聚焦图像融合方法,解决了现有技术中存在的缺陷。
为了实现以上发明目的,本发明采取的技术方案如下:
一种基于卷积弹性网络的多聚焦图像融合方法,包括如下步骤:
步骤1、源图像分解,对两个预先配准好的源图像sk(k=A,B)进行图像分解,获得它们的细节分量
Figure BDA0002452022600000011
和低频分量
Figure BDA0002452022600000012
步骤2、细节分量融合;子步骤如下:
1)利用ADMM(交替方向乘子法)方法得到了一个高频字典系数映射集
Figure BDA0002452022600000013
2)活跃映射Ak可以表示为
Figure BDA0002452022600000014
其中,
Figure BDA0002452022600000015
是第k幅图像的高频字典系数映射集,||·||表示
Figure BDA0002452022600000016
的1-范数。
3)通过以下融合策略得到细节层的融合字典系数映射集;
Figure BDA0002452022600000021
其中,xf,m
Figure BDA0002452022600000022
表示细节层的稀疏系数,k*表示获得最大Ak时的k值,
Figure BDA0002452022600000023
表示Ak达到最大值时k的取值。
4)最后,细节层
Figure BDA0002452022600000024
融合如下:
Figure BDA0002452022600000025
其中,xf,m是细节层的稀疏系数,dm(m∈1,...,M)是一组字典过滤器。
步骤3、低频分量融合,基本层
Figure BDA00024520226000000216
的融合规则和细节层的一致;
步骤4、图像重建,根据重建策略获得融合图像。
进一步地,所述的步骤1,其中图像分解操作如下:
Figure BDA0002452022600000026
其中,η是正则化参数,sk是待融合的源图像,
Figure BDA0002452022600000027
是源图像的低频分量,
Figure BDA0002452022600000028
表示Frobenius范数。。
进一步地,所述的步骤1,细节分量
Figure BDA0002452022600000029
被表示为
Figure BDA00024520226000000210
其中,sk是待融合的源图像,
Figure BDA00024520226000000211
是源图像的低频分量,
Figure BDA00024520226000000212
是源图像的细节分量。
进一步地,所述的步骤2,其中细节分量融合如下:
Figure BDA00024520226000000213
其中,
Figure BDA00024520226000000214
是源图像的细节分量,
Figure BDA00024520226000000215
是稀疏系数映射,dm是一组字典过滤器,λ和mu是正则化参数。
进一步地,所述的步骤2中的细节分量融合规则如下:
Figure BDA0002452022600000031
Figure BDA0002452022600000032
其中,Ak是活跃映射,xf,m
Figure BDA0002452022600000033
表示细节层的稀疏系数,k*表示获得最大Ak时的k值,
Figure BDA0002452022600000034
表示Ak达到最大值时k的取值,dm是一组字典过滤器,
Figure BDA0002452022600000035
是细节融合分量。
进一步地,所述的步骤3,其中低频分量融合规则如下:
Figure BDA0002452022600000036
其中,
Figure BDA0002452022600000037
Figure BDA0002452022600000038
是低频融合分量,Ak是活跃映射,k*表示获得最大Ak时的k值,
Figure BDA0002452022600000039
表示Ak达到最大值时k的取值。
进一步地,所述的步骤4,其中融合图像重建如下:
Figure BDA00024520226000000310
其中,
Figure BDA00024520226000000311
是低频融合分量,
Figure BDA00024520226000000312
是细节融合分量,sF是最终的融合图像。
与现有技术相比,本发明的优点在于:
解决了多尺度变换模型的细节捕捉能力弱的缺陷,克服稀疏域亮度较低和效率低的不足。本发明融合算法充分利用了二尺度图像分解的优良时频特性和卷积弹性网络融合规则的优越性,不仅保留了源图像的细节,而且提高了融合图像的空间连续性,抑制了人工纹理的生成。
附图说明
图1为本发明实施例的多聚焦图像融合算法示意图;
图2为本发明实施例使用的10组多聚焦源图;
图3为本发明实施例各算法作用在'clock'图像的融合结果图,(a)近焦源图像,(b)远焦源图像,(c)Hybrid-MSD的融合图像,(d)MWGF的融合图像,(e)ASR的融合图像,(f)DWT-SR-4的融合图像,(g)JSR的融合图像,(h)CSR的融合图像;(i)CNN的融合图像,(j)本申请方法的融合图像;
图4为本发明实施例各算法作用在'pepsi'图像的融合结果图,(a)近焦源图像,(b)远焦源图像,(c)Hybrid-MSD的融合图像,(d)MWGF的融合图像,(e)ASR的融合图像,(f)DWT-SR-4的融合图像,(g)JSR的融合图像,(h)CSR的融合图像;(i)CNN的融合图像,(j)本申请方法的融合图像;
图5为本发明实施例各算法作用在'lab'图像的融合结果图,(a)近焦源图像,(b)远焦源图像,(c)Hybrid-MSD的融合图像,(d)MWGF的融合图像,(e)ASR的融合图像,(f)DWT-SR-4的融合图像,(g)JSR的融合图像,(h)CSR的融合图像;(i)CNN的融合图像,(j)本申请方法的融合图像;
图6为本发明实施例各算法作用在'book-shelf'图像的融合结果图,(a)近焦源图像,(b)远焦源图像,(c)Hybrid-MSD的融合图像,(d)MWGF的融合图像,(e)ASR的融合图像,(f)DWT-SR-4的融合图像,(g)JSR的融合图像,(h)CSR的融合图像;(i)CNN的融合图像,(j)本申请方法的融合图像;
图7为本发明实施例作用在其它六对多聚焦源图像上的融合结果图,(a)近焦源图像,(b)远焦源图像,(c)Hybrid-MSD的融合图像,(d)MWGF的融合图像,(e)ASR的融合图像,(f)DWT-SR-4的融合图像,(g)JSR的融合图像,(h)CSR的融合图像;(i)CNN的融合图像,(j)本申请方法的融合图像;
图8为本发明实施例所有多聚焦图像作用在各种对比方法上的客观评价指标图。
具体实施方式
为使本发明的目的、技术方案及优点更加清楚明白,以下根据附图并列举实施例,对本发明做进一步详细说明。
实施例1
卷积弹性网络模型:
卷积弹性网络正则化算法可以看作是弹性网络正则化算法的一种扩展形式。卷积弹性网络正则化算法的基本思想是提供一种可选的系数表示结构,该结构将整个信号s∈RN建模为一组具有相同信号大小的系数映射集xm∈RN,并使用相应的字典滤波器集dm∈Rn ×n×m(n<m)。这个问题可以表述如下,并且可以使用ADMM方法计算,以获得主线性系统的有效解:
Figure BDA0002452022600000051
其中*表示卷积算子,λ和mu分别是L1和L2正则化参数。
为了方便描述,两个几何已配准的灰度源图像sA,sB,算法具体步骤如下:
源图像分解:
对两个已配准好的源图像sA,sB执行多尺度变换,以获得它们的低通分量
Figure BDA0002452022600000052
k=A,B和高通分量
Figure BDA0002452022600000053
k=A,B,具体如下:
Figure BDA0002452022600000054
Figure BDA0002452022600000055
细节层融合:
首先,利用ADMM方法得到了一个高频字典系数映射集
Figure BDA0002452022600000056
Figure BDA0002452022600000061
然后,活动级别映射A可以表示为
Figure BDA0002452022600000062
其次,通过“选择最大值”策略得到细节层的融合字典系数映射集:
Figure BDA0002452022600000063
最后,细节层
Figure BDA0002452022600000064
融合如下:
Figure BDA0002452022600000065
步骤3、【低频分量融合】根据“选择最大值”规则执行基本层
Figure BDA0002452022600000066
的融合:
Figure BDA0002452022600000067
步骤4、【图像重建】根据重建策略获得融合图像:
Figure BDA0002452022600000068
为证明本申请所提算法的融合效果,将算法分别应用到’clock’,’pepsi’,’lab’等10组多聚焦图像。图1为实验数据集。
参数设置:
在Hybrid-MSD方法中,考虑了一个四级分解,为此分别将空间高斯和距离高斯的标准差设为σs,0=2和σr,0=0.1,正则化参数设为λ=30。
MWGF常数参数为λ=1,大、小标度σ1和σ2分别设为5和0.5。
对于dwt-sr-4和ASR方法,将面片大小设置为8×8,将“误差容限”设置为0.1,将字典大小设置为256,将K-均值奇异值分解(K-SVD)的迭代次数固定为180。
对于JSR方法,字典大小D为128×768,误差容限ε设置为0.1,β=1。
对于基于CSR的方法,字典过滤器的数量设置为8×8×32。
基于CNN的图像融合方法:在CNN模型训练过程中,块大小设置为128。动量和重量衰减分别设置为0.9和0.0005。每个层中的偏差初始化为0。所有层的学习率都相等,最初设置为0.0001。
为了保证实验结果的准确性和公平性,本申请按照前面的建议使用了32个字典过滤器,L1正则化参数设置为λ=0.01,L2正则化参数设置为mu=0.05,ADMM惩罚参数设置为100*λ+1。
部分多聚焦图像融合结果及分析:-
图3表示‘clock’源图像集和不同融合方法获得的融合图像。从主观上看,这8种算法的融合效果相当相似,但仔细观察发现略有差异。在Hybrid-MSD、dwt-sr-4和CSR方法的融合结果中,大时钟的上边界出现了显著的伪影。特别地,dwt-sr-4融合图像在小时钟之上包含块效应,并且基于CSR的融合图像中的小时钟显示混合效应。ASR和JSR融合结果显示,大时钟顶部边界明显模糊,ASR融合结果中的大时钟表面显示振动条纹。在JSR融合结果中,小闹钟刻度盘上的刻度明显模糊。用MWGF获得的如图3(d)所示的融合图像和用CNN获得的如图3(i)所示的融合图像在边界区域上优于先前描述的结果,但是大时钟上数字“8”和“9”周围的区域稍微模糊,并且时钟边界处的线被打断。与Hybrid-MSD、dwt-sr-4和CSR混合方法相比,该方法减少了伪影和阻塞的发生,减少了模糊,有效地补偿了时钟边界处的断线缺陷。因此,利用该算法得到的融合图像具有较少的人工纹理,包含更多的源图像细节信息,并且具有较好的空间连续性。
图4表示使用不同融合方法为‘pepsi’源图像组获得的融合图像。从主观评价的角度来看,dwt-sr-4的融合效果最差:存在明显的伪影和条纹。Hybrid-MSD、ASR和JSR混合方法显示出比dwt-sr-4更好的融合效果,但图像右侧日历顶部的英文字母似乎有细微的伪影。与上述四种方法相比,MWGF、CSR和CNN方法没有明显的伪影,但啤酒瓶的右边缘不是很清晰,左边缘区域显示出不同程度的块状。本发明提出的算法不仅有效地避免了图像中的伪影产生和块现象,而且与其他方法相比,融合后的图像具有更好的边缘连续性,整体视觉效果更好。
图5表示用不同融合算法获得的‘Lab’源图像集的结果。在dwt-sr-4和JSR的结果中,实验室研究人员表现出更多的头部噪声和残余效应;dwt-sr-4图像中头部周围的阻塞现象尤其显著。与dwt-sr-4和JSR相比,在Hybrid-MSD和ASR的混合结果中,实验室研究人员头部周围的视觉效果更好,但图像仍然显示出轻微的抖动和边缘伪影,并且计算机区域的亮度较低。MWGF方法有效地保留了源图像中的高频信息,但很容易导致条纹的高频和低频边缘失真。当两幅源图像的质量差异特别大时,融合轨迹将更加明显。CSR和CNN算法弥补了Hybrid-MSD和ASR混合算法的抖动缺陷,但它们也平滑了一些边缘信息,导致边缘和纹理信息丢失。总之,我们的算法不仅能得到更平滑的边缘,而且能更好地保留源图像的高频信息。实验结果表明,该方法在视觉效果上优于对比方法,具有更自然的纹理和更好的空间连续性。
图6表示使用不同融合算法获得的‘book-shelf’源图像组的结果。dwt-sr-4融合结果最差:左边书架上的白皮书不仅在边界处模糊,而且在脊椎上显示块效应。Hybrid-MSD、ASR和JSR的混合融合结果优于dwt-sr-4的融合结果,但在左侧书架上的白皮书周围仍会出现伪影和边界模糊。相比之下,左边书架上的白皮书没有显示MWGF、CSR和CNN融合结果中的模糊或伪影,但是右边闹钟的上边缘有些模糊。CSR融合结果中模糊现象最为严重。这些结果表明,我们的方法比MWGF、CSR和CNN方法获得了更好的视觉效果,显示了较强的边缘保持和空间清晰度,从而保留了更多的源图像细节。
为了进一步证明本发明的优越性,图7示出了用所有测试方法获得的其他六幅图像(‘bottle’,‘flower’,‘plant-clock’,‘balloon’,‘book’,‘leopard’)的融合结果。在Hybrid-MSD和ASR的融合结果中,玫瑰花瓣的上边缘模糊(见图7中(c)和(e)的第二行),在MWGF和CSR的融合结果中,左叶的清晰度不足(见图7中(d)和(g)的第二行)。dwt-sr-4融合图像中左侧书皮上的字母被模糊和复制(参见图7中(f)的第5行),JSR-Gao和CNN融合图像中两本书之间的边界被不同程度地模糊(参见图7中(g)和(i)的第5行)。图7中的6组融合结果表明,本发明得到的融合图像不仅边界完整清晰,而且有效地避免了传统MST融合方法的伪影问题,取得了较好的融合效果。
图8为本发明所有多聚焦图像作用在各种对比方法上的平均客观评价指标值。对于每个评估指标,以粗体文本表示最大值,表示所有8种方法中的最佳分数。对于前两个位置的每个分数,括号中的数字表示其排名。从图8可以看出,我们的算法在QABF和QE方面获得的值比基于CNN的方法稍差,但在这些指标方面明显优于其他6种方法(Hybrid-MSD、MWGF、ASR、dwt-sr、JSR-Gao和CSR),并且在其他三个指标:QMI、QNCIE和QM方面获得的值最高。此外,本发明能够快速有效地集成源图像信息,得到的融合图像不仅细节丢失少,清晰度好,而且与源图像的一致性很高。综上所述,本发明与其他已测试的多聚焦图像融合方法相比,取得了良好的性能。
根据卷积弹性网络模型,提出一种新的基于卷积弹性网络的多聚焦图像融合方法。本申请不仅充分利用了二尺度图像分解的优良时频特性,而且充分利用了卷积弹性网络融合规则的优越性能来保持其优势。本申请将该算法和其他7种典型的融合方法应用于10组多聚焦图像的结果。基于对实验结果的主观评价和5个客观的Q序列融合性能指标,该算法不仅保留了源图像的细节,而且提高了融合图像的空间连续性,抑制了人工纹理的生成。通过实验和分析,虽然所提方法获得了较好的融合效果,但是实验的源图像只是在部分多聚焦图像上测试,而且部分客观评价指标并没有达到最优。后续需要进一步针对三维彩色、红外与可见光、医学等多模态图像和根据Q系列评价指标进一步探索新的融合算法。
本领域的普通技术人员将会意识到,这里所述的实施例是为了帮助读者理解本发明的实施方法,应被理解为本发明的保护范围并不局限于这样的特别陈述和实施例。本领域的普通技术人员可以根据本发明公开的这些技术启示做出各种不脱离本发明实质的其它各种具体变形和组合,这些变形和组合仍然在本发明的保护范围内。

Claims (7)

1.一种基于卷积弹性网络的多聚焦图像融合方法,其特征在于,包括如下步骤:
步骤1、源图像分解,对两个预先配准好的源图像sk(k=A,B)进行图像分解,获得它们的细节分量
Figure FDA0002452022590000011
和低频分量
Figure FDA0002452022590000012
步骤2、细节分量融合;子步骤如下:
1)利用ADMM交替方向乘子法方法得到了一个高频字典系数映射集
Figure FDA0002452022590000013
2)活跃映射Ak可以表示为
Figure FDA0002452022590000014
其中,
Figure FDA0002452022590000015
是第k幅图像的高频字典系数映射集,||·||表示
Figure FDA0002452022590000016
的1-范数;
3)通过以下融合策略得到细节层的融合字典系数映射集;
Figure FDA0002452022590000017
其中,xf,m
Figure FDA0002452022590000018
表示细节层的稀疏系数,k*表示获得最大Ak时的k值,
Figure FDA0002452022590000019
表示Ak达到最大值时k的取值;
4)最后,细节层
Figure FDA00024520225900000113
融合如下:
Figure FDA00024520225900000111
其中,xf,m是细节层的稀疏系数,dm(m∈1,...,M)是一组字典过滤器;
步骤3、低频分量融合,基本层
Figure FDA00024520225900000112
的融合规则和细节层的一致;
步骤4、图像重建,根据重建策略获得融合图像。
2.根据权利要求1所述的多聚焦图像融合方法,其特征在于:所述的步骤1,其中图像分解操作如下:
Figure FDA0002452022590000021
其中,η是正则化参数,sk是待融合的源图像,sLk是源图像的低频分量,
Figure FDA0002452022590000022
表示Frobenius范数。
3.根据权利要求2所述的多聚焦图像融合方法,其特征在于:所述的步骤1,细节分量
Figure FDA0002452022590000023
被表示为
Figure FDA0002452022590000024
其中,sk是待融合的源图像,
Figure FDA0002452022590000025
是源图像的低频分量,
Figure FDA0002452022590000026
是源图像的细节分量。
4.根据权利要求1所述的多聚焦图像融合方法,其特征在于:所述的步骤2,其中细节分量融合如下:
Figure FDA0002452022590000027
其中,
Figure FDA0002452022590000028
是源图像的细节分量,
Figure FDA0002452022590000029
是稀疏系数映射,dm是一组字典过滤器,λ和mu是正则化参数。
5.根据权利要求4所述的多聚焦图像融合方法,其特征在于:所述的步骤2中的细节分量融合规则如下:
Figure FDA00024520225900000210
Figure FDA00024520225900000211
其中,Ak是活跃映射,xf,m
Figure FDA00024520225900000212
表示细节层的稀疏系数,k*表示获得最大Ak时的k值,
Figure FDA00024520225900000213
表示Ak达到最大值时k的取值,dm是一组字典过滤器,
Figure FDA00024520225900000214
是细节融合分量。
6.根据权利要求1所述的多聚焦图像融合方法,其特征在于:所述的步骤3,其中低频分量融合规则如下:
Figure FDA0002452022590000031
其中,
Figure FDA0002452022590000032
Figure FDA0002452022590000033
是低频融合分量,Ak是活跃映射,k*表示获得最大Ak时的k值,
Figure FDA0002452022590000034
表示Ak达到最大值时k的取值。
7.根据权利要求1所述的多聚焦图像融合方法,其特征在于:所述的步骤4,其中融合图像重建如下:
Figure FDA0002452022590000035
其中,
Figure FDA0002452022590000036
是低频融合分量,
Figure FDA0002452022590000037
是细节融合分量,sF是最终的融合图像。
CN202010295452.2A 2020-04-15 2020-04-15 基于卷积弹性网络的多聚焦图像融合方法 Pending CN111429393A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010295452.2A CN111429393A (zh) 2020-04-15 2020-04-15 基于卷积弹性网络的多聚焦图像融合方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010295452.2A CN111429393A (zh) 2020-04-15 2020-04-15 基于卷积弹性网络的多聚焦图像融合方法

Publications (1)

Publication Number Publication Date
CN111429393A true CN111429393A (zh) 2020-07-17

Family

ID=71556364

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010295452.2A Pending CN111429393A (zh) 2020-04-15 2020-04-15 基于卷积弹性网络的多聚焦图像融合方法

Country Status (1)

Country Link
CN (1) CN111429393A (zh)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111899207A (zh) * 2020-08-11 2020-11-06 四川警察学院 基于局部处理卷积字典学习的可见光与红外图像融合方法
CN111899206A (zh) * 2020-08-11 2020-11-06 四川警察学院 基于卷积字典学习的医学脑部图像融合方法
CN111899209A (zh) * 2020-08-11 2020-11-06 四川警察学院 基于卷积匹配追踪字典学习的可见光红外图像融合方法
CN111899208A (zh) * 2020-08-11 2020-11-06 四川警察学院 基于卷积分析算子的多模态图像融合方法
CN111968119A (zh) * 2020-10-21 2020-11-20 季华实验室 基于半导体缺陷检测的图像处理方法、装置、设备及介质
CN112001870A (zh) * 2020-08-11 2020-11-27 四川警察学院 基于卷积字典学习的可见光与红外图像融合方法
CN112884686A (zh) * 2021-01-27 2021-06-01 四川警察学院 一种自适应对比度增强字典学习的多聚焦图像融合方法
CN113763300A (zh) * 2021-09-08 2021-12-07 湖北工业大学 一种联合深度上下文与卷积条件随机场的多聚焦图像融合方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108399611A (zh) * 2018-01-31 2018-08-14 西北工业大学 基于梯度正则化的多聚焦图像融合方法
CN108830818A (zh) * 2018-05-07 2018-11-16 西北工业大学 一种快速多聚焦图像融合方法
CN109191416A (zh) * 2018-08-29 2019-01-11 西安电子科技大学 基于稀疏字典学习和剪切波的图像融合方法
CN109559292A (zh) * 2018-11-22 2019-04-02 西北工业大学 基于卷积稀疏表示的多模态图像融合方法
CN111275655A (zh) * 2020-01-20 2020-06-12 上海理工大学 一种多聚焦多源图像融合方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108399611A (zh) * 2018-01-31 2018-08-14 西北工业大学 基于梯度正则化的多聚焦图像融合方法
CN108830818A (zh) * 2018-05-07 2018-11-16 西北工业大学 一种快速多聚焦图像融合方法
CN109191416A (zh) * 2018-08-29 2019-01-11 西安电子科技大学 基于稀疏字典学习和剪切波的图像融合方法
CN109559292A (zh) * 2018-11-22 2019-04-02 西北工业大学 基于卷积稀疏表示的多模态图像融合方法
CN111275655A (zh) * 2020-01-20 2020-06-12 上海理工大学 一种多聚焦多源图像融合方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
HONGLIN WU等: "Remote Sensing Image Sharpening by Integrating Multispectral Image Super-Resolution and Convolutional Sparse Representation Fusion", 《IEEE ACCESS》 *

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111899207A (zh) * 2020-08-11 2020-11-06 四川警察学院 基于局部处理卷积字典学习的可见光与红外图像融合方法
CN111899206A (zh) * 2020-08-11 2020-11-06 四川警察学院 基于卷积字典学习的医学脑部图像融合方法
CN111899209A (zh) * 2020-08-11 2020-11-06 四川警察学院 基于卷积匹配追踪字典学习的可见光红外图像融合方法
CN111899208A (zh) * 2020-08-11 2020-11-06 四川警察学院 基于卷积分析算子的多模态图像融合方法
CN112001870A (zh) * 2020-08-11 2020-11-27 四川警察学院 基于卷积字典学习的可见光与红外图像融合方法
CN111899209B (zh) * 2020-08-11 2023-09-26 四川警察学院 基于卷积匹配追踪字典学习的可见光红外图像融合方法
CN111968119A (zh) * 2020-10-21 2020-11-20 季华实验室 基于半导体缺陷检测的图像处理方法、装置、设备及介质
CN112884686A (zh) * 2021-01-27 2021-06-01 四川警察学院 一种自适应对比度增强字典学习的多聚焦图像融合方法
CN113763300A (zh) * 2021-09-08 2021-12-07 湖北工业大学 一种联合深度上下文与卷积条件随机场的多聚焦图像融合方法

Similar Documents

Publication Publication Date Title
CN111429393A (zh) 基于卷积弹性网络的多聚焦图像融合方法
CN111429392A (zh) 基于多尺度变换和卷积稀疏表示的多聚焦图像融合方法
CN108399611B (zh) 基于梯度正则化的多聚焦图像融合方法
Vu et al. Illumination-robust face recognition using retina modeling
CN112288668B (zh) 基于深度无监督密集卷积网络的红外和可见光图像融合方法
CN108932536A (zh) 基于深度神经网络的人脸姿态重建方法
CN108830818A (zh) 一种快速多聚焦图像融合方法
CN110084773A (zh) 一种基于深度卷积自编码网络的图像融合方法
He et al. Hqg-net: Unpaired medical image enhancement with high-quality guidance
CN113066025B (zh) 一种基于增量学习与特征、注意力传递的图像去雾方法
Manakov et al. Noise as domain shift: Denoising medical images by unpaired image translation
CN111179189A (zh) 基于生成对抗网络gan的图像处理方法、装置以及电子设备、存储介质
CN110363704A (zh) 融合形态及色彩的图像超分辨率重建模型构建及重建方法
CN109982090A (zh) 一种结合灰度熵和盲反卷积的采样率自适应分块压缩感知方法
CN109919098A (zh) 目标对象的识别方法和装置
CN103413351B (zh) 基于压缩感知理论的三维人脸快速重建方法
CN113222879B (zh) 一种用于红外与可见光图像融合的生成对抗网络
CN117292244A (zh) 一种基于多层卷积的红外与可见光图像融合方法
Xie et al. Multi-task generative adversarial network for retinal optical coherence tomography image denoising
Chahi et al. MFGAN: towards a generic multi-kernel filter based adversarial generator for image restoration
Thengane et al. Cycle face aging generative adversarial networks
CN108776958B (zh) 混合降质图像的图像质量评价方法和装置
CN115375628A (zh) 一种基于as-octa的图像噪声去除方法及系统
CN113744250A (zh) 基于U-Net的臂丛神经超声图像分割方法、系统、介质和装置
CN112862734A (zh) 一种使用卷积分析算子学习的多聚焦图像融合方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication

Application publication date: 20200717

RJ01 Rejection of invention patent application after publication