CN110334779A - 一种基于PSPNet细节提取的多聚焦图像融合方法 - Google Patents

一种基于PSPNet细节提取的多聚焦图像融合方法 Download PDF

Info

Publication number
CN110334779A
CN110334779A CN201910640006.8A CN201910640006A CN110334779A CN 110334779 A CN110334779 A CN 110334779A CN 201910640006 A CN201910640006 A CN 201910640006A CN 110334779 A CN110334779 A CN 110334779A
Authority
CN
China
Prior art keywords
source images
image
focusing
pspnet
value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201910640006.8A
Other languages
English (en)
Other versions
CN110334779B (zh
Inventor
张维石
周景春
张得欢
邹沛煜
刘真真
张卫东
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Dalian Maritime University
Original Assignee
Dalian Maritime University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Dalian Maritime University filed Critical Dalian Maritime University
Priority to CN201910640006.8A priority Critical patent/CN110334779B/zh
Publication of CN110334779A publication Critical patent/CN110334779A/zh
Application granted granted Critical
Publication of CN110334779B publication Critical patent/CN110334779B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/26Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
    • G06V10/267Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion by performing operations on regions, e.g. growing, shrinking or watersheds

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computational Linguistics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Evolutionary Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Abstract

本发明为一种基于PSPNet细节提取的多聚焦图像融合方法,其特征在于,包括以下步骤:首先,采用金字塔场景解析网络PSPNet聚合不同子区域的上下文信息,同时利用金字塔池化模块捕获多尺度下的全局和局部颜色、纹理、形状等特征信息,在此基础上将4种不同尺度的特征图融合为概率图;其次,采用卷积条件随机场ConvCRFs网络提取图像灰度特征,为了优化二值掩膜图,引入自适应阈值判断;为了获取两个源图像高精确聚焦区域,将优化的二值掩膜图作为权重图,并与两个源图像相乘,最后,将两个区域融合以重构清晰的融合图像。本发明通过图像上下文信息,提升全局特征利用率和分割精度,实现多聚焦图像全方位融合。

Description

一种基于PSPNet细节提取的多聚焦图像融合方法
技术领域
本发明涉及一种基于PSPNet细节提取的多聚焦图像融合方法。
背景技术
随着科学技术的发展,多种图像传感器不断出现,根据不同的传感器的成像机理,在不同工作环境下获取形式多样,信息容量各不相同的图像数据。图像融合技术综合了传感器、图像处理以及人工智能等交叉理论,成为多传感器应用关键技术之一。图像融合借助特定算法,将两幅或者多幅聚焦图像融合成为一个新图。通过不同传感器之间的信息互补,将同一时间或者不同时间关于某一场景两个或者多个图像信息综合,从而融合得到该场景下的内容更丰富、精确性更高的融合图像。当前多聚焦图像融合技术已经被应用到医学、军事以及遥感等领域。
图像融合技术被用于提取源图像中有用的信息,根据图像上下文信息,将其结合、融入到融合图像中,按照应用场景和图像来源不同,对融合的具体要求和目标也各不相同。从不同角度对图像融合技术进行分类,按照信息表征层次分类、按照图像源分类以及按融合方法分类。
按照信息表征层次不同,从低层到高层可以被分为像素级图像融合、特征级图像融合以及决策级图像融合。按照图像源的不同,图像融合技术分为同类传感器图像融合、异类传感器图像融合以及遥感图像融合。像素级图像融合按照融合方法分为基于空间域的图像融合和基于变换域的图像融合。
基于空间域的变换方法,通常在图像的像素空间上进行图像融合,常用算法包含加权平均融合算法、主成分分析融合算法、引导滤波算法以及基于不同焦点的融合算法等。该类算法通常将源图像进行分割成图像块处理,对每一对图像进行处理,融合成为全方位的清晰图,但基于图像块的处理方法会导致聚焦图像和模糊图像的边界处存在模糊现象。
基于变换域的图像融合方法需要对各源图像进行图像变换操作,然后按照一定准则进行融合,最后对融合后的变换系数逆变换操作,得到最终的融合图像。
基于空间域变换和基于变换域方法中的关键因素为活动水平测量和约束规则,人为设计很难制定一个理想融合规则。采用CNN卷积神经网络通过借助自我学习的机制,可以克服融合方法存在缺陷问题。但CNN和FCN(Fully Convolutional Networks)模型忽略了结构化知识和图像背景上下文信息,无法充分利用丰富的空间位置信息,全局和局部特征利用率较低,导致分割结果粗糙。
参考文献:
[1]Y.Cao,S.Li,"Multi-Focus Image Fusion by Nonsubsampled ShearletTransform",2011Sixth International Conference on Image and Graphics,pp.17-21,Aug.2011.
[2]S.Li,X.Kang,J.Hu,"Image fusion with guided filtering",IEEETransactions on Image Processing,vol.22,no.7,pp.2864-2875,2013.
[3]S.Liu,X.Kang,J.Hu,et al."Image matting for fusion of multi-focusimages in dynamics scenes".Information Fusion,vol.14,no.2,pp.147-162,2013.
[4]B.S.Kumar."image fusion based on pixel significance using crossbilateral filter".Single Image&Video Processing,vol.9,no.2,pp.193-204,2015.
[5]Y.Liu,X.Chen,H.Peng,et al."Multi-focus image fusion with a deepconvolutional neural network".Information Fusion,vol.36,no.5,pp.191-207,2017.
发明内容
根据上述提出的技术问题,而提供一种基于PSPNet细节提取的多聚焦图像融合方法,其特征在于,包含的步骤如下:
步骤S01:输入左聚焦源图像A和右聚焦源图像B;
步骤S02:通过金字塔场景模块解析网络PSPNet,对所述左聚焦源图像A和所述右聚焦源图像B,使用4种卷积核大小不同的卷积神经网络CNN获取局部特征和全局特征,通过所述金字塔解析模块来收集子区域上下文信息,对所述局部特征和所述全局特征进行级联处理;
步骤S03:对所述左聚焦源图像A和所述右聚焦源图像B,将所述左聚焦源图像A和右聚焦源图像B输入预设的双通道CNN模型中,对于每一个像素点输出一个概率值,将所述概率值生成概率图;
步骤S04:对步骤S03获取的所述概率图进行二值化处理,提取图像灰度特征并设定阈值为0.5,将所述概率值大于0.5的设定为1,视为聚焦,所述概率值小于等于0.5的设定为0,视为非聚焦,形成二值掩膜图;
步骤S05:对步骤S04获取的所述二值掩膜图进行优化,通过卷积条件随机场ConvCRFs结构化建模能力与卷积神经网络特征提取能力结合,得到所述概率图的细化映射,获取优化后的二值掩膜图,将所述优化后的二值掩膜图作为权重图;
步骤S06:通过将所述权重图分别与所述左聚焦源图像A和所述右聚焦源图像B相乘,分别提取所述左聚焦源图像A和所述右聚焦源图像B的聚焦区域,将所述聚焦区域相加获取全聚焦图像即融合图像。
进一步地,所述步骤S05中的ConvCRFs图像优化模型,通过左、右聚焦图像上下文信息分别提取全局语义信息和局部位置信息,所述ConvCRFs算法,通过数学计算求解,其中P(X|I)建模为CRF,所述P(X|I)符合Gibbs分布,所述P(X|I)的理论公式为:
其中,I表示包含n个像素和具有k个类别的图像分割任务的输入图像;X={X1,...,Xn}表示I被分割建模的一个随机场,其中每个参数Xi从{1,...,k}中取值;所述的输入图像I的一个分割X是通过argmaxXP(X|I)得到;
能量函数计算公式为:
其中,表示一元变量函数;表示二元变量函数,即像素的联合分布函数;i和j均表示像素;xi和xj均表示标签。
更进一步地,所述融合公式为:
Wfusion=IA*W+IB*(1-W);
其中,W表示所述权重图的像素矩阵;IA和IB分别表示所述左聚焦源图像A和所述右聚焦源图像B的二值图;所述二值图IA对应的二值图矩阵为W;所述二值图IB对应的二值图矩阵为(1-W)。
本发明与现有技术相比具有以下优势:
针对CNN和FCN网络没有有效借助图像上下文信息,分割精度不高问题。本发明通过将一对多聚焦图像放入到训练好的PSPNet网络模型中,得到概率图模型,然后将其二值化操作得到二值化图像,然后通过ConvCRFs网络模型进行优化策略设定,得到优化掩膜图,最后根据优化掩膜图进行图像像素矩阵计算,得到全方位融合图像。
基于上述理由本发明可在图像融合领域推广应用。
附图说明
为了明确本发明或者技术方案,下面将对实施例或现有技术描述所需采用的附图进行简要概况说明。
图1为本发明的整体流程示意图。
图2为本发明实施例的多聚焦融合图像;其中,图2-1为左聚焦源图像、图2-2为右聚焦源图像、图2-3为参考文献[1]采用方法获取的聚焦结果图、图2-4为参考文献[2]采用方法获取的聚焦结果图、图2-5为参考文献[3]采用方法获取的聚焦结果图、图2-6为参考文献[4]采用方法获取的聚焦结果图、图2-7为参考文献[5]采用方法获取的聚焦结果图、图2-8为采用本发明方法获取的聚焦结果图。
图3为本发明实施例的多聚焦融合图像;其中,图3-1为左聚焦源图像、图3-2为右聚焦源图像、图3-3为参考文献[1]采用方法获取的聚焦结果图、图3-4为参考文献[2]采用方法获取的聚焦结果图、图3-5为参考文献[3]采用方法获取的聚焦结果图、图3-6为参考文献[4]采用方法获取的聚焦结果图、图3-7为参考文献[5]采用方法获取的聚焦结果图、图3-8为采用本发明方法获取的聚焦结果图。
具体实施方式
为了使本技术领域的人员更好地理解本发明方案,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分的实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都应当属于本发明保护的范围。
需要说明的是,本发明的说明书和权利要求书及上述附图中的术语“第一”、“第二”等是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的本发明的实施例能够以除了在这里图示或描述的那些以外的顺序实施。此外,术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元的过程、方法、系统、产品或设备不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。
为了验证本发明算法的有效性,选择Lytro数据集中的一张彩色图作为测试数据,并与方法[1]、方法[2]、方法[3]、方法[4]、方法[5]和本发明方法的实验结果通过主客观两个方面对比分析验证。具体步骤和原理如下:
如图1所示,本发明提供了一种基于PSPNet细节提取的多聚焦图像融合方法,包括以下步骤:
步骤S01:输入左聚焦源图像A和右聚焦源图像B;
步骤S02:通过金字塔场景模块解析网络PSPNet,对所述左聚焦源图像A和所述右聚焦源图像B,使用4种卷积核大小不同的卷积神经网络CNN获取局部特征和全局特征,通过所述金字塔解析模块来收集子区域的上下文信息,对所述局部特征和所述全局特征进行级联处理;
步骤S03:对所述左聚焦源图像A和所述右聚焦源图像B,将所述左聚焦源图像A和右聚焦源图像B输入预设的双通道CNN模型中,对于每一个像素点输出一个概率值,将所述概率值生成概率图;
步骤S04:对步骤S03获取的所述概率图进行二值化处理,提取图像灰度特征并设定阈值为0.5,将所述概率值大于0.5的设定为1,视为聚焦,所述概率值小于等于0.5的设定为0,视为非聚焦,形成二值掩膜图;
步骤S05:对步骤S04获取的所述二值掩膜图进行优化,通过卷积条件随机场CONV_CRFs结构化建模能力与卷积神经网络特征提取能力结合,得到所述概率图的细化映射,获取优化后的二值掩膜图,将所述优化后的二值掩膜图作为权重图;
步骤S06:通过将所述权重图分别与所述左聚焦源图像A和所述右聚焦源图像B相乘,分别提取所述左聚焦源图像A和所述右聚焦源图像B的聚焦区域,将所述聚焦区域相加获取全聚焦图像即融合图像。
作为一种优选的实施方式,所述步骤S05中的ConvCRFs图像优化模型,通过左、右聚焦图像上下文信息分别提取全局语义信息和局部位置信息,所述ConvCRFs算法,通过数学计算求解,其中P(X|I)建模为CRF,所述P(X|I)符合Gibbs分布,所述P(X|I)的理论公式为:
其中,I表示包含n个像素和具有k个类别的图像分割任务的输入图像;X={X1,...,Xn}表示I被分割建模的一个随机场,其中每个参数Xi从{1,...,k}中取值;所述的输入图像I的一个分割X是通过argmaxXP(X|I)得到;
能量函数计算公式为:
其中,表示一元变量函数;表示二元变量函数,即像素的联合分布函数;i和j均表示像素;xi和xj均表示标签。
在本实施方式中,作为本申请的一种实施方式,所述融合公式为:
Wfusion=IA*W+IB*(1-W);
其中,W表示所述权重图的像素矩阵;IA和IB分别表示所述左聚焦源图像A和所述右聚焦源图像B的二值图;所述二值图IA对应的二值图矩阵为W;所述二值图IB对应的二值图矩阵为(1-W)。
实施例
如图2和图3所示,本发明提供与其他方法后的实验效果图。从实验后的效果图表明展现的方法都有较好的融合效果。
本实施例为了保证评价的可靠性,从互信息、非线性相关信息以及边缘保持度三个客观指标进行对比分析,
本发明使用了PSPNet网络,能够获得不同区域上下文信息,更好地提取输入图像的特征,对多目标图像具有很好地清晰化效果,图像视觉还原效果极佳。
表1为本发明算法与方法[1]、方法[2]、方法[3]、方法[4]、方法[5]的客观评价指标结果,MI(互信息)、NCIE(非线性相关信息熵)以及QAB/F(边缘保持度)反映了多聚焦图像融合结果的客观质量。从表1中的客观评价结果可以分析出本发明提出的多聚焦融合方法在MI、NCIE以及QAB/F上的具有最大值,可以从客观角度证明本发明方法融合效果优于其他方法。
表1本发明算法和其他方法客观评价指标结果
上述本发明实施例序号仅仅为了描述,不代表实施例的优劣。
在本发明的上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述的部分,可以参见其他实施例的相关描述。
在本申请所提供的几个实施例中,应该理解到,所展示的技术内容,可通过其它的方式实现。其中,以上所描述的装置实施例仅仅是示意性的,例如所述单元的划分,可以为一种逻辑功能划分,实际实现时可以有另外的划分方式。
最后应说明的是:以上实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述实施例所记载的技术方案进行修改,或者对其中部分或者全部技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明实施例技术方案的范围。

Claims (3)

1.一种基于PSPNet细节提取的多聚焦图像融合方法,其特征在于,包含的步骤如下:
步骤S01:输入左聚焦源图像A和右聚焦源图像B;
步骤S02:通过金字塔场景模块解析网络PSPNet,对所述左聚焦源图像A和所述右聚焦源图像B,使用4种卷积核大小不同的卷积神经网络CNN获取局部特征和全局特征,通过所述金字塔解析模块来收集子区域的上下文信息,对所述局部特征和所述全局特征进行级联处理;
步骤S03:对所述左聚焦源图像A和所述右聚焦源图像B,将所述左聚焦源图像A和右聚焦源图像B输入预设的双通道CNN模型中,对于每一个像素点输出一个概率值,将所述概率值生成概率图;
步骤S04:对步骤S03获取的所述概率图进行二值化处理,提取图像灰度特征并设定阈值为0.5,将所述概率值大于0.5的设定为1,视为聚焦,所述概率值小于等于0.5的设定为0,视为非聚焦,形成二值掩膜图;
步骤S05:对步骤S04获取的所述二值掩膜图进行优化,通过卷积条件随机场ConvCRFs结构化建模能力与卷积神经网络特征提取能力结合,得到所述概率图的细化映射,获取优化后的二值掩膜图,将所述优化后的二值掩膜图作为权重图;
步骤S06:通过将所述权重图分别与所述左聚焦源图像A和所述右聚焦源图像B相乘,分别提取所述左聚焦源图像A和所述右聚焦源图像B的聚焦区域,将所述聚焦区域相加获取全聚焦图像即融合图像。
2.根据权利要求1所述的一种基于PSPNet分割模型的多聚焦图像融合方法,其特征还在于:所述步骤S05中的ConvCRFs图像优化模型,通过左、右聚焦图像上下文信息分别提取全局语义信息和局部位置信息,所述ConvCRFs算法,通过数学计算求解,其中P(X|I)建模为CRF,所述P(X|I)符合Gibbs分布,所述P(X|I)的理论公式为:
其中,I表示包含n个像素和具有k个类别的图像分割任务的输入图像;X={X1,...,Xn}表示I被分割建模的一个随机场,其中每个参数Xi从{1,...,k}中取值;所述的输入图像I的一个分割X是通过argmaxXP(X|I)得到;
能量函数计算公式为:
其中,表示一元变量函数;表示二元变量函数,即像素的联合分布函数;i和j均表示像素;xi和xj均表示标签。
3.根据权利要求1所述的基于PSPNet细节提取的多聚焦图像融合方法,其特征还在于:
所述融合公式为:
Wfusion=IA*W+IB*(1-W);
其中,W表示所述权重图的像素矩阵;IA和IB分别表示所述左聚焦源图像A和所述右聚焦源图像B的二值图;所述二值图IA对应的二值图矩阵为W;所述二值图IB对应的二值图矩阵为(1-W)。
CN201910640006.8A 2019-07-16 2019-07-16 一种基于PSPNet细节提取的多聚焦图像融合方法 Active CN110334779B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910640006.8A CN110334779B (zh) 2019-07-16 2019-07-16 一种基于PSPNet细节提取的多聚焦图像融合方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910640006.8A CN110334779B (zh) 2019-07-16 2019-07-16 一种基于PSPNet细节提取的多聚焦图像融合方法

Publications (2)

Publication Number Publication Date
CN110334779A true CN110334779A (zh) 2019-10-15
CN110334779B CN110334779B (zh) 2022-09-30

Family

ID=68145310

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910640006.8A Active CN110334779B (zh) 2019-07-16 2019-07-16 一种基于PSPNet细节提取的多聚焦图像融合方法

Country Status (1)

Country Link
CN (1) CN110334779B (zh)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111402183A (zh) * 2020-01-10 2020-07-10 北京理工大学 基于八度金字塔框架的多聚焦图像融合方法
CN111861915A (zh) * 2020-07-08 2020-10-30 北京科技大学 一种显微成像场景下失焦扩散效应消除方法及装置
CN112233049A (zh) * 2020-12-14 2021-01-15 成都中轨轨道设备有限公司 一种用于提升图像清晰度的图像融合方法
CN112837251A (zh) * 2020-12-31 2021-05-25 维沃移动通信有限公司 图像处理方法及装置
CN113012174A (zh) * 2021-04-26 2021-06-22 中国科学院苏州生物医学工程技术研究所 一种图像融合方法、系统及设备
CN113538456A (zh) * 2021-06-22 2021-10-22 复旦大学 基于gan网络的图像软分割及背景替换系统
CN113705675A (zh) * 2021-08-27 2021-11-26 合肥工业大学 一种基于多尺度特征交互网络的多聚焦图像融合方法
CN113763300A (zh) * 2021-09-08 2021-12-07 湖北工业大学 一种联合深度上下文与卷积条件随机场的多聚焦图像融合方法
CN114529794A (zh) * 2022-04-20 2022-05-24 湖南大学 一种红外与可见光图像融合方法、系统及介质
CN115131412A (zh) * 2022-05-13 2022-09-30 国网浙江省电力有限公司宁波供电公司 多光谱图像融合过程中的图像处理方法
WO2023102724A1 (zh) * 2021-12-07 2023-06-15 宁德时代新能源科技股份有限公司 图像的处理方法和系统

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA2822150A1 (en) * 2013-07-26 2015-01-26 Rui Shen Method and system for fusing multiple images
CN109191413A (zh) * 2018-08-21 2019-01-11 西京学院 一种基于改进型卷积神经网络的多聚焦图像融合方法
CN109801248A (zh) * 2018-12-18 2019-05-24 重庆邮电大学 一个基于非下采样剪切变换的新型图像融合方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA2822150A1 (en) * 2013-07-26 2015-01-26 Rui Shen Method and system for fusing multiple images
CN109191413A (zh) * 2018-08-21 2019-01-11 西京学院 一种基于改进型卷积神经网络的多聚焦图像融合方法
CN109801248A (zh) * 2018-12-18 2019-05-24 重庆邮电大学 一个基于非下采样剪切变换的新型图像融合方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
魏利胜等: "基于分层模型与局部复原的多聚焦图像融合方法", 《仪器仪表学报》 *

Cited By (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111402183A (zh) * 2020-01-10 2020-07-10 北京理工大学 基于八度金字塔框架的多聚焦图像融合方法
CN111402183B (zh) * 2020-01-10 2023-08-11 北京理工大学 基于八度金字塔框架的多聚焦图像融合方法
CN111861915A (zh) * 2020-07-08 2020-10-30 北京科技大学 一种显微成像场景下失焦扩散效应消除方法及装置
CN111861915B (zh) * 2020-07-08 2021-08-13 北京科技大学 一种显微成像场景下失焦扩散效应消除方法及装置
CN112233049A (zh) * 2020-12-14 2021-01-15 成都中轨轨道设备有限公司 一种用于提升图像清晰度的图像融合方法
CN112837251A (zh) * 2020-12-31 2021-05-25 维沃移动通信有限公司 图像处理方法及装置
CN112837251B (zh) * 2020-12-31 2024-04-02 维沃移动通信有限公司 图像处理方法及装置
CN113012174A (zh) * 2021-04-26 2021-06-22 中国科学院苏州生物医学工程技术研究所 一种图像融合方法、系统及设备
CN113012174B (zh) * 2021-04-26 2024-02-09 中国科学院苏州生物医学工程技术研究所 一种图像融合方法、系统及设备
CN113538456A (zh) * 2021-06-22 2021-10-22 复旦大学 基于gan网络的图像软分割及背景替换系统
CN113538456B (zh) * 2021-06-22 2022-03-18 复旦大学 基于gan网络的图像软分割及背景替换系统
CN113705675B (zh) * 2021-08-27 2022-10-04 合肥工业大学 一种基于多尺度特征交互网络的多聚焦图像融合方法
CN113705675A (zh) * 2021-08-27 2021-11-26 合肥工业大学 一种基于多尺度特征交互网络的多聚焦图像融合方法
CN113763300A (zh) * 2021-09-08 2021-12-07 湖北工业大学 一种联合深度上下文与卷积条件随机场的多聚焦图像融合方法
WO2023102724A1 (zh) * 2021-12-07 2023-06-15 宁德时代新能源科技股份有限公司 图像的处理方法和系统
US11948287B2 (en) 2021-12-07 2024-04-02 Contemporary Amperex Technology Co., Limited Image processing method and system
CN114529794A (zh) * 2022-04-20 2022-05-24 湖南大学 一种红外与可见光图像融合方法、系统及介质
CN115131412A (zh) * 2022-05-13 2022-09-30 国网浙江省电力有限公司宁波供电公司 多光谱图像融合过程中的图像处理方法
CN115131412B (zh) * 2022-05-13 2024-05-14 国网浙江省电力有限公司宁波供电公司 多光谱图像融合过程中的图像处理方法

Also Published As

Publication number Publication date
CN110334779B (zh) 2022-09-30

Similar Documents

Publication Publication Date Title
CN110334779A (zh) 一种基于PSPNet细节提取的多聚焦图像融合方法
Tang et al. Pixel convolutional neural network for multi-focus image fusion
Lai et al. Multi-scale visual attention deep convolutional neural network for multi-focus image fusion
CN112597941B (zh) 一种人脸识别方法、装置及电子设备
WO2018125580A1 (en) Gland segmentation with deeply-supervised multi-level deconvolution networks
CN111754446A (zh) 一种基于生成对抗网络的图像融合方法、系统及存储介质
Bianco et al. Predicting image aesthetics with deep learning
CN110807757B (zh) 基于人工智能的图像质量评估方法、装置及计算机设备
CN108764244B (zh) 基于卷积神经网络和条件随机场的潜在目标区域检测方法
CN114821390B (zh) 基于注意力和关系检测的孪生网络目标跟踪方法及系统
CN112507920B (zh) 一种基于时间位移和注意力机制的考试异常行为识别方法
CN113297972B (zh) 一种基于数据融合深度学习的变电站设备缺陷智能分析方法
Zhou et al. FSAD-Net: Feedback spatial attention dehazing network
CN111798469A (zh) 基于深度卷积神经网络的数字图像小数据集语义分割方法
CN111639230B (zh) 一种相似视频的筛选方法、装置、设备和存储介质
CN113763300B (zh) 一种联合深度上下文与卷积条件随机场的多聚焦图像融合方法
Xiao et al. DMDN: Degradation model-based deep network for multi-focus image fusion
Guan et al. NCDCN: multi-focus image fusion via nest connection and dilated convolution network
Mseddi et al. Real-time scene background initialization based on spatio-temporal neighborhood exploration
CN109190505A (zh) 基于视觉理解的图像识别方法
Liu et al. An effective image fusion algorithm based on grey relation of similarity and morphology
Fang et al. TPP: Deep learning based threshold post-processing multi-focus image fusion method
CN115330759B (zh) 一种基于豪斯多夫距离计算距离损失的方法及装置
CN116129417A (zh) 一种基于低质量图像的数字仪表读数检测方法
CN110992320A (zh) 一种基于双重交错的医学图像分割网络

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
CB03 Change of inventor or designer information
CB03 Change of inventor or designer information

Inventor after: Zhou Jingchun

Inventor after: Zhang Weishi

Inventor after: Zhang Dehuan

Inventor after: Zou Peiyu

Inventor after: Liu Zhenzhen

Inventor after: Zhang Weidong

Inventor before: Zhang Weishi

Inventor before: Zhou Jingchun

Inventor before: Zhang Dehuan

Inventor before: Zou Peiyu

Inventor before: Liu Zhenzhen

Inventor before: Zhang Weidong

GR01 Patent grant
GR01 Patent grant