CN112785539A - 基于图像自适应分解及参数自适应的多聚焦图像融合方法 - Google Patents

基于图像自适应分解及参数自适应的多聚焦图像融合方法 Download PDF

Info

Publication number
CN112785539A
CN112785539A CN202110130927.7A CN202110130927A CN112785539A CN 112785539 A CN112785539 A CN 112785539A CN 202110130927 A CN202110130927 A CN 202110130927A CN 112785539 A CN112785539 A CN 112785539A
Authority
CN
China
Prior art keywords
image
degrees
focus
frequency characteristic
frequency
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202110130927.7A
Other languages
English (en)
Other versions
CN112785539B (zh
Inventor
那彦
张志恒
吴广昊
帅文强
蔡晨溪
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Xidian University
Original Assignee
Xidian University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Xidian University filed Critical Xidian University
Priority to CN202110130927.7A priority Critical patent/CN112785539B/zh
Publication of CN112785539A publication Critical patent/CN112785539A/zh
Application granted granted Critical
Publication of CN112785539B publication Critical patent/CN112785539B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20024Filtering details
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Biophysics (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Biomedical Technology (AREA)
  • Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Image Processing (AREA)

Abstract

本发明公开一种基于图像自适应分解及参数自适应的多聚焦图像融合方法,本发明的实现步骤为:1、构建反卷积神经网络;2、选取多聚焦图像;3、对图像进行自适应分解;4、对低频特征图和高频特征图进行融合;5、重构多聚焦融合图像。本发明对同场景的大小相同的两幅多聚焦图像进行融合,将通过反卷积神经网络自适应得到的高频和低频系数作为待融合图像的最佳分解系数,并将不同方向的高频特征图提取不同方向的空间频率特征输入脉冲耦合神经网络进行融合,突出了图像中的重要特征和边缘细节信息,显著提高了融合后图像的清晰度和对比度。

Description

基于图像自适应分解及参数自适应的多聚焦图像融合方法
技术领域
本发明属于图像处理技术领域,更进一步涉及图像清晰度增强技术领域中的一种基于图像自适应分解及参数自适应的多聚焦图像融合方法。本发明可用于在同一场景拍摄的聚焦距离远近不同的两幅多聚焦图像的融合中,在提取了图像边缘的清晰特征的同时,保留了聚焦度更高的清晰区域,提升最终融合图像的清晰度。
背景技术
基于变换域的图像融合方法将图像施加变换域的某种方法得到其不同分解成分系数,并对各个分解成分系数按照一定融合规则处理,最后按照变换函数做逆变换,得到最终的处理图像。根据变换域融合方法,我们可以把融合过程主要分成两个部分,一是对待融合图像使用分解方法,得到变换域系数;二是对不同性质的变换域系数,设计不同的融合规则,即分解方法和融合规则的设计。在常规的变换域图像融合算法中,对待融合图像往往采用固定的分解方法,之后在对变换域系数进行融合时,也采用固定的融合规则,无法针对图像内容自适应地设计分解方法,以及根据变换域系数的特点,自适应地设计融合规则。
反卷积神经网络是由Zeiler等人在过去几年间提出和改进的一种使用无监督且自适应训练方式的网络。反卷积神经网络是可采用推断分解手段建立层级图像表示的一种架构。这些分层特征图像包含了低、中、高等全尺度的信息,同时这些分层特征图像也能够重构回输入图像。反卷积神经网络与卷积神经网络的相同之处在于都存在卷积和池化运算,其思想大体相似,不同之处在于卷积神经网络是执行输入图像和滤波器从底层到上层的卷积运算,实现获取上层的特征图。而反卷积神经网络中特征图与滤波器的卷积是从顶层向下层依次实施的。当图像输入到该网络模型中,可获得该图像在网络不同层次上的特征图,这些特征图可以完全重构出输入图像。该方法的提出,可以视为是对图像进行多尺度变换的一种补充,为现有变换域图像融合开辟了一条新的道路。
内蒙古科技大学在其申请的专利文献“基于双通道PCNN的多聚焦图像融合方法”(申请日:2012年6月7日,申请号:201210185671.0,申请公布号:102722877A)中公开了一种基于双通道PCNN的多聚焦图像融合方法。该方法分别将在同一场景拍摄的聚焦距离远近不同的两幅图像经非下采样轮廓波变换NSCT(Nonsubsampled Contourlet Transform)变换后得到多个不同频率分解系数,将所有的分解系数作为外部输入刺激,送入到固定参数的双通道脉冲耦合神经网络PCNN(Pulse Coupled Neural Network)中进行融合,得到融合图像的各带通子带系数,最后通过NSCT逆变换得到融合图像。该方法虽然克服了传统多聚焦图像融合方法的缺陷,在一定程度上提高了融合图像的质量,但是,该方法仍然存在的不足之处是,该方法中将双通道PCNN中的参数均设定为固定值,由于网络中的参数无法随输入网络的内容自适应的改变,无法根据不同的输入内容得到最适合此输入的参数,故融合性能不够稳定。
西安电子科技大学在其申请的专利文献“基于方向滤波器及反卷积神经网络的多聚焦图像融合方法”(申请日:2020年1月22日,申请号:202010075192.8,申请公布号:CN111311530A)中公开了一种基于方向滤波器及反卷积神经网络的多聚焦图像融合方法。该方法选择两幅在同一场景拍摄的聚焦距离远近不同的多聚焦图像;设计初始高通方向滤波器和低通滤波器;将这滤波器组预置进反卷积神经网络模型中;使用所有待融合图像对滤波器进行训练;将两幅待融合图像与训练后的滤波器进行处理,分别获得这两幅图像的特征图,并使用绝对值取大的方法进行融合,得到融合特征图;将融合特征图和特定滤波器组进行卷积求和,得到最终的融合图像。该方法比传统的小波图像融合方法的融合效果有所提高,其设计的方向滤波器,可以提取图像在某一方向上细节信息,但是,该方法仍然存在的不足之处是,在反卷积神经网络训练过程中,使用所有待融合图像对滤波器进行训练,导致不同内容的图像所得到的滤波器特性均相同,无法使分解方法最好地表述图像的内容,导致融合图像分辨率低,评价参数低。该方法在设计融合规则时,对所有特征图简单地采用绝对值取大的方式,没有针对高频特征图和低频特征图的特点有针对性地去进行设计,也没有针对不同方向的高频特征图分别设计融合规则,故融合图像质量还有很大提升空间。
发明内容
本发明的目的在于针对上述现有技术的不足,提出了一种基于图像自适应分解及参数自适应的多聚焦图像融合方法,用于解决现有融合图像清晰度差,无法根据图像内容自适应地得到待融合图像的最佳分解系数的问题。
实现本发明目的的思路是,将通过反卷积神经网络自适应得到的高频和低频系数作为待融合图像的最佳分解系数,针对分解系数的特点有针对性地去进行设计融合规则,采用不同方向的空间频率特征作为脉冲耦合神经网络的输入激励对分解系数进行融合。将融合后的分解系数输入到训练后的反卷积神经网络中,重构得到多聚焦融合图像。
为实现上述目的,本发明的步骤包括如下:
(1)构建反卷积神经网络:
构造一个由输入层、反卷积层和池化层组成的反卷积神经网络,所述反卷积层包含六个7*7大小和截止频率均相同并联的滤波器,其中一个为低通高斯滤波器,其余五个为0°、45°、90°、135°、180°方向角度的高通Gabor方向滤波器,在
Figure BDA0002925257450000031
范围内按照步长
Figure BDA0002925257450000032
依次选取每个滤波器的16个截止频率;
(2)选取多聚焦图像:
选取两幅在同一场景同时拍摄的大小相同的多聚焦图像I1和I2
(3)对图像进行自适应分解:
(3a)将两幅多聚焦图像I1和I2输入到反卷积神经网络中,固定滤波器,利用目标函数分别计算多聚焦图像I1重构图像和重构前多聚焦图像I1的误差以及多聚焦图像I2重构图像和重构前多聚焦图像I2的误差,通过迭代收缩阈值算法更新每个特征图,直到目标函数最小为止,分别得到多聚焦图像I1的最优特征图和多聚焦图像I2的最优特征图;
(3b)固定特征图,利用目标函数分别计算多聚焦图像I1重构图像和重构前多聚焦图像I1的误差以及多聚焦图像I2重构图像和重构前多聚焦图像I2的误差,通过共轭梯度公式更新每个特征图,直到目标函数最小为止,分别得到多聚焦图像I1的1个低频特征图和5个为0°、45°、90°、135°、180°方向角度的高频特征图以及多聚焦图像I2的1个低频特征图和5个为0°、45°、90°、135°、180°方向角度的高频特征图,将所有的特征图组成图像I1和I2的最佳分解系数;;
(4)对低频特征图和高频特征图进行融合:
(4a)利用空间频率特征公式,分别提取图像I1和I2的0°方向高频特征图中0°方向空间频率特征H1和H2,将H1和H2输入到脉冲耦合神经网络中,输出图像I1和I2的0°方向的高频特征图的融合图;
(4b)利用空间频率特征公式,分别提取图像I1和I2的45°方向高频特征图中45°方向空间频率特征S1和S2,将S1和S2输入到脉冲耦合神经网络中,输出图像I1和I2的45°方向的高频特征图的融合图;
(4c)利用空间频率特征公式,分别提取图像I1和I2的90°方向的高频特征图中90°方向空间频率特征G1和G2,将G1和G2输入到脉冲耦合神经网络中,输出图像I1和I2的90°方向的高频特征图的融合图;
(4d)利用空间频率特征公式,分别提取图像I1和I2的135°方向的高频特征图中135°方向空间频率特征P1和P2,将P1和P2输入到脉冲耦合神经网络中,输出图像I1和I2的135°方向的高频特征图的融合图;
(4e)利用空间频率特征公式,分别提取图像I1和I2的180°方向的高频特征图中180°方向空间频率特征T1和T2,将T1和T2输入到脉冲耦合神经网络中,输出图像O1和O2的180°方向的高频特征图的融合图。
(4f)利用区域能量特征公式,分别提取图像I1和I2的低频特征图的区域能量特征Q1和Q2,将Q1和Q2输入到脉冲耦合神经网络中,输出图像I1和I2的低频特征图的融合图。
(5)重构多聚焦融合图像:
将融合后的1个低频特征图和5个为0°、45°、90°、135°、180°方向角度的高频特征图输入到训练后的反卷积神经网络中,输出重构后的多聚焦融合图像。
与现有的技术相比本发明具有以下优点:
第一,本发明在对两幅多聚焦图像进行分解时,通过构造的一个由输入层、反卷积层和池化层组成的反卷积神经网络,所述反卷积层包含六个7*7大小和截止频率均相同并联的滤波器,其中一个为低通高斯滤波器,其余五个为0°、45°、90°、135°、180°方向角度的高通Gabor方向滤波器,将训练集中的两幅多聚焦图像I1和I2输入到训练好的网络中,自适应地得到多聚焦图像I1的1个低频特征图和5个为0°、45°、90°、135°、180°方向角度的高频特征图以及多聚焦图像I2的1个低频特征图和5个为0°、45°、90°、135°、180°方向角度的高频特征图,将所有的特征图组成图像I1和I2的最佳分解系数,从而根据图像内容自适应地得到待融合图像的最佳分解系数的问题,克服了现有技术存在的由于对训练集中所有图像均采用相同的分解方法,分解系数无法完美表述待融合图像的内容,融合图像会产生局部模糊的不足,使得本发明能够可以在不同方向上有针对性地突出每个图像的重要特征和边缘细节信息,由此显著提高了融合后图像的清晰度和对比度。
第二,本发明在融合分解系数时,利用空间频率特征公式,分别提取图像I1和I2的0°方向高频特征图中0°方向空间频率特征H1和H2,将H1和H2输入到脉冲耦合神经网络中,输出图像I1和I2的0°方向的高频特征图的融合图,利用空间频率特征公式,分别提取图像I1和I2的45°方向高频特征图中45°方向空间频率特征S1和S2,将S1和S2输入到脉冲耦合神经网络中,输出图像I1和I2的45°方向的高频特征图的融合图,分别提取图像I1和I2的90°方向的高频特征图中90°方向空间频率特征G1和G2,将G1和G2输入到脉冲耦合神经网络中,输出图像I1和I2的90°方向的高频特征图的融合图,利用空间频率特征公式,分别提取图像I1和I2的135°方向的高频特征图中135°方向空间频率特征P1和P2,将P1和P2输入到脉冲耦合神经网络中,输出图像I1和I2的135°方向的高频特征图的融合图,利用空间频率特征公式,分别提取图像I1和I2的180°方向的高频特征图中180°方向空间频率特征T1和T2,将T1和T2输入到脉冲耦合神经网络中,输出图像O1和O2的180°方向的高频特征图的融合图,克服了现有技术存在的对所有高频系数均采用相同的融合方法,导致融合后的图像会出现局部不清晰的问题,使得本发明能够显著的提高融合图像在各个方向上的纹理细节,从而更有利于人眼观察。
附图说明
图1为本发明的流程图;
图2为本发明的仿真图。
具体实施方式
下面结合附图对本发明作进一步的描述。
参考图1,对本发明实现的步骤作进一步的详细描述。
步骤1,构建反卷积神经网络。
构造一个由输入层、反卷积层和池化层组成的反卷积神经网络,所述反卷积层包含六个7*7大小和截止频率均相同并联的滤波器,其中一个为低通高斯滤波器,其余五个为0°、45°、90°、135°、180°方向角度的高通Gabor方向滤波器,在
Figure BDA0002925257450000061
范围内按照步长
Figure BDA0002925257450000062
依次选取每个滤波器的16个截止频率。
步骤2,选取多聚焦图像。
选取两幅在同一场景同时拍摄的大小相同的多聚焦图像I1和I2
步骤3,对图像进行自适应分解。
将两幅多聚焦图像I1和I2输入到反卷积神经网络中,固定滤波器,利用目标函数分别计算多聚焦图像I1重构图像和重构前多聚焦图像I1的误差以及多聚焦图像I2重构图像和重构前多聚焦图像I2的误差,通过迭代收缩阈值算法更新每个特征图,直到目标函数最小为止,分别得到多聚焦图像I1的最优特征图和多聚焦图像I2的最优特征图。
所述目标函数如下:
Figure BDA0002925257450000063
其中,C(y)表示重构后图像与重构前图像的误差,||.||2表示二范数操作,
Figure BDA0002925257450000071
表示重构后的图像,y表示重构前的图像。
所述迭代收缩阈值算法的步骤如下:
第一步,按照下式,对当前迭代的每个特征图进行梯度更新,得到当前迭代梯度更新后的特征图:
Figure BDA0002925257450000072
其中,Tk表示第k个梯度更新后的特征图,k=1…6,表示第k个更新前的特征图,λ表示取值为0.1的正则权重系数,β表示梯度取值为0.2的更新步长。
第二步,对梯度更新后的每个特征图进行收缩操作,得到收缩后的特征图:
Sm=max(|Tm|-β,0)sign(Tm)
其中,Sm表示第m个收缩后的特征图,max(·)表示取大值操作,|·|表示取绝对值操作,sign(Tm)表示一个与特征图Tm大小相同的矩阵,该矩阵与特征图Tm中像素值为正数对应位置的元素取值为1,该矩阵像素值为负数时对应位置的元素取值为-1。
第三步,按照下式,对收缩后的每个特征图进行反池化操作,得到反池化操作后的每个特征图:
Cn=u*Sn
其中,Cn表示第n个反池化操作后的特征图,u表示取值为0.5的反池化系数,*表示卷积操作,其中,k,m,n的取值对应相等。
固定特征图,利用目标函数分别计算多聚焦图像I1重构图像和重构前多聚焦图像I1的误差以及多聚焦图像I2重构图像和重构前多聚焦图像I2的误差,通过共轭梯度公式更新每个特征图,直到目标函数最小为止,分别得到多聚焦图像I1的1个低频特征图和5个为0°、45°、90°、135°、180°方向角度的高频特征图以及多聚焦图像I2的1个低频特征图和5个为0°、45°、90°、135°、180°方向角度的高频特征图,将所有的特征图组成图像I1和I2的最佳分解系数。
所述目标函数如下:
Figure BDA0002925257450000081
其中,C(y)表示卷积后图像与卷积前图像的误差,||.||2表示二范数操作,
Figure BDA0002925257450000082
表示卷积后的图像,y表示卷积前的图像。
所述共轭梯度公式如下:
Figure BDA0002925257450000083
其中,Er表示卷积后图像与卷积前图像的误差,N表示特征图的总数,fk表示第k个更新前的滤波器,将位于(0,0.0005)范围的与误差Er对应的滤波器作为更新后的滤波器。
步骤4,对低频特征图和高频特征图进行融合。
利用空间频率特征公式,分别提取图像I1和I2的0°方向高频特征图中0°方向空间频率特征H1和H2,将H1和H2输入到脉冲耦合神经网络中,输出图像I1和I2的0°方向的高频特征图的融合图。
利用空间频率特征公式,分别提取图像I1和I2的45°方向高频特征图中45°方向空间频率特征S1和S2,将S1和S2输入到脉冲耦合神经网络中,输出图像I1和I2的45°方向的高频特征图的融合图。
利用空间频率特征公式,分别提取图像I1和I2的90°方向的高频特征图中90°方向空间频率特征G1和G2,将G1和G2输入到脉冲耦合神经网络中,输出图像I1和I2的90°方向的高频特征图的融合图。
利用空间频率特征公式,分别提取图像I1和I2的135°方向的高频特征图中135°方向空间频率特征P1和P2,将P1和P2输入到脉冲耦合神经网络中,输出图像I1和I2的135°方向的高频特征图的融合图。
利用空间频率特征公式,分别提取图像I1和I2的180°方向的高频特征图中180°方向空间频率特征T1和T2,将T1和T2输入到脉冲耦合神经网络中,输出图像O1和O2的180°方向的高频特征图的融合图。
利用区域能量特征公式,分别提取图像I1和I2的低频特征图的区域能量特征Q1和Q2,将Q1和Q2输入到脉冲耦合神经网络中,输出图像I1和I2的低频特征图的融合图。
所述0°方向的空间频率特征公式如下:
Figure BDA0002925257450000091
Figure BDA0002925257450000092
其中,H1(a1,b1)表示特征图像I1中第a1行第b1列的0°方向空间频率,H2(a2,b2)表示特征图像I2中第a2行第b2列的0°方向空间频率,a1,b1,a2,b2的范围均相等,为1,2,3…256,a1+m表示在特征图像I1中第a1行的基础上移动m行,b1+n表示在特征图像I2中第b1列的基础上移动n列,m,n的范围均相等,为-1,0,1。
45°方向的空间频率特征公式如下:
Figure BDA0002925257450000093
Figure BDA0002925257450000094
其中,S1(c1,d1)表示特征图像矩阵I1的第c1行第d1列的45°方向空间频率,S2(c2,d2)表示特征图像矩阵I2的第c2行第d2列的45°方向空间频率,c1,d1,c2,d2的范围均相等,为1,2,3…256,c1+m表示在特征图像I1中第c1行的基础上移动m行,d1+n表示在特征图像I2中第d1列的基础上移动n列,m,n的范围均相等,为-1,0,1。
90°方向的空间频率特征公式如下:
Figure BDA0002925257450000101
Figure BDA0002925257450000102
其中,G1(e1,f1)表示特征图像矩阵I1的第e1行第f1列的90°方向空间频率,G2(e2,f2)表示特征图像矩阵I2的第e2行第f2列的90°方向空间频率,e1,f1,e2,f2的范围均相等,为1,2,3…256,e1+m表示在特征图像I1中第e1行的基础上移动m行,f1+n表示在特征图像I2中第f1列的基础上移动n列,m,n的范围均相等,为-1,0,1。
135°方向的空间频率特征公式如下:
Figure BDA0002925257450000103
Figure BDA0002925257450000104
其中,P1(g1,h1)表示特征图像矩阵I1的第g1行第h1列的135°方向空间频率,P2(g2,h2)表示特征图像矩阵I2的第g2行第h2列的135°方向空间频率,g1,h1,g2,h2的范围均相等,为1,2,3…256,g1+m表示在特征图像I1中第g1行的基础上移动m行,h1+n表示在特征图像I2中第h1列的基础上移动n列,m,n的范围均相等,为-1,0,1。
180°方向的空间频率特征公式如下:
Figure BDA0002925257450000105
Figure BDA0002925257450000106
其中,O1(i1,j1)表示特征图像矩阵I1的第i1行第j1列的180°方向空间频率,O2(i2,j2)表示特征图像矩阵I2的第i2行第j2列的180°方向空间频率,i1,j1,i2,j2的范围均相等,为1,2,3…256,g1+m表示在特征图像I1中第i1行的基础上移动m行,h1+n表示在特征图像I2中第j1列的基础上移动n列,m,n的范围均相等,为-1,0,1。
将多聚焦图像I1和I2的高频特征图的空间频率特征输入到脉冲耦合神经网络进行多次迭代进行融合,设定网络参数,包括神经元与周围神经元的连接矩阵、脉冲耦合神经网络放大系数、神经元链接度、脉冲耦合神经网络的衰减时间常数:其中神经元与周围神经元的连接矩阵设定为[0.707,1,0707;1,0,1;0.707,1,0707],脉冲耦合神经网络的放大系数设定为0.2。
神经元链接度的计算公式如下:
Figure BDA0002925257450000111
其中,β表示图像的神经元链接度,Dmean表示将图像所有灰度相加与像素总数相除得到的平均灰度值。
脉冲耦合神经网络的衰减时间常数的计算公式如下:
Figure BDA0002925257450000112
其中,αθ表示衰减时间常数,ln(·)表示取以e为底的对数操作,e·表示取e的指数操作,log(·)表示取以2为底的对数操作。
步骤5,重构多聚焦融合图像。
将融合后的1个低频特征图和5个为0°、45°、90°、135°、180°方向角度的高频特征图输入到训练后的反卷积神经网络中,输出重构后的多聚焦融合图像。
下面结合仿真实验,对本发明的效果作进一步详细描述。
1.仿真条件和内容:
本发明的仿真实验采用的硬件测试平台是:处理器为Inter Core i7,主频为2.4GHz,内存8GB。
软件平台为Windows 10 64位操作系统、Matlab R2018b进行仿真测试。
本发明所使用的多聚焦图像I1和I2为申请人于2017年自行拍摄的两幅多聚焦图像。
2.仿真内容与结果:
本发明的仿真实验是采用本发明的方法和在利用小波变换对所采集的两张多聚焦图像进行变换的基础上并采用与本发明相同的高、低频融合规则对高、低频特征图进行融合仿真的方法对多聚焦图像I1和I2进行融合仿真。
下面结合图2,对本发明仿真实验的效果作进一步的描述。
图2(a)为多聚焦图像I1,图2(b)为多聚焦图像I2,图2(c)为采用融合的现有技术分别对图2(a)和图2(b)进行融合后获得的融合图像,图2(d)为采用本发明的方法分别对图2(a)和图2(b)进行融合获得的融合图像。
对比图2(c)与图2(d)可发现,本发明的仿真结果图像分辨率更高,图像更清晰。
利用两个评价指标(平均梯度、信息熵)分别对两种方法的融合图像进行评价。利用下面公式,计算融合图像的平均梯度IE,融合图像的信息熵AG:
Figure BDA0002925257450000121
其中,IE表示融合图像的平均梯度,L表示融合图像的量化的灰度等级,P(xi)表示融合图像的灰度级xi的分布概率。
Figure BDA0002925257450000122
其中,AG表示融合图像的信息熵,H和V分别表示融合图像的行数和列数,x(i,j)表示融合图像在坐标(i,j)处的像素值。
将采用本发明仿真实验得到的融合图像的平均梯度和信息熵,与融合的现有技术得到的融合图像的平均梯度和信息熵结果绘制成表1
表1融合图像平均梯度和信息熵参数表
Figure BDA0002925257450000131
由表1中可见,本发明所得的多聚焦融合图像的平均梯度、信息熵,两个评价参数与现有技术相比更高,说明本发明图像信息丰富,图像更加清晰,细节更加丰富,融合效果更好。
综上所述,本发明用于多聚焦图像融合能够取得较好的融合结果。
以上描述仅是本发明的一个具体实例,并未构成对本发明的任何限制,显然对于本领域的专业人员来说,在了解了本发明内容和原理后,都可能在不背离本发明原理、结构的情况下,进行形式和细节上的各种修改和改变,但是这些基本发明思想的修正和改变仍在本发明的权利要求保护范围之内。

Claims (4)

1.一种基于图像自适应分解及参数自适应的多聚焦图像融合方法,其特征在于,将通过反卷积神经网络自适应得到的高频和低频系数作为待融合图像的最佳分解系数,该方法的步骤包括如下:
(1)构建反卷积神经网络:
构造一个由输入层、反卷积层和池化层组成的反卷积神经网络,所述反卷积层包含六个7*7大小和截止频率均相同并联的滤波器,其中一个为低通高斯滤波器,其余五个为0°、45°、90°、135°、180°方向角度的高通Gabor方向滤波器,在
Figure FDA0002925257440000011
范围内按照步长
Figure FDA0002925257440000012
依次选取每个滤波器的16个截止频率;
(2)选取多聚焦图像:
选取两幅在同一场景同时拍摄的大小相同的多聚焦图像I1和I2
(3)对图像进行自适应分解:
(3a)将两幅多聚焦图像I1和I2输入到反卷积神经网络中,固定滤波器,利用目标函数分别计算多聚焦图像I1重构图像和重构前多聚焦图像I1的误差以及多聚焦图像I2重构图像和重构前多聚焦图像I2的误差,通过迭代收缩阈值算法更新每个特征图,直到目标函数最小为止,分别得到多聚焦图像I1的最优特征图和多聚焦图像I2的最优特征图;
(3b)固定特征图,利用目标函数分别计算多聚焦图像I1重构图像和重构前多聚焦图像I1的误差以及多聚焦图像I2重构图像和重构前多聚焦图像I2的误差,通过共轭梯度公式更新每个特征图,直到目标函数最小为止,分别得到多聚焦图像I1的1个低频特征图和5个为0°、45°、90°、135°、180°方向角度的高频特征图以及多聚焦图像I2的1个低频特征图和5个为0°、45°、90°、135°、180°方向角度的高频特征图,将所有的特征图组成图像I1和I2的最佳分解系数;
(4)对低频特征图和高频特征图进行融合:
(4a)利用空间频率特征公式,分别提取图像I1和I2的0°方向高频特征图中0°方向空间频率特征H1和H2,将H1和H2输入到脉冲耦合神经网络中,输出图像I1和I2的0°方向的高频特征图的融合图;
(4b)利用空间频率特征公式,分别提取图像I1和I2的45°方向高频特征图中45°方向空间频率特征S1和S2,将S1和S2输入到脉冲耦合神经网络中,输出图像I1和I2的45°方向的高频特征图的融合图;
(4c)利用空间频率特征公式,分别提取图像I1和I2的90°方向的高频特征图中90°方向空间频率特征G1和G2,将G1和G2输入到脉冲耦合神经网络中,输出图像I1和I2的90°方向的高频特征图的融合图;
(4d)利用空间频率特征公式,分别提取图像I1和I2的135°方向的高频特征图中135°方向空间频率特征P1和P2,将P1和P2输入到脉冲耦合神经网络中,输出图像I1和I2的135°方向的高频特征图的融合图;
(4e)利用空间频率特征公式,分别提取图像I1和I2的180°方向的高频特征图中180°方向空间频率特征T1和T2,将T1和T2输入到脉冲耦合神经网络中,输出图像O1和O2的180°方向的高频特征图的融合图。
(4f)利用区域能量特征公式,分别提取图像I1和I2的低频特征图的区域能量特征Q1和Q2,将Q1和Q2输入到脉冲耦合神经网络中,输出图像I1和I2的低频特征图的融合图。
(5)重构多聚焦融合图像:
将融合后的1个低频特征图和5个为0°、45°、90°、135°、180°方向角度的高频特征图输入到训练后的反卷积神经网络中,输出重构后的多聚焦融合图像。
2.根据权利要求1所述的基于图像自适应分解及参数自适应的多聚焦图像融合方法,其特征在于,步骤(3a)、步骤(3b)中所述目标函数如下:
Figure FDA0002925257440000031
其中,C(y)表示重构后图像与重构前图像的误差,||.||2表示二范数操作,
Figure FDA0002925257440000032
表示重构后的图像,y表示重构前的图像。
3.根据权利要求2所述的基于图像自适应分解及参数自适应的多聚焦图像融合方法,其特征在于,步骤(3a)中所述迭代收缩阈值算法的步骤如下:
第一步,按照下式,对当前迭代的每个特征图进行梯度更新,得到当前迭代梯度更新后的特征图:
Figure FDA0002925257440000033
其中,Tk表示第k个梯度更新后的特征图,k=1…6,表示第k个更新前的特征图,λ表示取值为0.1的正则权重系数,β表示梯度取值为0.2的更新步长;
第二步,对梯度更新后的每个特征图进行收缩操作,得到收缩后的特征图:
Sm=max(|Tm|-β,0)sign(Tm)
其中,Sm表示第m个收缩后的特征图,max(·)表示取大值操作,|·|表示取绝对值操作,sign(Tm)表示一个与特征图Tm大小相同的矩阵,该矩阵与特征图Tm中像素值为正数对应位置的元素取值为1,该矩阵像素值为负数时对应位置的元素取值为-1;
第三步,按照下式,对收缩后的每个特征图进行反池化操作,得到反池化操作后的每个特征图:
Cn=u*Sn
其中,Cn表示第n个反池化操作后的特征图,u表示取值为0.5的反池化系数,*表示卷积操作,其中,k,m,n的取值对应相等。
4.根据权利要求3所述的基于图像自适应分解及参数自适应的多聚焦图像融合方法,其特征在于,步骤(3b)中所述共轭梯度公式如下:
Figure FDA0002925257440000041
其中,Er表示卷积后图像与卷积前图像的误差,N表示特征图的总数,fk表示第k个更新前的滤波器,将位于(0,0.0005)范围的与误差Er对应的滤波器作为更新后的滤波器。
CN202110130927.7A 2021-01-30 2021-01-30 基于图像自适应分解及参数自适应的多聚焦图像融合方法 Active CN112785539B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110130927.7A CN112785539B (zh) 2021-01-30 2021-01-30 基于图像自适应分解及参数自适应的多聚焦图像融合方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110130927.7A CN112785539B (zh) 2021-01-30 2021-01-30 基于图像自适应分解及参数自适应的多聚焦图像融合方法

Publications (2)

Publication Number Publication Date
CN112785539A true CN112785539A (zh) 2021-05-11
CN112785539B CN112785539B (zh) 2022-12-02

Family

ID=75760070

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110130927.7A Active CN112785539B (zh) 2021-01-30 2021-01-30 基于图像自适应分解及参数自适应的多聚焦图像融合方法

Country Status (1)

Country Link
CN (1) CN112785539B (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113313663A (zh) * 2021-06-09 2021-08-27 哈尔滨工业大学 基于零样本学习的多聚焦图像融合方法
CN114359200A (zh) * 2021-12-28 2022-04-15 中国科学院西安光学精密机械研究所 基于脉冲耦合神经网络的图像清晰度评估方法及终端设备
CN116847209A (zh) * 2023-08-29 2023-10-03 中国测绘科学研究院 一种基于Log-Gabor与小波的光场全聚焦影像生成方法及系统

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109919892A (zh) * 2019-03-18 2019-06-21 西安电子科技大学 滤波器预置深度学习神经网络的图像融合方法
CN111311530A (zh) * 2020-01-22 2020-06-19 西安电子科技大学 基于方向滤波器及反卷积神经网络的多聚焦图像融合方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109919892A (zh) * 2019-03-18 2019-06-21 西安电子科技大学 滤波器预置深度学习神经网络的图像融合方法
CN111311530A (zh) * 2020-01-22 2020-06-19 西安电子科技大学 基于方向滤波器及反卷积神经网络的多聚焦图像融合方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
YADONGXU ET AL.: "Multi-focus image fusion using learning based matting with sum of the Gaussian-based modified Laplacian", 《DIGITAL SIGNAL PROCESSING》 *
李子恒: "像素级多聚焦图像融合算法研究", 《中国优秀硕士学位论文全文数据库 (信息科技辑)》 *

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113313663A (zh) * 2021-06-09 2021-08-27 哈尔滨工业大学 基于零样本学习的多聚焦图像融合方法
CN113313663B (zh) * 2021-06-09 2022-09-09 哈尔滨工业大学 基于零样本学习的多聚焦图像融合方法
CN114359200A (zh) * 2021-12-28 2022-04-15 中国科学院西安光学精密机械研究所 基于脉冲耦合神经网络的图像清晰度评估方法及终端设备
CN114359200B (zh) * 2021-12-28 2023-04-18 中国科学院西安光学精密机械研究所 基于脉冲耦合神经网络的图像清晰度评估方法及终端设备
CN116847209A (zh) * 2023-08-29 2023-10-03 中国测绘科学研究院 一种基于Log-Gabor与小波的光场全聚焦影像生成方法及系统
CN116847209B (zh) * 2023-08-29 2023-11-03 中国测绘科学研究院 一种基于Log-Gabor与小波的光场全聚焦影像生成方法及系统

Also Published As

Publication number Publication date
CN112785539B (zh) 2022-12-02

Similar Documents

Publication Publication Date Title
CN112785539B (zh) 基于图像自适应分解及参数自适应的多聚焦图像融合方法
CN108765319B (zh) 一种基于生成对抗网络的图像去噪方法
Divakar et al. Image denoising via CNNs: An adversarial approach
CN109035142B (zh) 一种对抗网络结合航拍图像先验的卫星图像超分辨方法
CN108399611B (zh) 基于梯度正则化的多聚焦图像融合方法
CN109389585B (zh) 一种基于全卷积神经网络的脑组织提取方法
CN106056647B (zh) 一种基于卷积稀疏双层迭代学习的磁共振快速成像方法
CN107633486A (zh) 基于三维全卷积神经网络的结构磁共振图像去噪方法
Li et al. Multifocus image fusion using wavelet-domain-based deep CNN
CN111080567A (zh) 基于多尺度动态卷积神经网络的遥感图像融合方法及系统
CN111275655B (zh) 一种多聚焦多源图像融合方法
Liu et al. The classification and denoising of image noise based on deep neural networks
CN108596222B (zh) 基于反卷积神经网络的图像融合方法
CN116051408B (zh) 一种基于残差自编码的图像深度去噪方法
CN112163994A (zh) 一种基于卷积神经网络的多尺度医学图像融合方法
CN114693561A (zh) 一种基于卷积神经网络的核磁共振图像处理方法与系统
CN113793289A (zh) 基于cnn和nsct的多光谱图像和全色图像模糊融合方法
CN111242873A (zh) 基于稀疏表示的图像去噪方法
Yang et al. An effective and comprehensive image super resolution algorithm combined with a novel convolutional neural network and wavelet transform
CN115861083B (zh) 一种多尺度和全局特征的高光谱与多光谱遥感融合方法
CN116823688A (zh) 基于多尺度模糊质量评估的多聚焦图像融合方法及系统
CN116309221A (zh) 一种多光谱图像融合模型的构建方法
CN111047537A (zh) 一种图像去噪中恢复细节的系统
Zou et al. EDCNN: a novel network for image denoising
CN115205308A (zh) 一种基于线状滤波和深度学习的眼底图像血管分割方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant