CN110443775A - 基于卷积神经网络的离散小波变换域多聚焦图像融合方法 - Google Patents

基于卷积神经网络的离散小波变换域多聚焦图像融合方法 Download PDF

Info

Publication number
CN110443775A
CN110443775A CN201910534050.0A CN201910534050A CN110443775A CN 110443775 A CN110443775 A CN 110443775A CN 201910534050 A CN201910534050 A CN 201910534050A CN 110443775 A CN110443775 A CN 110443775A
Authority
CN
China
Prior art keywords
source images
band
subband
refer
frequency
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201910534050.0A
Other languages
English (en)
Other versions
CN110443775B (zh
Inventor
李雄飞
于爽
张小利
张维轩
王泽宇
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Jilin University
Original Assignee
Jilin University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Jilin University filed Critical Jilin University
Priority to CN201910534050.0A priority Critical patent/CN110443775B/zh
Publication of CN110443775A publication Critical patent/CN110443775A/zh
Application granted granted Critical
Publication of CN110443775B publication Critical patent/CN110443775B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration by the use of more than one image, e.g. averaging, subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/136Segmentation; Edge detection involving thresholding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

本发明属于多聚焦图像融合技术领域,具体涉及基于卷积神经网络的离散小波变换域多聚焦图像融合方法;该方法包括以下步骤:首先,使用离散小波变换将每个源图像分解为一个低频子带和多个高频子带;第二,将它们输入到不同的卷积神经网络中,以便获得不同的权重图;第三,通过执行一系列处理后重新定义决策图;第四,根据它们的决策图,将频率子带分别融合;最后,通过逆DWT获得融合图像;是一种能够将多聚焦图像融合在一起,获得“全焦点”图像的融合方法,解决了多聚焦图像融合的问题,其融合效果优于传统融合方法,适应性更强,可以高效率的融合多聚焦图像。

Description

基于卷积神经网络的离散小波变换域多聚焦图像融合方法
技术领域
本发明属于多聚焦图像融合技术领域,具体涉及基于卷积神经网络的离散小波变换域多聚焦图像融合方法。
背景技术
由于镜头的景深有限,因此很难获得所有物体都“聚焦”的图像。这种现象可能会对人类观察和进一步的图像处理造成负面影响。当数码设备关聚焦于同一场景中的不同目标时,我们可以获得一组清晰区域的分布不同的图像。这些图像称为多聚焦图像。一种获得“全焦点”图像的方式是多聚焦图像融合。
多聚焦图像融合是图像融合的重要分支,已广泛应用于医学图像处理、遥感和目标检测等各个领域。现今,已有的各种算法大致可以分为以下两类:
第一类是基于空域的方法:这类方法通常从空域中的源图像中选择聚焦图像部分以构建融合图像。就这种方法而言,最简单的模型是将源图像取平均,但是这种模型可能会导致边界效应。为了解决这个问题,已经提出了一些基于区域的方法,其中源图像被分割成块,并且每组块使用基于清晰度度量的方法进行融合。如果图像块部分聚焦同时部分散焦,则使用传统算法在融合图像中获得聚焦区域几乎是不可能的。此外,融合图像的效果与块的大小相关。该领域的另一种经典方法是检测聚焦区域,将这些区域组合成融合图像。这些方法的优点在于可以成功地挑选出聚焦区域内的像素作为融合图像的像素。但是,由于无法准确地辨别聚焦区域的边界,因此可能导致融合图像聚焦区域中的边界存在模糊的现象。另外,由于源图像类型的限制,基于空间域的方法在融合颜色和纹理图像方面表现不佳。
另一类是基于变换域的方法。在这些算法中,通常有三个步骤:图像分解、系数融合和图像重建。多尺度变换(MST)是此类别中非常流行的方法,MST中有许多经典方法,如拉普拉斯金字塔,离散小波变换(DWT),抽取采样滤波器(FSD)层次金字塔,双树复小波变换(DTCWT),和非下采样轮廓波变换(NSCT)。这些方法可以克服空间域方法难以克服的伪影和边界效应的问题。然而,MST中的这些方法具有一些缺点,例如,它们对传感器噪声敏感并且缺乏方向感。
尽管基于变换域的方法不受源图像类型的限制,但它需要人工设计的融合规则。就现有方法而言,每个融合规则都有一定的局限性。这些规则根据某些指标选择系数,但每个指标都有其重点和局限性。因此,融合图像的质量主要受到无法很好地选择融合系数的限制。如果有方法可以自适应地选择特征和融合规则,则一定会对提高融合图像的质量产生积极影响。
发明内容
本发明的目的在于克服现有技术的不足,提出一种基于卷积神经网络的离散小波变换域的多聚焦图像融合方法,利用了卷积神经网络(简称CNN)的端到端方法,是一种能够将多聚焦图像融合在一起,获得“全焦点”图像的融合方法,解决了多聚焦图像融合的问题,其融合效果优于传统融合方法,适应性更强,可以高效率的融合多聚焦图像。
基于卷积神经网络的离散小波变换域的多聚焦图像融合方法,包括以下步骤:
步骤一,使用离散小波变换将每个源图像分解为一个低频子带和多个高频子带;
步骤二,基于卷积神经网络的性质,构建一种卷积神经网络,该网络分为两个分支,网络的输入是一对频率子带,输出为概率分布;
利用ImageNet中的Pen类图像对构建的卷积神经网络进行训练,首先将Pen类图像分割成块后应用高斯模糊,使每个图像块都有对应的清晰块和模糊块,再将得到的清晰块和模糊块作为两个分支输入构建的卷积神经网络中进行训练,得到CNN-High网络模型和CNN-Low网络模型;
再将源图像的高频子带数据代入得到的CNN-High网络模型,得到关于源图像的高频子带权重图;
同理,将源图像的低频子带数据代入得到的CNN-Low网络模型,得到关于源图像的低频子带权重图;
步骤三,在步骤二得到的权重图上通过修正的拉普拉斯和算法即SML算法运算获得决策图,得到对应子带的决策图;
步骤四,根据决策图,将不同频率子带分别融合,得到融合子带FSk(k={LL,LH,HL,HH});
其中FS为融合子带,k是一个参数,对应的是各个频率的融合子带,当k=LL时,FSk就是指低频的融合子带,当k=LH时,FSk就是指横向为低频、纵向为高频的融合子带,当k=HL时,FSk就是指横向为高频、纵向为低频的融合子带,当k=HH时,FSk就是指横向为高频、纵向为高频的融合子带;
步骤五,通过逆离散小波变换对融合子带FSk(k={LL,LH,HL,HH})进行重构,获得融合图像F。
所述步骤一中,使用2维离散小波变换的如下分解公式将不同的源图像分别分解为一个低频子带和3个高频子带:
其中,I代表源图像,ILL表示源图像的低频子带,ILH表示源图像的横向为低频、纵向为高频的子带,IHL表示源图像的横向为高频、纵向为低频的子带,IHH表示源图像的横向和纵向均为高频的子带,M、N代表图像尺寸的宽和长,(m,n)表示各子带中像素的空间坐标,H、D、V分别代表源图像水平、垂直和对角线所在的方向;(x,y)为小波函数中的不同尺度和不同位置,为小波基底,分别代表源图像水平方向H、对角线方向V和垂直方向D的不同尺度、不同位置的小波函数。
所述的步骤二中构建一种卷积神经网络,其构建过程为:
网络分为两个分支,网络的输入是一对频率子带,用{PA,PB}表示,PA为源图像A的频率子带,PB为源图像B的频率子带,将PA和PB分别输入网络的两个分支中;
网络中每个分支的第一层均由96个卷积核组成,每个卷积核的大小被设计为11*11,步长为4;
PA和PB分别经过了两个分支的第一层卷积后,再分别经过两个分支的第二层卷积,两个分支的第二层均由256个卷积核组成,每个卷积核的大小被设计为5*5,步长为4;
PA和PB分别经过了两个分支的第二层卷积后,再分别经过两个分支的第三层卷积,两个分支第三层均由256个卷积核组成,每个卷积核的大小被设计为2*2,步长为2;
PA和PB分别经过了两个分支的第三层卷积后,再分别经过两个分支的第四层卷积,两个分支第四层均由384个卷积核组成,每个卷积核的大小被设计为3*3,步长为2;
PA和PB分别经过两个分支的第四层卷积后,第五层作为连接层,将网络的两个分支合并;
第六层是全连接层,将前一层的数据输出转换为256维特征向量,目的是提取图像特征;
在第六层和第七层之间,利用dropout机制避免过拟合,阈值设置为0.5;
第七层也是全连接层,充当分类器,最后将图像块分为两类,输出为概率分布,即将PA和PB以概率分布的形式进行分类;
每个分支中的每层数据输出都由ReLU激活函数处理;
在每个分支的第二层和第四层均使用填充技术填充像素点,每个分支第二层的像素点填充大小设置为2,每个分支第四层的像素点填充大小设置为1;
由于构建的卷积神经网络为端到端的结构,输出结果即为输入参数的权重图。
所述步骤三中,采用SML算法计算决策图的公式如下:
其中,TH1为小于0.5的阈值,将S(x,y)函数定义如下:
MLD(m,n)=|2D(m,n)-D(m-step,n)-D(m+step,n)|+
|2D(m,n)-D(m,n-step)-D(m,n+step)|
其中DMk(m,n)是指频率子带k在(m,n)处的决策图,Wk是指频率子带k的权重图,Ak(m,n)指源图像A的对应频率子带在坐标(m,n)处的像素点,Bk(m,n)指源图像B的对应频率子带在坐标(m,n)处的像素点,S(Ak(m,n),Bk(m,n))是指根据源图像A和源图像B生成的决策图,是指对源图像A对应频率子带的权重图应用SML算法的结果,是指对源图像B对应频率子带的权重图应用SML算法的结果,D指的是被SML处理的图像,即源图像A或源图像B;
P和Q均为参数,用于计算测量的窗口大小,窗口大小计算公式为:(2P+1)×(2Q+1);
p和q都是变量;
SMLD(m,n)表示图像D中位于(m,n)处的SML值;MLD(m,n)表示图像D中(m,n)处修改后的拉普拉斯值即ML值;在本文中,步长step总是等于1。
所述步骤四中,根据决策图,对不同频率子带分别融合,以得到融合好的融合子带,该步骤中融合使用的公式为:
FSk=Ak×DMk+Bk×(1-DMk)k={LL,LH,HL,HH}
其中k是一个参数,对应的是各个频率的融合子带。
当k=LL时,FSk就是指低频的融合子带,Ak是指源图像A的低频子带,Bk是指源图像B的低频子带,DMk是指低频子带的决策图;
当k=LH时,FSk就是指横向为低频、纵向为高频的融合子带,Ak是指源图像A的横向为低频、纵向为高频的子带,Bk是指源图像B的横向为低频、纵向为高频的子带,DMk是指横向为低频、纵向为高频的子带的决策图;
当k=HL时,FSk就是指横向为高频、纵向为低频的融合子带,Ak是指源图像A的横向为高频、纵向为低频的子带,Bk是指源图像B的横向为高频、纵向为低频的子带,DMk是指横向为高频、纵向为低频的子带的决策图;
当k=HH时,FSk就是指横向为高频、纵向为高频的融合子带;Ak是指源图像A的横向为高频、纵向为高频的子带,Bk是指源图像B的横向为高频、纵向为高频的子带,DMk是指横向为高频、纵向为高频的子带的决策图。
所述步骤五中,利用逆离散小波变换,对步骤四得到的融合后的融合频率子带FSk(k={LL,LH,HL,HH})进行重构,得到融合图像F,其中重构公式如下所示:
其中,F(x,y)为(x,y)处的融合图像结果,FSLL指低频的融合子带,FSLH指横向为低频、纵向为高频的融合子带,FSHL指横向为高频、纵向为低频的融合子带,FSHH指横向为高频、纵向为高频的融合子带。
本发明的有益效果:
(1)通过一种在DWT域中使用CNN的新型多聚焦图像融合算法获得了更清晰的融合图像。
(2)设计了一种用于融合的CNN的新结构,减轻了人为设计参数的负担。
(3)用SML算法用于校正决策图,使得决策图更加准确。
(4)本方法能够较好地处理多聚焦图像,可以将聚焦区域不同的照片融合成全聚焦图像,并且可以在融合图像中保留更多边缘和细节信息。
附图说明
图1是本发明的流程图。
图2是本发明实施例中构建的卷积神经网络的网络模型结构。
图3是本发明实施例中示例图像所产生的低频子带的决策图DMLL
图4是本发明实施例中示例图像所产生的横向为低频、纵向为高频子带的决策图DMLH
图5是本发明实施例中示例图像所产生的横向为高频、纵向为低频子带的决策图DMHL
图6是本发明实施例中示例图像所产生的横向为高频、纵向为高频子带的决策图DMHH
图7是本发明实施例中的源图像A。
图8是本发明实施例中的源图像B。
图9是本发明实施例中得到的融合图像F。
具体实施方式
实施例1
基于卷积神经网络的离散小波变换域的多聚焦图像融合方法,所采用的技术方案包括如下步骤:如图1所示,
步骤一,使用离散小波变换将源图像A和源图像B分别分解为一个低频子带和3个高频子带,即:
源图像和源图像
其中,LL表示低频子带,LH表示横向为低频、纵向为高频的子带,HL表示横向为高频、纵向为低频的子带,HH表示横向为高频、纵向为高频的子带,ALL和BLL分别为源图像A的低频子带和源图像B的低频子带,ALH表示源图像A的横向为低频、纵向为高频的子带,AHL表示源图像A的横向为高频、纵向为低频的子带,AHH表示源图像A的横向为高频、纵向为高频的子带,BLH表示源图像B的横向为低频、纵向为高频的子带,BHL表示源图像B的横向为高频、纵向为低频的子带,BHH表示源图像B的横向为高频、纵向为高频的子带,DWT是离散小波变换的简称;
步骤二,基于卷积神经网络的性质,构造一种卷积神经网络,如图2所示,该网络分为两个分支,网络的输入是一对频率子带,输出为概率分布;
利用ImageNet中的Pen类图像对构建的卷积神经网络进行训练,首先将Pen类图像分割成块后应用高斯模糊,使每个图像块都有对应的清晰块和模糊块,再将两个图像块的清晰块作为两个分支输入构建的卷积神经网络中进行训练,得到CNN-High网络模型,再将两个图像块的模糊块作为两个分支输入构建的卷积神经网络中进行训练,得到CNN-Low网络模型;
再将源图像的高频子带数据代入得到的CNN-High网络模型,得到关于源图像的高频子带权重图;
同理,将源图像的低频子带数据代入得到的CNN-Low网络模型,得到关于源图像的低频子带权重图;
具体地说:
将ALL和BLL分别输入到CNN-Low中,分别得到ALL的权重图和BLL的权重图
将ALH,AHL,AHH,BLH,BHL和BHH分别输入到网络模型CNN-High中,分别得到ALH的权重图AHL的权重图AHH的权重图BLH的权重图BHL的权重图和BHH的权重图
步骤三,将源图像A和源图像B对应子带的权重图通过修正的拉普拉斯和算法即SML算法运算,得到对应子带的决策图,即:{ALL,BLL}→DMLL,{ALH,BLH}→DMLH,{AHL,BHL}→DMHL,{AHH,BHH}→DMHH;其中DM是指DecionMap即决策图,DMLL是指低频子带的决策图,DMLH是指横向为低频、纵向为高频子带的决策图,DMHL是指横向为高频、纵向为低频子带的决策图,DMHH是指横向为高频、纵向为高频子带的决策图;
该决策图为二值化图像,所有像素点非0即1,该步骤获得的决策图如图3至图6所示。
步骤四,利用步骤三中的决策图,分别将不同频率的子带融合,得到融合子带FSk(k={LL,LH,HL,HH});其中FS为融合子带,k是一个参数,对应的是各个频率的融合子带,当k=LL时,FSk就是指低频的融合子带,当k=LH时,FSk就是指横向为低频、纵向为高频的融合子带,当k=HL时,FSk就是指横向为高频、纵向为低频的融合子带,当k=HH时,FSk就是指横向为高频、纵向为高频的融合子带;
步骤五,通过逆离散小波变换对融合子带FSk(k={LL,LH,HL,HH})进行重构,获得融合图像F。
所述步骤一中,使用2维离散小波变换的如下分解公式将源图像A和源图像B分别分解为一个低频子带和3个高频子带:
其中,I代表源图像,ILL表示I的低频子带,ILH表示源图像的横向为低频、纵向为高频的子带,IHL表示源图像的横向为高频、纵向为低频的子带,IHH表示源图像的横向和纵向均为高频的子带,M、N代表图像尺寸的宽和长,(m,n)表示各子带中像素的空间坐标,H、D、V分别代表源图像水平、垂直和对角线所在的方向;(x,y)为小波函数中的不同尺度和不同位置,为小波基底,分别代表源图像水平方向H、对角线方向V和垂直方向D的不同尺度、不同位置的小波函数。
所述步骤二中,构建一种卷积神经网络,该网络模型结构如图2所示:
该网络的构建过程为:网络分为两个分支,网络的输入是一对频率子带,用{PA,PB}表示,PA为源图像A的频率子带,PB为源图像B的频率子带,其中由于PA和PB都是彩色图像块,其图像大小均为128*128,PA和PB分别输入网络的两个分支中;
网络中每个分支的第一层均由96个卷积核组成,每个卷积核的大小被设计为11*11,步长被设置为4,随着卷积核尺寸的增大,接收域变大,获得的信息量也越来越丰富;
PA和PB分别经过了两个分支的第一层11*11的卷积后,分别生成图像大小为30*30的96幅图像,图像的像素大小计算公式为:(128-11)/4+1≈30,此时步长为4;
网络中每个分支的第二层均由256个卷积核组成,每个卷积核的大小被设计为5*5,步长被设置为4,PA和PB分别经过了两个分支的第二层5*5的卷积后,分别生成图像大小为30*30的256幅图像,图像的像素大小计算公式为:(128-5)/4+1≈30;
网络中每个分支的第三层均由256个卷积核组成,每个卷积核的大小被设计为2*2,步长被设置为2,PA和PB分别经过了两个分支的第三层2*2的卷积后,分别生成图像大小为15*15的256幅图像,图像的像素大小计算公式为:(30-2)/2+1=15;
网络中每个分支的第四层均由384个卷积核组成,每个卷积核的大小被设计为3*3,步长被设置为2,PA和PB分别经过了两个分支的第四层3*3的卷积后,分别生成图像大小为15*15的384幅图像,图像的像素大小计算公式为:(30-3)/2+1≈15;
步长和卷积核的调整是在设计这个网络的过程中,通过优化选择的,步长是由大变小,意味着前几层的网络粗糙的学习,后面学习的仔细。在第四层,之所以步长会为2,是想得到一个与第四层输入图像相同大小的图像,所以此时步长并没有变小,而是取2。
此外,每个分支中每层的数据输出都由一个激活函数来处理,本网络中使用的是名为ReLU的激活函数,激活函数的主要目的是将模型中一个节点的输入信号转换成一个输出信号,该输出信号被用作堆叠中下一个卷积层的输入;
为了避免最后几层图像的尺寸太小,在每个分支的第二层和第四层均使用填充技术填充像素点,使图像拥有理想的尺寸,每个分支第二层的像素点填充大小设置为2,每个分支第四层的像素点填充大小设置为1;
第五层是一个连接层,它的作用是合并网络的两个分支,PA和PB经过第四层后,两个分支分别生成图像大小为15*15的384幅图像,第五层将它们合并成图像大小相同的768幅图像;
第六层是全连接层,将前一层的数据输出转换为256维特征向量,目的是提取图像特征;
在第六层和第七层之间,利用dropout机制避免过拟合,阈值设置为0.5;
第七层也是全连接层,充当分类器,最后将图像块分为两类,输出为概率分布,即将PA和PB以概率分布的形式进行分类;
训练上述构建出的卷积神经网络,具体过程如下:
训练该卷积神经网络所使用的数据来自ImageNet中的Pen类图像,(选择这种类型的图像是因为它与多焦点图像中的聚焦区域相似),将这些图像分割成块后应用高斯模糊,其目的是使每个图像块都有对应的清晰块和模糊块;再将两个图像块的清晰块作为两个分支输入构建的卷积神经网络中进行训练,得到CNN-High网络模型,再将两个图像块的模糊块作为两个分支输入构建的卷积神经网络中进行训练,得到CNN-Low网络模型;
再将源图像的高频子带数据代入得到的CNN-High网络模型,得到关于源图像的高频子带权重图;
同理,将源图像的低频子带数据代入得到的CNN-Low网络模型,得到关于源图像的低频子带权重图;
由于该网络为端到端的结构,输出结果即为输入参数的权重图:即 其中WLL为低频子带的权重图,WHL为横向为高频、纵向为低频的子带的权重图,WLH为横向为低频、纵向为高频的子带的权重图,WHH为横向为高频、纵向为高频的子带的权重图。
所述步骤三中,采用SML算法计算决策图DM的公式如下:
其中,TH1为小于0.5的阈值,将S(x,y)函数定义如下:
MLD(m,n)=|2D(m,n)-D(m-step,n)-D(m+step,n)|+
|2D(m,n)-D(m,n-step)-D(m,n+step)|
其中DMk(m,n)是指频率子带k在(m,n)处的决策图,Wk是指频率子带k的权重图,Ak(m,n)指源图像A的对应频率子带在坐标(m,n)处的像素点,Bk(m,n)指源图像B的对应频率子带在坐标(m,n)处的像素点,S(Ak(m,n),Bk(m,n))是指根据源图像A和源图像B生成的决策图,是指对源图像A对应频率子带的权重图应用SML算法的结果,是指对源图像B对应频率子带的权重图应用SML算法的结果,D指的是被SML处理的图像,即源图像A或源图像B;
P和Q均为参数,用于计算测量的窗口大小,窗口大小计算公式为:(2P+1)×(2Q+1);p和q都是变量;
SMLD(m,n)表示图像D中位于(m,n)处的SML值;MLD(m,n)表示图像D中(m,n)处修改后的拉普拉斯值即ML值;在本文中,SML算法涉及到的步长step总是等于1。
所述步骤四中,根据它们的决策图,对不同频率子带分别融合,以得到融合好的融合子带,该步骤中融合使用的公式为:
FSk=Ak×DMk+Bk×(1-DMk)k={LL,LH,HL,HH}
其中k是一个参数,对应的是各个频率的融合子带,当k=LL时,FSk就是指低频的融合子带,Ak是指源图像A的低频子带,Bk是指源图像B的低频子带,DMk是指低频子带的决策图;
当k=LH时,FSk就是指横向为低频、纵向为高频的融合子带,Ak是指源图像A的横向为低频、纵向为高频的子带,Bk是指源图像B的横向为低频、纵向为高频的子带,DMk是指横向为低频、纵向为高频的子带的决策图;
当k=HL时,FSk就是指横向为高频、纵向为低频的融合子带,Ak是指源图像A的横向为高频、纵向为低频的子带,Bk是指源图像B的横向为高频、纵向为低频的子带,DMk是指横向为高频、纵向为低频的子带的决策图;
当k=HH时,FSk就是指横向为高频、纵向为高频的融合子带;Ak是指源图像A的横向为高频、纵向为高频的子带,Bk是指源图像B的横向为高频、纵向为高频的子带,DMk是指横向为高频、纵向为高频的子带的决策图;
所述步骤五中,利用逆离散小波变换,对步骤四得到的融合后的融合频率子带FSk(k={LL,LHHL,HH})进行重构,得到融合图像F,其中重构公式如下所示:
其中,F(x,y)为(x,y)处的融合图像结果,FSLL指低频的融合子带,FSLH指横向为低频、纵向为高频的融合子带,FSHL指横向为高频、纵向为低频的融合子带,FSHH指横向为高频、纵向为高频的融合子带,为小波基底,分别代表源图像水平方向H、对角线方向V和垂直方向D不同尺度、不同位置的小波函数。
可以看出,这些图像符合我们的训练需求,以及多聚焦图像本身的特点。

Claims (6)

1.基于卷积神经网络的离散小波变换域的多聚焦图像融合方法,其特征在于,包括以下步骤:
步骤一,使用离散小波变换将每个源图像分解为一个低频子带和多个高频子带;
步骤二,基于卷积神经网络的性质,构建一种卷积神经网络,该网络分为两个分支,网络的输入是一对频率子带,输出为概率分布;
利用ImageNet中的Pen类图像对构建的卷积神经网络进行训练,首先将Pen类图像分割成块后应用高斯模糊,使每个图像块都有对应的清晰块和模糊块,再将得到的清晰块和模糊块作为两个分支输入构建的卷积神经网络中进行训练,得到CNN-High网络模型和CNN-Low网络模型;
再将源图像的高频子带数据代入得到的CNN-High网络模型,得到关于源图像的高频子带权重图;
同理,将源图像的低频子带数据代入得到的CNN-Low网络模型,得到关于源图像的低频子带权重图;
步骤三,在步骤二得到的权重图上通过修正的拉普拉斯和算法即SML算法运算获得决策图,得到对应子带的决策图;
步骤四,根据决策图,将不同频率子带分别融合,得到融合子带FSk(k={LL,LH,HL,HH});
其中FS为融合子带,k是一个参数,对应的是各个频率的融合子带,当k=LL时,FSk就是指低频的融合子带,当k=LH时,FSk就是指横向为低频、纵向为高频的融合子带,当k=HL时,FSk就是指横向为高频、纵向为低频的融合子带,当k=HH时,FSk就是指横向为高频、纵向为高频的融合子带;
步骤五,通过逆离散小波变换对融合子带FSk(k={LL,LH,HL,HH})进行重构,获得融合图像F。
2.根据权利要求1所述的基于卷积神经网络的离散小波变换域的多聚焦图像融合方法,其特征在于,所述步骤一中,使用2维离散小波变换的如下分解公式将不同的源图像分别分解为一个低频子带和3个高频子带:
其中,I代表源图像,ILL表示I的低频子带,ILH表示源图像的横向为低频、纵向为高频的子带,IHL表示源图像的横向为高频、纵向为低频的子带,IHH表示源图像的横向和纵向均为高频的子带,M、N代表图像尺寸的宽和长,(m,n)表示各子带中像素的空间坐标,H、D、V分别代表源图像水平、垂直和对角线所在的方向;(x,y)为小波函数中的不同尺度和不同位置,为小波基底,分别代表源图像水平方向H、对角线方向V和垂直方向D的不同尺度、不同位置的小波函数。
3.根据权利要求2所述的基于卷积神经网络的离散小波变换域的多聚焦图像融合方法,其特征在于,所述的步骤二中构建一种卷积神经网络,其构建过程为:
网络分为两个分支,网络的输入是一对频率子带,用{PA,PB}表示,PA为源图像A的频率子带,PB为源图像B的频率子带,将PA和PB分别输入网络的两个分支中;
网络中每个分支的第一层均由96个卷积核组成,每个卷积核的大小被设计为11*11,步长为4;
PA和PB分别经过了两个分支的第一层卷积后,再分别经过两个分支的第二层卷积,两个分支的第二层均由256个卷积核组成,每个卷积核的大小被设计为5*5,步长为4;
PA和PB分别经过了两个分支的第二层卷积后,再分别经过两个分支的第三层卷积,两个分支第三层均由256个卷积核组成,每个卷积核的大小被设计为2*2,步长为2;
PA和PB分别经过了两个分支的第三层卷积后,再分别经过两个分支的第四层卷积,两个分支第四层均由384个卷积核组成,每个卷积核的大小被设计为3*3,步长为2;
PA和PB分别经过两个分支的第四层卷积后,第五层作为连接层,将网络的两个分支合并;
第六层是全连接层,将前一层的数据输出转换为256维特征向量,目的是提取图像特征;
在第六层和第七层之间,利用dropout机制避免过拟合,阈值设置为0.5;
第七层也是全连接层,充当分类器,最后将图像块分为两类,输出为概率分布,即将PA和PB以概率分布的形式进行分类;
每个分支中的每层数据输出都由ReLU激活函数处理;
在每个分支的第二层和第四层均使用填充技术填充像素点,每个分支第二层的像素点填充大小设置为2,每个分支第四层的像素点填充大小设置为1;
由于构建的卷积神经网络为端到端的结构,输出结果即为输入参数的权重图。
4.根据权利要求3所述的基于卷积神经网络的离散小波变换域的多聚焦图像融合方法,其特征在于,所述步骤三中,采用SML算法计算决策图的公式如下:
其中,TH1为小于0.5的阈值,将S(x,y)函数定义如下:
MLD(m,n)=|2D(m,n)-D(m-step,n)-D(m+step,n)|+
|2D(m,n)-D(m,n-step)-D(m,n+step)|
其中DMk(m,n)是指频率子带k在(m,n)处的决策图,Wk是指频率子带k的权重图,Ak(m,n)指源图像A的对应频率子带在坐标(m,n)处的像素点,Bk(m,n)指源图像B的对应频率子带在坐标(m,n)处的像素点,S(Ak(m,n),Bk(m,n))是指根据源图像A和源图像B生成的决策图,是指对源图像A对应频率子带的权重图应用SML算法的结果,是指对源图像B对应频率子带的权重图应用SML算法的结果,D指的是被SML处理的图像,即源图像A或源图像B;
P和Q均为参数,用于计算测量的窗口大小,窗口大小计算公式为:(2P+1)×(2Q+1);p和q都是变量;
SMLD(m,n)表示图像D中位于(m,n)处的SML值;MLD(m,n)表示图像D中(m,n)处修改后的拉普拉斯值即ML值;在本文中,步长step总是等于1。
5.根据权利要求4所述的基于卷积神经网络的离散小波变换域的多聚焦图像融合方法,其特征在于,所述步骤四中,根据决策图,对不同频率子带分别融合,以得到融合好的融合子带,该步骤中融合使用的公式为:
FSk=Ak×DMk+Bk×(1-DMk) k={LL,LH,HL,HH}
其中K是一个参数,对应的是各个频率的融合子带。
当k=LL时,FSk就是指低频的融合子带,Ak是指源图像A的低频子带,Bk是指源图像B的低频子带,DMk是指低频子带的决策图;
当k=LH时,FSk就是指横向为低频、纵向为高频的融合子带,Ak是指源图像A的横向为低频、纵向为高频的子带,Bk是指源图像B的横向为低频、纵向为高频的子带,DMk是指横向为低频、纵向为高频的子带的决策图;
当k=HL时,FSk就是指横向为高频、纵向为低频的融合子带,Ak是指源图像A的横向为高频、纵向为低频的子带,Bk是指源图像B的横向为高频、纵向为低频的子带,DMk是指横向为高频、纵向为低频的子带的决策图;
当k=HH时,FSk就是指横向为高频、纵向为高频的融合子带;Ak是指源图像A的横向为高频、纵向为高频的子带,Bk是指源图像B的横向为高频、纵向为高频的子带,DMk是指横向为高频、纵向为高频的子带的决策图。
6.根据权利要求5所述的基于卷积神经网络的离散小波变换域的多聚焦图像融合方法,其特征在于,所述步骤五中,利用逆离散小波变换,对步骤四得到的融合后的融合频率子带FSk(k={LL,LH,HL,HH})进行重构,得到融合图像F,其中重构公式如下所示:
其中,F(x,y)为(x,y)处的融合图像结果,FSLL指低频的融合子带,FSLH指横向为低频、纵向为高频的融合子带,FSHL指横向为高频、纵向为低频的融合子带,FSHH指横向为高频、纵向为高频的融合子带。
CN201910534050.0A 2019-06-20 2019-06-20 基于卷积神经网络的离散小波变换域多聚焦图像融合方法 Active CN110443775B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910534050.0A CN110443775B (zh) 2019-06-20 2019-06-20 基于卷积神经网络的离散小波变换域多聚焦图像融合方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910534050.0A CN110443775B (zh) 2019-06-20 2019-06-20 基于卷积神经网络的离散小波变换域多聚焦图像融合方法

Publications (2)

Publication Number Publication Date
CN110443775A true CN110443775A (zh) 2019-11-12
CN110443775B CN110443775B (zh) 2022-12-16

Family

ID=68428304

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910534050.0A Active CN110443775B (zh) 2019-06-20 2019-06-20 基于卷积神经网络的离散小波变换域多聚焦图像融合方法

Country Status (1)

Country Link
CN (1) CN110443775B (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111401309A (zh) * 2020-04-08 2020-07-10 中国人民解放军海军航空大学 基于小波变换的cnn训练和遥感图像目标识别方法
CN111462027A (zh) * 2020-03-12 2020-07-28 中国地质大学(武汉) 基于多尺度梯度和抠图的多聚焦图像融合方法
CN113284079A (zh) * 2021-05-27 2021-08-20 山东第一医科大学(山东省医学科学院) 一种多模态医学图像融合方法
CN113822828A (zh) * 2021-08-18 2021-12-21 吉林大学 一种多聚焦图像融合方法

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110257505A1 (en) * 2010-04-20 2011-10-20 Suri Jasjit S Atheromatic?: imaging based symptomatic classification and cardiovascular stroke index estimation
CN103037168A (zh) * 2012-12-10 2013-04-10 内蒙古科技大学 基于复合型PCNN的平稳Surfacelet域多聚焦图像融合方法
CN103985105A (zh) * 2014-02-20 2014-08-13 江南大学 基于统计建模的Contourlet域多模态医学图像融合方法
US20160080665A1 (en) * 2008-06-18 2016-03-17 Spectral Image, Inc. Systems and methods for hyperspectral imaging
CN105675778A (zh) * 2016-01-06 2016-06-15 东南大学 基于双树复小波变换的色谱重叠峰分解方法
CN108629757A (zh) * 2018-05-08 2018-10-09 山东理工大学 基于复数剪切波变换与深度卷积神经网络的图像融合方法
CN108710910A (zh) * 2018-05-18 2018-10-26 中国科学院光电研究院 一种基于卷积神经网络的目标识别方法及系统
CN109272010A (zh) * 2018-07-27 2019-01-25 吉林大学 基于卷积神经网络的多尺度遥感图像融合方法
CN109509160A (zh) * 2018-11-28 2019-03-22 长沙理工大学 一种利用逐层迭代超分辨率的分层次遥感图像融合方法

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20160080665A1 (en) * 2008-06-18 2016-03-17 Spectral Image, Inc. Systems and methods for hyperspectral imaging
US20110257505A1 (en) * 2010-04-20 2011-10-20 Suri Jasjit S Atheromatic?: imaging based symptomatic classification and cardiovascular stroke index estimation
CN103037168A (zh) * 2012-12-10 2013-04-10 内蒙古科技大学 基于复合型PCNN的平稳Surfacelet域多聚焦图像融合方法
CN103985105A (zh) * 2014-02-20 2014-08-13 江南大学 基于统计建模的Contourlet域多模态医学图像融合方法
CN105675778A (zh) * 2016-01-06 2016-06-15 东南大学 基于双树复小波变换的色谱重叠峰分解方法
CN108629757A (zh) * 2018-05-08 2018-10-09 山东理工大学 基于复数剪切波变换与深度卷积神经网络的图像融合方法
CN108710910A (zh) * 2018-05-18 2018-10-26 中国科学院光电研究院 一种基于卷积神经网络的目标识别方法及系统
CN109272010A (zh) * 2018-07-27 2019-01-25 吉林大学 基于卷积神经网络的多尺度遥感图像融合方法
CN109509160A (zh) * 2018-11-28 2019-03-22 长沙理工大学 一种利用逐层迭代超分辨率的分层次遥感图像融合方法

Non-Patent Citations (5)

* Cited by examiner, † Cited by third party
Title
JING WANG等: "Exposure correction using deep", 《JOURNAL OF ELECTRONIC IMAGING》 *
SINGH R: "Development of Multi-focus Image Fusion Technique using Discrete Wavelet Transform (DWT) for Digital Images", 《INTERNATIONAL JOURNAL OF ENGINEERING SCIENCES & RESEARCH TECHNOLOGY》 *
唐富川: "一种基于图像融合的图像放大处理方法", 《微计算机信息》 *
李雄飞等: "医学图像融合质量评价模型", 《小型微型计算机系统》 *
杜进楷等: "基于双树复小波变换的自适应PCNN图像融合算法", 《红外技术》 *

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111462027A (zh) * 2020-03-12 2020-07-28 中国地质大学(武汉) 基于多尺度梯度和抠图的多聚焦图像融合方法
CN111462027B (zh) * 2020-03-12 2023-04-18 中国地质大学(武汉) 基于多尺度梯度和抠图的多聚焦图像融合方法
CN111401309A (zh) * 2020-04-08 2020-07-10 中国人民解放军海军航空大学 基于小波变换的cnn训练和遥感图像目标识别方法
CN111401309B (zh) * 2020-04-08 2022-07-12 中国人民解放军海军航空大学 基于小波变换的cnn训练和遥感图像目标识别方法
CN113284079A (zh) * 2021-05-27 2021-08-20 山东第一医科大学(山东省医学科学院) 一种多模态医学图像融合方法
CN113284079B (zh) * 2021-05-27 2023-02-28 山东第一医科大学(山东省医学科学院) 一种多模态医学图像融合方法
CN113822828A (zh) * 2021-08-18 2021-12-21 吉林大学 一种多聚焦图像融合方法

Also Published As

Publication number Publication date
CN110443775B (zh) 2022-12-16

Similar Documents

Publication Publication Date Title
Xue et al. Video enhancement with task-oriented flow
CN110443775A (zh) 基于卷积神经网络的离散小波变换域多聚焦图像融合方法
CN108376392B (zh) 一种基于卷积神经网络的图像运动模糊去除方法
CN111612711B (zh) 一种基于生成对抗网络改进的图片去模糊方法
CN111091503B (zh) 基于深度学习的图像去失焦模糊方法
CN108596975B (zh) 一种针对弱纹理区域的立体匹配算法
CN110324664A (zh) 一种基于神经网络的视频补帧方法及其模型的训练方法
CN101542529A (zh) 图像的深度图的生成
CN103606132A (zh) 基于空域和时域联合滤波的多帧数字图像去噪方法
CN110533623B (zh) 一种基于监督学习的全卷积神经网络多聚焦图像融合方法
CN113313663B (zh) 基于零样本学习的多聚焦图像融合方法
Shen et al. Convolutional neural pyramid for image processing
JP7133045B2 (ja) 特徴マップ拡大方法、装置、機器及びコンピュータ可読記憶媒体
CN111161360A (zh) 基于Retinex理论的端到端网络的图像去雾方法
CN109844809A (zh) 一种图像处理方法及装置、计算机可读存储介质
Raza et al. Deconvolving convolutional neural network for cell detection
CN113393457B (zh) 一种结合残差密集块与位置注意力的无锚框目标检测方法
CN106447718B (zh) 一种2d转3d深度估计方法
KR102262671B1 (ko) 비디오 영상에 보케 효과를 적용하는 방법 및 기록매체
Verma et al. Hybrid image fusion algorithm using Laplacian Pyramid and PCA method
CN109919954A (zh) 目标对象的识别方法和装置
CN115953321A (zh) 一种基于零次学习的低照度图像增强方法
Xiao et al. DMDN: Degradation model-based deep network for multi-focus image fusion
CN113763300A (zh) 一种联合深度上下文与卷积条件随机场的多聚焦图像融合方法
CN111353982B (zh) 一种深度相机图像序列筛选方法及装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant