CN105678723B - 基于稀疏分解和差分图像的多聚焦图像融合方法 - Google Patents

基于稀疏分解和差分图像的多聚焦图像融合方法 Download PDF

Info

Publication number
CN105678723B
CN105678723B CN201511003023.9A CN201511003023A CN105678723B CN 105678723 B CN105678723 B CN 105678723B CN 201511003023 A CN201511003023 A CN 201511003023A CN 105678723 B CN105678723 B CN 105678723B
Authority
CN
China
Prior art keywords
image
sparse
component
spatial frequency
difference
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
CN201511003023.9A
Other languages
English (en)
Other versions
CN105678723A (zh
Inventor
张宝华
贾东征
李革
谷宇
裴海全
周文涛
焦豆豆
刘艳仙
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Inner Mongolia University of Science and Technology
Original Assignee
Inner Mongolia University of Science and Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Inner Mongolia University of Science and Technology filed Critical Inner Mongolia University of Science and Technology
Priority to CN201511003023.9A priority Critical patent/CN105678723B/zh
Publication of CN105678723A publication Critical patent/CN105678723A/zh
Application granted granted Critical
Publication of CN105678723B publication Critical patent/CN105678723B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20172Image enhancement details
    • G06T2207/20192Edge enhancement; Edge preservation

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

一种基于稀疏分解和差分图像的多聚焦图像融合方法,其特征在于,利用RPCA分解原始图像得到其稀疏分量和低秩分量,然后通过引导滤波加强稀疏分量的边缘,再将加强的稀疏分量与低秩分量相加构建包含强边缘的加强图像,再将加强图像与原始图像做差分,计算所得差分图像的空间频率,并利用自适应阈值算法得到差分图像的空间频率图,利用形态学算法去除空间频率图中的伪聚焦区域,得到融合决策图,最后根据融合决策图和融合规则重建融合图像。本发明在评价图像融合算法的三项指标相关系数,即边缘梯度信息和边缘相关因子分别高于其他经典算法45%,6%,15%以上。

Description

基于稀疏分解和差分图像的多聚焦图像融合方法
技术领域
本发明涉及的是一种图像处理领域的技术,具体是一种基于稀疏分解和差分图像的多聚焦图像融合方法。
背景技术
可见光成像系统通过调节光学镜头景深聚焦场景中的目标,无法同时清晰表达复杂场景的全部目标。多聚焦图像融合算法利用原始图像间的互补性,合并多幅原始图像的聚焦区域得到清晰的融合图像,能够更加准确和全面的描述图像中目标或场景,有效提高了原始图像的利用率和可靠性。
图像中的目标通过几何特征表征,以多分辨分析方法为代表的区域特征提取方法虽然能够提取图像的轮廓信息,但容易产生伪Gibbs现象,虚假轮廓等副效应。而多聚焦图像融合算法的核心是精确定位聚焦区域,由于聚焦区域到背景是渐进过渡的,边界不明显,增加了定位聚焦区域的难度。基于多分辨分析的融合方法不能充分提取原始图像间的互补信息,融合图像会表现出对比度下降、目标指示能力减弱、图像模糊等问题。另一方面,由于无法直接提取原始图像的清晰像素,融合图像对原始信息保留较少,融合图像清晰度有不同程度损失。
经过对现有技术的检索发现,中国专利文献号CN102842124A,公开(公告)日2012.12.26,公开了一种基于矩阵低秩分解的多光谱图像和全色图像融合方法,主要解决现有多光谱图像和全色图像融合中高光谱分辨率信息丢失的问题。其实现步骤为:1)对输入已配准的4幅多光谱图像进行插值使其与全色图像具有相同的像素;2)将插值后多光谱图像全部拉成列按照顺序依次堆叠构成大数据矩阵;3)利用矩阵低秩分解算法对大数据矩阵分解得到低秩矩阵和稀疏矩阵;4)利用标准主成分分析融合算法对低秩矩阵和全色图像进行融合得到初步的粗略融合结果;5)将稀疏矩阵加至粗略融合结果得到最终的多光谱融合图像。但该技术对边缘不敏感,轮廓信息提取不完整,无法精确定位聚焦区域,无法有效提取背景区域的细节信息,适用对象为多光谱和全色图像融合。
中国专利文献号CN103440631A,公开(公告)日2013.12.11,公开了一种基于低秩分解的CT序列图像复原方法。其实现步骤是:1)先将CT序列图像转化为灰度图像;2)选择低秩模型对CT序列进行稀疏低秩分解:根据CT图像含噪量的大小,选择对应的低秩模型对其进行稀疏低秩分解;3)求出低秩序列的平均图像,并用二维高斯模糊核对其进行维纳滤波复原;4)用扰动模糊核对稀疏序列中的每一幅图像进行维纳滤波复原;5)将稀疏复原序列中的每一幅图像与复原低秩图像合并,得到复原CT序列图像。但该技术不能识别图像的清晰区域,滤波操作将损失边缘信息,适用对象仅面向受噪声干扰严重的CT序列图像,无法用于多聚焦图像融合。
发明内容
本发明针对现有技术存在的上述不足,提出一种基于稀疏分解和差分图像的多聚焦图像融合方法,通过鲁棒性主成分分析(robust principal component analysis,RPCA)分解原始图像得到其稀疏分量,建立特征和稀疏系数的对应关系来搜索原始图像的显著性信息,再利用引导滤波加强稀疏分量的边缘,通过加强图像与原始图像的差异有效提取原始图像的结构信息,精确提取聚焦区域。
本发明是通过以下技术方案实现的:
本发明涉及一种基于稀疏分解和差分图像的多聚焦图像融合方法,包括以下步骤:
1)利用RPCA分解原始图像得到其稀疏分量和低秩分量;
2)通过引导滤波加强稀疏分量的边缘,再将加强的稀疏分量与低秩分量相加构建包含强边缘的加强图像;
3)将加强图像与原始图像做差分,计算所得差分图像的空间频率,并利用自适应阈值算法得到差分图像的空间频率图,利用形态学算法去除空间频率图中的伪聚焦区域,得到融合决策图;
4)根据融合决策图和融合规则重建融合图像。
技术效果
与现有技术相比,本发明在评价图像融合算法的三项指标相关系数,即边缘梯度信息和边缘相关因子分别高于其他经典算法45%,6%,15%以上。
附图说明
图1为聚焦区域提取示意图;
图2为本发明示意图;
图3为实施例聚焦区域检测结果示意图;
图4为融合结果比较示意图;
图中:a)为聚焦前景,b)为聚焦背景,c)为WS,d)为NSCT,e)为ST,f)为DSP,g)为NMF,h)为ZRP,i)为本方法。
具体实施方式
如图1所示,本实施例包括以下步骤:
第一步:利用RPCA算法分别分解原始图像IA和IB,分别得到低秩分量LA,LB和稀疏分量SA,SB其中:L*表示低秩分量,S*是稀疏分量,λ>0,||·||*是核范数,即矩阵奇异值之和,||·||1表示l1范数矩阵,即矩阵所有元素绝对值之和。
第二步:根据加强稀疏分量E*(i)的边缘EA和EB与低秩分量L*相加,得到包含强边缘的加强图像RA,RB
所述的加强稀疏分量的边缘通过以下方式得到:E*(i)=αPS*(i)+bP其中:E*(i)表示加强的稀疏分量,S*(i)表示稀疏分量,ωP是以点P为中心的(2r+1)×(2r+1)窗口(r为自然数),aP、bP表示引导滤波的核函数: μP分别表示窗口ωP的均值和方差,DP表示窗口ωP中像素数,表示窗口ωP的灰度均值。
所述的包含强边缘的加强图像为
第三步:将加强图像与原始图像做差分得到差分图像DA和DB,再计算差分图像的空间频率,利用自适应阈值算法得到其空间频率图SFA和SFB,利用形态学算法去除空间频率图像中的伪聚焦区域得到融合决策图MA和MB
所述的差分是指:
所述的差分图像的空间频率为:其中:RF为行频率,CF为列频率,
D表示差分图像、M为图像行数、N为图像列数、i为图像横坐标、j为图像纵坐标。
所述的自适应阈值算法是指:通过滑动窗口实现阈值分割,从而得到空间频率图,具体为:T(i,j)=m(i,j)+k·s(i,j),其中:m(i,j)是s(i,j)的均值,s(i,j)是窗口内像素的标准差,SF(i,j)为差分图像的空间频率,即像素(i,j)的灰度值,Q为滑动窗口的大小,该滑动窗口为正方形。
所述的形态学算法是指:通过开闭运算实现空间频率图像中的伪聚焦区域滤除,具体为:其中:h为结构元素,I为分割图像。
第四步:针对融合决策图的聚焦区域和背景区域分别建立融合规则并生成融合图像,其中:聚焦区域根据互补部分和重叠部分分别判断,背景区域则以改进的拉普拉斯能量和函数作为融合规则,具体为:
4.1)互补部分(),即聚焦区域不重叠部分,如图3所示,将中的像素直接放入融合图像相应区域,即
4.2)重叠部分FAB由分属不同原始图像的聚焦区域构成,
其中:SF是空间频率函数,RF表示行频率,CF表示列频率;本实施例中滑动窗口的大小为3×3。
4.3)背景区域其中:改进的拉普拉斯能量和函数
ML(i,j)=|2I(i,j)-I(i+1,j)-I(i,j-1)|+|2I(i,j)-I(i,j-1)-I(i,j+1)|,I(i,j)为像素(i,j)的灰度值,
4.4)综合上述三个区域选择融合稀疏得到融合图像F(i,j):
F(i,j)=Fd(i,j)+FAB(i,j)+Fb(i,j)。
综上所述,图4是本方法与其它五种融合方法比较效果。图4(c)-(i)分别为利用基于离散小波变换(WS),非下采样Contourlet(NSCT),基于Shearlet变换(ST),基于稀疏表示(DSP),基于RPCA(RPCA)和本发明方法通过的效果。通过比较可以看到,本发明算法得到的融合图像不仅有效地提取了原始图像的聚焦区域,而且最大限度地保护了背景区域的细节,增强了融合图像的对比度,效果好于其他方法。
表1中通过相关系数(MI),边缘梯度信息(QAB/F)和边缘相关因子(QE)衡量不同融合方法获得的融合图像质量,相关系数,边缘梯度信息和边缘相关因子越大,说明融合图像中特征信息越丰富,与原始图像越接近,融合效果越好。由表1中数据可以看到,本发明方法指标和其他方法相比都有明显改善,显示本方法所生成的融合图像具有较大的局部梯度,灰度级分布更加分散,图像纹理较丰富,细节突出。
表1客观评价指标比较
上述具体实施可由本领域技术人员在不背离本发明原理和宗旨的前提下以不同的方式对其进行局部调整,本发明的保护范围以权利要求书为准且不由上述具体实施所限,在其范围内的各个实现方案均受本发明之约束。

Claims (8)

1.一种基于稀疏分解和差分图像的多聚焦图像融合方法,其特征在于,利用RPCA分解原始图像得到其稀疏分量和低秩分量,然后通过引导滤波加强稀疏分量的边缘,再将加强的稀疏分量与低秩分量相加构建包含强边缘的加强图像,再将加强图像与原始图像做差分,计算所得差分图像的空间频率,并利用自适应阈值算法得到差分图像的空间频率图,利用形态学算法去除空间频率图中的伪聚焦区域,得到融合决策图,最后根据融合决策图和融合规则重建融合图像。
2.根据权利要求1所述的多聚焦图像融合方法,其特征是,所述的稀疏分量和低秩分量,具体通过以下方式得到:其中:L*表示低秩分量,S*是稀疏分量,λ>0,||·||*是核范数,即矩阵奇异值之和,||·||1表示l1范数矩阵,即矩阵所有元素绝对值之和,I*为待分解图像。
3.根据权利要求1所述的多聚焦图像融合方法,其特征是,所述的加强稀疏分量的边缘通过以下方式得到:其中:E*(i)表示加强的稀疏分量,S*(i)表示稀疏分量,ωP是以点P为中心的(2r+1)×(2r+1)窗口,r为自然数,aP、bP表示引导滤波的核函数:μP分别表示窗口ωP的均值和方差,DP表示窗口ωP中像素数,表示窗口ωP的灰度均值。
4.根据权利要求1所述的多聚焦图像融合方法,其特征是,所述的差分图像的空间频率为:其中:RF为行频率,CF为列频率,D表示差分图像、M为图像行数、N为图像列数、i为图像横坐标、j为图像纵坐标。
5.根据权利要求1所述的多聚焦图像融合方法,其特征是,所述的自适应阈值算法是指:通过滑动窗口实现阈值分割,从而得到空间频率图,具体为:T(i,j)=m(i,j)+k·s(i,j),其中:m(i,j)是s(i,j)的均值,s(i,j)是窗口内像素的标准差, SF(i,j)为差分图像的空间频率,即像素(i,j)的灰度值,Q为滑动窗口的大小,该滑动窗口为正方形。
6.根据权利要求1所述的多聚焦图像融合方法,其特征是,所述的形态学算法是指:通过开闭运算实现空间频率图像中的伪聚焦区域滤除,具体为:其中:h为结构元素,I为分割图像。
7.根据权利要求1所述的多聚焦图像融合方法,其特征是,所述的重建:聚焦区域根据互补部分和重叠部分分别判断,背景区域则以改进的拉普拉斯能量和函数作为融合规则。
8.根据权利要求1或7所述的多聚焦图像融合方法,其特征是,所述的重建,具体包括以下步骤:
4.1)互补部分(),即聚焦区域不重叠部分,将中的像素直接放入融合图像相应区域,即
4.2)重叠部分FAB由分属不同原始图像的聚焦区域构成,其中:SF·是空间频率函数,RF表示行频率,CF表示列频率;
4.3)背景区域其中:改进的拉普拉斯能量和函数
ML(i,j)=|2I(i,j)-I(i+1,j)-I(i,j-1)|+|2I(i,j)-I(i,j-1)-I(i,j+1)|,I(i,j)为像素(i,j)的灰度值,
4.4)综合上述三个区域选择融合系数得到融合图像F(i,j):F(i,j)=Fd(i,j)+FAB(i,j)+Fb(i,j)。
CN201511003023.9A 2015-12-29 2015-12-29 基于稀疏分解和差分图像的多聚焦图像融合方法 Expired - Fee Related CN105678723B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201511003023.9A CN105678723B (zh) 2015-12-29 2015-12-29 基于稀疏分解和差分图像的多聚焦图像融合方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201511003023.9A CN105678723B (zh) 2015-12-29 2015-12-29 基于稀疏分解和差分图像的多聚焦图像融合方法

Publications (2)

Publication Number Publication Date
CN105678723A CN105678723A (zh) 2016-06-15
CN105678723B true CN105678723B (zh) 2018-06-15

Family

ID=56297750

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201511003023.9A Expired - Fee Related CN105678723B (zh) 2015-12-29 2015-12-29 基于稀疏分解和差分图像的多聚焦图像融合方法

Country Status (1)

Country Link
CN (1) CN105678723B (zh)

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106228528B (zh) * 2016-07-29 2019-09-27 华北电力大学 一种基于决策图与稀疏表示的多聚焦图像融合方法
CN106447640B (zh) * 2016-08-26 2019-07-16 西安电子科技大学 基于字典学习、旋转引导滤波的多聚焦图像融合方法及装置
CN106981057B (zh) * 2017-03-24 2019-12-13 中国人民解放军国防科学技术大学 一种基于rpca的nsst图像融合方法
CN107292858B (zh) * 2017-05-22 2020-07-10 昆明理工大学 一种基于低秩分解和稀疏表示的多模态医学图像融合方法
CN107977949B (zh) * 2017-07-26 2021-08-20 昆明理工大学 一种基于投影字典对学习的医学图像融合质量改善的方法
CN107369148B (zh) * 2017-09-20 2019-09-10 湖北工业大学 基于改进sml与导向滤波的多聚焦图像融合方法
CN108171676B (zh) * 2017-12-01 2019-10-11 西安电子科技大学 基于曲率滤波的多聚焦图像融合方法
CN107993218B (zh) * 2018-01-30 2021-09-07 重庆邮电大学 基于代数多重网格和分水岭分割的图像融合方法
CN109143995B (zh) * 2018-07-13 2020-09-01 浙江大学 质量相关慢特征分解的闭环系统精细运行状态监测方法
CN110751614A (zh) * 2019-09-17 2020-02-04 宁波大学 基于低秩矩阵分解及导向滤波器的高光谱/多光谱影像融合方法
CN111833284B (zh) * 2020-07-16 2022-10-14 昆明理工大学 一种基于低秩分解和卷积稀疏编码的多源图像融合的方法
CN113989143B (zh) * 2021-10-26 2024-04-26 中国海洋大学 一种基于推扫式水下高光谱原始图像的高精度快速检焦方法
CN114862731B (zh) * 2022-03-29 2024-04-16 武汉大学 低秩先验与空谱信息引导的多-高光谱影像融合方法
CN117391985B (zh) * 2023-12-11 2024-02-20 安徽数分智能科技有限公司 一种多源数据信息融合处理方法及系统

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104077761A (zh) * 2014-06-26 2014-10-01 桂林电子科技大学 基于自适应稀疏表示的多聚焦图像融合方法
CN104616274A (zh) * 2015-02-09 2015-05-13 内蒙古科技大学 一种基于显著性区域提取的多聚焦图像融合算法
CN105139371A (zh) * 2015-09-07 2015-12-09 云南大学 一种基于pcnn与lp变换的多聚焦图像融合方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7117026B2 (en) * 2002-06-12 2006-10-03 Koninklijke Philips Electronics N.V. Physiological model based non-rigid image registration

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104077761A (zh) * 2014-06-26 2014-10-01 桂林电子科技大学 基于自适应稀疏表示的多聚焦图像融合方法
CN104616274A (zh) * 2015-02-09 2015-05-13 内蒙古科技大学 一种基于显著性区域提取的多聚焦图像融合算法
CN105139371A (zh) * 2015-09-07 2015-12-09 云南大学 一种基于pcnn与lp变换的多聚焦图像融合方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
Multifocus image fusion based on robust principal component analysis;Wan T 等;《Pattern Recognition Letters》;20130731;第34卷(第9期);1001-1008 *
一种基于 PCP的块稀疏RPCA运动目标检测算法;黄晓生 等;《华东交通大学学报》;20131031;第30卷(第5期);30-36 *
基于分块过完备稀疏表示的多聚焦图像融合;陈垚佳 等;《电视技术》;20120702;第36卷(第13期);48-51、63 *

Also Published As

Publication number Publication date
CN105678723A (zh) 2016-06-15

Similar Documents

Publication Publication Date Title
CN105678723B (zh) 基于稀疏分解和差分图像的多聚焦图像融合方法
CN110533620B (zh) 基于aae提取空间特征的高光谱和全色图像融合方法
Battiato et al. 3D stereoscopic image pairs by depth-map generation
CN109242888B (zh) 一种结合图像显著性和非下采样轮廓波变换的红外与可见光图像融合方法
Zhao et al. Hyperspectral image denoising via sparse representation and low-rank constraint
CN105894484B (zh) 一种基于直方图归一化与超像素分割的hdr重建算法
CN106846289B (zh) 一种红外光强与偏振图像融合方法
CN104680510A (zh) Radar视差图优化方法、立体匹配视差图优化方法及系统
CN109509163B (zh) 一种基于fgf的多聚焦图像融合方法及系统
CN110826389B (zh) 基于注意力3d频率卷积神经网络的步态识别方法
CN112001868A (zh) 基于生成对抗性网络的红外和可见光图像融合方法及系统
CN107909560A (zh) 一种基于SiR的多聚焦图像融合方法及系统
CN111462027B (zh) 基于多尺度梯度和抠图的多聚焦图像融合方法
CN112950477A (zh) 一种基于双路径处理的高分辨率显著性目标检测方法
Zhao et al. Detecting deepfake video by learning two-level features with two-stream convolutional neural network
Zhang et al. Underwater image enhancement using improved generative adversarial network
Pan et al. Single-image dehazing via dark channel prior and adaptive threshold
Huang et al. FFNet: A simple image dedusting network with feature fusion
Chen et al. Depth map inpainting via sparse distortion model
Zou et al. Visible and NIR image fusion based on multiscale gradient guided edge-smoothing model and local gradient weight
Nayagi et al. An efficiency correlation between various image fusion techniques
Liu et al. A Classification-Aware HSI Denoising Model With Neural Adversarial Network
Zhu et al. A Two-To-One Deep Learning General Framework for Image Fusion
CN103903434B (zh) 基于图像处理的智能交通系统
Wu et al. Depth-Conditioned GAN for Underwater Image Enhancement

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20180615

Termination date: 20181229