CN109785282B - 一种多聚焦图像融合方法 - Google Patents

一种多聚焦图像融合方法 Download PDF

Info

Publication number
CN109785282B
CN109785282B CN201910060760.4A CN201910060760A CN109785282B CN 109785282 B CN109785282 B CN 109785282B CN 201910060760 A CN201910060760 A CN 201910060760A CN 109785282 B CN109785282 B CN 109785282B
Authority
CN
China
Prior art keywords
image
frequency
original
label
low
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201910060760.4A
Other languages
English (en)
Other versions
CN109785282A (zh
Inventor
洪少华
李福林
符冠鹏
王琳
徐位凯
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Xiamen University
Original Assignee
Xiamen University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Xiamen University filed Critical Xiamen University
Priority to CN201910060760.4A priority Critical patent/CN109785282B/zh
Publication of CN109785282A publication Critical patent/CN109785282A/zh
Application granted granted Critical
Publication of CN109785282B publication Critical patent/CN109785282B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

一种多聚焦图像融合方法,涉及图像融合技术。比较各原图像中相应图像块间方差大小确定低频图像与各原图像对应的高频图像;通过低频图像与高频图像获取低频字典与高频字典;利用第一联合稀疏模型将各原图像分为公共部分与新息部分,基于低频字典与高频字典,利用分布式压缩感知模型与正交匹配追踪算法实现对对高频图像的重构;根据重构高频图像与原高频图像获取标签决策图,每一标签对应一原图像;利用图像形态学处理方法,对标签决策图进行改进,以获取最终标签决策图;根据最终标签决策图,选择对应原图像像素,以获取多聚焦融合图像。获得具有良好视觉效果与较高客观评价质量的多聚焦融合图像。

Description

一种多聚焦图像融合方法
技术领域
本发明涉及图像融合技术,尤其是涉及一种多聚焦图像融合方法。
背景技术
现代社会,图像融合是一个至关重要的研究课题,尤其是多聚焦图像融合,广泛应用于计算机视觉、数字摄影、目标识别、航空航天、资源探测等领域。由于光学成像系统中凸透镜景深的限制,成像系统每次成像时只能对一个区域进行对焦,而此区域外存在不同程度的模糊。多聚焦图像融合旨在将多幅不同对焦区域的图像进行融合以获取全聚焦图像。多聚焦图像融合能够在同一幅图像中清晰地显示各个区域,为后续的图像处理程序提供了可靠保证。此外,多聚焦图像融合技术能够减少不必要的信息传输并因此惠及通信系统。
在许多应用场景中,对多聚焦图像融合生成的图像质量有着较高要求。具体而言,高质量的多聚焦图像融合应当尽量保留原图像中的有用信息,减少伪影的产生,并且对于应用环境具有一定的鲁棒性。因此,有效的多聚焦图像融合方法具有重要意义与实用价值。
目前的多聚焦图像融合方法中,主要涉及空间域与变换域方法,变换域方法通常损失像素信息,现有的融合方法不能获得良好的视觉融合效果与较高的客观评价质量,并且对于计算复杂度的要求较高,不能适应现代应用场景的要求。
参考文献:
[1]Haghighat M B A,Aghagolzadeh A,Seyedarabi H.Multi-focus imagefusion for visual sensor networks in DCT domain[J].Computers&ElectricalEngineering,2011,37(5):789-797.
[2]Paul S,Sevcenco I S,Agathoklis P.Multi-Exposure and Multi-FocusImage Fusion in Gradient Domain[J].Journal of Circuits,Systems and Computers,2016:1650123.
[3]Zhan K,Teng J,Li Q,et al.A novel explicit multi-focus image fusionmethod[J].Journal of Information Hiding and Multimedia Signal Processing,2015,6(3):600-612.
[4]Ma J,Zhou Z,Wang B,et al.Multi-focus image fusion based on multi-scale focus measures and generalized random walk[C]//2017 36th ChineseControl Conference(CCC).2017:5464-5468.
[5]Aslantas V,Toprak A N.Multi-focus image fusion based on optimaldefocus estimation[J].Computers&Electrical Engineering,2017:S0045790617302501.
发明内容
针对上述技术问题,本发明的目的在于提供一种多聚焦图像融合方法。
本发明包括以下步骤:
1)比较各原图像中相应图像块间方差大小确定低频图像与各原图像对应的高频图像;
2)通过低频图像与高频图像获取低频字典与高频字典;
3)利用第一联合稀疏模型将各原图像分为公共部分与新息部分,基于低频字典与高频字典,利用分布式压缩感知模型与正交匹配追踪算法实现对对高频图像的重构;
4)根据重构高频图像与原高频图像获取标签决策图,每一标签对应一原图像;
5)利用图像形态学处理方法,对标签决策图进行改进,以获取最终标签决策图;
6)根据最终标签决策图,选择对应原图像像素,以获取多聚焦融合图像。
在步骤1)中,对各原图像,逐像素扫描,在以该像素为中心的q1×q1大小的图像块内求方差,方差较小图像块内中心像素作为低频图像像素,获得低频图像后,将原图像减去低频图像以获得各原图像对应的高频图像。
在步骤2)中,对低频图像按q2×q2图像块大小划为图像块处理并减去每块相应均值以获取低频字典,各高频图像相加并按q2×q2划块处理并减去每块相应均值以获取高频字典。
在步骤3)中,所述将各原图像按块大小q2×q2划块并减去每块相应均值,处理后的各原图像相同位置图像块组成观测向量,利用第一联合稀疏模型将原图像分为公共部分与新息部分,基于低频字典与高频字典,利用分布式压缩感知模型与正交匹配追踪算法实现对公共稀疏系数与新息稀疏系数的重构,将各自新息系数乘以高频字典以获取各自重构高频图像。
在步骤4)中,所述根据重构高频图像与原高频图像获取标签决策图,设定块大小q3×q3与标签决策图,其决策方法如下:
(1)各重构高频图像块内进行绝对值求和,其块间绝对差值大于门限ε时,按其大值对应原图像取标签;
(2)各原高频图像块内进行绝对值求和,其块间绝对差值大于门限ε时,按其大值对应原图像取标签;
(3)各重构高频图像块间差值与各原高频图像块间差值同时为正或同时为负时,按大值对应原图像取标签;
(4)未确定标签的像素位置按照块内标签多数投票的原则确定标签。
在步骤5)中,所述利用图像形态学处理方法的具体方法可为:先进行开运算再进行闭运算,对标签决策图进行改进,以获取最终标签决策图。
本发明的有益效果如下:
本发明先由各原图像通过简单计算方差获得低频图像与各原图像对应的高频图像,并由此获取低频字典与高频字典,利用第一联合稀疏模型将各原图像分为公共部分与新息部分,根据低频字典与高频字典,结合分布式压缩感知模型,对高频图像进行重构以获得原图像精确特征信息,基于原高频图像与重构高频图像设计有效决策方法获取标签决策图,最后,根据标签决策图,选择原图像像素,获得具有良好视觉效果与较高客观评价质量的多聚焦融合图像。
附图说明
图1为本发明实施例的流程图。
图2为大小640×480的Balloon不同聚焦的图像。
图3为大小520×520的Sydney不同聚焦的图像。
图4为不同方法获得的多聚焦融合图像Balloon。在图4中,从左上至右下依次为方法[1]、[2]、[3]、[4]、[5]、本发明。
图5为不同方法获得的多聚焦融合图像Sydney。在图5中,从左上至右下依次为方法[1]、[2]、[3]、[4]、[5]、本发明。
具体实施方式
为使本发明实现的技术手段、创作特征、达成目的与功效易于明白了解,下面结合实施例和附图,进一步阐述本发明。
如图1所示,本发明实施例包括以下步骤:
步骤一、比较各原图像中相应图像块间方差大小确定低频图像与各原图像对应的高频图像;
步骤二、通过低频图像与高频图像获取低频字典与高频字典;
步骤三、利用第一联合稀疏模型将各原图像分为公共部分与新息部分,基于低频字典与高频字典,利用分布式压缩感知模型与正交匹配追踪算法实现对对高频图像的重构;
步骤四、根据重构高频图像与原高频图像,获取标签决策图,每一标签对应一原图像;
步骤五、利用图像形态学处理方法,对标签决策图进行改进,以获取最终标签决策图;
步骤六、根据标签决策图,选择对应原图像像素,以获取多聚焦融合图像。
本发明提出的技术方案首先对各原图像按q1×q1进行划块,在原图像中,对每一图像块计算方差,比较不同原图像相应图像块之间的方差大小,取小方差对应的原图像像素作为低频图像像素,逐像素按此方法遍历可获得低频图像;将各原图像减去低频图像所得即为原图像对应的高频图像。以两幅原图像为例,用I1与I2分别表示,低频图像用L表示,则I1与I2对应的高频图像H1与H2分别为:
H1=I1-L (1)
H2=I2-L (2)
对低频图像按q2×q2划块处理并减去每块相应均值以获取低频字典DL,各高频图像相加并按q2×q2划块处理并减去每块相应均值以获取高频字典DH。将原图像按块大小q2×q2划块并减去每块相应均值,再乘以高斯随机测量矩阵组成观测向量Y:
Y=MX=M[x1,x2]T (3)
其中,M为高斯随机测量矩阵,X为处理后的各原图像相同位置图像块组成的观测向量,x1为将I1中图像块转为向量,x2为将I2中图像块转为向量,[x1,x2]T为[x1,x2]的转置。
本发明提出的方法利用第一联合稀疏模型将原图像分为公共部分与新息部分,基于低频字典DL与高频字典DH利用分布式压缩感知模型实现对原图像的分解:
Figure BDA0001952667240000041
其中,αc为公共稀疏系数,α1为对应于I1的新息稀疏系数,α2为对应于I2的新息稀疏系数,可由正交匹配追踪算法求得。将各自新息系数乘以高频字典以获取各自重构高频图像H′1与H′2
本发明提出决策方法来确定标签决策图,每一标签对应于每一原图像。设定块大小q3×q3与标签决策图,其决策方法如下:1)各重构高频图像块内进行绝对值求和,其块间绝对差值大于门限ε时,按其大值对应原图像取标签;2)各原高频图像块内进行绝对值求和,其块间绝对差值大于门限ε时,按其大值对应原图像取标签;3)各重构高频图像块间差值与各原高频图像块间差值同时为正或同时为负时,按大值对应原图像取标签;4)未确定标签的像素位置按照块内标签多数投票的原则确定标签。设标签决策图为M,对于像素位置(x,y),其标签确定如下:
Figure BDA0001952667240000051
Figure BDA0001952667240000052
其中,标签1对应于原图像I1,标签0对应于原图像I2,ε为一门限,Ω(x,y)表示以(x,y)为中心的q3×q3大小的图像块。对于未确定标签的像素位置,在Ω(x,y)内按照多数投票原则,选择多数标签对应的标签确定此位置(x,y)的标签。
在步骤五中,利用图像形态学处理方法,先进行开运算再进行闭运算,对标签决策图进行改进,以获取最终标签决策图MF。其可以表示为:
Figure BDA0001952667240000054
其中,B为结构元素,
Figure BDA0001952667240000055
表示开运算,·表示闭运算。根据标签决策图MF,遍历所有像素位置,确定该位置对应的原图像像素。
下面将结合计算机仿真过程,说明本发明的实现效果。
真选取大小为268×204的灰度图Leaf以及大小为577×314的彩色图Seascape。仿真实验中,涉及到的方法参数设定为q1=7,q2=8,q3=9,ε=q3×q3×2,高斯随机测量矩阵大小为100×128,结构元素B为半径为9的圆形结构。表1给出本发明与其他方法融合结果客观评价指标对比,QNMI、QSSIM以及QG反映了多聚焦图像融合结果的客观质量,从表1可以看出,本发明提出的多聚焦图像融合方法在QNMI、QSSIM以及QG上都具有最大值,本发明提出的多聚焦图像融合方法具有更好的效果。
表1
Figure BDA0001952667240000053
大小640×480的Balloon不同聚焦的图像参见图2,大小520×520的Sydney不同聚焦的图像参见图3,不同方法获得的多聚焦融合图像Balloon参见图4,不同方法获得的多聚焦融合图像Sydney参见图5。
以上给出本发明的基本原理、主要特征和特点。本领域的技术人员应该了解,本发明不受上述实施例的限制,上述实施例和说明书中描述的只是说明本发明的原理,在不脱离本发明精神和范围的前提下,本发明还会有各种变化和改进。

Claims (3)

1.一种多聚焦图像融合方法,其特征在于包括以下步骤:
1)比较各原图像中相应图像块间方差大小确定低频图像与各原图像对应的高频图像;对各原图像,逐像素扫描,在以该像素为中心的
Figure 539822DEST_PATH_IMAGE001
大小的图像块内求方差,方差较小图像块内中心像素作为低频图像像素,获得低频图像后,将原图像减去低频图像以获得各原图像对应的高频图像;
2)通过低频图像与高频图像获取低频字典与高频字典;对低频图像按
Figure 739859DEST_PATH_IMAGE002
图像块大小划为图像块处理并减去每块相应均值以获取低频字典,各高频图像相加并按
Figure 15114DEST_PATH_IMAGE002
划块处理并减去每块相应均值以获取高频字典;
3)利用第一联合稀疏模型将各原图像分为公共部分与新息部分,基于低频字典与高频字典,利用分布式压缩感知模型与正交匹配追踪算法实现对高频图像的重构;
4)根据重构高频图像与原高频图像获取标签决策图,每一标签对应一原图像;所述根据重构高频图像与原高频图像获取标签决策图,设定块大小
Figure 566181DEST_PATH_IMAGE003
与标签决策图,其决策方法如下:
(1)各重构高频图像块内进行绝对值求和,其块间绝对差值大于门限
Figure 834351DEST_PATH_IMAGE004
时,按其大值对应原图像取标签;
(2)各原高频图像块内进行绝对值求和,其块间绝对差值大于门限
Figure 170786DEST_PATH_IMAGE004
时,按其大值对应原图像取标签;
(3)各重构高频图像块间差值与各原高频图像块间差值同时为正或同时为负时,按大值对应原图像取标签;
(4)未确定标签的像素位置按照块内标签多数投票的原则确定标签;
5)利用图像形态学处理方法,对标签决策图进行改进,以获取最终标签决策图;
6)根据最终标签决策图,选择对应原图像像素,以获取多聚焦融合图像。
2.如权利要求1所述一种多聚焦图像融合方法,其特征在于在步骤3)中,将各原图像按块大小
Figure 131789DEST_PATH_IMAGE005
划块并减去每块相应均值,处理后的各原图像相同位置图像块组成观测向量,利用第一联合稀疏模型将原图像分为公共部分与新息部分,基于低频字典与高频字典,利用分布式压缩感知模型与正交匹配追踪算法实现对公共稀疏系数与新息稀疏系数的重构,将各自新息系数乘以高频字典以获取各自重构高频图像。
3.如权利要求1所述一种多聚焦图像融合方法,其特征在于在步骤5)中,所述利用图像形态学处理方法的具体方法为:先进行开运算再进行闭运算,对标签决策图进行改进,以获取最终标签决策图。
CN201910060760.4A 2019-01-22 2019-01-22 一种多聚焦图像融合方法 Active CN109785282B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910060760.4A CN109785282B (zh) 2019-01-22 2019-01-22 一种多聚焦图像融合方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910060760.4A CN109785282B (zh) 2019-01-22 2019-01-22 一种多聚焦图像融合方法

Publications (2)

Publication Number Publication Date
CN109785282A CN109785282A (zh) 2019-05-21
CN109785282B true CN109785282B (zh) 2021-03-26

Family

ID=66502062

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910060760.4A Active CN109785282B (zh) 2019-01-22 2019-01-22 一种多聚焦图像融合方法

Country Status (1)

Country Link
CN (1) CN109785282B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110738628B (zh) * 2019-10-15 2023-09-05 湖北工业大学 一种基于wiml比较图的自适应焦点检测多聚焦图像融合方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108665436A (zh) * 2018-05-10 2018-10-16 湖北工业大学 一种基于灰度均值参照的多聚焦图像融合方法和系统
CN108734686A (zh) * 2018-05-28 2018-11-02 成都信息工程大学 基于非负矩阵分解及视觉感知的多聚焦图像融合方法
CN109191416A (zh) * 2018-08-29 2019-01-11 西安电子科技大学 基于稀疏字典学习和剪切波的图像融合方法

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102393958B (zh) * 2011-07-16 2013-06-12 西安电子科技大学 基于压缩感知的多聚焦图像融合方法
CN103632353A (zh) * 2012-08-24 2014-03-12 西安元朔科技有限公司 基于nsct的多聚焦图像融合算法
CN104077761B (zh) * 2014-06-26 2017-01-11 桂林电子科技大学 基于自适应稀疏表示的多聚焦图像融合方法
CN104732508B (zh) * 2015-04-16 2017-07-04 湘潭大学 基于分布式压缩感知的图像融合方法
CN106228528B (zh) * 2016-07-29 2019-09-27 华北电力大学 一种基于决策图与稀疏表示的多聚焦图像融合方法
CN106683066A (zh) * 2017-01-13 2017-05-17 西华大学 一种基于联合稀疏模型的图像融合方法
CN109064437A (zh) * 2018-07-11 2018-12-21 中国人民解放军国防科技大学 一种基于引导滤波和在线字典学习的图像融合方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108665436A (zh) * 2018-05-10 2018-10-16 湖北工业大学 一种基于灰度均值参照的多聚焦图像融合方法和系统
CN108734686A (zh) * 2018-05-28 2018-11-02 成都信息工程大学 基于非负矩阵分解及视觉感知的多聚焦图像融合方法
CN109191416A (zh) * 2018-08-29 2019-01-11 西安电子科技大学 基于稀疏字典学习和剪切波的图像融合方法

Also Published As

Publication number Publication date
CN109785282A (zh) 2019-05-21

Similar Documents

Publication Publication Date Title
CN108986050B (zh) 一种基于多分支卷积神经网络的图像和视频增强方法
Lu et al. Multi-scale adversarial network for underwater image restoration
Du et al. Image segmentation-based multi-focus image fusion through multi-scale convolutional neural network
Liao et al. DR-GAN: Automatic radial distortion rectification using conditional GAN in real-time
Li et al. The synthesis of unpaired underwater images using a multistyle generative adversarial network
Kaur et al. Survey on multifocus image fusion techniques
CN113129236B (zh) 基于Retinex和卷积神经网络的单张低光照图像增强方法及系统
Yao et al. Discontinuous and smooth depth completion with binary anisotropic diffusion tensor
Fu et al. A novel multi-focus image fusion method based on distributed compressed sensing
Feng et al. Low-light image enhancement algorithm based on an atmospheric physical model
Yang et al. Effective multifocus image fusion based on HVS and BP neural network
CN109785282B (zh) 一种多聚焦图像融合方法
CN108961196B (zh) 一种基于图的3d注视点预测的显著性融合方法
Yan et al. Multiscale fusion and aggregation PCNN for 3D shape recovery
WO2017020393A1 (zh) 一种基于块匹配的运动估计方法、运动估计系统及其应用
Zhang et al. Dehazing with improved heterogeneous atmosphere light estimation and a nonlinear color attenuation prior model
Wang et al. Deep intensity guidance based compression artifacts reduction for depth map
CN112508828A (zh) 一种基于稀疏表示和引导滤波的多聚焦图像融合方法
Sujatha et al. Grey wolf optimiser-based feature selection for feature-level multi-focus image fusion
Yang et al. Multi-focus image fusion using watershed transform and morphological wavelet clarity measure
Xie et al. DHD-Net: A novel deep-learning-based dehazing network
Sahay et al. Shape extraction of low‐textured objects in video microscopy
Jiang et al. DDFN: a depth-differential fusion network for multi-focus image
Guo et al. DADFNet: Dual attention and dual frequency-guided dehazing network for video-empowered intelligent transportation
Jiang et al. An image defogging method using adaptive bi-channel priors

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant