CN109785282B - 一种多聚焦图像融合方法 - Google Patents
一种多聚焦图像融合方法 Download PDFInfo
- Publication number
- CN109785282B CN109785282B CN201910060760.4A CN201910060760A CN109785282B CN 109785282 B CN109785282 B CN 109785282B CN 201910060760 A CN201910060760 A CN 201910060760A CN 109785282 B CN109785282 B CN 109785282B
- Authority
- CN
- China
- Prior art keywords
- image
- frequency
- original
- label
- low
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
一种多聚焦图像融合方法,涉及图像融合技术。比较各原图像中相应图像块间方差大小确定低频图像与各原图像对应的高频图像;通过低频图像与高频图像获取低频字典与高频字典;利用第一联合稀疏模型将各原图像分为公共部分与新息部分,基于低频字典与高频字典,利用分布式压缩感知模型与正交匹配追踪算法实现对对高频图像的重构;根据重构高频图像与原高频图像获取标签决策图,每一标签对应一原图像;利用图像形态学处理方法,对标签决策图进行改进,以获取最终标签决策图;根据最终标签决策图,选择对应原图像像素,以获取多聚焦融合图像。获得具有良好视觉效果与较高客观评价质量的多聚焦融合图像。
Description
技术领域
本发明涉及图像融合技术,尤其是涉及一种多聚焦图像融合方法。
背景技术
现代社会,图像融合是一个至关重要的研究课题,尤其是多聚焦图像融合,广泛应用于计算机视觉、数字摄影、目标识别、航空航天、资源探测等领域。由于光学成像系统中凸透镜景深的限制,成像系统每次成像时只能对一个区域进行对焦,而此区域外存在不同程度的模糊。多聚焦图像融合旨在将多幅不同对焦区域的图像进行融合以获取全聚焦图像。多聚焦图像融合能够在同一幅图像中清晰地显示各个区域,为后续的图像处理程序提供了可靠保证。此外,多聚焦图像融合技术能够减少不必要的信息传输并因此惠及通信系统。
在许多应用场景中,对多聚焦图像融合生成的图像质量有着较高要求。具体而言,高质量的多聚焦图像融合应当尽量保留原图像中的有用信息,减少伪影的产生,并且对于应用环境具有一定的鲁棒性。因此,有效的多聚焦图像融合方法具有重要意义与实用价值。
目前的多聚焦图像融合方法中,主要涉及空间域与变换域方法,变换域方法通常损失像素信息,现有的融合方法不能获得良好的视觉融合效果与较高的客观评价质量,并且对于计算复杂度的要求较高,不能适应现代应用场景的要求。
参考文献:
[1]Haghighat M B A,Aghagolzadeh A,Seyedarabi H.Multi-focus imagefusion for visual sensor networks in DCT domain[J].Computers&ElectricalEngineering,2011,37(5):789-797.
[2]Paul S,Sevcenco I S,Agathoklis P.Multi-Exposure and Multi-FocusImage Fusion in Gradient Domain[J].Journal of Circuits,Systems and Computers,2016:1650123.
[3]Zhan K,Teng J,Li Q,et al.A novel explicit multi-focus image fusionmethod[J].Journal of Information Hiding and Multimedia Signal Processing,2015,6(3):600-612.
[4]Ma J,Zhou Z,Wang B,et al.Multi-focus image fusion based on multi-scale focus measures and generalized random walk[C]//2017 36th ChineseControl Conference(CCC).2017:5464-5468.
[5]Aslantas V,Toprak A N.Multi-focus image fusion based on optimaldefocus estimation[J].Computers&Electrical Engineering,2017:S0045790617302501.
发明内容
针对上述技术问题,本发明的目的在于提供一种多聚焦图像融合方法。
本发明包括以下步骤:
1)比较各原图像中相应图像块间方差大小确定低频图像与各原图像对应的高频图像;
2)通过低频图像与高频图像获取低频字典与高频字典;
3)利用第一联合稀疏模型将各原图像分为公共部分与新息部分,基于低频字典与高频字典,利用分布式压缩感知模型与正交匹配追踪算法实现对对高频图像的重构;
4)根据重构高频图像与原高频图像获取标签决策图,每一标签对应一原图像;
5)利用图像形态学处理方法,对标签决策图进行改进,以获取最终标签决策图;
6)根据最终标签决策图,选择对应原图像像素,以获取多聚焦融合图像。
在步骤1)中,对各原图像,逐像素扫描,在以该像素为中心的q1×q1大小的图像块内求方差,方差较小图像块内中心像素作为低频图像像素,获得低频图像后,将原图像减去低频图像以获得各原图像对应的高频图像。
在步骤2)中,对低频图像按q2×q2图像块大小划为图像块处理并减去每块相应均值以获取低频字典,各高频图像相加并按q2×q2划块处理并减去每块相应均值以获取高频字典。
在步骤3)中,所述将各原图像按块大小q2×q2划块并减去每块相应均值,处理后的各原图像相同位置图像块组成观测向量,利用第一联合稀疏模型将原图像分为公共部分与新息部分,基于低频字典与高频字典,利用分布式压缩感知模型与正交匹配追踪算法实现对公共稀疏系数与新息稀疏系数的重构,将各自新息系数乘以高频字典以获取各自重构高频图像。
在步骤4)中,所述根据重构高频图像与原高频图像获取标签决策图,设定块大小q3×q3与标签决策图,其决策方法如下:
(1)各重构高频图像块内进行绝对值求和,其块间绝对差值大于门限ε时,按其大值对应原图像取标签;
(2)各原高频图像块内进行绝对值求和,其块间绝对差值大于门限ε时,按其大值对应原图像取标签;
(3)各重构高频图像块间差值与各原高频图像块间差值同时为正或同时为负时,按大值对应原图像取标签;
(4)未确定标签的像素位置按照块内标签多数投票的原则确定标签。
在步骤5)中,所述利用图像形态学处理方法的具体方法可为:先进行开运算再进行闭运算,对标签决策图进行改进,以获取最终标签决策图。
本发明的有益效果如下:
本发明先由各原图像通过简单计算方差获得低频图像与各原图像对应的高频图像,并由此获取低频字典与高频字典,利用第一联合稀疏模型将各原图像分为公共部分与新息部分,根据低频字典与高频字典,结合分布式压缩感知模型,对高频图像进行重构以获得原图像精确特征信息,基于原高频图像与重构高频图像设计有效决策方法获取标签决策图,最后,根据标签决策图,选择原图像像素,获得具有良好视觉效果与较高客观评价质量的多聚焦融合图像。
附图说明
图1为本发明实施例的流程图。
图2为大小640×480的Balloon不同聚焦的图像。
图3为大小520×520的Sydney不同聚焦的图像。
图4为不同方法获得的多聚焦融合图像Balloon。在图4中,从左上至右下依次为方法[1]、[2]、[3]、[4]、[5]、本发明。
图5为不同方法获得的多聚焦融合图像Sydney。在图5中,从左上至右下依次为方法[1]、[2]、[3]、[4]、[5]、本发明。
具体实施方式
为使本发明实现的技术手段、创作特征、达成目的与功效易于明白了解,下面结合实施例和附图,进一步阐述本发明。
如图1所示,本发明实施例包括以下步骤:
步骤一、比较各原图像中相应图像块间方差大小确定低频图像与各原图像对应的高频图像;
步骤二、通过低频图像与高频图像获取低频字典与高频字典;
步骤三、利用第一联合稀疏模型将各原图像分为公共部分与新息部分,基于低频字典与高频字典,利用分布式压缩感知模型与正交匹配追踪算法实现对对高频图像的重构;
步骤四、根据重构高频图像与原高频图像,获取标签决策图,每一标签对应一原图像;
步骤五、利用图像形态学处理方法,对标签决策图进行改进,以获取最终标签决策图;
步骤六、根据标签决策图,选择对应原图像像素,以获取多聚焦融合图像。
本发明提出的技术方案首先对各原图像按q1×q1进行划块,在原图像中,对每一图像块计算方差,比较不同原图像相应图像块之间的方差大小,取小方差对应的原图像像素作为低频图像像素,逐像素按此方法遍历可获得低频图像;将各原图像减去低频图像所得即为原图像对应的高频图像。以两幅原图像为例,用I1与I2分别表示,低频图像用L表示,则I1与I2对应的高频图像H1与H2分别为:
H1=I1-L (1)
H2=I2-L (2)
对低频图像按q2×q2划块处理并减去每块相应均值以获取低频字典DL,各高频图像相加并按q2×q2划块处理并减去每块相应均值以获取高频字典DH。将原图像按块大小q2×q2划块并减去每块相应均值,再乘以高斯随机测量矩阵组成观测向量Y:
Y=MX=M[x1,x2]T (3)
其中,M为高斯随机测量矩阵,X为处理后的各原图像相同位置图像块组成的观测向量,x1为将I1中图像块转为向量,x2为将I2中图像块转为向量,[x1,x2]T为[x1,x2]的转置。
本发明提出的方法利用第一联合稀疏模型将原图像分为公共部分与新息部分,基于低频字典DL与高频字典DH利用分布式压缩感知模型实现对原图像的分解:
其中,αc为公共稀疏系数,α1为对应于I1的新息稀疏系数,α2为对应于I2的新息稀疏系数,可由正交匹配追踪算法求得。将各自新息系数乘以高频字典以获取各自重构高频图像H′1与H′2。
本发明提出决策方法来确定标签决策图,每一标签对应于每一原图像。设定块大小q3×q3与标签决策图,其决策方法如下:1)各重构高频图像块内进行绝对值求和,其块间绝对差值大于门限ε时,按其大值对应原图像取标签;2)各原高频图像块内进行绝对值求和,其块间绝对差值大于门限ε时,按其大值对应原图像取标签;3)各重构高频图像块间差值与各原高频图像块间差值同时为正或同时为负时,按大值对应原图像取标签;4)未确定标签的像素位置按照块内标签多数投票的原则确定标签。设标签决策图为M,对于像素位置(x,y),其标签确定如下:
其中,标签1对应于原图像I1,标签0对应于原图像I2,ε为一门限,Ω(x,y)表示以(x,y)为中心的q3×q3大小的图像块。对于未确定标签的像素位置,在Ω(x,y)内按照多数投票原则,选择多数标签对应的标签确定此位置(x,y)的标签。
在步骤五中,利用图像形态学处理方法,先进行开运算再进行闭运算,对标签决策图进行改进,以获取最终标签决策图MF。其可以表示为:
下面将结合计算机仿真过程,说明本发明的实现效果。
真选取大小为268×204的灰度图Leaf以及大小为577×314的彩色图Seascape。仿真实验中,涉及到的方法参数设定为q1=7,q2=8,q3=9,ε=q3×q3×2,高斯随机测量矩阵大小为100×128,结构元素B为半径为9的圆形结构。表1给出本发明与其他方法融合结果客观评价指标对比,QNMI、QSSIM以及QG反映了多聚焦图像融合结果的客观质量,从表1可以看出,本发明提出的多聚焦图像融合方法在QNMI、QSSIM以及QG上都具有最大值,本发明提出的多聚焦图像融合方法具有更好的效果。
表1
大小640×480的Balloon不同聚焦的图像参见图2,大小520×520的Sydney不同聚焦的图像参见图3,不同方法获得的多聚焦融合图像Balloon参见图4,不同方法获得的多聚焦融合图像Sydney参见图5。
以上给出本发明的基本原理、主要特征和特点。本领域的技术人员应该了解,本发明不受上述实施例的限制,上述实施例和说明书中描述的只是说明本发明的原理,在不脱离本发明精神和范围的前提下,本发明还会有各种变化和改进。
Claims (3)
1.一种多聚焦图像融合方法,其特征在于包括以下步骤:
1)比较各原图像中相应图像块间方差大小确定低频图像与各原图像对应的高频图像;对各原图像,逐像素扫描,在以该像素为中心的大小的图像块内求方差,方差较小图像块内中心像素作为低频图像像素,获得低频图像后,将原图像减去低频图像以获得各原图像对应的高频图像;
3)利用第一联合稀疏模型将各原图像分为公共部分与新息部分,基于低频字典与高频字典,利用分布式压缩感知模型与正交匹配追踪算法实现对高频图像的重构;
(3)各重构高频图像块间差值与各原高频图像块间差值同时为正或同时为负时,按大值对应原图像取标签;
(4)未确定标签的像素位置按照块内标签多数投票的原则确定标签;
5)利用图像形态学处理方法,对标签决策图进行改进,以获取最终标签决策图;
6)根据最终标签决策图,选择对应原图像像素,以获取多聚焦融合图像。
3.如权利要求1所述一种多聚焦图像融合方法,其特征在于在步骤5)中,所述利用图像形态学处理方法的具体方法为:先进行开运算再进行闭运算,对标签决策图进行改进,以获取最终标签决策图。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910060760.4A CN109785282B (zh) | 2019-01-22 | 2019-01-22 | 一种多聚焦图像融合方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910060760.4A CN109785282B (zh) | 2019-01-22 | 2019-01-22 | 一种多聚焦图像融合方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109785282A CN109785282A (zh) | 2019-05-21 |
CN109785282B true CN109785282B (zh) | 2021-03-26 |
Family
ID=66502062
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910060760.4A Active CN109785282B (zh) | 2019-01-22 | 2019-01-22 | 一种多聚焦图像融合方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109785282B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110738628B (zh) * | 2019-10-15 | 2023-09-05 | 湖北工业大学 | 一种基于wiml比较图的自适应焦点检测多聚焦图像融合方法 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108665436A (zh) * | 2018-05-10 | 2018-10-16 | 湖北工业大学 | 一种基于灰度均值参照的多聚焦图像融合方法和系统 |
CN108734686A (zh) * | 2018-05-28 | 2018-11-02 | 成都信息工程大学 | 基于非负矩阵分解及视觉感知的多聚焦图像融合方法 |
CN109191416A (zh) * | 2018-08-29 | 2019-01-11 | 西安电子科技大学 | 基于稀疏字典学习和剪切波的图像融合方法 |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102393958B (zh) * | 2011-07-16 | 2013-06-12 | 西安电子科技大学 | 基于压缩感知的多聚焦图像融合方法 |
CN103632353A (zh) * | 2012-08-24 | 2014-03-12 | 西安元朔科技有限公司 | 基于nsct的多聚焦图像融合算法 |
CN104077761B (zh) * | 2014-06-26 | 2017-01-11 | 桂林电子科技大学 | 基于自适应稀疏表示的多聚焦图像融合方法 |
CN104732508B (zh) * | 2015-04-16 | 2017-07-04 | 湘潭大学 | 基于分布式压缩感知的图像融合方法 |
CN106228528B (zh) * | 2016-07-29 | 2019-09-27 | 华北电力大学 | 一种基于决策图与稀疏表示的多聚焦图像融合方法 |
CN106683066A (zh) * | 2017-01-13 | 2017-05-17 | 西华大学 | 一种基于联合稀疏模型的图像融合方法 |
CN109064437A (zh) * | 2018-07-11 | 2018-12-21 | 中国人民解放军国防科技大学 | 一种基于引导滤波和在线字典学习的图像融合方法 |
-
2019
- 2019-01-22 CN CN201910060760.4A patent/CN109785282B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108665436A (zh) * | 2018-05-10 | 2018-10-16 | 湖北工业大学 | 一种基于灰度均值参照的多聚焦图像融合方法和系统 |
CN108734686A (zh) * | 2018-05-28 | 2018-11-02 | 成都信息工程大学 | 基于非负矩阵分解及视觉感知的多聚焦图像融合方法 |
CN109191416A (zh) * | 2018-08-29 | 2019-01-11 | 西安电子科技大学 | 基于稀疏字典学习和剪切波的图像融合方法 |
Also Published As
Publication number | Publication date |
---|---|
CN109785282A (zh) | 2019-05-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108986050B (zh) | 一种基于多分支卷积神经网络的图像和视频增强方法 | |
Lu et al. | Multi-scale adversarial network for underwater image restoration | |
Du et al. | Image segmentation-based multi-focus image fusion through multi-scale convolutional neural network | |
Liao et al. | DR-GAN: Automatic radial distortion rectification using conditional GAN in real-time | |
Li et al. | The synthesis of unpaired underwater images using a multistyle generative adversarial network | |
Kaur et al. | Survey on multifocus image fusion techniques | |
CN113129236B (zh) | 基于Retinex和卷积神经网络的单张低光照图像增强方法及系统 | |
Yao et al. | Discontinuous and smooth depth completion with binary anisotropic diffusion tensor | |
Fu et al. | A novel multi-focus image fusion method based on distributed compressed sensing | |
Feng et al. | Low-light image enhancement algorithm based on an atmospheric physical model | |
Yang et al. | Effective multifocus image fusion based on HVS and BP neural network | |
CN109785282B (zh) | 一种多聚焦图像融合方法 | |
CN108961196B (zh) | 一种基于图的3d注视点预测的显著性融合方法 | |
Yan et al. | Multiscale fusion and aggregation PCNN for 3D shape recovery | |
WO2017020393A1 (zh) | 一种基于块匹配的运动估计方法、运动估计系统及其应用 | |
Zhang et al. | Dehazing with improved heterogeneous atmosphere light estimation and a nonlinear color attenuation prior model | |
Wang et al. | Deep intensity guidance based compression artifacts reduction for depth map | |
CN112508828A (zh) | 一种基于稀疏表示和引导滤波的多聚焦图像融合方法 | |
Sujatha et al. | Grey wolf optimiser-based feature selection for feature-level multi-focus image fusion | |
Yang et al. | Multi-focus image fusion using watershed transform and morphological wavelet clarity measure | |
Xie et al. | DHD-Net: A novel deep-learning-based dehazing network | |
Sahay et al. | Shape extraction of low‐textured objects in video microscopy | |
Jiang et al. | DDFN: a depth-differential fusion network for multi-focus image | |
Guo et al. | DADFNet: Dual attention and dual frequency-guided dehazing network for video-empowered intelligent transportation | |
Jiang et al. | An image defogging method using adaptive bi-channel priors |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |