CN103632353A - 基于nsct的多聚焦图像融合算法 - Google Patents
基于nsct的多聚焦图像融合算法 Download PDFInfo
- Publication number
- CN103632353A CN103632353A CN201210305603.3A CN201210305603A CN103632353A CN 103632353 A CN103632353 A CN 103632353A CN 201210305603 A CN201210305603 A CN 201210305603A CN 103632353 A CN103632353 A CN 103632353A
- Authority
- CN
- China
- Prior art keywords
- prime
- sigma
- image
- fusion
- nsct
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Image Processing (AREA)
Abstract
本发明公开了一种基于NSCT的图像融合算法,该方法的处理过程是:首先非采样的轮廓波变换(NSCT)对经过均值滤波器滤波(mean)的源图像进行分解,再分别采用平均值和绝对值最大为低频子带和高频方向子带的融合规则,以NSCT的逆运算(inverse NSCT)进行图像重构,获得初始融合图像;其次,应用均方根误差(RMSE)提取初始融合图像的融合区域(fusion region);根据融合区域的特性设计融合规则,最后采用inverseNSCT进行图像融合。实验结果表明,本发明方法是非常有效,并且融合后的图像符合人眼视觉效果。
Description
技术领域
本发明属于图像处理领域,尤其涉及一种基于NSCT的多聚焦图像融合算法。
背景技术
图像融合是指将众多源信道所采集到的关于同一目标的图像数据经过图像处理和计算机技术等,最大限度的提取各自信道中的有利信息,最后综合成高质量的图像,以提高图像信息的利用率、改善计算机解译度和可靠性、提升原始图像的空间分辨率和光谱分辨率,利于监测。
多聚焦图像融合算法是最常用的图像融合算法之一,传统的多聚焦图像融合算法主要分为两种。一种是基于空间领域的方法,该方法通过从众多图像中选择较为清晰的像素点或区域进行融合;另一种则是在频域中进行图像融合。这两种方法中,最为简单的算法为基于空间领域的融合算法,但是这类方法产生的不良后果比较多,例如对比度不明显、块状效应等等。另一种方法是在频域中进行图像融合,该方法主要通过多尺度变换见空域变为频域,并通过相应的融合规则,最后通过拟多尺度变换重构图像,这个重构图像即为融合图像。基于多尺度变换的图像融合算法越来越受到广泛关注,研究表明该类方法的融合效果更接近人类视觉感知。常用的多尺度变换包括拉普拉斯金字塔、曲波、轮廓波、非采样轮廓波变换等,通过大量的实验结果表明,基于多尺度变换的图像融合效果较基于空间的图像融合算法的效果更好,这是因为通过多尺度变换可将图像分为系数子带,而不是空间区域中的像素或块,能够较好地保留图像的细节。
基于多尺度图像融合算法需要考虑两种问题,其一是如何选择多尺度变换算法,其二是系数子带的融合规则。大量的研究结果表明:不同的多尺度变换和融合规则直接影响到多聚焦图像融合的效果。
文献[1]表明,在多尺度分析中,轮廓波变换(CT)能够最优化的表示图像轮廓,并且已广泛应用到图像融合中,但是文献[2]研究表明轮廓波变换不具备平移不变性,这将导致伪吉布斯现象出现。为了弥补轮廓波的不足,文献[2]提出了非采样的轮廓波变换(NSCT),文献[3]将NSCT成功应用到图像融合中,并取得了较好的效果。但文献[3]中以平均值和绝对值最大为融合规则,导致了图像融合后的对比度不明显,融合后的图像比较模糊。
相关参考文献:
[1]L.Yang,B.L.Guo,W.Li,Multimodality medical image fusion based on multiscalegeometric analysis of contourlet transform,Neurocomputing72(1)(2008)203-211。
[2]A.L.da Cunha,J.P.Zhou,M.N.Do,.The non-subsampled contourlet transform:theory,design,and applications,IEEE Transaction on Image Processing15(12)(2006)3089-3101.
[3]Q.Zhang,B.L.Guo,Multi-focus image fusion using the non-subsampled contourlettransform,Signal Processing89(2009)1334-1346.
[4]M.Li,W.Cai,Z.Tan,A region-based multi-sensor image fusion scheme usingpulse-coupled neural network,Patter Recognition Letters 27(16)(2006)1948-1956.
[5]V Aslantas,R.Kurban,A comparison of criterion functions for fusion of multi-focusnoisy images,Optics Communications 282(16)(2009)3231-3242.
发明内容
本发明的目的是设计一种对比度明显的图像融合算法。
为了实现上述目的,本发明提出了一种基于NSCT的多聚焦图像融合算法。该算法的具体步骤如下:
步骤1:初始融合图像的获得
步骤1.1:图像预处理
考虑到图像受到噪声等影响,需要对多聚焦图像进行预处理,本发明采用均值滤波器对图像A和B进行滤波处理,得到滤波后的图像A′和B′。
步骤1.2:图像分解
步骤1.3:图像重构
采用均值法和绝对值最大法分别作为低频子带和高频方向子带的融合规则,具体见公式(1)和公式(2)。
根据上述融合策略,经过NSCT逆变换重构图像,即为初始融合图像F。通过大量的实验表明,初始融合图像F的对比度比较差,其原因在于均值化法和绝对值最大法减弱了对比度,尤其是初始融合图像中某些区域介于图像A′和图像B′之间,这些区域的对比度更差。基于此,通过下面方法提取初始融合图像F中的融合区域。
步骤2:融合区域的提取
应用公式(3)计算初始融合图像F和多聚焦图像A′、B′之间在像素点(x,y)的均方根误差,分别记为RMSEA′(i,j)和RMSEB′(i,j)。
显然,当RMSEA′(i,j)<RMSEB′(i,j)时,初始融合图像F的像素点(i,j)来自多聚焦图像A′(i,j);反之,表明初始融合图像F的像素点(i,j)来自多聚焦图像B′(i,j)。据此可获得初始融合图像F的融合区域,并构造标识矩阵Z,其中Z的维数与初始融合图像F的维数大小相等,且有
步骤3:融合图像的获得
考虑到对比度是以区域为对象的,本发明在窗口大小为m1×n1上确定低频子带和高频方向子带的融合规则。具体如下:
1.低频子带的融合策略
文献[4]提出了基于VI的图像融合算法,其中VI用于表征图像的对比度,计算公式见公式(4)。
其中, α∈[0.6,0.7]。
因此,本发明关于低频系数的融合策略为公式(5)
其中,
2.高频方向子带的融合策略
文献[5]提出了基于空间概率的对比度算法,计算公式见公式(6)。
基于此,本发明提出的高频方向子带融合策略为公式(7)
其中,
根据上述融合策略,经过NSCT逆变换得到图像即为融合图像。
本发明首先应用NSCT变换确定初始融合图像,并采用均方根误差法对多聚焦图像进行融合区域划分,在此基础上设计了低频子带和高频方向子带的融合规则,最后通过拟NSCT变换得到最终的融合图像。实验结果表明,本发明方法是非常有效,并且融合后的图像符合人眼视觉效果。
附图说明
图1是本发明的流程图;
图2是本发明中初始融合图像的获取流程图;
图3是不同融合方法下多聚焦图像融合效果图,其中:图3(a)为左聚焦图像;图3(b)为右聚焦图像;图3(c)为基于DWT的图像融合效果图;图3(d)为基于Contourlet的图像融合效果图;图3(e)为基于LSWT的图像融合效果图;图3(f)为基于NSCT的图像融合效果图;图3(g)为本发明的图像融合效果图。
具体实施方式
参照图1,本发明的具体过程包括:
步骤1:对图像A和图像B进行均值滤波,分别得到滤波后的图像A′和B′;
步骤2:分别采用NSCT变换将图像A′和B′进行分解,得到图像A′的低频子带和高频方向子带同时得到图像B′的低频自带和高频方向子带并应用公式(1)和公式(2)确定初始融合图像的低频子带和高频方向子带的融合规则,并应用拟NSCT建立初始融合图像F(具体流程图见图2);
步骤3:应用均方根误差提取初始融合图像F的融合区域;
步骤4:应用公式(5)和公式(7)分别建立低频子带和高频方向子带的融合规则;
步骤5:采用拟NSCT变换重构图像,该图像为融合图像。
为了验证本发明算法的性能,对多聚焦图像进行融合实验。实验中,除了视觉效果以外,还采用互信息(MI)和QAB/F作为客观评价指标,其中MI用来度量源图像有多少信息转移到融合结果中,QAB/F是利用Sobel边缘检测来衡量有多少边缘细节信息从源图像转移到融合图像。二者的值越大,说明融合的效果越好。
本实验分别采用基于DWT的图像融合算法、基于Contourlet的图像融合算法、基于LSWT的图像融合算法、基于NSCT的图像融合算法和本发明进行多聚焦图像融合,融合结果见图3和表1所示。
表1不同融合方法性能评价比较
不论从图3还是表1可以看出,本发明算法的融合效果非常有效,并与视觉上所得出的结论是一致的。
Claims (1)
1.一种基于NSCT的多聚焦图像融合算法,包括如下过程:
步骤1:初始融合图像的获得
1)采用均值滤波器对两幅多聚焦图像A和B进行滤波处理,得到滤波后的多聚焦图像,分别记为A′和B′;
3)采用均值法和绝对值最大法分别作为低频子带和高频方向子带的融合规则,具体见公式(1)和公式(2);
4)根据上述融合策略,经过NSCT逆变换重构图像,即为初始融合图像F。
步骤2:融合区域的提取
应用公式(3)计算初始融合图像F和多聚焦图像A′、B′之间在像素点(x,y)的均方根误差,分别记为RMSEA′(i,j)和RMSEB′(i,j),由此应用公式(4)确定标识矩阵Z,提取初始融合图像的融合区域。
步骤3:建立融合规则
本发明在窗口大小为m1×n1上确定低频子带和高频方向子带的融合规则。具体如下:
1)低频子带的融合策略
其中,
2)高频方向子带的融合策略
其中,
步骤4:融合图像的获得
根据上述融合策略,经过NSCT逆变换得到图像即为融合图像。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201210305603.3A CN103632353A (zh) | 2012-08-24 | 2012-08-24 | 基于nsct的多聚焦图像融合算法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201210305603.3A CN103632353A (zh) | 2012-08-24 | 2012-08-24 | 基于nsct的多聚焦图像融合算法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN103632353A true CN103632353A (zh) | 2014-03-12 |
Family
ID=50213370
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201210305603.3A Pending CN103632353A (zh) | 2012-08-24 | 2012-08-24 | 基于nsct的多聚焦图像融合算法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN103632353A (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104077762A (zh) * | 2014-06-26 | 2014-10-01 | 桂林电子科技大学 | 一种基于nsst与聚焦区域检测的多聚焦图像融合方法 |
CN107369148A (zh) * | 2017-09-20 | 2017-11-21 | 湖北工业大学 | 基于改进sml与导向滤波的多聚焦图像融合方法 |
CN109785282A (zh) * | 2019-01-22 | 2019-05-21 | 厦门大学 | 一种多聚焦图像融合方法 |
CN113379660A (zh) * | 2021-06-15 | 2021-09-10 | 深圳市赛蓝科技有限公司 | 一种多维度规则的多焦点图像融合方法及系统 |
-
2012
- 2012-08-24 CN CN201210305603.3A patent/CN103632353A/zh active Pending
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104077762A (zh) * | 2014-06-26 | 2014-10-01 | 桂林电子科技大学 | 一种基于nsst与聚焦区域检测的多聚焦图像融合方法 |
CN107369148A (zh) * | 2017-09-20 | 2017-11-21 | 湖北工业大学 | 基于改进sml与导向滤波的多聚焦图像融合方法 |
CN107369148B (zh) * | 2017-09-20 | 2019-09-10 | 湖北工业大学 | 基于改进sml与导向滤波的多聚焦图像融合方法 |
CN109785282A (zh) * | 2019-01-22 | 2019-05-21 | 厦门大学 | 一种多聚焦图像融合方法 |
CN113379660A (zh) * | 2021-06-15 | 2021-09-10 | 深圳市赛蓝科技有限公司 | 一种多维度规则的多焦点图像融合方法及系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Aymaz et al. | A novel image decomposition-based hybrid technique with super-resolution method for multi-focus image fusion | |
Li et al. | Performance comparison of different multi-resolution transforms for image fusion | |
CN106846289B (zh) | 一种红外光强与偏振图像融合方法 | |
CN101504766B (zh) | 基于混合多分辨率分解的图像融合方法 | |
CN103279935A (zh) | 基于map算法的热红外遥感图像超分辨率重建方法及系统 | |
CN102306381B (zh) | 基于Beamlet与小波变换的图像融合方法 | |
Bhatnagar et al. | An image fusion framework based on human visual system in framelet domain | |
CN105719263A (zh) | 基于nsct域底层视觉特征的可见光和红外图像融合算法 | |
CN102063713A (zh) | 基于邻域归一化梯度和邻域标准差的多聚焦图像融合方法 | |
CN102890820A (zh) | 基于shearlet变换和维纳滤波的图像去噪方法 | |
CN103632353A (zh) | 基于nsct的多聚焦图像融合算法 | |
CN108648174A (zh) | 一种基于自动对焦技术的多层图像融合方法及系统 | |
CN101216936A (zh) | 基于成像机理与非采样Contourlet变换多聚焦图像融合方法 | |
CN103632354A (zh) | 基于nsct尺度积的多聚焦图像融合方法 | |
Kaur et al. | A comparative study of various digital image fusion techniques: A review | |
CN103778615A (zh) | 基于区域相似性的多聚焦图像融合方法 | |
Indira et al. | Pixel based medical image fusion techniques using discrete wavelet transform and stationary wavelet transform | |
CN103810682A (zh) | 一种新的图像融合方法 | |
Parekh et al. | Comparative study and analysis of medical image fusion techniques | |
Muhammady et al. | Using co-occurrence features extracted from ripplet I transform in texture classification | |
Xin et al. | A new method for multi-focus image fusion using Countourlet transform | |
Kannan et al. | Optimal Level of Decomposition of Stationary Wavelet Transform for Region Level Fusion of Multi-Focused Images | |
Rane et al. | Comparative Study of Image Fusion Methods | |
CN112508829B (zh) | 一种基于剪切波变换的pan-sharpening方法 | |
Li et al. | Multimodal registration using the discrete wavelet frame transform |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
DD01 | Delivery of document by public notice |
Addressee: XI'AN YUANSHUO SCIENCE & TECHNOLOGY CO., LTD. Document name: Notification of Publication of the Application for Invention |
|
DD01 | Delivery of document by public notice |
Addressee: XI'AN YUANSHUO SCIENCE & TECHNOLOGY CO., LTD. Document name: Notification of before Expiration of Request of Examination as to Substance |
|
C02 | Deemed withdrawal of patent application after publication (patent law 2001) | ||
WD01 | Invention patent application deemed withdrawn after publication |
Application publication date: 20140312 |