一种基于方向权值经验模式分解的遥感图像融合方法
技术领域
本发明涉及图像融合技术领域,具体地说是一种基于方向权值经验模式分解的遥感图像融合方法。
背景技术
目前,基于多分辨率、多尺度分解的融合算法,在图像融合中得到广泛应用。各国研究者提出Wavelet变换、Ridgelet变换、Curvelet变换、Contourlet变换和Bandelet变换等多种小波和超小波变换的处理方法,就是这方面的重要研究成果。但无论是基于那种小波,在图像融合中都存在一个问题:融合后的图像会在局部位置出现畸变。因此,工程界和数学界从未停止过探索更好的分解算法。
1999年,美国宇航局的Norden E.Huang教授发明了经验模式分解算法(EmpiricalMode Decomposition,EMD),能将非稳定非线性信号按频率做自适应分解。二维经验模式分解是一维EMD分解算法在二维平面上的推广,可用于图像数据的分析和处理,通过将原始图像自适应的分解为有效数量的子图像,可以将图像从高频到低频的局部窄带细节信息内蕴模式分量分解出来,剩余分量表示图像的趋势。分解出来内蕴模式分量具有当前图像的纹理信息。但传统二维经验模式分解有两个缺陷:一是循环迭代次数太多,影响运算速度;分解得到的内蕴模式分量图像中有暗斑或边缘重叠。因此两缺陷严重影响了传统二维经验模式分解在图像处理领域中的应用。快速经验模式分解算法可有效解决传统二维经验模式分解的缺陷,又保留了传统二维经验模式分解自适应分解特性。但方向权值经验模式分解算法其应用还处于起步阶段,少有关于图像融合的讨论,基于方向权值经验模式分解算法的融合规则也少有具体实现,需深入探索。
综上,目前现有的融合技术应用于遥感图像融合,还存在一些不足:基于小波、超小波的融合图像会出现局部畸变,传统经验模式分解方法分解得到的内蕴模式分量图像暗斑或双边缘都对融合结果有很大的影响。
发明内容
本发明所要解决的技术问题是提供一种基于方向权值经验模式分解的遥感图像融合方法,解决传统经验模式分解方法出现局部畸变,导致融合效果不够理想等缺陷。
本发明为解决上述技术问题所采用的技术方案是:一种基于方向权值经验模式分解的遥感图像融合方法,包括以下步骤:
步骤一、运用方向权值经验模式分解算法将匹配好的待融合源图像分别进行相同级数的分解,得到源图像的多尺度多向的内蕴模式函数分量imfij和剩余分量ri其中i=1,2,…,m,m为待融合图像的数量,j=1,2,…,n,n为分解得到的内蕴模式函数分量imf的级数;
步骤二、将相同级的待融合图像的内蕴模式函数分量imfij和剩余分量ri进行融合处理,产生融合图像的第j级内模分量IMFj和剩余分量R;
优选的,本发明所述步骤一中对每个待融合图像进行分解的方法为:
(1)初始化:令r0=I,j=1,I表示的是源图像;
(2)根据分解层数,进行以下操作:
(a)令h0=rj-1,i=1,其中i表示内部第i次筛选,j为分解第j级内蕴模式分量;
(b)更新hi=hi-1-mi-1,i=i+1,其中mi-1为运用方向滤波器计算的hi-1的平均包络;
(c)重复步骤(b)直到hi的极值数小于3或i=AI,则sj=hi,imfj=hi,j=j+1,其中AI为规定的筛选次数;
(3)更新rj=rj-1-sj;
(4)重复步骤(2)和(3)直到rj的极大值和极小值之和小于3。
优选的,本发明所述步骤(b)中运用方向滤波器计算hi-1的平均包络mi-1的方法为:
(1)提取h
i-1的所有局部极值点,并统计极值点的个数l,计算滤波器窗口w,
其中M和N为输入源h
i-1的像素大小;
(2)在窗口w下运用Riesz变换得到hi-1中所有点的局部方向,得到局部方向点集di-1;
(3)根据方向点集di-1当前点方向生成方向滤波器bdf,根据方向滤波器bdf计算当前点的局部方向权值均值,遍历所有数据点,计算得到平均包络mi-1。
优选的,本发明所述步骤(3)中方向滤波器bdf的生成方法为:
(a)由下式计算得到方向高斯滤波器filter(x,y,θ):
x,y为当前点坐标,o、p的取值范围为
其中θ为方向点集当前点的方向,σ为高斯方差;
(b)由下式计算二值方向滤波器:
优选的,本发明所述步骤(3)中由方向滤波器bdf计算平均包络m的方法为:
(a)计算参数s1:
(b)计算参数s2:
(c)计算权值ω:
(d)计算平均包络m:
优选的,本发明所述步骤二中融合的方法为:
(1)计算局部均值lm(x,y):
,f表示imf
ij和r
i,u,v分别表示当前点(x,y)在x轴和y轴的位移;
(2)分别计算内蕴模式函数分量imfij和剩余分量ri的权值αi和α′i:
本发明的有益效果是:本发明首先运用方向权值经验模式分解方法对采集到的源图像进行多尺度分解,获得每幅源图像的多级尺度的高频内蕴模式分量,对各级分量按照权值规则进行融合处理,保留了所有源图像的细节信息和能量分布,最后反向重构获取融合图像,具有以下优点:分解过程继承了传统经验模式分解的优点:完全由数据驱动,求取各级内蕴模式分量类似高频滤波过程,与小波,超小波相比,可获取更为丰富的细节信息,使得融合图像的质量得到提高,同时与传统经验模式分解相比,克服了运算速度慢和分解结果有暗斑和边缘重叠的问题。获得各级分量按照权值规则进行融合处理,可最大化的融合细节信息,减少非细节信息的影响,保留各分量的能量分布。本发明使得融合后图像的质量得到提高,对于遥感图像融合领域的应用具有重要意义和实用价值。
附图说明
图1为本发明基于方向权值经验模式分解的遥感图像融合方法流程示意图;
图2为传统经验模式分解和方向权值经验模式分解对Lena图像两级分解结果对比图;
图3为本发明融合效果与小波、超小波和插值经验模式分解的融合对比图。
图2中第一行为插值经验模式分解得到的第1、2级内蕴模式分量和剩余分量,第二行为单向经验模式分解得到的第1、2级内蕴模式分量和剩余分量,第三行为统计滤波经验模式分解得到的第1、2级内蕴模式分量和剩余分量,第四行为方向权值经验模式分解得到的第1、2级内蕴模式分量和剩余分量。
图3中第一行为待融合图像,第二行左为wavelet融合效果,右为curvelet融合效果,第二行左为经验模式分解融合效果,右为本发明融合效果。
具体实施方式
为了更好地理解本发明的技术方案,下面结合附图对本发明的实施方式进行详细的说明。
一种基于方向权值经验模式分解的遥感图像融合方法,包括以下步骤:
步骤一、运用方向权值经验模式分解算法将匹配好的待融合源图像分别进行相同级数的分解,得到源图像的多尺度多向的内蕴模式函数分量imfij和剩余分量ri其中i=1,2,…,m,m为待融合图像的数量,j=1,2,…,n,n为分解得到的内蕴模式函数分量imf的级数;
步骤二、将相同级的待融合图像的内蕴模式函数分量imfij和剩余分量ri进行融合处理,产生融合图像的第j级内模分量IMFj和剩余分量R;
进一步,所述步骤一中对每个待融合图像进行分解的方法为:
(1)初始化:令r0=I,j=1,I表示的是源图像;
(2)根据分解层数,进行以下操作:
(a)令h0=rj-1,i=1,其中i表示内部第i次筛选,j为分解第j级内蕴模式分量;
(b)更新hi=hi-1-mi-1,i=i+1,其中mi-1为运用方向滤波器计算的hi-1的平均包络;
(c)重复步骤(b)直到hi的极值数小于3或i=AI,则sj=hi,imfj=hi,j=j+1,其中AI为规定的筛选次数;
(3)更新rj=rj-1-sj;
(4)重复步骤(2)和(3)直到rj的极大值和极小值之和小于3。
进一步,所述步骤(b)中运用方向滤波器计算hi-1的平均包络mi-1的方法为:
(1)提取h
i-1的所有局部极值点,并统计极值点的个数l,计算滤波器窗口w,
其中M和N为输入源h
i-1的像素大小;
(2)在窗口w下运用Riesz变换得到hi-1中所有点的局部方向,得到局部方向点集di-1;
(3)根据方向点集di-1当前点方向生成方向滤波器bdf,根据方向滤波器bdf计算当前点的局部方向权值均值,遍历所有数据点,计算得到平均包络mi-1。
进一步,所述步骤(3)中方向滤波器bdf的生成方法为:
(a)由下式计算得到方向高斯滤波器filter(x,y,θ):
x,y为当前点坐标,o、p的取值范围为
其中θ为方向点集当前点的方向,σ为高斯方差;
(b)由下式计算二值方向滤波器:
进一步,所述步骤(3)中由方向滤波器bdf计算平均包络m的方法为:
(a)计算参数s1:
(b)计算参数s2:
(c)计算权值ω:
(d)计算平均包络m:
进一步,所述步骤二中融合的方法为:
(1)计算局部均值lm(x,y):
,f表示imf
ij和r
i,
u,v分别表示当前点(x,y)在x轴和y轴的位移;
(2)分别计算内蕴模式函数分量imfij和剩余分量ri的权值αi和α′i:
为了验证本发明的有效性,使用遥感图像进行融合处理。
图3中第一行为待融合图像,第二行左为wavelet方法融合效果,右为curvelet方法融合效果,第二行左为经验模式分解融合效果,右为本发明融合效果。对比可见,超小波融合的图像出现局部畸变,不能最优的表示图像细节纹理信息,插值经验模式分解融合图像中对比度不强,细节信息清晰度不高。本发明的融合图像,细节清晰,无畸变,融合后信息保存完整,最优地表示图像细节纹理信息。为客观评价融合效果,这里选用下述评价指标来进行融合结果的客观评价。
平均梯度(Average Gradient,AG):它反映图像F对微小细节反差和纹理变化特征表达能力的指标,也反映了图像的清晰度,平均梯度越大,图像越清晰。其计算公式为:
互信息(Mutual Information,MI):源图像A、B和融合图像F间的互信息,定义为:
其中pABF(i,j,k)为图像A、B、F的归一化灰度联合直方图,pAB(i,j)为为图像A、B的归一化灰度联合直方图。互信息量体现了融合图像从原始图像中提取信息的多少,互信息量愈大,则提取的信息越多。
相关系数(CorrelationCoefficient,CC):衡量融合图像F和理想图像R的相关程度。定义为:
μR、μF分别为F和R的均值。相关系数体现了融合图像F和标准参考图像R间相似性,相关系数愈大,则图像的接近度越好。
扭曲程度(Degree of Distortion,DD):扭曲程度直接反应融合图像的失真程度,扭曲程度愈小,表示图像的失真程度愈小。
由表1数据可知,本文提出的融合算法客观指标均优于其它算法。
综上所述,本文提出的融合算法,其图像融合综合效果最好。
表1融合图像评估参数
最后所应说明的是,以上实施例仅用以说明本发明的技术方案而非限制。尽管实施例对本发明进行了详细说明,本领域的普通技术人员应当理解,对本发明的技术方案进行修改或者等同替换,都不脱离本发明技术方案的精神和范围,其均应涵盖在本发明的权利要求范围当中。