CN102231844B - 基于结构相似度和人眼视觉的视频图像融合性能评价方法 - Google Patents

基于结构相似度和人眼视觉的视频图像融合性能评价方法 Download PDF

Info

Publication number
CN102231844B
CN102231844B CN 201110205480 CN201110205480A CN102231844B CN 102231844 B CN102231844 B CN 102231844B CN 201110205480 CN201110205480 CN 201110205480 CN 201110205480 A CN201110205480 A CN 201110205480A CN 102231844 B CN102231844 B CN 102231844B
Authority
CN
China
Prior art keywords
video image
sigma
image
frame
fusion
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
CN 201110205480
Other languages
English (en)
Other versions
CN102231844A (zh
Inventor
张强
陈闵利
王龙
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Xidian University
Original Assignee
Xidian University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Xidian University filed Critical Xidian University
Priority to CN 201110205480 priority Critical patent/CN102231844B/zh
Publication of CN102231844A publication Critical patent/CN102231844A/zh
Application granted granted Critical
Publication of CN102231844B publication Critical patent/CN102231844B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Abstract

本发明公开了一种基于结构相似度和人眼视觉的视频图像融合性能评价方法,主要解决现有技术的评价结果与主观评价结果不一致的问题。其实现步骤是:根据融合视频各帧图像与输入视频各帧图像之间的结构相似度值,构建空间性能评价指标;根据融合视频图像与输入视频图像各帧差图像之间的结构相似度值,构建时间性能评价指标;将空间性能评价指标和时间性能评价指标结合作为空间-时间性能评价指标;根据人眼视觉感知特性,采用输入视频图像空间对比度和时间运动信息制定指标所需参数。本发明具有评价结果准确且符合人眼视觉主观评价的特性,可用于评价视频图像融合算法性能。

Description

基于结构相似度和人眼视觉的视频图像融合性能评价方法
技术领域
本发明涉及图像处理领域,具体说是一种视频融合性能评价方法,该方法用于从空间信息提取及时间一致性和稳定性两个方面综合评价各种融合算法的性能。
技术背景
图像融合技术已经广泛应用于机器视觉、数码相机、目标识别等领域。然而,目前绝大多数图像融合指标是针对静态图像融合处理而设计的,而有关多传感器视频图像融合研究较少。在安全监视以及战场环境下的目标检测和识别等实际应用中,往往需要对来自多个传感器的视频图像进行融合处理。视频图像融合不仅在空间性能上要满足一般图像融合的基本要求,即融合后视频图像各帧图像应尽可能地保留输入视频图像各帧图像中的有用信息和避免引入虚假信息等;在时间性能上还要满足时间一致性和稳定性,即融合后视频图像中各帧图像之间的灰度值差异仅能由输入视频图像中各帧图像之间的灰度值差异引起,而不能由算法自身融合过程引入(O.Rockinger,“Image sequence fusion using a shift invariant wavelet transform,”IEEE Transactions onImage Processing,Vol.3,1997,pp.288-291.)。
目前大多数的融合性能评价指标都是针对于静态图像融合性能的评价,例如:互信息熵(Du-Yih Tsai,Yongbum Lee,Eri Matsuyama,“Information Entropy Measure forEvaluation of Image Quality”,Journal Of Digital Image,Vol.21,No.3,2008,pp.338-347),基于梯度信息保留的性能评价指标(V.Petrovic,C.Xydeas,“Objective evaluation ofsignal-level image fusion performance”,Optical Engineering,SPIE,Vol.44,No.8,2005,pp.087003.)和基于结构相似度的性能评价指标(G.Piella,H.Heijmans,“A new qualitymetric for image fusion”,IEEE International Conference on Image Processing,2003.)等。可以采用逐帧评价方式将上述静态图像融合性能评价指标用于视频图像融合性能评价中,但这种评价方法只能从空间信息提取一个方面对视频图像融合算法进行评价。为了评价各视频融合算法在时间一致性和稳定性方面的融合性能,Rockinger提出了一种基于帧差图像互信系熵的视频图像融合性能评价指标(O.Rockinger,“Imagesequence fusion using a shift invariant wavelet transform,”IEEE Transactions on ImageProcessing,Vol.3,1997,pp.288-291.)。与其它静态图像融合性能评价指标一样,该指标对视频图像融合性能评价时存在片面性。Petrovic等在基于空间梯度信息保留的融合性能评价指标的基础上,设计了一种基于空间-时间联合梯度信息保留的视频图像融合性能评价指标(V.Petrovic,T.Cootes,R.Pavlovic,“Dynamic image fusion performanceevaluation,”10th International Conference on Information Fusion,2007),这种指标能够从空间信息提取及时间一致性和稳定性两个方面对视频图像融合性能进行综合评价。然而,该指标是一种基于梯度信息的性能评价指标,易受噪声影响。同时,该指标在设计过程中没有考虑人眼视觉感知特性,而人眼往往是视频图像融合的最终接收端,从而使得评价结果与主观评价结果相差较大。
发明内容
本发明的目的在于克服上述已有技术的不足,提出一种基于结构相似度和人眼视觉的视频图像融合性能评价方法,以从空间信息提取及时间一致性和稳定性两个方面综合评价视频图像融合的融合性能,同时结合人眼视觉感知特性使得评价结果更接近主观评价。
本发明的目的是这样实现的:
一.技术原理
本发明在基于结构相似度SSIM静态图像融合性能评价指标的基础上,根据融合后视频图像与输入视频图像各帧图像之间的SSIM值,构建空间融合性能评价指标;根据融合后视频图像与输入视频图像各帧差图像之间的SSIM值构建时间性能评价指标;将空间性能评价指标和时间性能评价标准结合,构建空间-时间性能评价标准,综合评价各融合算法。同时,根据人眼视觉感知特性设计所需局部和全局参数,从而使得客观评价结果更符合人眼主观评价。其中所根据的人眼视觉感知特性如下:(1)人眼视觉系统感知的目的是提取视频图像中显著特征,含有丰富信息的目标更容易引起人眼视觉系统的注意;(2)人眼视觉系统对不同信息感知确定程度不完全相同,在背景图像运动较快的视频图像中,人眼视觉系统对图像中的信息感知确定程度明显不及背景图像运动较慢的视频图像中的信息感知确定程度。
二.实现步骤
本发明以两个参考输入视频Va、Vb和融合后视频Vf为例,其实现步骤包括如下:
(1)针对融合后视频图像Vf与输入视频图像Va和Vb之间的当前帧图像构建相应的单帧空间性能评价指标QS,t(Va,Vb,Vf):
Q S , t ( Va , Vb , Vf ) = Σ m = 1 M Σ n = 1 N ( λ a ( w m , n , t ) ( SSIM ( Va , Vf | w m , n , t ) ) + λ b ( w m , n , t ) ( SSIM ( Vb , Vf | w m , n , t ) ) Σ m = 1 M Σ n = 1 N ( λ a ( w m , n , t ) + λ b ( w m , n , t ) )
其中,M×N为各视频每一帧图像的大小,wm,n,t表示第t帧图像中空间位置为(m,n)处的局部窗口,λa(wm,n,t)为输入视频图像Va在当前窗口下的权值,λb(wm,n,t)为输入视频图像Vb在当前窗口下的权值,SSIM(Va,Vf|wm,n,t)表示融合后视频图像Vf与输入视频图像Va在当前局部窗口下的结构相似度值,SSIM(Vb,Vf|wm,n,t)表示融合后视频图像Vf与输入视频图像Vb在当前局部窗口下的结构相似度值;
(2)针对融合后视频图像Vf与输入视频图像Va和Vb各帧差视频图像之间的当前帧图像,构建相应的单帧时间性能评价指标QT,t(Da,Db,Df):
Q T , t ( Da , Db , Df ) = Σ m = 1 M Σ n = 1 N ( ξ a ( w m , n , t ) ( SSIM ( Da , Df | w m , n , t ) ) + ξ b ( w m , n , t ) ( SSIM ( Db , Df | w m , n , t ) ) Σ m = 1 M Σ n = 1 N ( ξ a ( w m , n , t ) + ξ b ( w m , n , t ) )
其中,Da、Db和Df分别为视频图像Va、Vb和Vf对应的帧差视频图像,ξa(wm,n,t)为输入帧差视频图像Da在当前窗口下的权值,ξb(wm,n,t)为输入帧差视频图像Db在当前窗口下的权值,SSIM(Da,Df|wm,n,t)表示融合后帧差视频图像Df与输入帧差视频图像Da在当前局部窗口下的结构相似度值,SSIM(Db,Df|wm,n,t)表示融合后帧差视频图像Df与输入帧差视频图像Db在当前局部窗口下的结构相似度值;
(3)针对融合后视频图像Vf与输入视频图像Va和Vb之间的当前帧图像,构建相应的单帧空间-时间性能评价指标Qt(Va,Vb,Vf):
其中,取值范围为[0,1]。
(4)构建全局空间-时间性能评价指标Q(Va,Vb,Vf):
Q ( Va , Vb , Vf ) = Σ t = 1 T Q t ( Va , Vb , Vf ) · ρ ( t ) Σ t = 1 T ρ ( t )
其中,T表示视频图像所含的帧数,ρ(t)为全局帧权值。
本发明具有如下效果:
(1)能够从空间信息提取及时间一致性和稳定性两个方面对视频图像融合算法的性能进行综合评价。
本发明根据融合视频图像与输入视频图像各帧图像之间的SSIM值评价视频融合算法在空间信息提取方面的融合性能,根据融合视频图像与输入视频各帧差图像之间的SSIM值评价融合算法在时间一致性和稳定性方面的融合性能,将二者结合在一起,能够从空间信息提取及时间一致性和稳定性两个方面综合评价视频图像融合的融合性能。
(2)评价指标客观评价结果更符合人眼主观评价结果。
本发明评价指标中所设计的参数均是根据人眼视觉感知特性设计的,利用人眼视觉系统感知的目的是提取视频图像中显著特征,含有丰富信息的目标更容易引起人眼视觉系统的注意这一特性设计局部参数,利用人眼视觉系统对不同信息感知确定程度不完全相同这一特性设计全局参数,从而保证了评价指标能够更准确地评价各视频图像融合算法并且评价结果更符合人眼主观评价。
附图说明
图1为本发明流程框图;
图2为第一组两个输入视频图像的当前帧和前一帧图像;
图3为图2中当前帧和前一帧的帧差图像;
图4为采用四种融合方法分别对第一组两幅当前帧图像融合后的图像;
图5为采用四种融合方法分别对第一组两幅前一帧图像融合后的图像;
图6为图4与图5中融合后图像的帧差图像;
图7为第二组两个输入视频图像的当前帧和前一帧图像;
图8为图7中当前帧和前一帧的帧差图像;
图9为采用四种融合方法分别对第二组两幅当前帧图像融合后的图像;
图10为采用四种融合方法分别对第二组两幅前一帧图像融合后的图像;
图11为图9与图10中融合后图像的帧差图像。
具体实施方式
以下参照附图对本发明做进一步详细的描述。
参照图1,以两个参考输入视频Va、Vb和融合后视频Vf为例,其实现步骤为:
第一步,以各输入视频和融合后视频的每帧图像作为处理对象,计算单帧空间性能评价指标。
以下以各视频图像的第t帧图像为例说明:
(1.1)针对融合后视频图像Vf与输入视频图像Va和Vb第t帧图像在空间点(m,n)位置处定义局部窗口wm,n,t,本发明中采用7×7大小的窗口;
(1.2)计算融合后视频图像Vf与输入视频图像Va、Vb在当前窗口wm,n,t下的局部结构相似度值SSIM(Va,Vf|wm,n,t)和SSIM(Vb,Vf|wm,n,t):
SSIM ( Va , Vf | w m , n , t ) = ( 2 μ Va ( w m , n , t ) μ Vf ( w m , n , t ) + C 1 ) ( μ Va 2 ( w m , n , t ) + μ Vf 2 ( w m , n , t ) + C 1 ) · ( 2 σ VaVf ( w m , n , t ) + C 2 ) ( σ Va 2 ( w m , n , t ) + σ Vf 2 ( w m , n , t ) + C 2 )
SSIM ( Vb , Vf | w m , n , t ) = ( 2 μ Vb ( w m , n , t ) μ Vf ( w m , n , t ) + C 1 ) ( μ Vb 2 ( w m , n , t ) + μ Vf 2 ( w m , n , t ) + C 1 ) · ( 2 σ VbVf ( w m , n , t ) + C 2 ) ( σ Vb 2 ( w m , n , t ) + σ Vf 2 ( w m , n , t ) + C 2 )
其中,μVa(wm,n,t)、μVb(wm,n,t)和μVf(wm,n,t)分别表示视频图像Va、Vb和Vf在局部窗口下的均值,
Figure BDA0000077602770000053
Figure BDA0000077602770000055
分别表示视频图像Va、Vb和Vf在局部窗口下的方差,σVaVf(wm,n,t)表示视频图像Vf与Va在当前窗口下的协方差值,σVbVf(wm,n,t)表示视频图像Vf与Vb在当前窗口下的协方差值,C1和C2为常值,以避免运算错误;
(1.3)分别计算输入视频图像Va和Vb在当前窗口下的权值λa(wm,n,t)和λb(wm,n,t):
λ a ( w m , n , t ) = log ( 1 + σ Va 2 ( w m , n , t ) C t ( Va ) )
λ b ( w m , n , t ) = log ( 1 + σ Vb 2 ( w m , n , t ) C t ( Vb ) )
其中,
Figure BDA0000077602770000058
Figure BDA0000077602770000059
分别为视频Va和Vb在当前局部窗口wm,n,t内的方差,用于表示视频图像在当前窗口下的信号强度,Ct(Va)和Ct(Vb)分别表示视频图像Va和Vb当前帧图像中的噪声强度;
(1.4)计算出第t帧图像的空间性能评价指标QS,t(Va,Vb,Vf)为:
Q S , t ( Va , Vb , Vf ) = Σ m = 1 M Σ n = 1 N ( λ a ( w m , n , t ) ( SSIM ( Va , Vf | w m , n , t ) ) + λ b ( w m , n , t ) ( SSIM ( Vb , Vf | w m , n , t ) ) Σ m = 1 M Σ n = 1 N ( λ a ( w m , n , t ) + λ b ( w m , n , t ) )
第二步,以参考视频和融合后视频的帧差视频图像为处理对象,计算单帧时间性能评价指标。
以各帧差视频图像的第t帧帧差图像为例说明如下:
(2.1)计算输入视频图像Va和Vb以及融合后视频图像Vf在第t帧的帧差视频图像Da、Db和Df:
Da(t)=Va(t)-Va(t-1)
Db(t)=Vb(t)-Vb(t-1)
Df(t)=Vf(t)-Vf(t-1)
(2.2)计算帧差视频图像Df与帧差视频图像Da、Db在局部窗口wm,n,t内SSIM值SSIM(Da,Df|wm,n,t)和SSIM(Db,Df|wm,n,t):
SSIM ( Da , Df | w m , n , t ) = ( 2 μ Da ( w m , n , t ) μ Df ( w m , n , t ) + C 1 ) ( μ Da 2 ( w m , n , t ) + μ Df 2 ( w m , n , t ) + C 1 ) · ( 2 σ DaDf ( w m , n , t ) + C 2 ) ( σ Da 2 ( w m , n , t ) + σ Df 2 ( w m , n , t ) + C 2 )
SSIM ( Db , Df | w m , n , t ) = ( 2 μ Db ( w m , n , t ) μ Df ( w m , n , t ) + C 1 ) ( μ Db 2 ( w m , n , t ) + μ Df 2 ( w m , n , t ) + C 1 ) · ( 2 σ DbDf ( w m , n , t ) + C 2 ) ( σ Db 2 ( w m , n , t ) + σ Df 2 ( w m , n , t ) + C 2 )
其中,μDa(wm,n,t)、μDb(wm,n,t)和μDf(wm,n,t)分别表示视频图像Da、Db和Df在局部窗口下的均值;
Figure BDA0000077602770000064
Figure BDA0000077602770000066
分别表示视频图像Da、Db和Df在局部窗口下的方差;σDaDf(wm,n,t)表示视频图像Vf与Va在当前窗口下的协方差值,σDbDf(wm,n,t)表示视频图像Vf与Vb在当前窗口下的协方差值,C1和C2为常值,以避免运算错误;
(2.3)计算帧差视频图像Da和Db在当前窗口下的权值ξa(wm,n,t)和ξb(wm,n,t):
ξa(wm,n,t)=1+log(1+‖va(m,n,t)‖)
ξb(wm,n,t)=1+log(1+‖vb(m,n,t)‖)
其中,va(m,n,t)和vb(m,n,t)表示输入视频图像Va和Vb在当前时-空位置处的局部运动向量,‖‖表示运动向量范数;
(2.4)计算单帧时间性能评价指标QT,tVa,Vb,Vf):
Q T , t Va , Vb , Vf ) = Σ m = 1 M Σ n = 1 N ( ξ a ( w m , n , t ) ( SSIM ( Da , Df | w m , n , t ) ) + ξ b ( w m , n , t ) ( SSIM ( Db , Df | w m , n , t ) ) Σ m = 1 M Σ n = 1 N ( ξ a ( w m , n , t ) + ξ b ( w m , n , t ) ) .
第三步,根据单帧空间性能评价指标QS,t(Va,Vb,Vf)和单帧时间性能评价指标QT,tVa,Vb,Vf),构建单帧空间-时间性能评价指标Qt(Va,Vb,Vf):
Figure BDA0000077602770000072
其中,
Figure BDA0000077602770000073
时,Qt(Va,Vb,Vf)退化为空间性能评价指标,可以用来评价各融合算法在空间信息提取方面的融合性能;当
Figure BDA0000077602770000075
时,Qt(Va,Vb,Vf)退化为时间性能评价指标,可以用来评价各融合算法在时间一致性和稳定性方面的融合性能,本实例中
Figure BDA0000077602770000076
第四步,构建全局空间-时间性能评价指标Q(Va,Vb,Vf)。
(4.1)计算当前帧图像在输入视频图像Va和Vb中的全局帧权值ρa(t)和ρb(t):
ρ a ( t ) = log ( 1 + 1 + c g , a ( t ) 1 + v g , a ( t ) )
ρ b ( t ) = log ( 1 + 1 + c g , b ( t ) 1 + v g , b ( t ) )
其中,vg,a(t)和cg,a(t)分别表示视频图像Va当前帧图像的全局运动速率和对比度强度,vg,b(t)和cg,b(t)分别表示视频图像Vb当前帧图像的全局运动速率和对比度强度;
(4.2)计算全局帧权值ρ(t):
ρ(t)=max(ρa(t),ρb(t))
(4.3)根据全局帧权值ρ(t)和单帧空间-时间性能评价指标Qt(Va,Vb,Vf)构建全局空间-时间性能评价指标Q(Va,Vb,Vf):
Q ( Va , Vb , Vf ) = Σ t = 1 T Q t ( Va , Vb , Vf ) · ρ ( t ) Σ t = 1 T ρ ( t )
其中,T为视频图像所包含的帧数。
为验证本发明的有效性和正确性,用不同的融合性能评价方法对四组分别采用不同的融合方法融合后的视频图像进行性能评价仿真实验。所有仿真实验均在WindowsXP操作系统下采用Matlab 2009软件实现的。
仿真1
输入如图2所示的一个具有静态背景和较好对比度的红外视频图像与一个具有静态背景和较好对比度的可见光视频图像,并用四种不同的融合方法对输入的两个视频图像进行融合,再用不同的评价标准对四种融合方法的性能进行评价。
其中,图2(a)为可见光输入视频图像的当前帧图像,图2(b)为红外输入视频图像的当前帧图像,图2(c)为图2(a)的前一帧图像,图2(d)为图2(c)的前一帧图像。图3(a)为图2(a)与图2(c)的帧差图像,图3(b)为图2(b)与图2(d)的帧差图像。
图4所示为采用四种融合方法分别对图2两个输入图像融合得到的融合后图像,其中,图4(a)为离散小波变换DWT方法融合视频图像的当前帧图像,图4(b)为离散小波框架变换DWFT方法融合视频图像的当前帧图像,图4(c)为塔式滤波器LP方法融视频图像的当前帧图像,图4(d)为三维双树复数小波变换3D-DTCWT方法融合视频图像的当前帧图像。
图5为图4中图像的前一帧图像,图5(a)~图5(d)为图4(a)~图4(d)中对应图像的前一帧图像。
图6为图4与图5的帧差图像,图6(a)~图6(d)对应了图4(a)~图4(d)与图5(a)~图5(d)的帧差图像。
从图4可以看出,基于DWT融合方法和基于LP融合方法得到的融合结果中引入了一些虚假信息,即引入了一些“块”效应,而在基于DWFT融合方法和基于3D-DTCWT融合方法得到的融合结果中,尤其在基于DWFT融合方法得到的融合结果中,这种“块”效应或虚假信息得到了很好的抑制,从而表明在空间信息提取方面,上述四种融合方法性能从优到劣依次为:基于DWFT融合方法,基于3D-DTCWT融合方法,基于DWT融合方法和基于LP融合方法。
从图6可以看出,采用基于DWT融合方法和基于LP融合方法得到的融合结果图像对应的帧差图像也存在一些原帧差图像中所没有的信息,而采用基于3D-DTCWT融合方法和基于DWFT融合方法得到的融合结果图像,尤其采用3D-DTCWT融合方法得到的融合结果图像,其对应的帧差图像与原图像对应的帧差图像具有较高的一致性。从而表明在时间一致性和稳定性方面方面,上述四种融合方法性能从优到劣依次为:基于3D-DTCWT融合方法,基于DWFT融合方法,基于DWT融合方法和基于LP融合方法。
表1为用不同评价指标对图4中用到的四种融合方法性能的评价结果。根据表1中的基于梯度的评价指标QP和基于结构相似度的评价指标Qw的值,上述四种融合方法在空间信息提取方面的融合性能从优到劣依次为:基于DWFT融合方法、基于3D-DTCWT融合方法、基于LP融合方法和基于DWT融合方法,其评价结果与对图4进行主观评价分析所得出的评价结果一致。
表1第一组图像不同的融合性能评价指标得到的数据
Figure BDA0000077602770000091
根据表1中的基于互信息的评价指标IFD_MI值,上述四种融合方法在时间一致性和稳定性方面的融合性能从优到劣依次为:基于3D-DTCWT融合方法、基于DWFT融合方法、基于LP融合方法和基于DWT融合方法,其评价结果与我们对图6进行主观评价分析所得出的评价结果一致。QP、Qw只能从空域方面对各融合方法进行评价,而IFD_MI评价指标只能从时间一致性和稳定性方面对各融合方法进行评价,因此其评价结果都具有一定的片面性。与上述三种评价指标不同的是,基于时-空梯度的动态评价指标DQP和本发明提出的评价指标Q能够从空间信息提取及时间一致性和稳定性两个方面综合评价各融合方法的融合性能,从而评价结果更准确。
根据表1中的DQP和Q值,上述四种融合方法在空间信息提取及时间一致性和稳定性方面综合性能从优到劣依次为:基于3D-DTCWT融合方法、基于DWFT融合方法、基于LP融合方法和基于DWT融合方法,其评价结果与人眼主观评价结果十分一致。从而表明本发明提出的评价指标Q能够更全面地评价视频图像融合方法。
仿真2
输入如图7所示的一个静态背景有噪声且对比度较低的红外视频图像与一个静态背景有噪声且对比度较低的可见光视频图像,并用四种不同的融合方法对输入的两个视频图像进行融合,再用不同的评价标准对四种融合方法的性能进行评价。
其中,图7(a)为可见光输入视频图像中当前帧图像,图7(b)为红外输入视频图像中当前帧图像,图7(c)为图7(a)的前一帧图像,图7(d)为图7(c)的前一帧图像。图8(a)为图7(a)与图7(c)的帧差图像,图8(b)为图7(b)与图7(d)的帧差图像。
图9所示为采用四种融合方法分别对图7两个输入图像融合得到的融合后图像,其中,图9(a)为离散小波变换DWT方法融合视频图像中当前帧图像,图9(b)为离散小波框架滤波器DWFT方法融合视频图像中当前帧图像,图9(c)为塔式滤波器LP方法融视频图像中当前帧图像,图9(d)为三维双树复数小波变换3D-DTCWT方法融合视频图像中当前帧图像。
图10为图9中图像的前一帧图像,图10(a)~图10(d)为图9(a)~图9(d)中对应的当前帧图像的前一帧图像。
图11为图9与图10的帧差图像,图11(a)~图11(d)对应了图9(a)~图9(d)与图10(a)~图10(d)的帧差图像。
从图9可以看出,基于DWT融合方法比基于LP融合方法得到的融合结果中引入更多的一些虚假信息,而在基于DWFT融合方法和基于3D-DTCWT融合方法得到的融合结果中,尤其在基于DWFT融合方法得到的融合结果中,这种虚假信息得到了很好的抑制,从而表明在空间信息提取方面,上述四种融方法性能从优到劣依次为:基于DWFT融合方法、基于3D-DTCWT融合方法、基于LP融合方法和基于DWT融合方法。
从图11可以看出,采用基于DWT和基于LP融合方法得到的融合结果图像对应的帧差图像也存在一些原帧差图像中所没有的信息,而采用基于3D-DTCWT和基于DWFT融合方法得到的融合结果图像,尤其采用3D-DTCWT融合方法得到的融合结果图像,其对应的帧差图像与原图像对应的帧差图像具有较高的一致性。从而表明在时间一致性和稳定性方面,上述四种融合方法性能从优到劣依次为:基于3D-DTCWT融合方法,基于DWFT融合方法,基于DWT融合算法和基于LP融合方法。
表2为用不同评价指标对图9中用到的四种融合方法性能的评价结果。根据表2中的基于结构相似度的评价指标Qw值,上述四种融合方法在空间信息提取方面的融合性能从优到劣依次为:基于DWFT融合方法、基于3D-DTCWT融合方法、基于LP融合方法和基于DWT融合方法,其评价结果与对图9进行主观评价分析所得出的评价结果一致。
表2第二组图像不同的融合性能评价指标得到的数据
Figure BDA0000077602770000111
根据表2中基于梯度的评价指标QP值,上述四种融合方法在空间信息提取方面的融合性能从优到劣依次为:基于3D-DTCWT融合方法、基于DWFT融合方法、基于LP融合方法和基于DWT融合方法,其评价结果与对图9进行主观评价分析所得出的评价结果不一致。
根据表2中基于时-空梯度的动态评价指标DQP值,上述四种融合方法在空间信息提取及时间一致性和稳定性两个方面的融合性能从优到劣依次为:基于3D-DTCWT融合方法、基于DWFT融合方法、基于LP融合方法和基于DWT融合方法,其评价结果与人眼主观评价结果不一致。评价指标QP和DQP均是基于梯度信息设计的,对噪声具有较高的灵敏性,故对存在噪声的图像评价时易受噪声影响从而造成评价结果不准确。
根据表2中基于互信息的评价指标IFD_MI值和本发明所提出的评价指标Q值,上述四种融合方法性能从优到劣依次为:基于3D-DTCWT融合方法、基于DWFT融合方法、基于DWT融合方法和基于LP融合方法,其评价结果与人眼主观评价结果十分一致。本发明提出的评价指标Q主要基于视频图像中的局部窗口区域统计特性设计,所采用的局部和全局参数均是根据人眼视觉感知特性设计的,因此本发明设计的视频图像融合性能评价指标Q对噪声具有更好的鲁棒性,评价结果更准确,更符合人眼主观评价。

Claims (6)

1.一种基于结构相似度和人眼视觉的视频图像融合性能评价方法,以两个参考输入视频Va、Vb和融合后视频Vf为例,包括如下步骤:
(1)针对融合后视频图像Vf与输入视频图像Va和Vb之间的当前帧图像构建相应的单帧空间性能评价指标QS,t(Va,Vb,Vf):
Q S , t ( Va , Vb , Vf ) = Σ m = 1 M Σ n = 1 N ( λ a ( w m , n , t ) ( SSIM ( Va , Vf | w m , n , t ) ) + λ b ( w m , n , t ) ( SSIM ( Vb , Vf | w m , n , t ) ) Σ m = 1 M Σ n = 1 N ( λ a ( w m , n , t ) + λ b ( w m , n , t ) )
其中,M×N为各视频每一帧图像的大小,wm,n,t表示第t帧图像中空间位置为(m,n)处的局部窗口,λa(wm,n,t)为输入视频图像Va在当前窗口下的权值,λb(wm,n,t)为输入视频图像Vb在当前窗口下的权值,SSIM(Va,Vf|wm,n,t)表示融合后视频图像Vf与输入视频图像Va在当前局部窗口下的结构相似度值,SSIM(Vb,Vf|wm,n,t)表示融合后视频图像Vf与输入视频图像Vb在当前局部窗口下的结构相似度值;
所述 SSIM ( Va , Vf | w m , n , t ) = ( 2 μ Va ( w m , n , t ) μ Vf ( w m , n , t ) + C 1 ) ( μ Va 2 ( w m , n , t ) + μ Vf 2 ( w m , n , t ) + C 1 ) · ( 2 σ VaVf ( w m , n , t ) + C 2 ) ( σ Va 2 ( w m , n , t ) + σ Vf 2 ( w m , n , t ) + C 2 )
所述 SSIM ( Vb , Vf | w m , n , t ) = ( 2 μ Vb ( w m , n , t ) μ Vf ( w m , n , t ) + C 1 ) ( μ Vb 2 ( w m , n , t ) + μ Vf 2 ( w m , n , t ) + C 1 ) · ( 2 σ VbVf ( w m , n , t ) + C 2 ) ( σ Vb 2 ( w m , n , t ) + σ Vf 2 ( w m , n , t ) + C 2 )
其中,μVa(wm,n,t)、μVb(wm,n,t)和μVf(wm,n,t)分别表示视频图像Va、Vb和Vf在局部窗口下的均值,
Figure FDA00002386372000014
分别表示视频图像Va、Vb和Vf在局部窗口下的方差,σVaVf(wm,n,t)表示视频图像Vf与Va在当前窗口下的协方差值,σVbVf(wm,n,t)表示视频图像Vf与Vb在当前窗口下的协方差值,C1和C2为常值,以避免运算错误;
(2)针对融合后视频图像Vf与输入视频图像Va和Vb各帧差视频图像之间的当前帧图像,构建相应的单帧时间性能评价指标QT,t(Da,Db,Df):
Q T , t ( Da , Db , Df ) = Σ m = 1 M Σ n = 1 N ( ξ a ( w m , n , t ) ( SSIM ( Da , Df | w m , n , t ) ) + ξ b ( w m , n , t ) ( SSIM ( Db , Df | w m , n , t ) ) Σ m = 1 M Σ n = 1 N ( ξ a ( w m , n , t ) + ξ b ( w m , n , t ) )
其中,Da、Db和Df分别为视频图像Va、Vb和Vf对应的帧差视频图像,ξa(wm,n,t)为输入帧差视频图像Da在当前窗口下的权值,ξb(wm,n,t)为输入帧差视频图像Db在当前窗口下的权值,SSIM(Da,Df|wm,n,t)表示融合后帧差视频图像Df与输入帧差视频图像Da在当前局部窗口下的结构相似度值,SSIM(Db,Df|wm,n,t)表示融合后帧差视频图像Df与输入帧差视频图像Db在当前局部窗口下的结构相似度值;
所述 SSIM ( Da , Df | w m , n , t ) = ( 2 μ Da ( w m , n , t ) μ Df ( w m , n , t ) + C 1 ) ( μ Da 2 ( w m , n , t ) + μ Df 2 ( w m , n , t ) + C 1 ) · ( 2 σ DaDf ( w m , n , t ) + C 2 ) ( σ Da 2 ( w m , n , t ) + σ Df 2 ( w m , n , t ) + C 2 )
所述 SSIM ( Db , Df | w m , n , t ) = ( 2 μ Db ( w m , n , t ) μ Df ( w m , n , t ) + C 1 ) ( μ Db 2 ( w m , n , t ) + μ Df 2 ( w m , n , t ) + C 1 ) · ( 2 σ DbDf ( w m , n , t ) + C 2 ) ( σ Db 2 ( w m , n , t ) + σ Df 2 ( w m , n , t ) + C 2 )
其中,μDa(wm,n,t)、μDb(wm,n,t)和μDf(wm,n,t)分别表示视频图像Da、Db和Df在局部窗口下的均值;
Figure FDA00002386372000024
Figure FDA00002386372000025
分别表示视频图像Da、Db和Df在局部窗口下的方差;σDaDf(wm,n,t)表示视频图像Vf与Va在当前窗口下的协方差值,σDbDf(wm,n,t)表示视频图像Vf与Vb在当前窗口下的协方差值,C1和C2为常值,以避免运算错误;
(3)针对融合后视频图像Vf与输入视频图像Va和Vb之间的当前帧图像,构建相应的单帧空间-时间性能评价指标Qt(Va,Vb,Vf):
Figure FDA00002386372000026
其中,
Figure FDA00002386372000027
取值范围为[0,1];
(4)构建全局空间-时间性能评价指标Q(Va,Vb,Vf):
Q ( Va , Vb , Vf ) = Σ t = 1 T Q t ( Va , Vb , Vf ) · ρ ( t ) Σ t = 1 T ρ ( t )
其中,T表示视频图像所含的帧数,ρ(t)为全局帧权系数。
2.根据权利要求1所述的视频图像融合性能评价方法,其特征在于步骤(1)中单帧空间性能评价指标中涉及的输入视频图像Va在当前窗口下的权值λa(wm,n,t),按如下公式计算:
λ a ( w m , n , t ) = log ( 1 + σ Va 2 ( w m , n , t ) C t ( Va ) )
其中,
Figure FDA00002386372000032
为视频图像Va在当前局部窗口wm,n,t内的方差,用于表示视频图像在当前窗口下的信号强度,Ct(Va)表示视频图像Va当前帧图像中的噪声强度。
3.根据权利要求1所述的视频图像融合性能评价方法,其特征在于步骤(1)中单帧空间性能评价指标中涉及的输入视频图像Vb在当前窗口下的权值λb(wm,n,t),按如下公式计算:
λ b ( w m , n , t ) = log ( 1 + σ Vb 2 ( w m , n , t ) C t ( Vb ) )
其中,
Figure FDA00002386372000034
分别为视频图像Vb在当前局部窗口wm,n,t内的方差,用于表示视频图像在当前窗口下的信号强度,Ct(Vb)分别表示视频图像Vb当前帧图像中噪声强度。
4.根据权利要求1所述的视频图像融合性能评价方法,其特征在于步骤(2)中单帧时间性能评价指标中涉及的输入帧差视频图像Da在当前窗口下的权值ξa(wm,n,t),按如下公式计算:
ξa(wm,n,t)=1+log(1+‖va(m,n,t)‖)
其中,va(m,n,t)表示输入视频图像Va在当前时-空位置处的局部运动向量,‖ ‖表示运动向量范数。
5.根据权利要求1所述的视频图像融合性能评价方法,其特征在于步骤(2)中单帧时间性能评价指标中涉及的输入帧差视频图像Db在当前窗口下的权值ξb(wm,n,t),按如下公式计算:
ξb(wm,n,t)=1+log(1+‖vb(m,n,t)‖)
其中,vb(m,n,t)表示输入视频图像Vb在当前时-空位置处的局部运动向量,‖ ‖表示运动向量范数。
6.根据权利要求1所述的视频图像融合性能评价方法,其特点在于步骤(4)中全局空间-时间性能评价指标中涉及的全局帧权值ρ(t),按如下步骤计算:
(4a)计算输入视频图像Va和Vb当前帧的全局帧权值ρa(t)和ρb(t):
ρ a ( t ) = log ( 1 + 1 + c g , a ( t ) 1 + v g , a ( t ) )
ρ b ( t ) = log ( 1 + 1 + c g , b ( t ) 1 + v g , b ( t ) )
其中,vg,a(t)和cg,a(t)分别表示视频图像Va当前帧图像的全局运动速率和对比度强度,vg,b(t)和cg,b(t)分别表示视频图像Vb当前帧图像的全局运动速率和对比度强度;
(4b)根据全局权系数ρa(t)和ρb(t)计算全局帧权值ρ(t):
ρ(t)=max(ρa(t),ρb(t))。
CN 201110205480 2011-07-21 2011-07-21 基于结构相似度和人眼视觉的视频图像融合性能评价方法 Expired - Fee Related CN102231844B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN 201110205480 CN102231844B (zh) 2011-07-21 2011-07-21 基于结构相似度和人眼视觉的视频图像融合性能评价方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN 201110205480 CN102231844B (zh) 2011-07-21 2011-07-21 基于结构相似度和人眼视觉的视频图像融合性能评价方法

Publications (2)

Publication Number Publication Date
CN102231844A CN102231844A (zh) 2011-11-02
CN102231844B true CN102231844B (zh) 2013-04-03

Family

ID=44844369

Family Applications (1)

Application Number Title Priority Date Filing Date
CN 201110205480 Expired - Fee Related CN102231844B (zh) 2011-07-21 2011-07-21 基于结构相似度和人眼视觉的视频图像融合性能评价方法

Country Status (1)

Country Link
CN (1) CN102231844B (zh)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102790844B (zh) * 2012-07-13 2014-08-13 浙江捷尚视觉科技股份有限公司 基于人眼视觉特性的视频噪声估计方法
CN102946548B (zh) * 2012-11-27 2015-02-18 西安电子科技大学 基于3维Log-Gabor变换的视频图像融合性能评价方法
CN103905815B (zh) * 2014-03-19 2016-01-13 西安电子科技大学 基于高阶奇异值分解的视频融合性能评价方法
CN103873859B (zh) * 2014-03-26 2015-11-11 西安电子科技大学 基于时空显著性检测的视频融合性能评价方法
CN104318539A (zh) * 2014-10-16 2015-01-28 哈尔滨工程大学 一种基于扩展Piella框架的声纳图像融合方法
CN105828064B (zh) * 2015-01-07 2017-12-12 中国人民解放军理工大学 融合局部和全局时空特性的无参考视频质量评估方法
CN106713741B (zh) * 2016-11-16 2020-09-25 深圳六滴科技有限公司 全景视频的质量诊断方法及装置
CN111741292B (zh) * 2020-06-24 2022-02-11 湖南国科微电子股份有限公司 视频错误模拟方法、装置、可读存储介质及电子设备

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101282481A (zh) * 2008-05-09 2008-10-08 中国传媒大学 一种基于人工神经网络的视频质量评价方法
CN101378519A (zh) * 2008-09-28 2009-03-04 宁波大学 一种基于Contourlet变换的质降参考图像质量评价方法
CN101621709A (zh) * 2009-08-10 2010-01-06 浙江大学 一种全参考型图像客观质量评价方法
CN101840573A (zh) * 2010-04-12 2010-09-22 李珊珊 一种像素级图像融合质量评估方法

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6898331B2 (en) * 2002-08-28 2005-05-24 Bae Systems Aircraft Controls, Inc. Image fusion system and method
US8090429B2 (en) * 2004-06-30 2012-01-03 Siemens Medical Solutions Usa, Inc. Systems and methods for localized image registration and fusion
JP4267598B2 (ja) * 2005-07-11 2009-05-27 ザイオソフト株式会社 画像融合処理方法、画像融合処理プログラム、画像融合処理装置
US7492962B2 (en) * 2005-08-25 2009-02-17 Delphi Technologies, Inc. System or method for enhancing an image

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101282481A (zh) * 2008-05-09 2008-10-08 中国传媒大学 一种基于人工神经网络的视频质量评价方法
CN101378519A (zh) * 2008-09-28 2009-03-04 宁波大学 一种基于Contourlet变换的质降参考图像质量评价方法
CN101621709A (zh) * 2009-08-10 2010-01-06 浙江大学 一种全参考型图像客观质量评价方法
CN101840573A (zh) * 2010-04-12 2010-09-22 李珊珊 一种像素级图像融合质量评估方法

Non-Patent Citations (5)

* Cited by examiner, † Cited by third party
Title
JP特开2007-14706A 2007.01.25
Oliver Rockinger.Image Sequence Fusion Using a Shift-Invariant Wavelet Transform.《International Conference on Image Processing,1997.Proceedings.》.1997,第03卷 *
Petrovic Vladimir,et al.Dynamic Image Fusion Performance Evaluation.《2007 10th International Conference on Information Fusion》.2007, *
卫薇,等.一种遥感图像融合质量评价方法.《中国图象图形学报》.2009,第14卷(第08期), *
高少姝,等.图像融合质量客观评价方法.《应用光学》.2011,第32卷(第04期), *

Also Published As

Publication number Publication date
CN102231844A (zh) 2011-11-02

Similar Documents

Publication Publication Date Title
CN102231844B (zh) 基于结构相似度和人眼视觉的视频图像融合性能评价方法
Gehrig et al. Asynchronous, photometric feature tracking using events and frames
Wang et al. Novel spatio-temporal structural information based video quality metric
CN102946548B (zh) 基于3维Log-Gabor变换的视频图像融合性能评价方法
CN103747240B (zh) 融合颜色和运动信息的视觉显著性滤波方法
Pei et al. The improved wavelet transform based image fusion algorithm and the quality assessment
CN110825900A (zh) 特征重构层的训练方法、图像特征的重构方法及相关装置
CN103985106B (zh) 用于对强噪声图像进行多帧融合的设备和方法
Asmare et al. Image enhancement by fusion in contourlet transform
CN116977674A (zh) 图像匹配方法、相关设备、存储介质及程序产品
Colombari et al. Patch-based background initialization in heavily cluttered video
CN114529687A (zh) 图像重建方法、装置、电子设备及计算机可读存储介质
CN102013101A (zh) 一种经过模糊后处理的置换篡改图像盲检测方法
CN106778822B (zh) 基于漏斗变换的图像直线检测方法
Bhatnagar et al. Multi-sensor fusion based on local activity measure
Dosselmann et al. A formal assessment of the structural similarity index
CN103942766A (zh) 一种基于时-空-频三域联合处理的雨天视频复原方法
Li et al. Gradient-weighted structural similarity for image quality assessments
Md et al. Multiscale-ssim index based stereoscopic image quality assessment
Sonawane et al. Image quality assessment techniques: An overview
Regis et al. Video quality assessment based on the effect of the estimation of the spatial perceptual information
CN114205578A (zh) 基于频域偏度和频域峰值的视频模糊异常检测方法和系统
Ali et al. A comparative study of various image dehazing techniques
Fan et al. Rich convolutional features fusion for crowd counting
Liu et al. A framework for depth video reconstruction from a subset of samples and its applications

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20130403

Termination date: 20180721