CN103873859B - 基于时空显著性检测的视频融合性能评价方法 - Google Patents

基于时空显著性检测的视频融合性能评价方法 Download PDF

Info

Publication number
CN103873859B
CN103873859B CN201410114553.XA CN201410114553A CN103873859B CN 103873859 B CN103873859 B CN 103873859B CN 201410114553 A CN201410114553 A CN 201410114553A CN 103873859 B CN103873859 B CN 103873859B
Authority
CN
China
Prior art keywords
video
space
structure tensor
time
pixel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
CN201410114553.XA
Other languages
English (en)
Other versions
CN103873859A (zh
Inventor
张强
华胜
袁小青
王龙
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Xidian University
Original Assignee
Xidian University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Xidian University filed Critical Xidian University
Priority to CN201410114553.XA priority Critical patent/CN103873859B/zh
Publication of CN103873859A publication Critical patent/CN103873859A/zh
Application granted granted Critical
Publication of CN103873859B publication Critical patent/CN103873859B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Processing (AREA)

Abstract

本发明公开了一种基于时空显著性检测的视频融合性能评价方法,主要解决现有技术不能有效对含噪声视频的融合性能进行评价的问题。其实现步骤为:分别输入已配准的两个参考视频和一个融合视频;对参考视频利用三维时空结构张量进行时空显著性检测,将视频划分为时空特征区域和噪声区域,然后针对时空特征区域和噪声区域分别设计不同的评价指标进行评价;最后通过取平均构建出整体性能评价指标,从而实现对含噪声视频整体融合性能的评价。本发明能够对含噪声视频的融合性能进行有效、准确和客观地评价,可用于监控融合视频图像质量或设定视频融合算法的最佳参数。

Description

基于时空显著性检测的视频融合性能评价方法
技术领域
本发明属于视频图像处理领域,更进一步涉及一种基于时空显著性检测的视频融合性能评价方法,该方法能够有效评价噪声环境下视频融合性能,可用于监控融合视频图像质量,也可嵌入到图像处理系统中,优化算法和设定最佳参数。
背景技术
随着图像和视频融合技术的广泛应用,图像和视频融合性能的客观评价也吸引了越来越多的人的注意,已经有一些学者提出了视频融合性能评价的相关算法,例如,Petrovic等在基于空间梯度信息保留的融合性能评价指标的基础上,设计了一种基于空间-时间联合梯度信息保留的视频图像融合性能评价指标(V.Petrovic,T.Cootes,R.Pavlovic,“Dynamicimagefusionperformanceevaluation,”10thInternationalConferenceonInformationFusion,2007),张强等基于结构相似度和人眼视觉提出了一种全局视频融合质量指标(ZhangQ,WangL,LiH,etal,“Videofusionperformanceevaluationbasedonstructuralsimilarityandhumanvisualperception”,SignalProcessing,Vol.92,No.4,2012,PP.912-925)。但是这些算法主要是针对干净视频图像融合而设计的,在实际应用中,视频在获取或者传输过程中极易受到噪声干扰,而现有的视频融合性能评价指标把噪声误认为重要信息,在对进行了噪声抑制的视频融合算法进行评价时,会认为其丢失了重要信息,从而得到与主观评价结果不一致甚至相反的评价结果。
发明内容
本发明的目的在于针对上述已有技术的不足,提出一种基于时空显著性检测的视频融合性能评价方法,以提高对噪声环境下的视频融合性能评价的准确性。
实现本发明目的的技术思路是,分别对输入的参考视频和融合视频构建三维时空结构张量,对参考视频进行时空显著性检测,将视频划分为时空特征区域和噪声区域,然后针对时空特征区域像素和噪声区域像素分别定义不同的评价指标进行评价,最后定义全局评价指标对视频融合性能进行整体评价。其具体实现步骤如下:
(1)分别输入两幅参考视频a、b以及融合视频f,并分别构建第一参考视频a每个像素点处的三维时空结构张量矩阵Sa(x,y,t)、第二参考视频b每个像素点处的三维时空结构张量矩阵Sb(x,y,t)和融合视频f每个像素点处的三维时空结构张量矩阵Sf(x,y,t);
(2)利用两幅参考视频的三维时空结构张量矩阵进行时空显著性检测,得到每幅参考视频的时空特征区域R1和噪声区域R2
(3)对时空特征区域像素的融合性能进行评价:
3.1)分别计算第一参考视频a、第二参考视频b、融合视频f在每个像素点处的三维时空结构张量矩阵的最大特征值,得到第一参考视频a的结构张量最大特征值视频λa、第二参考视频b的结构张量最大特征值视频λb、融合视频f的结构张量最大特征值视频λf
3.2)根据第一参考视频a的结构张量最大特征值视频λa和融合视频f的结构张量最大特征值视频λf,得到第一参考视频a和融合视频f对应时空特征区域像素的时空特征评价指标Qaf(x,y,t):
Q af ( x , y , t ) = 4 σ af ( x , y , t ) λ a ( x , y , t ) ‾ λ f ( x , y , t ) ‾ ( σ a 2 ( x , y , t ) + σ f 2 ( x , y , t ) ) [ ( λ a ( x , y , t ) ‾ ) 2 + ( λ f ( x , y , t ) ‾ ) 2 ] ,
其中,和σa(x,y,t)分别表示第一参考视频a的结构张量最大特征值视频λa中,以当前被评价的时空特征区域像素为中心的3×3×3局部区域内的灰度平均值和标准差;和σf(x,y,t)分别表示融合视频f的结构张量最大特征值视频λf中,以当前被评价的时空特征区域像素为中心的3×3×3局部区域内的灰度平均值和标准差;σaf(x,y,t)表示第一参考视频a的结构张量最大特征值视频λa和融合视频f的结构张量最大特征值视频λf中,以当前被评价的时空特征区域像素为中心的3×3×3局部区域内的灰度协方差,(x,y)表示空间坐标,t表示时间坐标;
3.3)根据第二参考视频b的结构张量最大特征值视频λb和融合视频f的结构张量最大特征值视频λf,得到第二参考视频b和融合视频f对应时空特征区域像素的时空特征评价指标Qbf(x,y,t):
Q bf ( x , y , t ) = 4 σ bf ( x , y , t ) λ b ( x , y , t ) ‾ λ f ( x , y , t ) ‾ ( σ b 2 ( x , y , t ) + σ f 2 ( x , y , t ) ) [ ( λ b ( x , y , t ) ‾ ) 2 + ( λ f ( x , y , t ) ‾ ) 2 ] ,
其中,和σb(x,y,t)分别表示第二参考视频b的结构张量最大特征值视频λb中,以当前被评价的时空特征区域像素为中心的3×3×3局部区域内的灰度平均值和标准差;和σf(x,y,t)分别表示融合视频f的结构张量最大特征值视频λf中,以当前被评价的时空特征区域像素为中心的3×3×3局部区域内的灰度平均值和标准差;σbf(x,y,t)表示第二参考视频b的结构张量最大特征值视频λb和融合视频f的结构张量最大特征值视频λf中,以当前被评价的时空特征区域像素为中心的3×3×3局部区域内的灰度协方差;(x,y)表示空间坐标,t表示时间坐标;
3.4)将上述两个参考视频的时空特征评价指标Qaf(x,y,t)和Qbf(x,y,t)进行加权平均,得到时空特征区域像素的时空特征融合性能评价指标Qf(x,y,t);
(4)对噪声区域像素的融合性能进行评价:
4.1)分别计算第一参考视频a、第二参考视频b、融合视频f在每个像素点处的三维时空结构张量矩阵的最小特征值,得到第一参考视频a的结构张量最小特征值视频ηa、第二参考视频b的结构张量最小特征值视频ηb、融合视频f的结构张量最小特征值视频ηf
4.2)根据第一参考视频a的结构张量最小特征值视频ηa和融合视频f的结构张量最小特征值视频ηf,得到第一参考视频a和融合视频f对应噪声区域像素的噪声评价指标Naf(x,y,t):
N af ( x , y , t ) = 4 δ af ( x , y , t ) η a ( x , y , t ) ‾ η f ( x , y , t ) ‾ ( δ a 2 ( x , y , t ) + δ f 2 ( x , y , t ) ) [ ( η a ( x , y , t ) ‾ ) 2 + ( η f ( x , y , t ) ‾ ) 2 ] ,
其中,和δa(x,y,t)分别表示第一参考视频a的结构张量最小特征值视频ηa中,以当前被评价的噪声区域像素为中心的3×3×3局部区域内的灰度平均值和标准差;和δf(x,y,t)分别表示融合视频f的结构张量最小特征值视频ηf中,以当前被评价的噪声区域像素为中心的3×3×3局部区域内的灰度平均值和标准差;δaf(x,y,t)表示第一参考视频a的结构张量最小特征值视频ηa和融合视频f的结构张量最小特征值视频ηf中,以当前被评价的噪声区域像素为中心的3×3×3局部区域内的灰度协方差;(x,y)表示空间坐标,t表示时间坐标;
4.3)根据第二参考视频b的结构张量最小特征值视频ηb和融合视频f的结构张量最小特征值视频ηf,得到第二参考视频b和融合视频f对应噪声区域像素的噪声评价指标Nbf(x,y,t):
N bf ( x , y , t ) = 4 δ bf ( x , y , t ) η b ( x , y , t ) ‾ η f ( x , y , t ) ‾ ( δ b 2 ( x , y , t ) + δ f 2 ( x , y , t ) ) [ ( η b ( x , y , t ) ‾ ) 2 + ( η f ( x , y , t ) ‾ ) 2 ] ,
其中,和δb(x,y,t)分别表示第二参考视频b的结构张量最小特征值视频ηb中,以当前被评价的噪声区域像素为中心的3×3×3局部区域内的灰度平均值和标准差;和δf(x,y,t)分别表示融合视频f的结构张量最小特征值视频ηf中,以当前被评价的噪声区域像素为中心的3×3×3局部区域内的灰度平均值和标准差;δbf(x,y,t)表示第二参考视频b的结构张量最小特征值视频ηb和融合视频f的结构张量最小特征值视频ηf中,以当前被评价的噪声区域像素为中心的3×3×3局部区域内的灰度协方差;(x,y)表示空间坐标,t表示时间坐标;
4.4)将上述两个参考视频的噪声评价指标Naf(x,y,t)和Nbf(x,y,t)按如下方式结合,得到噪声区域像素的噪声抑制评价指标Qn(x,y,t):
Q n ( x , y , t ) = 1 - N af ( x , y , t ) + N bf ( x , y , t ) 2 ,
其中,(x,y)表示空间坐标,t表示时间坐标;
(5)将时空特征区域像素的时空特征融合性能评价指标Qf(x,y,t)与噪声区域像素的噪声抑制评价指标Qn(x,y,t)结合,得到视频融合的整体融合性能评价指标Qstfn
Q stfn = 1 T · Σ t = 1 T ( Σ ( x , y ) ∈ R 1 Q f ( x , y , t ) + Σ ( x , y ) ∈ R 2 Q n ( x , y , t ) ) K ( t ) ,
其中,(x,y)表示空间坐标,t表示时间坐标,K(t)表示第t帧图像中时空特征区域像素和噪声区域像素个数之和,T表示处理的视频图像帧数。
本发明由于特别地对噪声区域进行了评价,且在全局评价指标中加入了对噪声抑制程度的评价,从而能够对噪声环境下的视频融合性能进行准确评价。
附图说明
图1为本发明的流程图;
图2为本发明仿真使用的第一组视频图像;
图3为针对图2中融合结果的客观评价结果曲线图;
图4为本发明仿真使用的第二组视频图像。
具体实施办法
下面结合附图对本发明做进一步的描述。
参照附图1,本发明的实现步骤如下:
步骤1,输入两幅参考视频和融合视频,并构建其三维时空结构张量矩阵。
1.1)从图像库中获得已经经过空间和时间配准的第一参考视频a和第二参考视频b,利用融合方法将第一参考视频a和第二参考视频b融合得到融合视频f;这三幅视频的大小相同,均含有T帧图像,每帧图像的大小都为M×N,M和N可以取任意整数值;
1.2)构建第一参考视频a在像素点p(x,y,t)处的三维时空结构张量矩阵Sa(x,y,t):
S a ( x , y , t ) = Σ r ∈ Ω w ( r ) C ax 2 ( p - r ) Σ r ∈ Ω w ( r ) C ax ( p - r ) C ay p - r ) Σ r ∈ Ω w ( r ) C ax ( p - r ) C at ( p - r ) Σ r ∈ Ω w ( r ) C ax ( p - r ) C ay ( p - r ) Σ r ∈ Ω w ( r ) C ay 2 ( p - r ) Σ r ∈ Ω w ( r ) C ay ( p - r ) C at ( p - r ) Σ r ∈ Ω w ( r ) C ax ( p - r ) C at ( p - r ) Σ r ∈ Ω w ( r ) C ay ( p - r ) C at ( p - r ) Σ r ∈ Ω w ( r ) C at 2 ( p - r ) ,
其中,p(x,y,t)是第一参考视频a中的一个像素点,Ω是以点p(x,y,t)为中心,大小为3×3×3的局部区域,r是该局部区域内的一个像素点,w(r)是一个大小为3×3×3的高斯模板,Cax(p),Cay(p)和Cat(p)分别表示第一参考视频a在像素点p(x,y,t)处沿x,y,t轴的梯度;
1.3)构建第二参考视频b在像素点p(x,y,t)处的三维时空结构张量矩阵Sb(x,y,t):
S b ( x , y , t ) = Σ r ∈ Ω w ( r ) C bx 2 ( p - r ) Σ r ∈ Ω w ( r ) C bx ( p - r ) C by p - r ) Σ r ∈ Ω w ( r ) C bx ( p - r ) C bt ( p - r ) Σ r ∈ Ω w ( r ) C bx ( p - r ) C by ( p - r ) Σ r ∈ Ω w ( r ) C by 2 ( p - r ) Σ r ∈ Ω w ( r ) C by ( p - r ) C bt ( p - r ) Σ r ∈ Ω w ( r ) C bx ( p - r ) C bt ( p - r ) Σ r ∈ Ω w ( r ) C by ( p - r ) C bt ( p - r ) Σ r ∈ Ω w ( r ) C bt 2 ( p - r ) ,
其中,p(x,y,t)是第二参考视频b中的一个像素点,Ω是以点p(x,y,t)为中心,大小为3×3×3的局部区域,r是该局部区域内的一个像素点,w(r)是一个大小为3×3×3的高斯模板,Cbx(p),Cby(p)和Cbt(p)分别表示第二参考视频b在像素点p(x,y,t)处沿x,y,t轴的梯度;
1.4)构建融合视频f在像素点p(x,y,t)处的三维时空结构张量矩阵Sf(x,y,t):
S f ( x , y , t ) = Σ r ∈ Ω w ( r ) C fx 2 ( p - r ) Σ r ∈ Ω w ( r ) C fx ( p - r ) C fy p - r ) Σ r ∈ Ω w ( r ) C fx ( p - r ) C ft ( p - r ) Σ r ∈ Ω w ( r ) C fx ( p - r ) C fy ( p - r ) Σ r ∈ Ω w ( r ) C fy 2 ( p - r ) Σ r ∈ Ω w ( r ) C fy ( p - r ) C ft ( p - r ) Σ r ∈ Ω w ( r ) C fx ( p - r ) C ft ( p - r ) Σ r ∈ Ω w ( r ) C fy ( p - r ) C ft ( p - r ) Σ r ∈ Ω w ( r ) C ft 2 ( p - r ) ,
其中,p(x,y,t)是融合视频f中的一个像素点,Ω是以点p(x,y,t)为中心,大小为3×3×3的局部区域,r是该局部区域内的一个像素点,w(r)是一个大小为3×3×3的高斯模板,Cfx(p),Cfy(p)和Cft(p)分别表示融合视频f在像素点p(x,y,t)处沿x,y,t轴的梯度。
步骤2,利用两幅参考视频的三维时空结构张量矩阵进行时空显著性检测,得到每幅参考视频的时空特征区域R1和噪声区域R2
2.1)计算第一参考视频a每个像素点处三维时空结构张量矩阵Sa(x,y,t)的迹,得到第一参考视频a的结构张量迹视频Ta;计算第二参考视频b每个像素点处三维时空结构张量矩阵Sb(x,y,t)的迹,得到第二参考视频b的结构张量迹视频Tb
2.2)定义结构张量迹视频的时空特征阈值和噪声阈值:
定义第一参考视频a的结构张量迹视频Ta每一帧图像的时空特征阈值μa1(t)和噪声阈值μa2(t):
μ a 1 ( t ) = k 1 × max x , y ( T a ( x , y , t ) ) μ a 2 ( t ) = k 2 × max x , y ( T a ( x , y , t ) ) ;
定义第二参考视频b的结构张量迹视频Tb每一帧图像的时空特征阈值μb1(t)和噪声阈值μb2(t):
μ b 1 ( t ) = k 1 × max x , y ( T b ( x , y , t ) ) μ b 2 ( t ) = k 2 × max x , y ( T b ( x , y , t ) ) ,
其中,k1和k2表示阈值占每一帧结构张量迹图像像素最大值的比例,本发明中取k1=0.01,k2=0.003,(x,y)表示空间坐标,t表示时间坐标;
2.3)将第一参考视频a的结构张量迹视频Ta的每一帧图像的像素值与时空特征阈值μa1(t)与噪声阈值μa2(t)比较,得到第一参考视频a的特征区域标记Ra(x,y,t)和噪声区域标记La(x,y,t):
2.4)将第二参考视频b的结构张量迹视频Tb的每一帧图像的像素值与时空特征阈值μb1(t)与噪声阈值μb2(t)比较,得到第二参考视频b的时空特征区域标记Rb(x,y,t)和噪声区域标记Lb(x,y,t):
2.5)当第一参考视频a的每一帧时空特征区域标记Ra(x,y,t)和视频b中与之相同帧的时空特征区域标记Rb(x,y,t)的对应空间位置(x,y)处的值有一个为1时,则定义此空间位置(x,y)属于时空特征区域R1,当输入视频a的每一帧噪声区域标记La(x,y,t)和视频b中与之相同帧的噪声区域标记Lb(x,y,t)的对应空间位置(x,y)处的值都为1时,则定义此空间位置(x,y)属于噪声区域R2
步骤3,对时空特征区域像素的融合性能进行评价。
3.1)分别计算第一参考视频a、第二参考视频b、融合视频f在每个像素点处的三维时空结构张量矩阵的最大特征值,得到第一参考视频a的结构张量最大特征值视频λa、第二参考视频b的结构张量最大特征值视频λb、融合视频f的结构张量最大特征值视频λf
3.2)根据第一参考视频a的结构张量最大特征值视频λa和融合视频f的结构张量最大特征值视频λf,得到第一参考视频a和融合视频f对应时空特征区域像素的时空特征评价指标Qaf(x,y,t):
Q af ( x , y , t ) = 4 σ af ( x , y , t ) λ a ( x , y , t ) ‾ λ f ( x , y , t ) ‾ ( σ a 2 ( x , y , t ) + σ f 2 ( x , y , t ) ) [ ( λ a ( x , y , t ) ‾ ) 2 + ( λ f ( x , y , t ) ‾ ) 2 ] ,
其中,和σa(x,y,t)分别表示第一参考视频a的结构张量最大特征值视频λa中,以当前被评价的时空特征区域像素为中心的3×3×3局部区域内的灰度平均值和标准差;和σf(x,y,t)分别表示融合视频0f的结构张量最大特征值视频λf中,以当前被评价的时空特征区域像素为中心的3×3×3局部区域内的灰度平均值和标准差;σaf(x,y,t)表示第一参考视频a的结构张量最大特征值视频λa和融合视频f的结构张量最大特征值视频λf中,以当前被评价的时空特征区域像素为中心的3×3×3局部区域内的灰度协方差,(x,y)表示空间坐标,t表示时间坐标;
3.3)根据第二参考视频b的结构张量最大特征值视频λb和融合视频f的结构张量最大特征值视频λf,得到第二参考视频b和融合视频f对应时空特征区域像素的时空特征评价指标Qbf(x,y,t):
Q bf ( x , y , t ) = 4 σ bf ( x , y , t ) λ b ( x , y , t ) ‾ λ f ( x , y , t ) ‾ ( σ b 2 ( x , y , t ) + σ f 2 ( x , y , t ) ) [ ( λ b ( x , y , t ) ‾ ) 2 + ( λ f ( x , y , t ) ‾ ) 2 ] ,
其中,和σb(x,y,t)分别表示第二参考视频b的结构张量最大特征值视频λb中,以当前被评价的时空特征区域像素为中心的3×3×3局部区域内的灰度平均值和标准差;和σf(x,y,t)分别表示融合视频f的结构张量最大特征值视频λf中,以当前被评价的时空特征区域像素为中心的3×3×3局部区域内的灰度平均值和标准差;σbf(x,y,t)表示第二参考视频b的结构张量最大特征值视频λb和融合视频f的结构张量最大特征值视频λf中,以当前被评价的时空特征区域像素为中心的3×3×3局部区域内的灰度协方差;(x,y)表示空间坐标,t表示时间坐标;
3.4)将上述两个参考视频的时空特征评价指标Qaf(x,y,t)和Qbf(x,y,t)进行加权平均,得到时空特征区域像素的时空特征融合性能评价指标Qf(x,y,t):
Qf(x,y,t)=ω(x,y,t)×Qaf(x,y,t)+[1-ω(x,y,t)]×Qbf(x,y,t),
其中,表示Qaf(x,y,t)的权值系数;表示第一参考视频a的结构张量迹视频Ta中,以当前被评价的时空特征区域像素为中心的3×3×3局部区域内的灰度平均值;表示第二参考视频b的结构张量迹视频Tb中,以当前被评价的时空特征区域像素为中心的3×3×3局部区域内的灰度平均值;(x,y)表示空间坐标,t表示时间坐标。
步骤4,对噪声区域像素的融合性能进行评价。
4.1)分别计算第一参考视频a、第二参考视频b、融合视频f在每个像素点处的三维时空结构张量矩阵的最小特征值,得到第一参考视频a的结构张量最小特征值视频ηa、第二参考视频b的结构张量最小特征值视频ηb、融合视频f的结构张量最小特征值视频ηf
4.2)根据第一参考视频a的结构张量最小特征值视频ηa和融合视频f的结构张量最小特征值视频ηf,得到第一参考视频a和融合视频f对应噪声区域像素的噪声评价指标Naf(x,y,t):
N af ( x , y , t ) = 4 δ af ( x , y , t ) η a ( x , y , t ) ‾ η f ( x , y , t ) ‾ ( δ a 2 ( x , y , t ) + δ f 2 ( x , y , t ) ) [ ( η a ( x , y , t ) ‾ ) 2 + ( η f ( x , y , t ) ‾ ) 2 ] ,
其中,和δa(x,y,t)分别表示第一参考视频a的结构张量最小特征值视频ηa中,以当前被评价的噪声区域像素为中心的3×3×3局部区域内的灰度平均值和标准差;和δf(x,y,t)分别表示融合视频f的结构张量最小特征值视频ηf中,以当前被评价的噪声区域像素为中心的3×3×3局部区域内的灰度平均值和标准差;δaf(x,y,t)表示第一参考视频a的结构张量最小特征值视频ηa和融合视频f的结构张量最小特征值视频ηf中,以当前被评价的噪声区域像素为中心的3×3×3局部区域内的灰度协方差;(x,y)表示空间坐标,t表示时间坐标;
4.3)根据第二参考视频b的结构张量最小特征值视频ηb和融合视频f的结构张量最小特征值视频ηf,得到第二参考视频b和融合视频f对应噪声区域像素的噪声评价指标Nbf(x,y,t):
N bf ( x , y , t ) = 4 δ bf ( x , y , t ) η b ( x , y , t ) ‾ η f ( x , y , t ) ‾ ( δ b 2 ( x , y , t ) + δ f 2 ( x , y , t ) ) [ ( η b ( x , y , t ) ‾ ) 2 + ( η f ( x , y , t ) ‾ ) 2 ] ,
其中,和δb(x,y,t)分别表示第二参考视频b的结构张量最小特征值视频ηb中,以当前被评价的噪声区域像素为中心的3×3×3局部区域内的灰度平均值和标准差;和δf(x,y,t)分别表示融合视频f的结构张量最小特征值视频ηf中,以当前被评价的噪声区域像素为中心的3×3×3局部区域内的灰度平均值和标准差;δbf(x,y,t)表示第二参考视频b的结构张量最小特征值视频ηb和融合视频f的结构张量最小特征值视频ηf中,以当前被评价的噪声区域像素为中心的3×3×3局部区域内的灰度协方差;(x,y)表示空间坐标,t表示时间坐标;
4.4)将上述两个参考视频的噪声评价指标Naf(x,y,t)和Nbf(x,y,t)按如下方式结合,得到噪声区域像素的噪声抑制评价指标Qn(x,y,t):
Q n ( x , y , t ) = 1 - N af ( x , y , t ) + N bf ( x , y , t ) 2 ,
其中,(x,y)表示空间坐标,t表示时间坐标。
步骤5,将时空特征区域像素的时空特征融合性能评价指标Qf(x,y,t)与噪声区域像素的噪声抑制评价指标Qn(x,y,t)结合,得到视频融合的整体融合性能评价指标Qstfn
Q stfn = 1 T · Σ t = 1 T ( Σ ( x , y ) ∈ R 1 Q f ( x , y , t ) + Σ ( x , y ) ∈ R 2 Q n ( x , y , t ) ) K ( t ) ,
其中,(x,y)表示空间坐标,t表示时间坐标,K(t)表示第t帧图像中时空特征区域像素和噪声区域像素个数之和,T表示处理的视频图像帧数。
本发明的效果可通过以下仿真进一步说明:
1.仿真条件:所有仿真实验都是针对含噪声的红外与可见光视频融合进行的,且均在Windows7操作系统下采用MatlabR2010a软件实现。
2.仿真内容:
仿真1:对申请号:CN201310241978.2,名称为基于高阶奇异值分解的多传感器视频融合方法中提到的ST-HOSVD方法进行评价。
ST-HOSVD方法采用一种基于控制噪声区域比γ的阈值化方法进行噪声抑制,这里控制噪声区域比例γ的取值分别为正无穷,0.7,0.6,0.5,0.4,0.3,0.2和0.1。为了简单起见,将与之相对应的融合方法分别命名为ST-HOSVD1,ST-HOSVD2,ST-HOSVD3,ST-HOSVD4,ST-HOSVD5,ST-HOSVD6,ST-HOSVD7和ST-HOSVD8。
图2为一幅红外输入视频、一幅可见光输入视频和采用ST-HOSVD方法得到的融合视频,其中:
图2(a)为含人为噪声的红外输入视频中的某一帧图像,
图2(b)为含人为噪声的可见光输入视频中与图2(a)相同帧的图像,
图2(c)为采用ST-HOSVD1方法对含人为噪声的红外输入视频与含人为噪声的可见光输入视频融合后,得到的融合视频中与图2(a)相同帧的图像,
图2(d)为采用ST-HOSVD2方法对含人为噪声的红外输入视频与含人为噪声的可见光输入视频融合后,得到的融合视频中与图2(a)相同帧的图像,
图2(e)为采用ST-HOSVD3方法对含人为噪声的红外输入视频与含人为噪声的可见光输入视频融合后,得到的融合视频中与图2(a)相同帧的图像,
图2(f)为采用ST-HOSVD4方法对含人为噪声的红外输入视频与含人为噪声的可见光输入视频融合后,得到的融合视频中与图2(a)相同帧的图像,
图2(g)为采用ST-HOSVD5方法对含人为噪声的红外输入视频与含人为噪声的可见光输入视频融合后,得到的融合视频中与图2(a)相同帧的图像,
图2(h)为采用ST-HOSVD6方法对含人为噪声的红外输入视频与含人为噪声的可见光输入视频融合后,得到的融合视频中与图2(a)相同帧的图像,
图2(i)为采用ST-HOSVD7方法对含人为噪声的红外输入视频与含人为噪声的可见光输入视频融合后,得到的融合视频中与图2(a)相同帧的图像,
图2(j)为采用ST-HOSVD8方法对含人为噪声的红外输入视频与含人为噪声的可见光输入视频融合后,得到的融合视频中与图2(a)相同帧的图像。
从图2可以看出,随着噪声区域比例γ取值变得越来越小,融合视频图像质量逐渐由差变好再逐渐变差,特别是图2(h),即噪声区域比例γ取0.3时的视觉效果最好,噪声小,楼房及地面结构清晰完整,运动目标清晰;
对图2所示采用不同噪声区域比例γ的融合方法ST-HOSVD得到的融合视频的融合性能,采用文献(V.Petrovic,T.Cootes,R.Pavlovic,“Dynamicimagefusionperformanceevaluation,”10thInternationalConferenceonInformationFusion,2007)中所提到的时空梯度指标DQ,文献(ZhangQ,WangL,LiH,etal,“Videofusionperformanceevaluationbasedonstructuralsimilarityandhumanvisualperception”,SignalProcessing,Vol.92,No.4,2012,PP.912-925)中提出的全局视频融合质量指标QST以及本发明所提出的整体融合性能评价指标Qstfn这三个指标进行客观评价,其评价结果如图3所示,其中:
图3(a)为时空梯度指标DQ的评价结果曲线图,
图3(b)为全局视频融合质量指标QST的评价结果曲线图,
图3(c)为整体融合性能评价指标Qstfn的评价结果曲线图。
从图3的评价结果曲线图可知,对于进行了噪声抑制的基于高阶奇异值分解的融合方法ST-HOSVD,当噪声区域比例γ的取值变得越来越小的时候,本发明所提出的整体融合性能评价指标Qstfn的取值呈先升后降的变化趋势,特别是在噪声区域比例γ为0.3时取得的值最大,这与人眼主观评价结果一致;而时空梯度指标DQ和全局视频融合质量指标QST由于都没有考虑噪声的影响,评价结果呈下降趋势。可见,本发明所提出的整体融合性能评价指标Qstfn能够对含噪声的融合视频的融合性能进行有效评价。
仿真2:对文献(Q.Zhang,L.Wang,etal.,"Anovelvideofusionframeworkusingsurfacelettransform",OpticsCommunications,Vol.285,No.13-14,2012,pp:3032-3041)中所提到的基于时空能量的融合方法ST-energy和基于时空运动的融合方法ST-motion以及基于高阶奇异值分解的多传感器视频融合方法中提到的ST-HOSVD方法进行评价。
图4为一幅红外输入视频、一幅可见光输入视频和采用ST-energy、ST-motion以及ST-HOSVD方法得到的融合视频,其中:
图4(a)为含噪声的红外输入视频中的某一帧图像,
图4(b)为含噪声的可见光输入视频中与图3(a)相同帧的图像,
图4(c)为采用ST-energy方法得到的融合视频中与图3(a)相同帧的图像,
图4(d)为采用ST-motion方法得到的融合视频中与图3(a)相同帧的图像,
图4(e)为采用没有进行噪声抑制的ST-HOSVD方法得到的融合视频中与图3(a)相同帧的图像,
图4(f)为采用进行了噪声抑制的ST-HOSVD方法得到的融合视频中与图3(a)相同帧的图像,
从图4可以看出,采用进行了噪声抑制的ST-HOSVD方法得到的融合视频图像质量最好,时空显著特征被很好地从输入视频中提取出来且被很好地保留到融合视频中,噪声也被很好地抑制掉了,而通过其它融合方法得到的融合视频中噪声明显可见。
对图4中所示采用融合方法ST-energy、融合方法ST-motion以及融合方法ST-HOSVD得到的融合视频的融合性能,采用时空梯度指标DQ、全局视频融合质量指标QST和本发明所提出的整体融合性能评价指标Qstfn这三种评价指标进行客观评价,其评价结果如表1所示:
表1含真实噪声的红外与可见光视频图像融合评价结果
从表1数据可知,本发明所提出的整体融合性能评价指标Qstfn得出的结果与人眼主观评价结果是一致的。而时空梯度指标DQ和全局视频融合质量指标QST得出的结果与人眼主观评价结果是相悖的。可见,本发明所提出的整体融合性能评价指标Qstfn能够对噪声环境下视频融合算法的融合性能进行准确评价。

Claims (2)

1.一种基于时空显著性检测的视频融合性能评价方法,包括如下步骤:
(1)分别输入两幅参考视频a、b以及融合视频f,并分别构建第一参考视频a每个像素点处的三维时空结构张量矩阵Sa(x,y,t)、第二参考视频b每个像素点处的三维时空结构张量矩阵Sb(x,y,t)和融合视频f每个像素点处的三维时空结构张量矩阵Sf(x,y,t);
(2)利用两幅参考视频的三维时空结构张量矩阵进行时空显著性检测,得到每幅参考视频的时空特征区域R1和噪声区域R2
(3)对时空特征区域像素的融合性能进行评价:
3.1)分别计算第一参考视频a、第二参考视频b、融合视频f在每个像素点处的三维时空结构张量矩阵的最大特征值,得到第一参考视频a的结构张量最大特征值视频λa、第二参考视频b的结构张量最大特征值视频λb、融合视频f的结构张量最大特征值视频λf
3.2)根据第一参考视频a的结构张量最大特征值视频λa和融合视频f的结构张量最大特征值视频λf,得到第一参考视频a和融合视频f对应时空特征区域像素的时空特征评价指标Qaf(x,y,t):
Q a f ( x , y , t ) = 4 σ a f ( x , y , t ) λ a ( x , y , t ) λ f ( x , y , t ) ‾ ( σ a 2 ( x , y , t ) + σ f 2 ( x , y , t ) ) [ ( λ a ( x , y , t ) ‾ ) 2 + ( λ f ( x , y , t ) ‾ ) 2 ] ,
其中,和σa(x,y,t)分别表示第一参考视频a的结构张量最大特征值视频λa中,以当前被评价的时空特征区域像素为中心的3×3×3局部区域内的灰度平均值和标准差;和σf(x,y,t)分别表示融合视频f的结构张量最大特征值视频λf中,以当前被评价的时空特征区域像素为中心的3×3×3局部区域内的灰度平均值和标准差;σaf(x,y,t)表示第一参考视频a的结构张量最大特征值视频λa和融合视频f的结构张量最大特征值视频λf中,以当前被评价的时空特征区域像素为中心的3×3×3局部区域内的灰度协方差,(x,y)表示空间坐标,t表示时间坐标;
3.3)根据第二参考视频b的结构张量最大特征值视频λb和融合视频f的结构张量最大特征值视频λf,得到第二参考视频b和融合视频f对应时空特征区域像素的时空特征评价指标Qbf(x,y,t):
Q b f ( x , y , t ) = 4 σ b f ( x , y , t ) λ b ( x , y , t ) λ f ( x , y , t ) ‾ ( σ b 2 ( x , y , t ) + σ f 2 ( x , y , t ) ) [ ( λ b ( x , y , t ) ‾ ) 2 + ( λ f ( x , y , t ) ‾ ) 2 ] ,
其中,和σb(x,y,t)分别表示第二参考视频b的结构张量最大特征值视频λb中,以当前被评价的时空特征区域像素为中心的3×3×3局部区域内的灰度平均值和标准差;和σf(x,y,t)分别表示融合视频f的结构张量最大特征值视频λf中,以当前被评价的时空特征区域像素为中心的3×3×3局部区域内的灰度平均值和标准差;σbf(x,y,t)表示第二参考视频b的结构张量最大特征值视频λb和融合视频f的结构张量最大特征值视频λf中,以当前被评价的时空特征区域像素为中心的3×3×3局部区域内的灰度协方差;(x,y)表示空间坐标,t表示时间坐标;
3.4)将上述两个参考视频的时空特征评价指标Qaf(x,y,t)和Qbf(x,y,t)进行加权平均,得到时空特征区域像素的时空特征融合性能评价指标Qf(x,y,t);
(4)对噪声区域像素的融合性能进行评价:
4.1)分别计算第一参考视频a、第二参考视频b、融合视频f在每个像素点处的三维时空结构张量矩阵的最小特征值,得到第一参考视频a的结构张量最小特征值视频ηa、第二参考视频b的结构张量最小特征值视频ηb、融合视频f的结构张量最小特征值视频ηf
4.2)根据第一参考视频a的结构张量最小特征值视频ηa和融合视频f的结构张量最小特征值视频ηf,得到第一参考视频a和融合视频f对应噪声区域像素的噪声评价指标Naf(x,y,t):
N a f ( x , y , t ) = 4 δ a f ( x , y , t ) η a ( x , y , t ) η f ( x , y , t ) ‾ ( δ a 2 ( x , y , t ) + δ f 2 ( x , y , t ) ) [ ( η a ( x , y , t ) ‾ ) 2 + ( η f ( x , y , t ) ‾ ) 2 ] ,
其中,和δa(x,y,t)分别表示第一参考视频a的结构张量最小特征值视频ηa中,以当前被评价的噪声区域像素为中心的3×3×3局部区域内的灰度平均值和标准差;和δf(x,y,t)分别表示融合视频f的结构张量最小特征值视频ηf中,以当前被评价的噪声区域像素为中心的3×3×3局部区域内的灰度平均值和标准差;δaf(x,y,t)表示第一参考视频a的结构张量最小特征值视频ηa和融合视频f的结构张量最小特征值视频ηf中,以当前被评价的噪声区域像素为中心的3×3×3局部区域内的灰度协方差;(x,y)表示空间坐标,t表示时间坐标;
4.3)根据第二参考视频b的结构张量最小特征值视频ηb和融合视频f的结构张量最小特征值视频ηf,得到第二参考视频b和融合视频f对应噪声区域像素的噪声评价指标Nbf(x,y,t):
N b f ( x , y , t ) = 4 δ b f ( x , y , t ) η b ( x , y , t ) η f ( x , y , t ) ‾ ( δ b 2 ( x , y , t ) + δ f 2 ( x , y , t ) ) [ ( η b ( x , y , t ) ‾ ) 2 + ( η f ( x , y , t ) ‾ ) 2 ] ,
其中,和δb(x,y,t)分别表示第二参考视频b的结构张量最小特征值视频ηb中,以当前被评价的噪声区域像素为中心的3×3×3局部区域内的灰度平均值和标准差;和δf(x,y,t)分别表示融合视频f的结构张量最小特征值视频ηf中,以当前被评价的噪声区域像素为中心的3×3×3局部区域内的灰度平均值和标准差;δbf(x,y,t)表示第二参考视频b的结构张量最小特征值视频ηb和融合视频f的结构张量最小特征值视频ηf中,以当前被评价的噪声区域像素为中心的3×3×3局部区域内的灰度协方差;(x,y)表示空间坐标,t表示时间坐标;
4.4)将上述两个参考视频的噪声评价指标Naf(x,y,t)和Nbf(x,y,t)按如下方式结合,得到噪声区域像素的噪声抑制评价指标Qn(x,y,t):
Q n ( x , y , t ) = 1 - N a f ( x , y , t ) + N b f ( x , y , t ) 2 ,
其中,(x,y)表示空间坐标,t表示时间坐标;
(5)将时空特征区域像素的时空特征融合性能评价指标Qf(x,y,t)与噪声区域像素的噪声抑制评价指标Qn(x,y,t)结合,得到视频融合的整体融合性能评价指标Qstfn
Q s t f n = 1 T · Σ t = 1 T ( Σ ( x , y ) ∈ R 1 Q f ( x , y , t ) + Σ ( x , y ) ∈ R 2 Q n ( x , y , t ) ) K ( t ) ,
其中,(x,y)表示空间坐标,t表示时间坐标,K(t)表示第t帧图像中时空特征区域像素和噪声区域像素个数之和,T表示处理的视频图像帧数。
2.根据权利要求1所述的视频融合性能评价方法,其特征在于步骤(2)中所述的利用两幅参考视频的三维时空结构张量矩阵进行时空显著性检测,得到每幅参考视频的时空特征区域R1和噪声区域R2,具体步骤如下:
2.1)计算第一参考视频a每个像素点处三维时空结构张量矩阵Sa(x,y,t)的迹,得到第一参考视频a的结构张量迹视频Ta;计算第二参考视频b每个像素点处三维时空结构张量矩阵Sb(x,y,t)的迹,得到第二参考视频b的结构张量迹视频Tb
2.2)定义结构张量迹视频的时空特征阈值和噪声阈值:
定义第一参考视频a的结构张量迹视频Ta每一帧图像的时空特征阈值μa1(t)和噪声阈值μa2(t):
μ a 1 ( t ) = k 1 × m a x x , y ( T a ( x , y , t ) )
μ a 2 ( t ) = k 2 × m a x x , y ( T a ( x , y , t ) ) ;
定义第二参考视频b的结构张量迹视频Tb每一帧图像的时空特征阈值μb1(t)和噪声阈值μb2(t):
μ b 1 ( t ) = k 1 × m a x x , y ( T b ( x , y , t ) )
μ b 2 ( t ) = k 2 × m a x x , y ( T b ( x , y , t ) ) ,
其中,k1和k2表示阈值占每一帧结构张量迹图像像素最大值的比例,本发明中取k1=0.01,k2=0.003,(x,y)表示空间坐标,t表示时间坐标;
2.3)将第一参考视频a的结构张量迹视频Ta的每一帧图像的像素值Ta(x,y,t)、分别与时空特征阈值μa1(t)、噪声阈值μa2(t)进行比较,得到第一参考视频a的特征区域标记Ra(x,y,t)和噪声区域标记La(x,y,t):
2.4)将第二参考视频b的结构张量迹视频Tb的每一帧图像的像素值Ta(x,y,t)、分别与时空特征阈值μb1(t)、噪声阈值μb2(t)进行比较,得到第二参考视频b的时空特征区域标记Rb(x,y,t)和噪声区域标记Lb(x,y,t):
2.5)当第一参考视频a的每一帧时空特征区域标记Ra(x,y,t)和视频b中与之相同帧的时空特征区域标记Rb(x,y,t)的对应空间位置(x,y)处的值有一个为1时,则定义此空间位置(x,y)属于时空特征区域R1,当输入视频a的每一帧噪声区域标记La(x,y,t)和视频b中与之相同帧的噪声区域标记Lb(x,y,t)的对应空间位置(x,y)处的值都为1时,则定义此空间位置(x,y)属于噪声区域R2
CN201410114553.XA 2014-03-26 2014-03-26 基于时空显著性检测的视频融合性能评价方法 Expired - Fee Related CN103873859B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201410114553.XA CN103873859B (zh) 2014-03-26 2014-03-26 基于时空显著性检测的视频融合性能评价方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201410114553.XA CN103873859B (zh) 2014-03-26 2014-03-26 基于时空显著性检测的视频融合性能评价方法

Publications (2)

Publication Number Publication Date
CN103873859A CN103873859A (zh) 2014-06-18
CN103873859B true CN103873859B (zh) 2015-11-11

Family

ID=50911935

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201410114553.XA Expired - Fee Related CN103873859B (zh) 2014-03-26 2014-03-26 基于时空显著性检测的视频融合性能评价方法

Country Status (1)

Country Link
CN (1) CN103873859B (zh)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105654421B (zh) * 2015-12-21 2019-03-26 西安电子科技大学 基于变换不变低秩纹理的投影变换图像匹配方法
CN106686281B (zh) * 2016-06-28 2020-04-07 南京理工大学 融合电路板噪声抑制能力测试系统
CN107318014B (zh) * 2017-07-25 2018-11-16 西安电子科技大学 基于视觉显著区域和时空特性的视频质量评估方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1794300A (zh) * 2005-12-20 2006-06-28 上海电力学院 基于最优小波滤波器组的多传感器图像融合方法
CN102231844A (zh) * 2011-07-21 2011-11-02 西安电子科技大学 基于结构相似度和人眼视觉的视频图像融合性能评价方法
CN102289808A (zh) * 2011-07-22 2011-12-21 清华大学 一种图像融合质量评估方法和系统

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1794300A (zh) * 2005-12-20 2006-06-28 上海电力学院 基于最优小波滤波器组的多传感器图像融合方法
CN102231844A (zh) * 2011-07-21 2011-11-02 西安电子科技大学 基于结构相似度和人眼视觉的视频图像融合性能评价方法
CN102289808A (zh) * 2011-07-22 2011-12-21 清华大学 一种图像融合质量评估方法和系统

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
《基于时空相位一致性的视频融合性能评价》;陈闵利;《中国学位论文全文数据库》;20131121;全文 *
《基于视觉注意机制与区域结构相似度的图像融合质量评价》;任仙怡,刘秀坚,胡涛,张基宏;《计算机应用》;20111130;第31卷(第11期);全文 *

Also Published As

Publication number Publication date
CN103873859A (zh) 2014-06-18

Similar Documents

Publication Publication Date Title
CN109886358B (zh) 基于多时空信息融合卷积神经网络的人体行为识别方法
Kwak et al. Learning occlusion with likelihoods for visual tracking
CN103905815B (zh) 基于高阶奇异值分解的视频融合性能评价方法
CN103747240B (zh) 融合颜色和运动信息的视觉显著性滤波方法
CN105160310A (zh) 基于3d卷积神经网络的人体行为识别方法
CN110309732A (zh) 基于骨架视频的行为识别方法
CN103347196A (zh) 一种基于机器学习的立体图像视觉舒适度评价方法
CN105046664A (zh) 一种基于自适应epll算法的图像去噪方法
CN102682303A (zh) 基于lbp加权社会力模型的人群异常事件检测方法
CN103096122A (zh) 基于感兴趣区域内运动特征的立体视觉舒适度评价方法
CN103488993A (zh) 一种基于fast的人群异常行为识别方法
CN107301376B (zh) 一种基于深度学习多层刺激的行人检测方法
CN103095996B (zh) 基于时空显著性检测的多传感器视频融合方法
CN105005798B (zh) 一种基于局部相似结构统计匹配的目标识别方法
Favaretto et al. Detecting crowd features in video sequences
CN103873859B (zh) 基于时空显著性检测的视频融合性能评价方法
CN105282543A (zh) 一种基于立体视觉感知的全盲立体图像质量客观评价方法
CN108875587A (zh) 目标分布检测方法及设备
CN104751111A (zh) 识别视频中人体行为的方法和系统
CN105976397A (zh) 基于半非负优化集成学习的目标跟踪方法
CN105469050A (zh) 基于局部时空特征描述与金字塔词汇树的视频行为识别方法
Cheng et al. Learning to refine depth for robust stereo estimation
CN105894008A (zh) 结合特征点匹配及深度神经网络检测的目标运动跟踪方法
CN103839280B (zh) 一种基于视觉信息的人体姿态跟踪方法
Khan et al. Comparative study of various crowd detection and classification methods for safety control system

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20151111

Termination date: 20200326