CN106303507A - 基于时空联合信息的无参考视频质量评估方法 - Google Patents

基于时空联合信息的无参考视频质量评估方法 Download PDF

Info

Publication number
CN106303507A
CN106303507A CN201510307504.2A CN201510307504A CN106303507A CN 106303507 A CN106303507 A CN 106303507A CN 201510307504 A CN201510307504 A CN 201510307504A CN 106303507 A CN106303507 A CN 106303507A
Authority
CN
China
Prior art keywords
video
ltdb
frequency
coefficient
space
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201510307504.2A
Other languages
English (en)
Other versions
CN106303507B (zh
Inventor
吴泽民
邱正伦
彭涛频
田畅
胡磊
刘熹
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
JIANGSU HUIWEIXUN INFORMATION TECHNOLOGY Co Ltd
PLA University of Science and Technology
Original Assignee
JIANGSU HUIWEIXUN INFORMATION TECHNOLOGY Co Ltd
PLA University of Science and Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by JIANGSU HUIWEIXUN INFORMATION TECHNOLOGY Co Ltd, PLA University of Science and Technology filed Critical JIANGSU HUIWEIXUN INFORMATION TECHNOLOGY Co Ltd
Priority to CN201510307504.2A priority Critical patent/CN106303507B/zh
Publication of CN106303507A publication Critical patent/CN106303507A/zh
Application granted granted Critical
Publication of CN106303507B publication Critical patent/CN106303507B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于时空联合信息的无参考视频质量评估方法,即在离线训练阶段建立基于联合时空特性的视频质量估计器,采用视频质量估计器对待评估质量的视频进行在线评估,首先按与离线训练相同的方法,计算形成未知质量的视频片段的全局特征向量,然后把该全局特征向量输入基于联合时空特性的视频质量估计器,输出值即为该段未知质量视频片段的客观质量估计值。本发明在对受损视频进行质量评估时,不需要无损视频片段作为参考;更多地保留了视频片段的时空信息,符合HVS视觉感知的多通道特性。

Description

基于时空联合信息的无参考视频质量评估方法
技术领域
本发明属于视频分析技术领域,特别是一种基于时空联合信息的无参考视频质量评估方法。
背景技术
客观视频质量评估是模拟人的主观视频质量评价过程,对任意视频的质量进行算法评分的过程。由于主观质量平均过程耗费大量时间、人力物力资源,使用范围非常受限。而客观视频质量评估由计算机自动完成,具有很好的使用效能。通常人对视频质量的评分用主观平均分(Mean Opinion Score,MOS)值表示,是取值在0到5的实数,0表示最低质量,5表示最高质量。一般也可使用主观差异评分DMOS来表示视频质量。视频质量评估对多媒体应用具有重要的意义,可以用于评价视频编码算法性能、视频传输网络性能、视频显示设备性能等。
以VSSIM[文献1:Farenzena M,Bazzani L,Perina A,et al.Video QualityAssessment Based on StructuralDistortion Measurement.Signal Processing:ImageCommunication,Vol.19,No.1,Jan 2004,pp:1-9]为代表的视频质量评估方法,用单帧的全局速度计算加权系数,完成从帧到视频的质量指标汇聚。这类方法把空间和时间作为两个不同的因素进行处理,缺乏明显的视觉心理学支持。以VIS3[文献2:PhongV.Vu,Chandler D.M,ViS3:an Agorithm for VdeoQalityAssessment viaAnalysis of Spatial and Spatiotemporal Slices.Journal of Electronic Imaging,Vol23,No.1,Jan,2014,PP:1-24]为代表的方法,构造了空间平均指标和时空平均指标,把最终的视频指标设计为空间平均指标和时空平均指标的几何平均。VIS3更多考虑了时间和空间的联合作用,具有较高的评估相关性。以MOVIE[文献3:Seshadrinathan.K,Bovik A.C,Motion Tuned Spatio-Temporal QualityAssessment ofNatural Videos,IEEE Transation on image processing,Vo119,No.2,Feb,2010,pp:335-350]为代表的视频质量评估方法计算单个像素的时空Gabor变换,分解出像素相关的空间纹理和时间运动信息,完成像素区域的视觉质量评估,最后算术平均形成视频片段的质量指标。但是VIS3和MOVIE都是一种全参考的方法,在实际使用时受限。Video BLIINDS[文献4:Saad M.A,Bovik A.C,Charrier C,Blind Prediction of Natural Video Quality,IEEE Transation on image processing,Vol23,No.3,Mar,2014,pp:423-438]方法计算帧差信息的空间统计测度,以此作为时间信息,与单帧图像质量进行加权后,再完成整段视频的质量指标汇聚。VideoBLIINDS是一种无参考算法。但是Video BLIINDS形成的视频特征向量是多个不同视频特性参数时间平均值的级联,掩盖了视频特征随时间波动对视频质量的影响。
陈耀武等人的国家发明授权专利[文献5:MOTION JPEG2000视频客观质量的无参考评估方法,CN200810163592]虽然是无参考方法,但是以梯度特征训练的线性视频质量拟合函数无法得到合适的判决性能。曹修平的国家发明授权专利[文献6:一种无参考视频质量客观评估方法,CN201110166241]虽然是无参考方法,但是只选取边缘视频特征,对人眼视频感知效应也局限于纹理掩蔽,对多帧质量的合成只采用简单算术平均。杨友庆等人的国家发明授权专利[文献7:一种视频质量评估的方法和网络节点,CN201180001103]不是像素级的视频质量评估,它面向视频编码器的输出参数,获得的评估效果欠佳。宋好好等人提交的国家发明专利[文献8:视频质量的无参评估方法,CN201210171226]通过对视频编码DCT系数进行拉普拉斯分布参数拟合,构建了未知质量视频与训练视频的函数关系,但是该方法没有考虑人眼的各种视频感知效应,与实际的差异较大。
发明内容
本发明提出了一种基于时空联合信息的无参考视频质量评估方法,可在没有无损视频作为参考的情况下对受损视频进行质量评估。
实现本发明目的的技术解决方案为:一种基于时空联合信息的无参考视频质量评估方法,在离线训练阶段建立基于联合时空特性的视频质量估计器,采用视频质量估计器对待评估质量的视频进行在线评估,具体步骤如下:
第一步,离线训练过程为:
(1)局部三维块LTDB划分:将当前视频片段划分为以局部三维块LTDB为单位的特征提取单元;
(2)空间特征提取:计算LTDB每帧的对比度敏感函数CSF系数,计算LTDB内所有空间局部块的CSF系数的算术平均和方差,作为LTDB空间质量特征;
(3)空时特征提取:以LTDB为单位进行3D DCT变换,对完成变换的系数分为直流信息和非直流信息;对直流信息直接作为LTDB的平均亮度特征;对非直流信息按不同频率分类,对每类系数进行高斯分布参数拟合;获取不同频率分类的均值和方差,把每类系数的拟合参数进行级联,构成当前LTDB的空时质量特征;
(4)分别将LTDB空间质量特征、空时质量特征进行级联,汇聚形成LTDB特征向量;
(5)把视频片段按时间顺序和空间相邻进行分割,依次计算LTDB特征向量,形成LTDB特征向量序列;所有LTDB特征向量进行算术平均,构成时空均值向量;将相邻的LTDB特征向量相减并取绝对值,形成绝对差值向量;把所有绝对差值向量进行算术平均,构成视频片段的时空差值向量;视频片段的时空均值(平均)向量与视频片段的时空差值向量进行级联,汇聚形成当前视频片段的全局特征向量;
(6)把多个视频片段的全局特征向量及其对应的视频质量主观差异评分值,输入到支持向量回归器(SVR)中,训练形成基于联合时空特性的视频质量估计器;
第二步,在线评估过程为:首先按与离线训练相同的方法,计算形成未知质量的视频片段的全局特征向量,然后把该全局特征向量输入基于联合时空特性的视频质量估计器,输出值即为该段未知质量视频片段的客观质量估计值。
本发明与现有技术相比,其显著优点:(1)本发明是一种无参考方法,在对受损视频进行质量评估时,不需要无损视频片段作为参考。(2)本发明以视频的全局特征向量为视频质量评估的基础,特别是结合了视频的空间域信息和空时联合信息,更多地保留了视频片段的时空信息,符合HVS视觉感知的多通道特性。(3)本发明以空间频率和3D DCT变换系数的统计规律建立特征向量,更符合无损伤图像的自然统计规律。通过使用本发明对视频片段进行测试,它的测试结果与目前最好的无参考视频质量评估算法Video BLIINDS相比,皮尔逊相关系数比Video BLIINDS高5%,斯皮尔曼相关系数与Video BLIINDS相当,见表1。
表1 对本发明与Video-BLIINDS算法的评估性能比较
下面结合附图对本发明作进一步详细描述。
附图说明
图1是基于时空联合信息的无参考视频质量评估方法流程图。
图2是时空图像块的形成方法示意图。
图3是是采用视频质量估计器对构造估计器的训练视频进行预测的质量得分与其对应DMOS的比较。
图4是采用视频质量估计器对测试视频进行预测的质量得分与其对应DMOS的比较。
具体实施方式
结合图1,本发明基于时空联合信息的无参考视频质量评估方法,在离线训练阶段建立基于联合时空特性的视频质量估计器,采用视频质量估计器对待评估质量的视频进行在线评估,具体步骤如下:
一、训练基于联合时空特性的视频质量估计器
1.局部三维块LTDB划分:将当前视频片段划分为以局部三维块LTDB为单位的特征提取单元。
在视频片段中,从t时刻开始的帧,在空间上取b×b的局部正方形区域、在时间上取t帧到t+τ帧构成时空立方体。取该时空立方体内的视频数据,构成LTDB(Local Three-dimensional Block,局部三维块)。每个时空图像块中共有b×b×τ个像素,可以用fm,n,t表示。其中m是空间维的横向分量,取值范围0到b-1;n是空间维的纵向分量,取值范围0到b-1;t是时间维分量,取值范围0到τ-1。这样,时间上连续的τ个帧可以构成个时空立方体,其中M和N分别是用像素数量度量的帧的宽度和高度,表示下取整。用Pk,t表示视频从t帧到t+τ帧视频的第k个LTDB。人们观看视频时,在没有特意的强调的情况下,注意力一般都放在视频的中间区域附近,而不会把注意力集中在视频的边缘区域,尤其是视频的下边缘。所以剩余的帧边缘参与像素信息不在特征抽取使用。
2.空间特征提取:计算LTDB每帧的对比度敏感函数CSF系数,计算LTDB内所有空间局部块的CSF系数的算术平均和方差,作为LTDB空间质量特征。
空间特征的提取主要是以CSF系数特征的提取为前提。而CSF系数的求取是建立在空间频率的基础上,对空间频率进行感知加权滤波。
1)空间频率
空间频率是指视觉上的每度视角内图像或刺激图形的亮暗做正弦调制的栅条周数,单位是周期/度。图像中不同的成分具有不同的空间频率:短距离的突变、剧烈起伏变化、图像细节等,其空间频率较高;长距离大范围的缓慢变化、图像背景平坦或均匀等,其空间频率低。
空间频率可以划分为水平空间频率、垂直空间频率、对角空间频率。对于尺度为H×W的视频帧,H为该帧垂直方向的尺度,W为该帧水平方向的尺度,单位为像素,在位置h×w处的像素值为fh,w,其中w是像素的水平位置,h是像素的垂直位置。由于是同一个时间帧,所以时间下标没有标出。当前帧空间频率定义如下:
f = hf 2 + vf 2 + df 2 - - - ( 1 )
其中hf为水平空间频率,vf为垂直空间频率,df为对角空间频率。
hf = Σ w = 2 W Σ h = 1 H ( f w , h - f w - 1 , h ) 2 ( W - 1 ) H - - - ( 2 )
vf = Σ w = 1 W Σ h = 2 H ( f w , h - f w , h - 1 ) 2 W ( H - 1 ) - - - ( 3 )
df = Σ w = 2 W Σ h = 2 H ( f w , h - f w - 1 , h - 1 ) 2 ( W - 1 ) ( H - 1 ) + Σ w = 2 W Σ h = 2 H ( f w - 1 , h - f w , h - 1 ) 2 ( W - 1 ) ( H - 1 ) - - - ( 4 )
2)CSF系数特征
人眼对视频质量的空间对比度感知效应,可以通过对局部块的空间频率系数的加权滤波得到模拟,建立视频CSF(Contrast Sensitive Function,对比度敏感函数)模型。CSF(f)函数是模拟人眼的感知特征,对空间频率进行带通滤波。CSF(f)与空间频率系数满足:
CSF(fi)=2.6×(0.0192+0.114fi)exp[-(0.114fi)1.1] (5)
其中,fi表示时空三维块LTDB第i帧的空间频率。
对于LTDB所有帧的CSF值求取均值Cmean和方差Cstd作为该时段的空间特
征,其中Cmean和Cstd求取公式如下:
C mean = Σ i = 1 τ CSF ( f i ) τ - - - ( 6 )
C std = Σ i = 1 τ [ CSF ( f i ) - C mean ] 2 τ - - - ( 7 )
3、空时特征提取:以LTDB为单位进行3D DCT变换,对完成变换的系数分为直流信息和非直流信息;对直流信息直接作为LTDB的平均亮度特征;对非直流信息按不同频率分类,对每类系数进行高斯分布参数拟合;获取不同频率分类的均值和方差,把每类系数的拟合参数进行级联,构成当前LTDB的空时质量特征。
空时特征提取是以每一个LTDB的3D DCT变换后的系数信息为参考,以进行特征提取。
1)3D DCT变换
对每个LTDB时空立方体进行3D DCT变换,形成的3D DCT变换的系数集合。3D DCT变换表示为:
C ( u , v , w ) = a 1 ( u ) a 2 ( v ) a 3 ( w ) Σ x = 0 b - 1 Σ y = 0 b - 1 Σ z = 0 τ - 1 f ( x , y , z ) cos [ π ( 2 x + 1 ) u 2 b ] cos [ π ( 2 y + 1 ) v 2 b ] cos [ π ( 2 z + 1 ) w 2 τ ] - - - ( 6 )
其中:
a 1 ( u ) = a 2 ( v ) = 1 b , if b = 0 2 b , otherwise - - - ( 7 )
a 3 ( w ) = 1 τ , ifτ = 0 2 τ , otherwise - - - ( 8 )
变换后,形成的3D DCT系数为C(u,v,w)b×b×τ。u,v,w是表示频率的下标。
在本发明中,LTDB可以在视频库选择,下面以在空间域尺度中采用17×17像素的LTDB为例进行说明,主要考虑避免视频编码中宏块划分的4、8、16等像素边界,能保留更多的视频损伤信息;在时间域尺度上与视频编码时的GOP大小相当,可以采用时间上连续的8到20帧图像,并且结合人眼视频感知的连续性,时间域的持续时长不超过400毫秒。考虑到3D DCT变换的实时性和视频损伤信息的完整性,本发明中时间域尺度与空间域尺度一样,均采用17,即使用时间上相邻的17帧局部图像块。所以本发明选取b=τ=17。
2)LTDB频率系数特征
3D DCT变换后的频率系数包含视频的空时质量特征信息,可以用于构建反映视频空时受损情况的质量特征。对3D DCT系数按照频率的大小可分割为直流信息、低频信息、中频信息和高频信息四种类型,其中直流信息反映该LTDB的平均亮度,低频信息、中频信息和高频信息反映该LTDB的空时质量特征;将除直流外的频率信息从低频至高频共分为Q段,32≥Q≥1,下面以Q=9、LTDB尺度采用17×17×17为例进行说明。其中,由于人眼对极高频信息并不敏感,其损伤对主观感受的视频质量影响极小,所以本发明并没有使用极高频信息。
单个LTDB大小为17×17×17,所以,水平频率系数u∈[0,1,2......16],垂直频率系数v∈[0,1,2......16],时间频率系数w∈[0,1,2......16]。由此可得直流系数fdc fdc={u,v,w|u+v+w=0}。直流系数fdc可作为单个LTDB图像组的平均亮度信息特征。
本发明将低频至高频频率系数总共划分为9类,即{f1,f2,f3......,f8,f9}。低频至高频频率系数的划分按照步长2进行划分,详细划分方法为:
fi={u,v,w|2i-1≤u+v+w≤2i,1≤i≤9} (9)
所以,有
f1={u,v,w|1≤u+v+w≤2} (10)
f2={u,v,w|3≤u+v+w≤4} (11)
f3={u,v,w|5≤u+v+w≤6} (12)
f4={u,v,w|7≤u+v+w≤8} (13)
f5={u,v,w|9≤u+v+w≤10} (14)
f6={u,v,w|11≤u+v+w≤12} (15)
f7={u,v,w|13≤u+v+w≤14} (16)
f8={u,v,w|15≤u+v+w≤16} (17)
f9={u,v,w|17≤u+v+w≤18} (18)
对从t到t+τ的帧视频形成的第k个LTDB做3D DCT变换后,把LTDB的变换系数按上述规则,从低频至高频进行分类和汇总,得到9个频率系数集合。每个系数集合用高斯分布对其进行参数拟合,使其服从:
g ( x ) = 1 2 π σ e - ( x - μ ) 2 2 σ 2 , σ > 0 - - - ( 19 )
λ=σ2 (20)
其中μ表示均值,σ表示标准差,λ表示方差。
每个系数集合拟合形成两个分布参数,包括均值μ和方差λ。9个系数集合总共形成18个分布参数。把这18个分布参数级联,形成的18维向量:
1,μ1,λ2,μ2,…,λ8,μ8,λ9,μ9] (21)
4、分别将LTDB空间质量特征、空时质量特征进行级联,汇聚形成LTDB特征向量。
将对比度敏感系数CSF拟合参数信息、直流信息DC、频率系数拟合参数信息进行级联得到时间从t开始第k个LTDB特征向量:
Ft,k=[Cmean,Cstd,fdc,λ1,μ1,λ2,μ2,...,λ8,μ8,λ9,μ9] (22)
5、视频片段的特征汇聚:把视频片段按时间顺序和空间相邻进行分割,依次计算LTDB特征向量,形成LTDB特征向量序列;所有LTDB特征向量进行算术平均,构成时空均值向量;将相邻的LTDB特征向量相减并取绝对值,形成绝对差值向量;把所有绝对差值向量进行算术平均,构成视频片段的时空差值向量;视频片段的时空均值(平均)向量与视频片段的时空差值向量进行级联,汇聚形成当前视频片段的全局特征向量。
对于视频片段,按时间顺序依次形成LTDB特征向量。所有LTDB特征向量的集合可以表示为{Fi,i=1,2,...,K}。K表示视频片段的LTDB个数,计算公式如下:
T表示该视频片段总帧数。
以LTDB特征向量为基础,构造视频片段的特征表示。假设视频片段足够长,可以分割形成足够多的LTDB特征向量。通常需要评估质量的视频片段都满足这个条件。
以LTDB特征向量为对象,计算整个视频片段的LTDB特征向量的均值:
MF = 1 K Σ i = 1 K F i - - - ( 24 )
其中每个Fi是集合{Fi}中第i个特征向量。按公式(24)形成的向量MF,被称为视频片段的空时平均向量。
构造相邻LTDB特征向量的差值向量,其中差值向量需要进行逐个元素取绝对值,然后把所有差值向量取均值:
DF = K K - 1 Σ i = 2 K | F i - F i - 1 | - - - ( 25 )
其中每个Fi是集合{Fi}中第i个特征向量。按公式(25)形成的向量DF,被称为视频片段的空时差值向量。把空时平均向量和空时差值向量进行级联,形成视频片段的特征向量:
VF=[MFT,DFT]T (26)
6、基于联合时空特性的视频质量估计器的训练:把多个视频片段的全局特征向量及其对应的视频质量主观差异评分值(DMOS:由训练视频库Live DataBase提供),输入到支持向量回归器(SVR)中,训练形成基于联合时空特性的视频质量估计器。
视频质量估计器的训练以支持向量回归器SVR的分类、回归、预测特性来构造。而SVR是以VC维理论和结构风险最小化原理为基础的一个机器学习模型。利用带主观视频质量评分值的训练视频库,完成客观视频质量估计器的训练。对训练视频库中的每段视频计算它的视频片段特征向量VFl,其对应的主观质量评分MOSl值已知。把视频片段特征向量集合{VFl,l=1,……L}和对应的主观质量评分集合{MOSl,l=1,..,L}送入支持向量回归器(SVR),完成视频质量估计器的训练。其中,L是训练视频的数量。
二、视频质量在线评估
首先按与离线训练相同的方法,计算形成未知质量的视频片段的全局特征向量,然后把该全局特征向量输入基于联合时空特性的视频质量估计器,输出值即为该段未知质量视频片段的客观质量估计值(得分)。在对未知质量评分的视频片段进行客观视频质量判断时,首先按与训练阶段相同的方法,即按照局部三维块划分、空间特征提取、空时特征提取、LTDB特征向量级联、视频片段特征汇聚的顺序,计算形成未知质量的视频片段的全局特征向量;然后把视频片段全局特征向量输入已完成训练的视频质量估计器,估计器的输出值就是该视频片段的客观视频质量。

Claims (7)

1.一种基于时空联合信息的无参考视频质量评估方法,其特征在于在离线训练阶段建立基于联合时空特性的视频质量估计器,采用视频质量估计器对待评估质量的视频进行在线评估,具体步骤如下:
第一步,离线训练过程为:
(1)局部三维块LTDB划分:将当前视频片段划分为以局部三维块LTDB为单位的特征提取单元;
(2)空间特征提取:计算LTDB每帧的对比度敏感函数CSF系数,计算LTDB内所有空间局部块的CSF系数的算术平均和方差,作为LTDB空间质量特征;
(3)空时特征提取:以LTDB为单位进行3D DCT变换,对完成变换的系数分为直流信息和非直流信息;对直流信息直接作为LTDB的平均亮度特征;对非直流信息按不同频率分类,对每类系数进行高斯分布参数拟合;获取不同频率分类的均值和方差,把每类系数的拟合参数进行级联,构成当前LTDB的空时质量特征;
(4)分别将LTDB空间质量特征、空时质量特征进行级联,汇聚形成LTDB特征向量;
(5)把视频片段按时间顺序和空间相邻进行分割,依次计算LTDB特征向量,形成LTDB特征向量序列;所有LTDB特征向量进行算术平均,构成时空均值向量;将相邻的LTDB特征向量相减并取绝对值,形成绝对差值向量;把所有绝对差值向量进行算术平均,构成视频片段的时空差值向量;视频片段的时空均值向量与视频片段的时空差值向量进行级联,汇聚形成当前视频片段的全局特征向量;
(6)把多个视频片段的全局特征向量及其对应的视频质量主观差异评分值,输入到支持向量回归器中,训练形成基于联合时空特性的视频质量估计器;
第二步,在线评估过程为:首先按与离线训练相同的方法,计算形成未知质量的视频片段的全局特征向量,然后把该全局特征向量输入基于联合时空特性的视频质量估计器,输出值即为该段未知质量视频片段的客观质量估计值。
2.根据权利要求1所述的基于时空联合信息的无参考视频质量评估方法,其特征在于局部三维块LTDB划分的方法为:
在当前视频片段中,从t时刻开始的帧,在空间上取b×b的局部正方形区域、在时间上取t帧到t+τ帧构成时空立方体,取该时空立方体内的视频数据,构成 局部三维块LTDB,每个时空图像块中共有b×b×τ个像素,用fm n t表示;其中m是空间维的横向分量,取值范围0到b-1;n是空间维的纵向分量,取值范围0到b-1;t是时间维分量,取值范围0到τ-1,这样时间上连续的τ个帧可以构成 个时空立方体,其中M和N分别是用像素数量度量的帧的宽度和高度,表示下取整,用Pk t表示视频从t帧到t+τ帧视频的第k个LTDB。
3.根据权利要求1所述的基于时空联合信息的无参考视频质量评估方法,其特征在于空间特征提取是以CSF系数特征的提取为前提,而CSF系数的求取是建立在空间频率的基础上,对空间频率进行感知加权滤波:
1)空间频率的计算
空间频率划分为水平空间频率、垂直空间频率、对角空间频率,对于尺度为H×W的视频帧,H为该帧垂直方向的尺度,W为该帧水平方向的尺度,单位为像素,在位置h×w处的像素值为fh w,其中w是像素的水平位置,h是像素的垂直位置,当前帧空间频率定义如下:
其中hf为水平空间频率,vf为垂直空间频率,df为对角空间频率:
2)CSF系数特征提取
CSF(f)函数是模拟人眼的感知特征,对空间频率进行带通滤波,CSF(f)与空间频率系数满足:
其中,fi表示时空三维块LTDB第i帧的空间频率;
对于LTDB所有帧的CSF值求取均值Cmean和方差Cstd作为该时段的空间特征,其中Cmean和Cstd求取公式如下:
4.根据权利要求1所述的基于时空联合信息的无参考视频质量评估方法,其特征在于空时特征提取是以每一个LTDB的3D DCT变换后的系数信息为参考,进行特征提取:
1)3D DCT变换
对每个LTDB时空立方体进行3D DCT变换,形成的3D DCT变换的系数集合,3D DCT变换表示为:
其中:
变换后,形成的3D DCT系数为C(u,v,w)b × b ×τ,u,v,w是表示频率的下标;
2)LTDB频率系数特征提取
3D DCT变换后的频率系数包含视频的空时质量特征信息,用于构建反映视频空时受损情况的质量特征,对3D DCT系数按照频率的大小可分割为直流信息、低频信息、中频信息和高频信息四种类型,其中直流信息反映该LTDB的平均亮度,低频信息、中频信息和高频信息反映该LTDB的空时质量特征;将除直流外的频率信息从低频至高频共分为Q段,32≥Q≥1,以Q=9、LTDB尺度采用17×17×17说明提取过程;
单个LTDB大小为17×17×17,所以,水平频率系数u∈[0,1,2......16],垂直频率系数v∈[0,1,2......16],时间频率系数w∈[0,1,2......16],由此可得直流系数fdc fdc={u,v,w|u+v+w=0},直流系数fdc作为单个LTDB图像组的平均亮度信息特征;
将低频至高频频率系数总共划分为9类,即{f1,f2,f3......,f8,f9},低频至高频频率系数的划分按照步长2进行划分,详细划分方法为:
fi={u,v,w|2i-1≤u+v+w≤2i,1≤i≤9} (9)
所以,有
f1={u,v,w|1≤u+v+w≤2} (10)
f2={u,v,w|3≤u+v+w≤4} (11)
f3={u,v,w|5≤u+v+w≤6} (12)
f4={u,v,w|7≤u+v+w≤8} (13)
f5={u,v,w|9≤u+v+w≤10} (14)
f6={u,v,w|11≤u+v+w≤12} (15)
f7={u,v,w|13≤u+v+w≤14} (16)
f8={u,v,w|15≤u+v+w≤16} (17)
f9={u,v,w|17≤u+v+w≤18} (18)
对从t到t+τ的帧视频形成的第k个LTDB做3D DCT变换后,把LTDB的变换系数按上述方法从低频至高频进行分类和汇总,得到9个频率系数集合,每个系数集合用高斯分布对其进行参数拟合,使其服从:
λ=σ2 (20)
其中μ表示均值,σ表示标准差,λ表示方差;
每个系数集合拟合形成两个分布参数,包括均值μ和方差λ,9个系数集合总共形成18个分布参数,把这18个分布参数级联,形成的18维向量:
1,μ1,λ2,μ2,...,λ8,μ8,λ9,μ9] (21) 。
5.根据权利要求1所述的基于时空联合信息的无参考视频质量评估方法,其特征在于LTDB特征向量汇聚方法为:将对比度敏感系数CSF拟合参数信息、直流 信息、频率系数拟合参数信息进行级联得到时间从t开始第k个LTDB特征向量:
ft k=[Cmean,Cstd,fdc,λ1,μ1,λ2,μ2,...,λ8,μ8,λ9,μ9]。 (22)
6.根据权利要求1所述的基于时空联合信息的无参考视频质量评估方法,其特征在于视频片段的特征向量汇聚方法为:对于视频片段,按时间顺序依次形成LTDB特征向量,所有LTDB特征向量的集合表示为{Fi,i=1,2,...,K},K表示视频片段的LTDB个数,计算公式如下:
以LTDB特征向量为基础,构造视频片段的特征表示,假设视频片段足够长,分割形成足够多的LTDB特征向量,以LTDB特征向量为对象,计算整个视频片段的LTDB特征向量的均值:
其中每个Fi是集合{Fi}中第i个特征向量,按公式(24)形成的向量MF,被称为视频片段的空时平均向量;
构造相邻LTDB特征向量的差值向量,其中差值向量需要进行逐个元素取绝对值,然后把所有差值向量取均值:
其中每个Fi是集合{Fi}中第i个特征向量,按公式(25)形成的向量DF,被称为视频片段的空时差值向量,把空时平均向量和空时差值向量进行级联,形成视频片段的特征向量:
VF=[MFT,DFT]T (26) 。
7.根据权利要求1所述的基于时空联合信息的无参考视频质量评估方法,其特征在于基于联合时空特性的视频质量估计器的训练方法为:利用带主观视频质量评分值的训练视频库,完成客观视频质量估计器的训练,即对训练视频库中的每段视频计算它的视频片段特征向量VFl,其对应的主观质量评分MOSl值已知,把视频片段特征向量集合{VFl,l=1,……L}和对应的主观质量评分集合{MOSl,l=1,..,L}送入支持向量回归器,完成视频质量估计器的训练,其中L是 训练视频的数量。
CN201510307504.2A 2015-06-05 2015-06-05 基于时空联合信息的无参考视频质量评估方法 Expired - Fee Related CN106303507B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201510307504.2A CN106303507B (zh) 2015-06-05 2015-06-05 基于时空联合信息的无参考视频质量评估方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201510307504.2A CN106303507B (zh) 2015-06-05 2015-06-05 基于时空联合信息的无参考视频质量评估方法

Publications (2)

Publication Number Publication Date
CN106303507A true CN106303507A (zh) 2017-01-04
CN106303507B CN106303507B (zh) 2019-01-22

Family

ID=57658684

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201510307504.2A Expired - Fee Related CN106303507B (zh) 2015-06-05 2015-06-05 基于时空联合信息的无参考视频质量评估方法

Country Status (1)

Country Link
CN (1) CN106303507B (zh)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107018410A (zh) * 2017-05-10 2017-08-04 北京理工大学 一种基于预注意机制和空间依赖性的无参考图像质量评价方法
CN107046640A (zh) * 2017-02-23 2017-08-15 北京理工大学 一种基于帧间运动光滑性的无参考视频稳定质量评价方法
CN107318014A (zh) * 2017-07-25 2017-11-03 西安电子科技大学 基于视觉显著区域和时空特性的视频质量评估方法
CN107371015A (zh) * 2017-07-21 2017-11-21 华侨大学 一种无参考对比度变化图像质量评价方法
CN108235001A (zh) * 2018-01-29 2018-06-29 上海海洋大学 一种基于时空特征的深海视频质量客观评价模型
CN108259891A (zh) * 2018-03-02 2018-07-06 上海大学 基于双目时空内在推理机制的3d视频质量盲评估方法
CN111539948A (zh) * 2020-05-11 2020-08-14 北京百度网讯科技有限公司 视频质量评估的方法、装置、电子设备及存储介质
CN113313682A (zh) * 2021-05-28 2021-08-27 西安电子科技大学 基于时空多尺度分析的无参考视频质量评价方法
CN113313683A (zh) * 2021-05-28 2021-08-27 西安电子科技大学 基于元迁移学习的无参考视频质量评价方法
CN113822856A (zh) * 2021-08-16 2021-12-21 南京中科逆熵科技有限公司 一种基于分层时空域特征表示的端到端无参考视频质量评价方法
CN113920584A (zh) * 2021-10-15 2022-01-11 东南大学 一种基于时间感知特征学习的动作质量评估方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102984540A (zh) * 2012-12-07 2013-03-20 浙江大学 一种基于宏块域失真度估计的视频质量评价方法
CN104023227A (zh) * 2014-05-28 2014-09-03 宁波大学 一种基于空域和时域结构相似性的视频质量客观评价方法
CN104023225A (zh) * 2014-05-28 2014-09-03 北京邮电大学 一种基于空时域自然场景统计特征的无参考视频质量评估方法
CN104202594A (zh) * 2014-07-25 2014-12-10 宁波大学 一种基于三维小波变换的视频质量评价方法
WO2015031982A1 (en) * 2013-09-06 2015-03-12 Wang, Zhou Method and system for objective perceptual video quality assessment

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102984540A (zh) * 2012-12-07 2013-03-20 浙江大学 一种基于宏块域失真度估计的视频质量评价方法
WO2015031982A1 (en) * 2013-09-06 2015-03-12 Wang, Zhou Method and system for objective perceptual video quality assessment
CN104023227A (zh) * 2014-05-28 2014-09-03 宁波大学 一种基于空域和时域结构相似性的视频质量客观评价方法
CN104023225A (zh) * 2014-05-28 2014-09-03 北京邮电大学 一种基于空时域自然场景统计特征的无参考视频质量评估方法
CN104202594A (zh) * 2014-07-25 2014-12-10 宁波大学 一种基于三维小波变换的视频质量评价方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
MINGYONG ZENG: "Person re-identification based on efficient multi-channel spatial histogram", 《ELECTRONICS LETTERS》 *
姚杰: "基于小波变换的无参考视频质量评价", 《重庆工商大学学报(自然科学版)》 *
姚杰: "采用内容划分方法的视频质量评价", 《计算机工程与应用》 *

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107046640A (zh) * 2017-02-23 2017-08-15 北京理工大学 一种基于帧间运动光滑性的无参考视频稳定质量评价方法
CN107018410A (zh) * 2017-05-10 2017-08-04 北京理工大学 一种基于预注意机制和空间依赖性的无参考图像质量评价方法
CN107371015A (zh) * 2017-07-21 2017-11-21 华侨大学 一种无参考对比度变化图像质量评价方法
CN107318014A (zh) * 2017-07-25 2017-11-03 西安电子科技大学 基于视觉显著区域和时空特性的视频质量评估方法
CN108235001B (zh) * 2018-01-29 2020-07-10 上海海洋大学 一种基于时空特征的深海视频质量客观评价方法
CN108235001A (zh) * 2018-01-29 2018-06-29 上海海洋大学 一种基于时空特征的深海视频质量客观评价模型
CN108259891A (zh) * 2018-03-02 2018-07-06 上海大学 基于双目时空内在推理机制的3d视频质量盲评估方法
CN111539948A (zh) * 2020-05-11 2020-08-14 北京百度网讯科技有限公司 视频质量评估的方法、装置、电子设备及存储介质
CN111539948B (zh) * 2020-05-11 2023-06-02 北京百度网讯科技有限公司 视频质量评估的方法、装置、电子设备及存储介质
CN113313682A (zh) * 2021-05-28 2021-08-27 西安电子科技大学 基于时空多尺度分析的无参考视频质量评价方法
CN113313683A (zh) * 2021-05-28 2021-08-27 西安电子科技大学 基于元迁移学习的无参考视频质量评价方法
CN113313682B (zh) * 2021-05-28 2023-03-21 西安电子科技大学 基于时空多尺度分析的无参考视频质量评价方法
CN113822856A (zh) * 2021-08-16 2021-12-21 南京中科逆熵科技有限公司 一种基于分层时空域特征表示的端到端无参考视频质量评价方法
CN113920584A (zh) * 2021-10-15 2022-01-11 东南大学 一种基于时间感知特征学习的动作质量评估方法

Also Published As

Publication number Publication date
CN106303507B (zh) 2019-01-22

Similar Documents

Publication Publication Date Title
CN106303507A (zh) 基于时空联合信息的无参考视频质量评估方法
CN107959848B (zh) 基于三维卷积神经网络的通用型无参考视频质量评价算法
CN105828064B (zh) 融合局部和全局时空特性的无参考视频质量评估方法
Narvekar et al. A no-reference image blur metric based on the cumulative probability of blur detection (CPBD)
Bouzerdoum et al. Image quality assessment using a neural network approach
CN101282481A (zh) 一种基于人工神经网络的视频质量评价方法
CN110060236B (zh) 基于深度卷积神经网络的立体图像质量评价方法
Ebenezer et al. ChipQA: No-reference video quality prediction via space-time chips
CN101950422B (zh) 一种基于奇异值分解的图像质量评价方法
CN108289221A (zh) 异常值检测的无参考图像质量评价模型及构建方法
CN101146226A (zh) 一种基于自适应st区的高清视频图像质量评价方法及装置
CN105338343A (zh) 一种基于双目感知的无参考立体图像质量评价方法
CN106412572A (zh) 一种基于运动特性的视频流编码质量评价方法
CN106375754A (zh) 基于视觉刺激衰减特性的无参考视频质量评估方法
CN103745466A (zh) 一种基于独立成分分析的图像质量评价方法
CN101562675A (zh) 基于Contourlet变换的无参考型图像质量评测方法
Geng et al. A stereoscopic image quality assessment model based on independent component analysis and binocular fusion property
CN103269436B (zh) 一种2d-3d视频转换中的关键帧选择方法
CN104574424B (zh) 基于多分辨率dct边缘梯度统计的无参照图像模糊度评价方法
CN102722888A (zh) 基于生理与心理立体视觉的立体图像客观质量评价方法
CN109831664A (zh) 基于深度学习的快速压缩立体视频质量评价方法
CN104282019B (zh) 基于自然场景统计和感知质量传播的盲图像质量评价方法
CN109447903A (zh) 一种半参考型超分辨率重构图像质量评价模型的建立方法
CN114915777A (zh) 一种基于深度强化学习的无参考超高清视频质量客观评价方法
CN108513132A (zh) 一种视频质量评价方法及装置

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20190122

CF01 Termination of patent right due to non-payment of annual fee