CN107318014A - 基于视觉显著区域和时空特性的视频质量评估方法 - Google Patents
基于视觉显著区域和时空特性的视频质量评估方法 Download PDFInfo
- Publication number
- CN107318014A CN107318014A CN201710611593.9A CN201710611593A CN107318014A CN 107318014 A CN107318014 A CN 107318014A CN 201710611593 A CN201710611593 A CN 201710611593A CN 107318014 A CN107318014 A CN 107318014A
- Authority
- CN
- China
- Prior art keywords
- mrow
- coefficient
- msub
- video
- represent
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N17/00—Diagnosis, testing or measuring for television systems or their details
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- General Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
Abstract
本发明公开了一种基于视觉显著区域和时空特性的视频质量评估方法,克服了现有技术没有虑人类视觉特性和提取的特征不能完整反映视频信息的不足,实现步骤为:(1)提取视频;(2)从所选取的视频中任意选取一帧图像;(3)提取图像的视觉显著区域;(4)判断是否从提取完所有的帧图像;(5)合成视频;(6)获取三维离散余弦变换3D‑DCT系数;(7)提取特征;(8)缩减特征维度;(9)判断是否提取完所有视频;(10)预测质量分数;(11)计算视频相关系数;(12)输出相关系数;本发明具有不限定失真类型、充分考虑人眼关注特性和视频时空特性的优点,能够使评估结果更符合主观评价结果。
Description
技术领域
本发明属于图像视频处理技术领域,更进一步涉及图像视频质量评估技术领域中的一种基于视觉显著区域和时空特性的视频质量评价方法。该发明可应用于视频编码、视频会议中所使用的视频,根据人眼对图像关注度不同的影响,提取视频显著区域,并考虑视频的时空特性,对视频进行客观质量评估。
背景技术
随着多媒体技术和计算机网络的快速发展,视频信号大量得应用在视频监控,视频会议等服务中。人们在接触到越来越多的视频时对视频相关服务的需求也在提升,另一方面视频从产生到传输到最终用户,中间的每一阶段都不可避免的产生了一定的失真,因而降低了用户体验质量。由于视频图像的最终接收者是人类,因此人们对视频图像的评估最为准确,但是这种主观评估方法耗时,费力,不适合大规模推广。因此设计客观视频质量评估方法是非常必要的。
目前客观视频质量评估方法主要有峰值信噪比(Peak Signal-to-Noise Ratio,PSNR)、结构相似度(Structure Similarity,SSIM)、均方误差MSE和S.Winkler等人提出来的感知失真方法(PDM)等。由于人眼视觉系统的复杂性,这些方法并没有与主观质量评估结果具有很好的一致性。总体而言,虽然视频质量评估虽然取得了一定的进展,但是依然存在着许多技术难题,需要进一步的发展与完善。
Sudeng Hu等人在其发表的论文“Objective Video Quality Assessment basedon Perceptually Weighted Mean Squared Error”(IEEE Transactions on Circuitsand Systems for Video Technology.2016)中提出了一种专门针对压缩失真的视频质量评价方法。该方法设计一个加入视觉注意的低通滤波器来模拟一个最重要人类视觉系统的特性--对比度敏感来去除掩盖失真,并针对掩蔽效应设计掩蔽调制机制来提高客观质量评估与主观的一致性。该方法虽然加入了HVS特性,但是仍然存在的不足之处是,该方法提出的浮动滤波器只能在空域实现,计算相当复杂,也没有考虑视频的时空统计特性,评估结果不能更好的符合主观评估的结果,并且只能针对压缩失真的视频,不能广泛应用到实际中。
中国科学院西安光学精密机械研究所申请的专利“基于3D-DCT域统计分析的无参考视频质量评价方法”(公开号:CN105991995A,公开日:2016年10月05日,申请日:2015年02月13日)中公开了一种基于3D-DCT域统计分析的视频质量评价方法。该方法通过局部3D-DCT变换获取代表视频时空信息的交流系数,对频域系数进行相应的处理获得四个简单的频域特征,通过PCA降维,支持向量机回归模型预测,最后进行质量评价。该方法是一种无参考视频质量评价方法,优点是考虑了视频的时空特性,更适合无参考客观视频质量评价。但是,该方法仍然存在的不足之处是,提取的几个简单特征不能代表视频的全部信息,也没有考虑人眼视觉特性对质量评价的影响,评价结果不能更好的符合主观评价的结果。
发明内容
本发明的目的在于克服上述现有技术的不足,提出一种基于视觉显著区域和时空特性的视频质量评价方法。
实现本发明目的的具体思路是,综合考虑人眼关注的视觉显著区域、视频的时空特性对视频质量评价的重要作用,首先提取视频的视觉显著区域,然后在3D-DCT域提取视频的时空统计特征,利用主成分析法PCA缩减特征维度,通过支持向量回归模型SVR-ε预测视频的质量分数,最后利用Matlab软件中corr函数计算预测分数与主观分数之间的相关系数,得到视频质量评价的评价指标,评价结果能更好地符合人的主观评价。
本发明的具体步骤包括如下:
(1)提取视频:
从视频质量评估数据库live中的160个视频中任意选取一个视频;
(2)从所选取的视频中任意选取一帧图像;
(3)提取图像的视觉显著区域:
(3a)从所选取的帧图像平面坐标系中分别选取最大灰度值和最小灰度值;
(3b)利用最大类间方差法OTSU确定一个最佳阈值;
(3c)将所选取的帧图像平面坐标系中的所有灰度值大于最小灰度值且小于最佳阈值的点所围成的区域作为非视觉显著区域;将所选取图像平面坐标中的所有灰度值大于最佳阈值且小于最大灰度值的点所围成的区域作为作为视觉显著区域;
(3d)对非视觉显著区域和视觉显著区域的图像的边界轮廓曲线进行平滑操作,去除边界轮廓曲线中狭窄的连接和细小的突出部分,保留边界轮廓曲线围成的视觉显著区域;
(3e)将非视觉显著区域的灰度值设为0,保持视觉显著区域的灰度值不变,得到提取视觉显著区域后的图像;
(4)判断是否从所选取的视频中提取完所有的帧图像,若是,则执行步骤(5),否则,执行步骤(2):
(5)将所选取视频的所有帧图像合成一个提取视觉显著区域后的视频;
(6)获取三维离散余弦变换3D-DCT系数:
(6a)将提取视觉显著区域后的视频分成R*C*P个视频时空信息的小立方体,其中,R表示横轴上小立方体的个数,*表示相乘操作,C、P分别表示纵轴,时间轴上小立方体的个数;
(6b)对所有小立方体进行三维离散余弦变换3D-DCT操作,得到R*C*P个所有视频时空信息的系数块;
(6c)去掉系数块中含0系数的数量超过该系数块中总系数一半以上的系数块,得到有效系数块;
(6d)利用Matlab软件中reshape函数将有效系数块转换成一维向量,去掉每个一维向量中的直流系数,得到63维交流系数向量;
(7)提取特征:
(7a)用广义高斯分布拟合63维交流系数向量每个维度的概率分布,得到63个形状参数,将63个形状参数构成63维形状参数特征向量;
(7b)按照下式,分别计算每个交流系数的频谱率,将63个频谱率构成63维频谱率特征向量;
其中,fk表示第k个交流系数的频谱率,k取值范围为1,2…,63,γk表示第k个交流系数的形状参数,Π表示连乘操作,γj表示第j个交流系数的形状参数,j取值范围为1,2…,63;
(7c)按照平均能量谱公式,分别计算每个交流系数的平均谱能量,将63个平均能量谱构成63维能量波动特征向量;
(7d)按照熵度量公式,分别计算每个交流系数的熵度量,将63个熵度量构成63维能量波动特征向量;
(7e)按照下式,分别计算每个交流系数与所有交流系数平均值之间的欧式距离,将63个欧氏距离构成63维分散度特征向量;
其中,dk表示第k个交流系数与所有交流系数平均值之间的欧式距离,表示平方根操作,∑表示求和操作,M表示交流系数向量的总数,|·|表示取绝对值操作,Ck(m)表示第m个交流系数向量中的第k个交流系数,μ(·)表示取平均值操作,Ck表示第k个交流系数;
(8)缩减特征维度:
采用主成分分析法PCA,分别对形状参数特征向量、频谱率特征向量、能量波动特征向量、分散度特征向量降维后组成一组质量评估特征向量;
(9)判断是否提取完视频质量评估数据库live中的160个视频,若是,则执行步骤(10),否则,执行步骤(1);
(10)预测质量分数:
(10a)从160组质量评估特征向量中随机提取128组特征向量作为训练集,将其余32组作为测试集,并获取每组特征向量对应视频的主观质量分数;
(10b)利用支持向量回归模型SVR-ε,对训练集中128组特征向量和其相应视频的主观质量分数进行训练,得到训练好的回归模型;
(10c)用训练好的回归模型对测试集中所有组特征向量进行测试,得到测试集中32组特征向量的相应视频的预测分数;
(11)计算视频相关系数:
(11a)利用Matlab软件的corr函数,计算所有预测分数与其对应视频的主观质量分数之间的斯皮尔曼等级相关系数SROCC;
(11b)利用Matlab软件的corr函数,计算所有预测分数与其对应视频的主观质量分数之间的皮尔逊线性相关系数PLCC;
(12)输出相关系数:
输出斯皮尔曼等级相关系数SROCC和皮尔逊线性相关系数PLCC。
与现有技术相比,本发明具有以下优点:
第一,由于本发明应用像素点灰度值信息,提取视觉显著区域,充分考虑了人眼的视觉感知,克服了现有技术视频质量评估方法中没有考虑人类视觉特性的问题,使得本发明具有在客观评估视频质量时更加符合人眼主观评估的优点。
第二,由于本发明在提取视频时空信息特征时,采用三维离散余弦变换变换3D-DCT得到频域系数,通过对频域系数的统计处理得到与视觉质量相关的特征,能够更完整地反映视频的时空信息,客服了现有技术中提取的特征不能完整反映视频信息的问题,使得本发明在客观评估视频质量时的结果更加精确优点。
附图说明
图1为本发明的流程图;
图2为本发明的仿真图。
具体实施方式
下面结合附图,对本发明做进一步的详细描述。
参照附图1,本发明的具体步骤如下。
步骤1,提取视频。
从视频质量评估数据库live中的160个视频中任意选取一个视频。
步骤2,从所选取的视频中任意选取一帧图像。
步骤3,提取图像的视觉显著区域。
从所选取的帧图像平面坐标系中分别选取最大灰度值和最小灰度值。
利用最大类间方差法OTSU确定一个最佳阈值。
最大类间方差法OTSU的具体步骤如下:
第1步,将灰度值的初始阈值设为60。
第2步,将所选取的帧图像平面坐标系中的所有灰度值大于最小灰度值且小于初始阈值的点所围成的区域作为背景区域;将所选取图像平面坐标中的所有灰度值大于初始阈值且小于最大灰度值的点所围成的区域作为目标区域。
第3步,按照下式,计算背景区域平面坐标系中所有点的灰度均值:
其中,u0表示背景区域平面坐标系中所有点的灰度均值,T表示初始阈值,∑表示求和操作,fmin表示背景区域平面坐标系中最小灰度值,i表示背景区域平面坐标系中第i个点的灰度值,P(i)表示背景区域平面坐标系中灰度值为i的所有点的概率,P0表示背景区域平面坐标系中所有点的总概率。
第4步,按照下式,计算目标区域平面坐标系中所有点的灰度均值:
其中,u1表示目标区域平面坐标系中所有点的灰度均值;fmax表示背景区域平面坐标系中最大灰度值,T表示初始阈值,n表示背景区域平面坐标系中第n个点的灰度值,P(n)表示目标区域平面坐标系中灰度值为n的所有点的概率,P1表示目标区域平面坐标系中所有点的总概率。
第5步,按照下式,计算所选取的帧图像平面坐标系中所有点的灰度均值:
u=P0u0+P1u1
其中,u表示所选取的帧图像平面坐标系中所有点的灰度均值。
第6步,按照下式,计算背景区域和目标区域间的方差值:
σ2=P0*(u-u0)2+P1*(u-u1)2
其中,σ2表示背景区域和目标区域间的方差值,*表示相乘操作。
第7步,将初始阈值T加2得到阈值Y。
第8步,判断阈值Y是否等于200,若是,得到所有背景区域和目标区域间方差,则执行本步骤的第9步,否则,执行本步骤的第1步。
第9步,从所有方差中选取最大值,将所选取的最大值对应的阈值Y作为最佳阈值。
将所选取的帧图像平面坐标系中的所有灰度值大于最小灰度值且小于最佳阈值的点所围成的区域作为非视觉显著区域;将所选取图像平面坐标中的所有灰度值大于最佳阈值且小于最大灰度值的点所围成的区域作为作为视觉显著区域。
对非视觉显著区域和视觉显著区域的图像的边界轮廓曲线进行平滑操作,去除边界轮廓曲线中狭窄的连接和细小的突出部分,保留边界轮廓曲线围成的视觉显著区域。
将非视觉显著区域的灰度值设为0,保持视觉显著区域的灰度值不变,得到提取视觉显著区域后的图像。
步骤4,判断是否从所选取的视频中提取完所有的帧图像,若是,则执行步骤5,否则,执行步骤2。
步骤5,将所选取视频的所有帧图像合成一个提取视觉显著区域后的视频。
步骤6,获取三维离散余弦变换3D-DCT系数。
第1步,将提取视觉显著区域后的视频分成R*C*P个视频时空信息的小立方体,其中,R表示横轴上小立方体的个数,*表示相乘操作,C、P分别表示纵轴,时间轴上小立方体的个数,每个小立方体的大小为4*4*4,每个立方体空间上重叠2个像素,时间维上不重叠。
第2步,对所有小立方体进行三维离散余弦变换3D-DCT操作,得到R*C*P个所有视频时空信息的系数块,其中,每个系数块包含一个直流系数和63个交流系数,每个交流系数对应一个交流频率,在每个视频中,一个交流频率对应RxCxP个交流系数。
第3步,去掉系数块中含0系数的数量超过该系数块中总系数一半以上的系数块,得到有效系数块。
第4步,利用Matlab软件中reshape函数将有效系数块转换成一维向量,去掉每个一维向量中的直流系数,得到63维交流系数向量。
步骤7,提取特征。
用广义高斯分布拟合63维交流系数向量每个维度的概率分布,得到63个形状参数,将63个形状参数构成63维形状参数特征向量。
采用下述的频谱率公式,分别计算每个交流系数的频谱率,将63个频谱率构成63维频谱率特征向量。
其中,fk表示第k个交流系数的频谱率,k取值范围为1,2…,63,γk表示第k个交流系数的形状参数,Π表示连乘操作,γj表示第j个交流系数的形状参数,j取值范围为1,2…,63。
采用下述的平均能量谱公式,分别计算每个交流系数的平均谱能量,将63个平均能量谱构成63维能量波动特征向量。
其中,rk表示第k个交流系数的基本谱能量,log2表示以2为底的对数操作。
采用下述的熵度量公式,分别计算每个交流系数的熵度量,将63个熵度量构成63维能量波动特征向量。
其中,ek表示第k个交流系数的熵度量值,pl(Ck)表示第k个交流系数Ck在第l段的概率,l表示M个交流系数向量中的最小值到最大值区间的等间值的40段中的第l段。
采用下述的欧式距离公式,分别计算每个交流系数与所有交流系数平均值之间的欧式距离,将63个欧氏距离构成63维分散度特征向量。
其中,dk表示第k个交流系数与所有交流系数平均值之间的欧式距离,表示平方根操作,∑表示求和操作,M表示交流系数向量的总数,·表示取绝对值操作,Ck(m)表示第m个交流系数向量中的第k个交流系数,μ(·)表示取平均值操作,Ck表示第k个交流系数。
步骤8,缩减特征维度。
采用主成分分析法PCA,分别对形状参数特征向量、频谱率特征向量、能量波动特征向量、分散度特征向量降维后组成一组反映视频时空特性的特征向量;
步骤9,判断是否提取完视频质量评估数据库live中的160个视频,若是,则执行步骤10,否则,执行步骤1。
步骤10,预测质量分数。
第1步,从160组质量评估特征向量中随机提取128组特征向量作为训练集,将其余32组作为测试集,并获取每组特征向量对应视频的主观质量分数。
第2步,利用支持向量回归模型SVR-ε,对训练集中128组特征向量和其相应视频的主观质量分数进行训练,得到训练好的回归模型。
第3步,用训练好的回归模型对测试集中所有组特征向量进行测试,得到测试集中32组特征向量的相应视频的预测分数。
步骤11,计算视频相关系数。
第1步,利用Matlab软件的corr函数,计算所有预测分数与其对应视频的主观质量分数之间的斯皮尔曼等级相关系数SROCC。
第2步,利用Matlab软件的corr函数,计算所有预测分数与其对应视频的主观质量分数之间的皮尔逊线性相关系数PLCC
步骤12,输出相关系数。
输出斯皮尔曼等级相关系数SROCC和皮尔逊线性相关系数PLCC
下面结合仿真图2对本发明的效果做进一步的描述。
1.仿真条件:
本发明是在中央处理器为Intel(R)Core(TM)i3-2350M CPU@2.30GHZ、内存10G、Windows 7操作系统上,运用MATLAB R2013b软件进行的仿真。
2.仿真内容及其结果分析:
图2为采用本发明方法在LIVE数据库上得到的预测质量分数对真实主观质量分数的散点图。图2中的横坐标表示视频的主观质量分数,纵坐标表示视频的预测质量分数,图2中的“×”表示以一个视频的主观质量分数为纵坐标,预测质量分数为横坐标的离散点。黑色的实线是Logistic函数对视频序列的客观评价结果与主观数据的线性拟合直线。由图2中所有的离散点均匀分布在拟合直线上及直线的附近,由此可见,采用本发明的基于视觉显著区域和时空特性的视频质量评估方法,预测分数与主观分数之间有很明显的线性关系,进一步验证了本发明评估结果与主观评价结果的一致性。
将本发明与现有技术的基于峰值信噪比方法PSNR,基于结构相似度方法SSIM,基于运动信息的视频整体质量估计方法MOVIE,以及最新的盲视频质量评价方法V-BLINDS和基于3D-DCT域统计分析的无参考视频质量评价方法S-Statistics性能比较,得到的斯皮尔曼等级相关系数SROCC和皮尔逊线性相关系数PLCC与现有技术的SROCC和PLCC统计结果如下表1所示。
表1总体SROCC和PLCC比较
评价方法 | 本发明 | PSNR | SSIM | MOVIE | V-BLINDS | S-Statistics |
SROCC | 0.811 | 0.711 | 0.650 | 0.807 | 0.722 | 0.782 |
PLCC | 0.913 | 0.708 | 0.625 | 0.852 | 0.824 | 0.891 |
由表1可见,在没有原始视频信息参考下,本发明的预测分数与主观质量分数之间的相关性依然高于现有的有参视频质量评价方法,同时也优于现有的无参视频质量评价方法V-BLINDS,S-Statistics,进一步验证了本发明评估结果更符合主观评价的结果。
Claims (6)
1.一种基于视觉显著区域和时空特性的视频质量评估方法,包括如下步骤:
(1)提取视频:
从视频质量评估数据库live中的160个视频中任意选取一个视频;
(2)从所选取的视频中任意选取一帧图像;
(3)提取图像的视觉显著区域:
(3a)从所选取的帧图像平面坐标系中分别选取最大灰度值和最小灰度值;
(3b)利用最大类间方差法OTSU确定一个最佳阈值;
(3c)将所选取的帧图像平面坐标系中的所有灰度值大于最小灰度值且小于最佳阈值的点所围成的区域作为非视觉显著区域;将所选取图像平面坐标中的所有灰度值大于最佳阈值且小于最大灰度值的点所围成的区域作为作为视觉显著区域;
(3d)对非视觉显著区域和视觉显著区域的图像的边界轮廓曲线进行平滑操作,去除边界轮廓曲线中狭窄的连接和细小的突出部分,保留边界轮廓曲线围成的视觉显著区域;
(3e)将非视觉显著区域的灰度值设为0,保持视觉显著区域的灰度值不变,得到提取视觉显著区域后的图像;
(4)判断是否从所选取的视频中提取完所有的帧图像,若是,则执行步骤(5),否则,执行步骤(2):
(5)将所选取视频的所有帧图像合成一个提取视觉显著区域后的视频;
(6)获取三维离散余弦变换3D-DCT系数:
(6a)将提取视觉显著区域后的视频分成R*C*P个反映视频时空信息的小立方体,其中,R表示横轴上小立方体的个数,*表示相乘操作,C、P分别表示纵轴,时间轴上小立方体的个数;
(6b)对所有小立方体进行三维离散余弦变换3D-DCT操作,得到R*C*P个所有视频时空信息的系数块;
(6c)去掉系数块中含0系数的数量超过该系数块中总系数一半以上的系数块,得到有效系数块;
(6d)利用Matlab软件中reshape函数将有效系数块转换成一维向量,去掉每个一维向量中的直流系数,得到63维交流系数向量;
(7)提取特征:
(7a)用广义高斯分布拟合63维交流系数向量每个维度的概率分布,得到63个形状参数,将63个形状参数构成63维形状参数特征向量;
(7b)按照下式,分别计算每个交流系数的频谱率,将63个频谱率构成63维频谱率特征向量;
<mrow>
<msub>
<mi>f</mi>
<mi>k</mi>
</msub>
<mo>=</mo>
<mfrac>
<msub>
<mi>&gamma;</mi>
<mi>k</mi>
</msub>
<msup>
<mrow>
<mo>(</mo>
<munderover>
<mo>&Pi;</mo>
<mrow>
<mi>j</mi>
<mo>=</mo>
<mn>1</mn>
</mrow>
<mn>63</mn>
</munderover>
<msub>
<mi>&gamma;</mi>
<mi>j</mi>
</msub>
<mo>)</mo>
</mrow>
<mrow>
<mn>1</mn>
<mo>/</mo>
<mn>63</mn>
</mrow>
</msup>
</mfrac>
</mrow>
其中,fk表示第k个交流系数的频谱率,k取值范围为1,2…,63,γk表示第k个交流系数的形状参数,Π表示连乘操作,γj表示第j个交流系数的形状参数,j取值范围为1,2…,63;
(7c)按照平均能量谱公式,分别计算每个交流系数的平均谱能量,将63个平均能量谱构成63维能量波动特征向量;
(7d)按照熵度量公式,分别计算每个交流系数的熵度量,将63个熵度量构成63维能量波动特征向量;
(7e)按照下式,分别计算每个交流系数与所有交流系数平均值之间的欧式距离,将63个欧氏距离构成63维分散度特征向量;
<mrow>
<msub>
<mi>d</mi>
<mi>k</mi>
</msub>
<mo>=</mo>
<msqrt>
<mrow>
<munderover>
<mo>&Sigma;</mo>
<mrow>
<mi>m</mi>
<mo>=</mo>
<mn>1</mn>
</mrow>
<mi>M</mi>
</munderover>
<msup>
<mrow>
<mo>(</mo>
<mo>|</mo>
<msub>
<mi>C</mi>
<mi>k</mi>
</msub>
<mo>(</mo>
<mi>m</mi>
<mo>)</mo>
<mo>|</mo>
<mo>-</mo>
<mi>&mu;</mi>
<mo>(</mo>
<mrow>
<mo>|</mo>
<msub>
<mi>C</mi>
<mi>k</mi>
</msub>
<mo>|</mo>
</mrow>
<mo>)</mo>
<mo>)</mo>
</mrow>
<mn>2</mn>
</msup>
</mrow>
</msqrt>
</mrow>
其中,dk表示第k个交流系数与所有交流系数平均值之间的欧式距离,表示平方根操作,∑表示求和操作,M表示交流系数向量的总数,|·|表示取绝对值操作,Ck(m)表示第m个交流系数向量中的第k个交流系数,μ(·)表示取平均值操作,Ck表示第k个交流系数;
(8)缩减特征维度:
采用主成分分析法PCA,分别对形状参数特征向量、频谱率特征向量、能量波动特征向量、分散度特征向量降维后组成一组反映视频时空特性的特征向量;
(9)判断是否提取完视频质量评估数据库live中的160个视频,若是,则执行步骤(10),否则,执行步骤(1);
(10)预测质量分数:
(10a)从160组质量评估特征向量中随机提取128组特征向量作为训练集,将其余32组作为测试集,并获取每组特征向量对应视频的主观质量分数;
(10b)利用支持向量回归模型SVR-ε,对训练集中128组特征向量和其相应视频的主观质量分数进行训练,得到训练好的回归模型;
(10c)用训练好的回归模型对测试集中所有组特征向量进行测试,得到测试集中32组特征向量的相应视频的预测分数;
(11)计算视频相关系数:
(11a)利用Matlab软件的corr函数,计算所有预测分数与其对应视频的主观质量分数之间的斯皮尔曼等级相关系数SROCC;
(11b)利用Matlab软件的corr函数,计算所有预测分数与其对应视频的主观质量分数之间的皮尔逊线性相关系数PLCC;
(12)输出相关系数:
输出斯皮尔曼等级相关系数SROCC和皮尔逊线性相关系数PLCC。
2.根据权利要求1所述的基于视觉显著区域和时空特性的视频质量评估方法,其特征在于,步骤(3b)中所述的最大类间方差法OTSU的具体步骤如下:
第一步,将灰度值的初始阈值设为60;
第二步,将所选取的帧图像平面坐标系中的所有灰度值大于最小灰度值且小于初始阈值的点所围成的区域作为背景区域;将所选取图像平面坐标中的所有灰度值大于初始阈值且小于最大灰度值的点所围成的区域作为目标区域;
第三步,按照下式,计算背景区域平面坐标系中所有点的灰度均值:
<mrow>
<msub>
<mi>u</mi>
<mn>0</mn>
</msub>
<mo>=</mo>
<munderover>
<mo>&Sigma;</mo>
<msub>
<mi>f</mi>
<mrow>
<mi>m</mi>
<mi>i</mi>
<mi>n</mi>
</mrow>
</msub>
<mi>T</mi>
</munderover>
<mi>i</mi>
<mfrac>
<mrow>
<mi>P</mi>
<mrow>
<mo>(</mo>
<mi>i</mi>
<mo>)</mo>
</mrow>
</mrow>
<msub>
<mi>P</mi>
<mn>0</mn>
</msub>
</mfrac>
</mrow>
2
其中,u0表示背景区域平面坐标系中所有点的灰度均值,T表示初始阈值,∑表示求和操作,fmin表示背景区域平面坐标系中最小灰度值,i表示背景区域平面坐标系中第i个点的灰度值,P(i)表示背景区域平面坐标系中灰度值为i的所有点的概率,P0表示背景区域平面坐标系中所有点的总概率;
第四步,按照下式,计算目标区域平面坐标系中所有点的灰度均值:
<mrow>
<msub>
<mi>u</mi>
<mn>1</mn>
</msub>
<mo>=</mo>
<munderover>
<mo>&Sigma;</mo>
<mrow>
<mi>T</mi>
<mo>+</mo>
<mn>1</mn>
</mrow>
<msub>
<mi>f</mi>
<mrow>
<mi>m</mi>
<mi>a</mi>
<mi>x</mi>
</mrow>
</msub>
</munderover>
<mi>n</mi>
<mfrac>
<mrow>
<mi>P</mi>
<mrow>
<mo>(</mo>
<mi>n</mi>
<mo>)</mo>
</mrow>
</mrow>
<msub>
<mi>P</mi>
<mn>1</mn>
</msub>
</mfrac>
</mrow>
其中,u1表示目标区域平面坐标系中所有点的灰度均值;fmax表示背景区域平面坐标系中最大灰度值,T表示初始阈值,n表示背景区域平面坐标系中第n个点的灰度值,P(n)表示目标区域平面坐标系中灰度值为n的所有点的概率,P1表示目标区域平面坐标系中所有点的总概率;
第五步,按照下式,计算所选取的帧图像平面坐标系中所有点的灰度均值:
u=P0u0+P1u1
其中,u表示所选取的帧图像平面坐标系中所有点的灰度均值;
第六步,按照下式,计算背景区域和目标区域间的方差值:
σ2=P0*(u-u0)2+P1*(u-u1)2
其中,σ2表示背景区域和目标区域间的方差值,*表示相乘操作;
第七步,将初始阈值T加2得到阈值Y;
第八步,判断阈值Y是否等于200,若是,得到所有背景区域和目标区域间方差,则执行第9步,否则,执行第1步;
第九步,从所有方差中选取最大值,将所选取的最大值对应的阈值Y作为最佳阈值。
3.根据权利要求1所述的基于视觉显著区域和时空特性的视频质量评估方法,其特征在于,步骤(6a)中所述的每个小立方体的大小为4*4*4,每个立方体空间上重叠2个像素,时间维上不重叠。
4.根据权利要求1所述的基于视觉显著区域和时空特性的视频质量评估方法,其特征在于,步骤(6b)中所述的每个系数块包含一个直流系数和63个交流系数,每个交流系数对应一个交流频率。
5.根据权利要求1所述的基于视觉显著区域和时空特性的视频质量评估方法,其特征在于,步骤(7c)中所述的平均能量谱公式如下:
<mrow>
<msub>
<mi>r</mi>
<mi>k</mi>
</msub>
<mo>=</mo>
<mfrac>
<mn>1</mn>
<mi>M</mi>
</mfrac>
<munderover>
<mo>&Sigma;</mo>
<mrow>
<mi>m</mi>
<mo>=</mo>
<mn>1</mn>
</mrow>
<mi>M</mi>
</munderover>
<msub>
<mi>log</mi>
<mn>2</mn>
</msub>
<msup>
<mrow>
<mo>&lsqb;</mo>
<msub>
<mi>C</mi>
<mi>k</mi>
</msub>
<mrow>
<mo>(</mo>
<mi>m</mi>
<mo>)</mo>
</mrow>
<mo>&rsqb;</mo>
</mrow>
<mn>2</mn>
</msup>
</mrow>
其中,rk表示第k个交流系数的基本谱能量,log2表示以2为底的对数操作。
6.根据权利要求1所述的基于视觉显著区域和时空特性的视频质量评估方法,其特征在于,步骤(7d)中所述的熵度量公式如下:
<mrow>
<msub>
<mi>e</mi>
<mi>k</mi>
</msub>
<mo>=</mo>
<mo>-</mo>
<munderover>
<mo>&Sigma;</mo>
<mrow>
<mi>l</mi>
<mo>=</mo>
<mn>1</mn>
</mrow>
<mn>40</mn>
</munderover>
<msub>
<mi>p</mi>
<mi>l</mi>
</msub>
<mrow>
<mo>(</mo>
<msub>
<mi>C</mi>
<mi>k</mi>
</msub>
<mo>)</mo>
</mrow>
<msub>
<mi>log</mi>
<mn>2</mn>
</msub>
<mrow>
<mo>(</mo>
<msub>
<mi>p</mi>
<mi>l</mi>
</msub>
<mo>(</mo>
<msub>
<mi>C</mi>
<mi>k</mi>
</msub>
<mo>)</mo>
<mo>)</mo>
</mrow>
</mrow>
其中,ek表示第k个交流系数的熵度量值,pl(Ck)表示第k个交流系数Ck在第l段的概率,l表示M个交流系数向量中的最小值到最大值区间的等间值的40段中的第l段。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710611593.9A CN107318014B (zh) | 2017-07-25 | 2017-07-25 | 基于视觉显著区域和时空特性的视频质量评估方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710611593.9A CN107318014B (zh) | 2017-07-25 | 2017-07-25 | 基于视觉显著区域和时空特性的视频质量评估方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN107318014A true CN107318014A (zh) | 2017-11-03 |
CN107318014B CN107318014B (zh) | 2018-11-16 |
Family
ID=60179429
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710611593.9A Active CN107318014B (zh) | 2017-07-25 | 2017-07-25 | 基于视觉显著区域和时空特性的视频质量评估方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN107318014B (zh) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108900864A (zh) * | 2018-07-23 | 2018-11-27 | 西安电子科技大学 | 基于运动轨迹的全参考视频质量评价方法 |
CN109409221A (zh) * | 2018-09-20 | 2019-03-01 | 中国科学院计算技术研究所 | 基于帧选择的视频内容描述方法和系统 |
CN110070282A (zh) * | 2019-04-17 | 2019-07-30 | 国网安徽省电力公司 | 一种基于综合关联度的低压台区线损影响因素分析方法 |
CN111784694A (zh) * | 2020-08-20 | 2020-10-16 | 中国传媒大学 | 一种基于视觉注意力机制的无参考视频质量评价方法 |
CN112153370A (zh) * | 2020-08-24 | 2020-12-29 | 清华大学 | 基于群敏感对比回归的视频动作质量评价方法及系统 |
CN113742603A (zh) * | 2021-04-19 | 2021-12-03 | 重庆邮电大学 | 一种对象推荐方法、装置、系统及电子设备 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103458265A (zh) * | 2013-02-01 | 2013-12-18 | 深圳信息职业技术学院 | 一种视频质量评价方法、装置 |
CN103873859A (zh) * | 2014-03-26 | 2014-06-18 | 西安电子科技大学 | 基于时空显著性检测的视频融合性能评价方法 |
CN104394403A (zh) * | 2014-11-04 | 2015-03-04 | 宁波大学 | 一种面向压缩失真的立体视频质量客观评价方法 |
US9232216B2 (en) * | 2010-12-10 | 2016-01-05 | Deutsche Telekom Ag | Method and apparatus for assessing the quality of a video signal during encoding and transmission of the video signal |
CN105828064A (zh) * | 2015-01-07 | 2016-08-03 | 中国人民解放军理工大学 | 融合局部和全局时空特性的无参考视频质量评估方法 |
CN105991995A (zh) * | 2015-02-13 | 2016-10-05 | 中国科学院西安光学精密机械研究所 | 基于3d-dct域统计分析的无参考视频质量评价方法 |
CN106303507A (zh) * | 2015-06-05 | 2017-01-04 | 江苏惠纬讯信息科技有限公司 | 基于时空联合信息的无参考视频质量评估方法 |
-
2017
- 2017-07-25 CN CN201710611593.9A patent/CN107318014B/zh active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9232216B2 (en) * | 2010-12-10 | 2016-01-05 | Deutsche Telekom Ag | Method and apparatus for assessing the quality of a video signal during encoding and transmission of the video signal |
CN103458265A (zh) * | 2013-02-01 | 2013-12-18 | 深圳信息职业技术学院 | 一种视频质量评价方法、装置 |
CN103873859A (zh) * | 2014-03-26 | 2014-06-18 | 西安电子科技大学 | 基于时空显著性检测的视频融合性能评价方法 |
CN104394403A (zh) * | 2014-11-04 | 2015-03-04 | 宁波大学 | 一种面向压缩失真的立体视频质量客观评价方法 |
CN105828064A (zh) * | 2015-01-07 | 2016-08-03 | 中国人民解放军理工大学 | 融合局部和全局时空特性的无参考视频质量评估方法 |
CN105991995A (zh) * | 2015-02-13 | 2016-10-05 | 中国科学院西安光学精密机械研究所 | 基于3d-dct域统计分析的无参考视频质量评价方法 |
CN106303507A (zh) * | 2015-06-05 | 2017-01-04 | 江苏惠纬讯信息科技有限公司 | 基于时空联合信息的无参考视频质量评估方法 |
Non-Patent Citations (1)
Title |
---|
朱宏: "基于视觉感知的视频质量客观评价方法研究", 《万方数据知识服务平台》 * |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108900864A (zh) * | 2018-07-23 | 2018-11-27 | 西安电子科技大学 | 基于运动轨迹的全参考视频质量评价方法 |
CN108900864B (zh) * | 2018-07-23 | 2019-12-10 | 西安电子科技大学 | 基于运动轨迹的全参考视频质量评价方法 |
CN109409221A (zh) * | 2018-09-20 | 2019-03-01 | 中国科学院计算技术研究所 | 基于帧选择的视频内容描述方法和系统 |
CN110070282A (zh) * | 2019-04-17 | 2019-07-30 | 国网安徽省电力公司 | 一种基于综合关联度的低压台区线损影响因素分析方法 |
CN110070282B (zh) * | 2019-04-17 | 2023-06-20 | 国网安徽省电力公司 | 一种基于综合关联度的低压台区线损影响因素分析方法 |
CN111784694A (zh) * | 2020-08-20 | 2020-10-16 | 中国传媒大学 | 一种基于视觉注意力机制的无参考视频质量评价方法 |
CN112153370A (zh) * | 2020-08-24 | 2020-12-29 | 清华大学 | 基于群敏感对比回归的视频动作质量评价方法及系统 |
CN112153370B (zh) * | 2020-08-24 | 2021-12-24 | 清华大学 | 基于群敏感对比回归的视频动作质量评价方法及系统 |
CN113742603A (zh) * | 2021-04-19 | 2021-12-03 | 重庆邮电大学 | 一种对象推荐方法、装置、系统及电子设备 |
CN113742603B (zh) * | 2021-04-19 | 2023-09-05 | 重庆邮电大学 | 一种对象推荐方法、装置、系统及电子设备 |
Also Published As
Publication number | Publication date |
---|---|
CN107318014B (zh) | 2018-11-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107318014B (zh) | 基于视觉显著区域和时空特性的视频质量评估方法 | |
CN105208374B (zh) | 一种基于深度学习的无参考图像质量客观评价方法 | |
CN103996192B (zh) | 基于高质量自然图像统计量模型的无参考图像质量评价方法 | |
CN110046673A (zh) | 基于多特征融合的无参考色调映射图像质量评价方法 | |
CN110111256B (zh) | 基于残差蒸馏网络的图像超分辨重建方法 | |
CN105447884A (zh) | 一种基于流形特征相似度的图像质量客观评价方法 | |
CN108074239B (zh) | 一种基于先验感知质量特征图的无参考图像质量客观评价方法 | |
CN108052980A (zh) | 基于图像的空气质量等级检测方法 | |
CN105260998A (zh) | 基于mcmc采样和阈值低秩逼近的图像去噪方法 | |
CN107105223B (zh) | 一种基于全局特征的色调映射图像质量客观评价方法 | |
CN103475897B (zh) | 一种基于失真类型判断的自适应图像质量评价方法 | |
CN106651829B (zh) | 一种基于能量和纹理分析的无参考图像客观质量评价方法 | |
CN102722888A (zh) | 基于生理与心理立体视觉的立体图像客观质量评价方法 | |
Kwon et al. | Distorted representation space characterization through backpropagated gradients | |
Wiedemann et al. | Disregarding the big picture: Towards local image quality assessment | |
CN108259893B (zh) | 基于双流卷积神经网络的虚拟现实视频质量评价方法 | |
CN109754390A (zh) | 一种基于混合视觉特征的无参考图像质量评价方法 | |
CN106960433B (zh) | 一种基于图像熵以及边缘的全参考声纳图像质量评测方法 | |
Tang et al. | Training-free referenceless camera image blur assessment via hypercomplex singular value decomposition | |
CN111105387B (zh) | 基于统计特征视角合成质量预测方法、信息数据处理终端 | |
CN116311088B (zh) | 一种基于建筑工地的施工安全监测方法 | |
CN107203991A (zh) | 一种基于光谱残差的半参考图像质量评价方法 | |
Kong et al. | Full-reference IPTV image quality assessment by deeply learning structural cues | |
CN111325720B (zh) | 一种多视觉特征集成的无参考超分辨图像质量评价方法 | |
CN111127386A (zh) | 一种基于深度学习的图像质量评价方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |