CN103152600A - 一种立体视频质量评价方法 - Google Patents

一种立体视频质量评价方法 Download PDF

Info

Publication number
CN103152600A
CN103152600A CN2013100752032A CN201310075203A CN103152600A CN 103152600 A CN103152600 A CN 103152600A CN 2013100752032 A CN2013100752032 A CN 2013100752032A CN 201310075203 A CN201310075203 A CN 201310075203A CN 103152600 A CN103152600 A CN 103152600A
Authority
CN
China
Prior art keywords
quality
video
max
dimensional video
frequency
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN2013100752032A
Other languages
English (en)
Other versions
CN103152600B (zh
Inventor
李素梅
马辰阳
侯春萍
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tianjin University
Original Assignee
Tianjin University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tianjin University filed Critical Tianjin University
Priority to CN201310075203.2A priority Critical patent/CN103152600B/zh
Publication of CN103152600A publication Critical patent/CN103152600A/zh
Application granted granted Critical
Publication of CN103152600B publication Critical patent/CN103152600B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

一种立体视频质量评价方法,涉及数字视频领域,该方法包括:获取每个子块的梯度结构相似度指标;基于人眼视觉特性,提取每个子块的亮度信息、运动信息和结构信息,进而计算出每个子块的质量权重;结合每个子块的梯度结构相似度指标和质量权重,分别得到左或右视点的单帧质量;通过单帧质量获取单视点视频质量;基于人类立体视觉特性,赋予左或右视点视频质量不同的权重,得到立体视频的质量值;计算原始立体视频和失真立体视频每帧图像的绝对差值图;计算原始视频绝对差值图和失真视频绝对差值图的峰值信噪比,作为立体视频的立体感值。本方法对立体视频质量进行了全面的评估,提高了评估质量。

Description

一种立体视频质量评价方法
技术领域
本发明涉及数字视频领域,特别涉及一种立体视频质量评价方法。
背景技术
近年来数字视频技术得到了蓬勃的发展,立体视频技术也逐渐走入了人们的生活,已经成为了人们日常生活中最关注的信息形式之一。然而,立体视频内容的舒适与否直接关系到观看者的视觉感受与生理健康,这已经成为立体产品迅速普及的主要制约因素,因此,研究影响立体视频舒适度的因素,找到一种可靠、有效的立体视频质量评价方法至关重要。
目前,立体视频质量评价方法大致分为主观评价和客观评价两个方面。主观评价是利用被试者对测试视频质量的直接反映来确定系统的评价方法;但是,主观评价方法耗时长、费用高、稳定性差和可移植性差,不适合实时的视频质量评价。因此,有必要研究一种较主观方法稳定、快速、经济、方便计算机处理和实现的客观质量评价方法。
客观评价目前主流方法有三类,分别为全参考帧(Full-Reference,FR)、半参考帧(Reduced-Reference,RR)和无参考帧(No-Reference,NR)度量模型。目前,国内外对立体视频质量评价方面的研究还很少。经典的平面图像评价方法(例如:PSNR、SSIM、GSSIM)和经典的视频评价方法(例如:VQM)均没有考虑到深度信息,因此不能将其直接运用到立体视频的质量评价中;Jungdong Seo[1]结合人类视觉特性提出了用于评价立体视频质量的指标,但未考虑到视频的时间连续特性;Yan Zhang[2]取各视点质量的均值为立体视频的质量,但这种取平均的方法未必能很好地反映人眼的感知特性;Z.M.Parvez Sazzad[3]、Anish Mittal[4]和Kwangsung Ha[5]分别提出了无参考立体视频质量评价模型,但这些无参考评价模型的建立往往以拥有大量主观实验数据为前提。
现有技术的主要缺点如下:
(1)直接将平面视频质量评价方法应用于立体视频质量评价中,并未考虑到视频的深度特性指标;
(2)直接将平面或立体图像质量评价方法应用于立体视频质量评价中,并未考虑到视频的时间连续性等立体视频特有的属性;
(3)分配立体视频每个视点的质量相同的权重,不符合人类立体视觉特性。
发明内容
本发明提供了一种立体视频质量评价方法,本方法对立体视频质量进行了全面的评估,提高了评估质量,详见下文描述:
一种立体视频质量评价方法,所述方法包括以下步骤:
(1)采用基于梯度的结构相似度算法提取原始视频帧图像X和失真视频帧图像Y的子块平均亮度l(x,y)、子块梯度对比度Cg(x,y)和子块梯度相关系数Sg(x,y),最后得到每个子块的梯度结构相似度指标GSSIM(x,y);
(2)基于人眼视觉特性,提取每个子块的亮度信息、运动信息和结构信息,从而得出亮度权重L、运动权重M和结构权重E,进而计算出每个子块的质量权重wij=Lij·Eij·Mij
(3)结合每个子块的梯度结构相似度指标GSSIMij和质量权重wij,分别得到左或右视点的单帧质量Qi
(4)通过单帧质量Qi获取单视点视频质量Q;
(5)基于人类立体视觉特性,赋予左或右视点视频质量不同的权重,得到立体视频的质量值;
(6)计算原始立体视频和失真立体视频每帧图像的绝对差值图D;
(7)计算原始视频绝对差值图和失真视频绝对差值图的峰值信噪比,作为立体视频的立体感值。
所述基于人类立体视觉特性,赋予左或右视点视频质量不同的权重,得到立体视频的质量值,具体为:
定义Dvalue为左、右视点质量差值的绝对值,当Dvalue≤0.2时,人眼对立体视频质量的感知主要取决于高质量视点;当Dvalue>0.2时,人眼对立体视频质量的感知主要取决于低质量视点。
max为高质量视点的质量值,min为低质量视点的质量值;
当Dvalue≤0.2时,立体视频质量Qq为:
Q q = 0.775 max + 0.225 min 0.9 < max &le; 1.0 0.75 max + 0.25 min 0.8 < max &le; 0.9 0.65 max + 0.35 min 0.7 < max &le; 0.8 0.6 max + 0.4 min 0.6 < max &le; 0.7 0.55 max + 0.45 min 0.5 < max &le; 0.6 0.5 max + 0.5 min 0.0 < max &le; 0.5
当Dvalue>0.2时,立体视频质量Qq为:
Q q = 0.9 min + 0.1 max 0.0 < min &le; 0.4 0.85 min + 0.15 max 0.4 < min &le; 0.5 0.75 min + 0.25 max 0.5 < min &le; 0.6 0.6 min + 0.4 max 0.6 < min &le; 0.7 0.5 min + 0.5 max 0.7 < min &le; 0.8
本发明提供的技术方案的有益效果是:本方法基于运动信息和视差信息对立体视频质量进行全面的评价,考虑到了立体视频的时间连续特性和深度特性。和现有技术中的方法相比,本方法提出模型的质量评价方法和立体感评价方法得到的评价结果均与主观评价结果最接近。因此,本方法能够正确反映立体视频质量和立体感的优劣,更加符合人眼的立体视觉机制。
附图说明
图1为hehua原始视频的左和右视图第一帧;
图2为经H.264压缩后的hehua失真视频的左和右视图第一帧;
图3为fire原始视频的左和右视图第一帧;
图4为经H.264压缩后的fire失真视频的左和右视图第一帧;
图5为woshou原始视频的左和右视图第一帧;
图6为经H.264压缩后的woshou失真视频的左和右视图第一帧;
图7为基于运动信息和视差信息的立体视频质量客观评价模型的结构图;
图8为Sobel算子的垂直方向和水平方向的示意图;
图9为hehua原始视频第一帧的绝对差值图;
图10为经H.264压缩后的hehua失真视频第一帧的绝对差值图;
图11为fire原始视频第一帧的绝对差值图;
图12为经H.264压缩后的fire失真视频第一帧的绝对差值图;
图13为woshou原始视频第一帧的绝对差值图;
图14为经H.264压缩后的woshou失真视频第一帧的绝对差值图;
图15为质量评价算法性能比较的示意图;
图16为DSSIM算法和本专利的立体感评价方法得到的效果图。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚,下面将结合附图对本发明实施方式作进一步地详细描述。
针对现有技术的缺陷,本方法提出了基于运动信息和视差信息的立体视频质量客观评价模型,该模型包含两个评测指标,分别为立体视频质量(VideoQuality Assessment,VQA)和立体视频立体感(Video Stereo Sense Assessment,VSSA)。基于人类视觉特性和立体成像原理,本方法提取了视频的亮度特征、运动特征和结构特征;提取了反映视频深度感的视差特征。该评价模型属于全参考立体视频质量客观评价模型,模型的输入包括原始立体视频和失真立体视频(特别针对经H.264压缩编码的失真立体视频),原始视频和失真视频如图1~6所示。
101:采用基于梯度的结构相似度算法(Gradient-based Structural SimilarityIndex Metric,GSSIM)提取原始视频帧图像X和失真视频帧图像Y的子块平均亮度l(x,y)、子块梯度对比度Cg(x,y)和子块梯度相关系数Sg(x,y),最后得到每个子块的梯度结构相似度指标GSSIM(x,y);
GSSIM(x,y)=[l(x,y)]α·[Cg(x,y)]β·[Sg(x,y)]γ
人眼视觉系统不但能够高度自适应地提取图像中结构信息,而且对图像中的边缘信息非常敏感,因此,GSSIM可以很好地反映图像局部质量,该步骤具体为:
首先,利用Sobel算子(如附图8所示)分别获得原始视频帧图像X和失真视频帧图像Y的梯度模值矩阵X'和Y',计算方法如(1)式(以原始视频帧图像X为例):
X′ab=|dxab|+|dyab|              (1)
其中,dxab和dyab分别表示X第a行、第b列像素的水平梯度和垂直梯度。
然后,将X、Y、X'和Y'分别划分为m个大小为16×16的不重叠子块,用x、y、x'和y'分别表示原始视频帧图像子块、失真视频帧图像子块、原始视频帧的梯度模值图像子块和失真视频帧的梯度模值图像子块,分别计算每个子块的亮度比较函数l(x,y)、梯度对比度函数Cg(x,y)和梯度相关系数Sg(x,y),因此,GSSIM的计算如公式(2):
GSSIM(x,y)=[l(x,y)]α·[Cg(x,y)]β·[Sg(x,y)]γ           (2)
其中,
l ( x , y ) = 2 u x u y + C 1 u x 2 + u y 2 + C 1 - - - ( 3 )
C g ( x , y ) = 2 &sigma; x &prime; &sigma; y &prime; + C 2 &sigma; x &prime; 2 + &sigma; y &prime; 2 + C 2 - - - ( 4 )
S g ( x , y ) = &sigma; x &prime; y &prime; + C 3 &sigma; x &prime; &sigma; y &prime; + C 3 - - - ( 5 )
其中,ux、uy分别代表子块x和子块y的像素均值;σx'、σy'和σx'y'分别代表子块x'和子块y'的像素标准差以及两者的协方差;参数α、β和γ为权重,均大于零;C1、C2和C3是用来避免三个比较函数的分母接近于零时产生不理想结果而设置的。本专利设置参数如下:α=β=γ=1,C1=(K1L)2错误!未找到引用源。,C2=(K2L)2,C3=C2/2,L=255,K1=0.01,K2=0.03错误!未找到引用源。;此时,GSSIM函数可简化如公式(6):
GSSIM ( x , y ) = ( 2 u x u y + C 1 ) ( 2 &sigma; x &prime; y &prime; + C 2 ) ( u x 2 + u y 2 + C 1 ) ( &sigma; x &prime; 2 + &sigma; y &prime; 2 + C 2 ) - - - ( 6 )
102:基于人眼视觉特性,提取每个子块的亮度信息、运动信息和结构信息,从而得出亮度权重L、运动权重M和结构权重E,进而计算出每个子块的质量权重wij=Lij·Eij·Mij
人眼在观看视频时会对某些信息感兴趣,尤其对运动和边缘信息非常敏感,因此,对单帧图像的质量评价采取以下数学模型(以左视点为例):
Q li = &Sigma; j = 1 m w lij &CenterDot; GSSIM lij &Sigma; j = 1 m w lij - - - ( 7 )
其中,Qli表示左视点第i帧的图像质量,m为每帧图像的分块数量,GSSIMlij为左视点第i帧、第j块的基于梯度的结构相似度指标,wlij为左视点第i帧、第j块的权重,且wlij=Llij·Elij·Mlij,Llij、Elij和Mlij分别表示左视点对应子块的亮度信息、结构信息和运动信息的权重。
1)提取亮度特征
人眼在较暗的背景下,视觉会存在对比度掩盖效应,即人眼往往不会关注一幅图像中的灰暗区域。根据这一特性,以单帧图像子块的亮度均值lij作为度量,当lij取值较小时,人眼对此区域的灵敏度下降,赋予该部分较小的亮度权重;反之,赋予较大的权值。权值Lij的选取如(8)式:
L ij = 0 l ij &le; 40 ( l ij - 40 ) / 10 40 < l ij &le; 50 1 l ij > 50 - - - ( 8 )
2)提取结构特征
人眼对图像中的边缘和结构信息非常敏感,而经过高度压缩视频的块边界通常会出现一定的不连续性,即块效应。本方法利用Sobel算子(如附图8所示)来提取单帧图像每个像素Pab的梯度向量{dxab,dyab},从而近似得到梯度幅值AMPab=|dxab|+|dyab|,定义eAMPij为第i帧、第j块的梯度幅值的平均值。为了符合人眼特性,对于梯度幅值较大的子块赋予较大的权值;反之,赋予较小的权值。则第i帧、第j块的结构信息的权重Eij如(9)式:
E ij = 4 eAMP ij &GreaterEqual; 255 2 85 &le; eAMP ij < 255 1 eAMP ij < 85 - - - ( 9 )
3)提取运动特征
运动信息是评价视频质量的重要指标,视频中的运动信息越多,人眼对图像中的细节敏感性越差;反之,人眼对图像中的细节部分就越关注,对视频质量的要求也相对较高。本方法首先采用基于块匹配的全局搜索法提取单帧每一图像块的运动矢量{mxij,myij},从而得到运动模值
Figure BDA00002899558700063
并计算每帧的平均运动信息mai=(∑jmij)/m,然后分三种情况对其权重进行讨论。
①当mai<16时,单帧的运动信息并不多,该帧内只有少部分区域存在运动和变化,这时人眼对运动和变化集中的区域最敏感,于是赋予该区域较大的权值,权值Mij如(10)式:
M ij = 1 m ij &le; 12 2 - ( 20 - m ij ) / 8 12 < m ij &le; 20 2 m ij > 20 - - - ( 10 )
②当mai≥16时,单帧图像运动剧烈,人眼很难分辨出视频中的细节信息。将mij大于50的宏块认为是运动剧烈的宏块,再以运动剧烈的宏块所占整帧宏块的比重为度量指标,若度量指标小于90%,则说明该帧中大部分区域的运动并不非常剧烈,此时人眼会对高速运动的区域非常敏感,于是赋予高速运动宏块较大的权值,权值Mij如(11)式。若度量指标大于90%,说明该帧的运动信息较多,人眼会更关注运动信息较少的区域,从而赋予较少运动信息区域较大的权值,权值Mij如(12)式:
M ij = 1 m ij &le; 45 2 - ( 55 - m ij ) / 10 45 < m ij &le; 55 2 m ij > 55 - - - ( 11 )
M ij = 2 m ij &le; 45 1 + ( 55 - m ij ) / 10 45 < m ij &le; 55 1 m ij > 55 - - - ( 12 )
103:结合每个子块的梯度结构相似度指标GSSIMij和质量权重wij,分别得到左或右视点的单帧质量Qi
Q i = &Sigma; j = 1 m w ij &CenterDot; GSSIM ij &Sigma; j = 1 m w ij - - - ( 13 )
104:通过单帧质量Qi获取单视点视频质量Q;
由于在观看视频时,人眼很容易关注失真严重的帧图像,因此根据单帧图像失真程度(单帧图像质量Qi),赋予不同帧图像以不同的权重Wi,权重选取原则如(14)式:
W i = 0.2 0.8 < Q i &le; 1.0 0.4 0.6 < Q i &le; 0.8 0.6 0.4 < Q i &le; 0.6 0.8 0.2 < Q i &le; 0.4 1.0 0.0 < Q i &le; 0.2 - - - ( 14 )
因此,单视点整段视频质量(以左视点为例)的计算方法如(15)式:
Q l = &Sigma; i = 1 K ( W i &times; Q li ) &Sigma; i = 1 K W i - - - ( 15 )
其中,K为视频段包含的帧数,Qli为左视点视频第i帧的质量,Wi为第i帧的权值。
105:基于人类立体视觉特性,赋予左或右视点视频质量不同的权重,得到立体视频的质量值;
当左、右视点质量不同时,人眼对立体视频质量的感知通常取决于高质量视点,但是,大量的主观实验也表明,当左、右视点质量相差很大时,人眼反而很容易受到失真严重视点的影响,因此,根据人类的视觉特性,本方法提出以左、右视点各自的质量为依据赋予它们不同的权重。
定义Qq为立体视频的质量,max为高质量视点的质量值,min为低质量视点的质量值,Dvalue为左、右视点质量差值的绝对值。当Dvalue≤0.2时,左、右视点质量相差较小,人眼对立体视频质量的感知主要取决于高质量视点,从而赋予高质量视点较大的权重,带有不同权重的立体视频质量Qq如(16)式:
Q q = 0.775 max + 0.225 min 0.9 < max &le; 1.0 0.75 max + 0.25 min 0.8 < max &le; 0.9 0.65 max + 0.35 min 0.7 < max &le; 0.8 0.6 max + 0.4 min 0.6 < max &le; 0.7 0.55 max + 0.45 min 0.5 < max &le; 0.6 0.5 max + 0.5 min 0.0 < max &le; 0.5 - - - ( 16 )
当Dvalue>0.2时,左、右视点质量相差较大,人眼很容易关注质量较差的视点,从而赋予低质量视点较大的权重,则带有不同权重的立体视频质量Qq如(17)式:
Q q = 0.9 min + 0.1 max 0.0 < min &le; 0.4 0.85 min + 0.15 max 0.4 < min &le; 0.5 0.75 min + 0.25 max 0.5 < min &le; 0.6 0.6 min + 0.4 max 0.6 < min &le; 0.7 0.5 min + 0.5 max 0.7 < min &le; 0.8 - - - ( 17 )
通过上述步骤101-105对立体视频质量指标进行了评价。
106:计算原始立体视频和失真立体视频每帧图像的绝对差值图D;
D=|L-R|
(18)
式中L、R和D分别代表左视图、右视图和对应的绝对差值图。
107:计算原始视频绝对差值图和失真视频绝对差值图的峰值信噪比(PeakSignal to Noise Ratio,PSNR),作为立体视频的立体感值。
本发明用于测试的参考视频和经过压缩的失真视频的hehua、fire和woshou的绝对差值图如图9~14;然后,计算参考视频绝对差值图与失真视频绝对差值图的峰值信噪比(式19)来获得整段视频的立体感评价结果(式20)。
Q si = 10 lg 255 2 1 MN &Sigma; m = 1 M &Sigma; n = 1 N [ D xi ( m , n ) - D yi ( m , n ) ] 2 - - - ( 19 )
Q s = 1 K &Sigma; i = 1 K Q si - - - ( 20 )
式中,Qsi为视频第i帧的立体感值,Qs为整段视频的立体感评价结果,式中的Dxi、Dyi分别代表原始视频和失真视频的第i幅绝对差值图,M、N分别代表视频的行数和列数,K代表视频段中包含的帧数。
通过步骤106-107对立体视频立体感指标进行了评价,其中,对立体视频质量指标与立体视频立体感指标的执行顺序不做限制,即步骤101-105的执行顺序在步骤106-107之前、之后或同时进行,本发明实施例对此不做限制。
为了验证本方法所提出的立体视频质量客观评价模型符合人眼立体视觉特性,以及较其它模型的优越性,本方法将该模型的客观质量评价结果和主观实验得出的评价结果进行了比较,下面简单介绍主观实验的实验环境和实验过程:
本方法主观实验采用三段立体视频序列,分别为hehua、fire(选自天津大学宽带无线与立体成像研究所的立体图像与视频库)和woshou(来自HHI立体视频库),将原始视频经过不同程度的H.264压缩编码,生成较原始视频质量降低的若干个失真立体视频。
按照文献[6]中的双重刺激损伤标度DSIS(Double-Stimulus ImpairmentScale)的方法,让26名无立体视经验的被试者(均通过了常规的视力和立体视检查)观看若干对原始视频和失真视频的组合,按照DSIS评分标准对失真视频的质量和立体感分别进行打分,具体的实验环境和实验参数见表1。
表1主观实验环境
实验环境 参数 实验环境 参数
方法 DSIS 显示器型号 3D WINDOWS-19A0
测试序列场景 hehua、fire、woshou 显示器尺寸 19英寸
编码方法 H.264 显示器分辨率 1280*1024
播放速度 25f/s 立体眼镜型号 3DG-L3 polarized
被试者数目 26 观看距离 70cm
测试序列格式 YUV 实验室亮度 亮度极弱
结果验证:
主观和客观评价结果均分为视频质量和立体感两部分,本实施例将本模型的质量评价方法和立体感评价方法分别与经典算法SSIM和文献[7]中的DSSIM(Structural Similarity of Disparity Map)算法进行比较。
图15中横轴为主观评价值,纵轴为客观评价值。其中的理想曲线表示客观评价模型得分与主观测试得分完全一致。通过观察图15可知,本方法所提模型的拟合曲线更靠近理想曲线,这恰恰证明了该模型与人眼立体视觉特性具有更高的一致性。
由图16可知,本方法提出的立体感评价模型得到的数据的线性好于其它模型,即对于具有相同主观分数的不同测试视频,本模型得到的客观评分的离散性和波动性较小。
为了将比较结果进行进一步量化,本方法将主观评价结果与客观评价结果之间的均方根误差(RMSE)作为不同算法间比较的指标,具体见表2。
表2各个立体视频评价算法RMSE性能比较
质量评价算法 RMSE 立体感评价算法 RMSE
SSIM 0.3372 DSSIM 0.3643
本专利所提模型 0.1465 本专利所提模型 0.2302
通过观察和分析图15、图16和表2,不难看出本方法提出模型的质量评价方法和立体感评价方法得到的评价结果均与主观评价结果最接近。因此,本方法能够正确反映立体视频质量和立体感的优劣,更加符合人眼的立体视觉机制。
参考文献:
[1]Jungdong Seo,Donghyun Kim,Kwanghoon Sohn,et al.An objective videoquality metric for compressed stereoscopic video[J].Circuits Syst Signal Process,2012,31(3):1089-1107.
[2]Yan Zhang,Ping An,Yanfei Wu,et al.A multiview video quality assessmentmethod based on disparity and SSIM[C],2010IEEE10th International Conference onSignal Processing,Beijing,China,2010,1044-1047.
[3]Z.M.Parvez Sazzad,S.Yamanaka and Y.Horita.Spatio-temporal segmentationbased continuous no-reference stereoscopic video quality prediction[C],2010secondInternational Workshop on Quality of Multimedia Experience,Trondheim,2010,106-111.
[4]Anish Mittal,Anush K.Moorthy,Joydeep Ghosh,et al.Algorithmic assessment of3D quality of experience for images and videos[C],2011IEEE Digital SignalProcessing Workshop and IEEE Signal Processing Education Workshop(DSP/SPE),Sedona,AZ,2011,338-343.
[5]Kwangsung Ha and Munchurl Kim.A perceptual quality assessment metric usingtemporal complexity and disparity information for stereoscopic video[C],2011 18thIEEE International Conference on Image Processing(ICIP),Brussels,2011,2525-2528.
[6]Recommendation ITU-R BT.500-11:Methodology for the subjective assessmentof the quality of television pictures[S].Geneva,Switzerland:InternationalTelecommunication Union,2002.
[7]Yinghua Shen,Chaohui Lv,Pin Xu,et al.Objective quality assessment of noisedstereoscopic images[C],2011Third International Conference on measuringtechnology and mechatronics automation,Shanghai,China,2011,2,745-747.
本领域技术人员可以理解附图只是一个优选实施例的示意图,上述本发明实施例序号仅仅为了描述,不代表实施例的优劣。
以上所述仅为本发明的较佳实施例,并不用以限制本发明,凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

Claims (3)

1.一种立体视频质量评价方法,其特征在于,从视频质量和视频立体感两个方面综合、全面地评价立体视频,所述方法包括以下步骤:
(1)采用基于梯度的结构相似度算法提取原始视频帧图像X和失真视频帧图像Y的子块平均亮度l(x,y)、子块梯度对比度Cg(x,y)和子块梯度相关系数Sg(x,y),最后得到每个子块的梯度结构相似度指标GSSIM(x,y);
(2)基于人眼视觉特性,提取每个子块的亮度信息、运动信息和结构信息,从而得出亮度权重L、运动权重M和结构权重E,进而计算出每个子块的质量权重wij=Lij·Eij·Mij
(3)结合每个子块的梯度结构相似度指标GSSIMij和质量权重wij,分别得到左或右视点的单帧质量Qi
(4)通过单帧质量Qi获取单视点视频质量Q;
(5)基于人类立体视觉特性,赋予左或右视点视频质量不同的权重,得到立体视频的质量值;
(6)计算原始立体视频和失真立体视频每帧图像的绝对差值图D;
(7)计算原始视频绝对差值图和失真视频绝对差值图的峰值信噪比,作为立体视频的立体感值。
2.根据权利要求1所述的一种立体视频质量评价方法,其特征在于,所述基于人类立体视觉特性,赋予左或右视点视频质量不同的权重,得到立体视频的质量值,具体为:
定义Dvalue为左、右视点质量差值的绝对值,当Dvalue≤0.2时,人眼对立体视频质量的感知主要取决于高质量视点;当Dvalue>0.2时,人眼对立体视频质量的感知主要取决于低质量视点。
3.根据权利要求2所述的一种立体视频质量评价方法,其特征在于,max为高质量视点的质量值,min为低质量视点的质量值;
当Dvalue≤0.2时,立体视频质量Qq为:
Q q = 0.775 max + 0.225 min 0.9 < max &le; 1.0 0.75 max + 0.25 min 0.8 < max &le; 0.9 0.65 max + 0.35 min 0.7 < max &le; 0.8 0.6 max + 0.4 min 0.6 < max &le; 0.7 0.55 max + 0.45 min 0.5 < max &le; 0.6 0.5 max + 0.5 min 0.0 < max &le; 0.5
当Dvalue>0.2时,立体视频质量Qq为:
Q q = 0.9 min + 0.1 max 0.0 < min &le; 0.4 0.85 min + 0.15 max 0.4 < min &le; 0.5 0.75 min + 0.25 max 0.5 < min &le; 0.6 0.6 min + 0.4 max 0.6 < min &le; 0.7 0.5 min + 0.5 max 0.7 < min &le; 0.8 .
CN201310075203.2A 2013-03-08 2013-03-08 一种立体视频质量评价方法 Expired - Fee Related CN103152600B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201310075203.2A CN103152600B (zh) 2013-03-08 2013-03-08 一种立体视频质量评价方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201310075203.2A CN103152600B (zh) 2013-03-08 2013-03-08 一种立体视频质量评价方法

Publications (2)

Publication Number Publication Date
CN103152600A true CN103152600A (zh) 2013-06-12
CN103152600B CN103152600B (zh) 2015-04-08

Family

ID=48550433

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201310075203.2A Expired - Fee Related CN103152600B (zh) 2013-03-08 2013-03-08 一种立体视频质量评价方法

Country Status (1)

Country Link
CN (1) CN103152600B (zh)

Cited By (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103780895A (zh) * 2014-01-16 2014-05-07 天津大学 一种立体视频质量评价方法
CN103873855A (zh) * 2014-02-26 2014-06-18 天津大学 一种基于人类视觉基本特性的立体图像客观质量评价方法
CN103873866A (zh) * 2014-03-18 2014-06-18 天津大学 多视点立体视频在丢包网络中的GGoP级失真递归方法
CN104159104A (zh) * 2014-08-29 2014-11-19 电子科技大学 基于多级梯度相似的全参考视频质量评估方法
CN104361583A (zh) * 2014-10-27 2015-02-18 浙江科技学院 一种非对称失真立体图像客观质量评价方法
CN104851098A (zh) * 2015-05-22 2015-08-19 天津大学 基于改进结构相似度的立体图像质量客观评价方法
CN104853183A (zh) * 2015-05-22 2015-08-19 天津大学 感知立体图像立体感的客观评价方法
CN104883577A (zh) * 2015-05-26 2015-09-02 吉林大学 一种基于视差变化连续性调节的立体视频舒适度增强方法
CN105049838A (zh) * 2015-07-10 2015-11-11 天津大学 一种用于压缩立体视频质量的客观评价方法
CN105976351A (zh) * 2016-03-31 2016-09-28 天津大学 基于中央偏移的立体图像质量评价方法
CN106291960A (zh) * 2016-10-25 2017-01-04 南京大学 能多距离观看的立体视检查方法和装置
CN106683072A (zh) * 2015-11-09 2017-05-17 上海交通大学 一种基于pup图的3d图像舒适度质量评价方法及系统
CN106713741A (zh) * 2016-11-16 2017-05-24 深圳六滴科技有限公司 全景视频的质量诊断方法及装置
CN107492085A (zh) * 2017-07-20 2017-12-19 天津大学 基于双树复小波变换的立体图像质量评价方法
CN108230314A (zh) * 2018-01-03 2018-06-29 天津师范大学 一种基于深度激活池化的图像质量评估方法
CN108470336A (zh) * 2018-03-29 2018-08-31 天津大学 基于堆栈式自动编码器的立体图像质量评价方法
CN108682005A (zh) * 2018-04-25 2018-10-19 西北工业大学 基于协方差矩阵特征的半参考3d合成图像质量评价方法
CN108984722A (zh) * 2018-07-10 2018-12-11 北京奇艺世纪科技有限公司 一种视频搜索方法及装置
CN109905694A (zh) * 2017-12-08 2019-06-18 中移(杭州)信息技术有限公司 一种立体视频的质量评价方法、装置和设备
CN110398902A (zh) * 2019-06-19 2019-11-01 上海机电工程研究所 光电信号仿真误差分析方法
CN115209121A (zh) * 2022-07-14 2022-10-18 江苏龙威中科技术有限公司 一种具有智能集成功能的全范围仿真系统及方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101872479A (zh) * 2010-06-09 2010-10-27 宁波大学 一种立体图像客观质量评价方法
CN102170581A (zh) * 2011-05-05 2011-08-31 天津大学 基于hvs的ssim与特征匹配立体图像质量评价方法
CN102750695A (zh) * 2012-06-04 2012-10-24 清华大学 一种基于机器学习的立体图像质量客观评价方法
CN102930528A (zh) * 2012-09-24 2013-02-13 宁波大学 一种基于三维结构相似度的立体图像质量客观评价方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101872479A (zh) * 2010-06-09 2010-10-27 宁波大学 一种立体图像客观质量评价方法
CN102170581A (zh) * 2011-05-05 2011-08-31 天津大学 基于hvs的ssim与特征匹配立体图像质量评价方法
CN102750695A (zh) * 2012-06-04 2012-10-24 清华大学 一种基于机器学习的立体图像质量客观评价方法
CN102930528A (zh) * 2012-09-24 2013-02-13 宁波大学 一种基于三维结构相似度的立体图像质量客观评价方法

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
JIACHEN YANG: "Objective quality assessment method of stereo images", 《3DTV CONFERENCE: THE TRUE VISION-CAPTURE,TRANSMISSION AND DISPLAY OF 3D VIDEO,2009》, 6 May 2009 (2009-05-06) *
卫津津: "基于可控金字塔的立体图像质量评价方法", 《计算机应用》, 1 March 2012 (2012-03-01) *
杨嘉琛: "基于 PSNR 立体图像质量客观评价方法", 《天津大学学报》, vol. 41, no. 12, 31 December 2008 (2008-12-31) *
杨嘉琛: "基于人眼视觉特征的立体图像质量客观评价方法", 《天津大学学报》, vol. 42, no. 7, 31 July 2009 (2009-07-31) *

Cited By (32)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103780895A (zh) * 2014-01-16 2014-05-07 天津大学 一种立体视频质量评价方法
CN103780895B (zh) * 2014-01-16 2015-11-04 天津大学 一种立体视频质量评价方法
CN103873855B (zh) * 2014-02-26 2016-08-17 天津大学 一种基于人类视觉基本特性的立体图像客观质量评价方法
CN103873855A (zh) * 2014-02-26 2014-06-18 天津大学 一种基于人类视觉基本特性的立体图像客观质量评价方法
CN103873866A (zh) * 2014-03-18 2014-06-18 天津大学 多视点立体视频在丢包网络中的GGoP级失真递归方法
CN104159104A (zh) * 2014-08-29 2014-11-19 电子科技大学 基于多级梯度相似的全参考视频质量评估方法
CN104361583A (zh) * 2014-10-27 2015-02-18 浙江科技学院 一种非对称失真立体图像客观质量评价方法
CN104851098A (zh) * 2015-05-22 2015-08-19 天津大学 基于改进结构相似度的立体图像质量客观评价方法
CN104853183A (zh) * 2015-05-22 2015-08-19 天津大学 感知立体图像立体感的客观评价方法
CN104883577B (zh) * 2015-05-26 2018-04-27 吉林大学 一种基于视差变化连续性调节的立体视频舒适度增强方法
CN104883577A (zh) * 2015-05-26 2015-09-02 吉林大学 一种基于视差变化连续性调节的立体视频舒适度增强方法
CN105049838A (zh) * 2015-07-10 2015-11-11 天津大学 一种用于压缩立体视频质量的客观评价方法
CN106683072A (zh) * 2015-11-09 2017-05-17 上海交通大学 一种基于pup图的3d图像舒适度质量评价方法及系统
CN105976351B (zh) * 2016-03-31 2019-04-12 天津大学 基于中央偏移的立体图像质量评价方法
CN105976351A (zh) * 2016-03-31 2016-09-28 天津大学 基于中央偏移的立体图像质量评价方法
CN106291960A (zh) * 2016-10-25 2017-01-04 南京大学 能多距离观看的立体视检查方法和装置
CN106713741A (zh) * 2016-11-16 2017-05-24 深圳六滴科技有限公司 全景视频的质量诊断方法及装置
CN107492085B (zh) * 2017-07-20 2021-01-15 天津大学 基于双树复小波变换的立体图像质量评价方法
CN107492085A (zh) * 2017-07-20 2017-12-19 天津大学 基于双树复小波变换的立体图像质量评价方法
CN109905694A (zh) * 2017-12-08 2019-06-18 中移(杭州)信息技术有限公司 一种立体视频的质量评价方法、装置和设备
CN109905694B (zh) * 2017-12-08 2020-09-08 中移(杭州)信息技术有限公司 一种立体视频的质量评价方法、装置和设备
CN108230314A (zh) * 2018-01-03 2018-06-29 天津师范大学 一种基于深度激活池化的图像质量评估方法
CN108230314B (zh) * 2018-01-03 2022-01-28 天津师范大学 一种基于深度激活池化的图像质量评估方法
CN108470336A (zh) * 2018-03-29 2018-08-31 天津大学 基于堆栈式自动编码器的立体图像质量评价方法
CN108470336B (zh) * 2018-03-29 2021-06-29 天津大学 基于堆栈式自动编码器的立体图像质量评价方法
CN108682005A (zh) * 2018-04-25 2018-10-19 西北工业大学 基于协方差矩阵特征的半参考3d合成图像质量评价方法
CN108682005B (zh) * 2018-04-25 2021-06-18 西北工业大学 基于协方差矩阵特征的半参考3d合成图像质量评价方法
CN108984722A (zh) * 2018-07-10 2018-12-11 北京奇艺世纪科技有限公司 一种视频搜索方法及装置
CN110398902A (zh) * 2019-06-19 2019-11-01 上海机电工程研究所 光电信号仿真误差分析方法
CN110398902B (zh) * 2019-06-19 2021-09-24 上海机电工程研究所 光电信号仿真误差分析方法
CN115209121A (zh) * 2022-07-14 2022-10-18 江苏龙威中科技术有限公司 一种具有智能集成功能的全范围仿真系统及方法
CN115209121B (zh) * 2022-07-14 2024-03-15 江苏龙威中科技术有限公司 一种具有智能集成功能的全范围仿真系统及方法

Also Published As

Publication number Publication date
CN103152600B (zh) 2015-04-08

Similar Documents

Publication Publication Date Title
CN103152600A (zh) 一种立体视频质量评价方法
CN103763552B (zh) 基于视觉感知特性的立体图像无参考质量评价方法
CN105338343B (zh) 一种基于双目感知的无参考立体图像质量评价方法
Urvoy et al. NAMA3DS1-COSPAD1: Subjective video quality assessment database on coding conditions introducing freely available high quality 3D stereoscopic sequences
Maalouf et al. CYCLOP: A stereo color image quality assessment metric
Ma et al. Reorganized DCT-based image representation for reduced reference stereoscopic image quality assessment
Mittal et al. Algorithmic assessment of 3D quality of experience for images and videos
US8953873B2 (en) Method for objectively evaluating quality of stereo image
CN103780895B (zh) 一种立体视频质量评价方法
CN105049838B (zh) 一种用于压缩立体视频质量的客观评价方法
CN106875389B (zh) 基于运动显著性的立体视频质量评价方法
CN104394403B (zh) 一种面向压缩失真的立体视频质量客观评价方法
CN107578403A (zh) 基于梯度信息指导双目视图融合的立体图像质量评价方法
CN109345502B (zh) 一种基于视差图立体结构信息提取的立体图像质量评价方法
CN104079925A (zh) 基于视觉感知特性的超高清视频图像质量客观评价方法
CN102523477A (zh) 一种基于双目最小可辨失真模型的立体视频质量评价方法
Han et al. Stereoscopic video quality assessment model based on spatial-temporal structural information
Tsai et al. Quality assessment of 3D synthesized views with depth map distortion
CN104853175B (zh) 一种新的合成虚拟视点客观质量评价方法
Jin et al. Validation of a new full reference metric for quality assessment of mobile 3DTV content
CN103716615A (zh) 基于样本学习和深度图像传播的2d视频立体化方法
Wan et al. Depth perception assessment of 3D videos based on stereoscopic and spatial orientation structural features
Yasakethu et al. Predicting sensation of depth in 3D video
CN108848365B (zh) 一种重定位立体图像质量评价方法
Opozda et al. The survey of subjective and objective methods for quality assessment of 2D and 3D images

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20150408

CF01 Termination of patent right due to non-payment of annual fee