CN104394403A - 一种面向压缩失真的立体视频质量客观评价方法 - Google Patents

一种面向压缩失真的立体视频质量客观评价方法 Download PDF

Info

Publication number
CN104394403A
CN104394403A CN201410612196.XA CN201410612196A CN104394403A CN 104394403 A CN104394403 A CN 104394403A CN 201410612196 A CN201410612196 A CN 201410612196A CN 104394403 A CN104394403 A CN 104394403A
Authority
CN
China
Prior art keywords
pixel
picture
frame stereo
dis
visual point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201410612196.XA
Other languages
English (en)
Other versions
CN104394403B (zh
Inventor
蒋刚毅
宋洋
朱宏
刘姗姗
吕亚奇
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sanlian Life Media Co ltd
Original Assignee
Ningbo University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ningbo University filed Critical Ningbo University
Priority to CN201410612196.XA priority Critical patent/CN104394403B/zh
Publication of CN104394403A publication Critical patent/CN104394403A/zh
Application granted granted Critical
Publication of CN104394403B publication Critical patent/CN104394403B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

本发明公开了一种面向压缩失真的立体视频质量客观评价方法,其将立体视频质量分为左右视点质量和深度感知质量两部分,在左右视点质量评价部分,考虑到视频图像受到压缩失真会产生块效应和模糊的特点,提取梯度信息作为图像特征,同时考虑到人眼的时空域视觉特性,从而得到左视点质量和右视点质量;在深度感知质量评价部分,通过三维小波变换提取三维视差空间图中的低频成分,并将其质量作为立体视频的深度感知质量;最后,将左视点质量、右视点质量和深度感知质量相结合,得到最终的失真立体视频质量;优点是从左右视点平面视频质量的角度和立体视频深度感的角度完成对立体视频的客观质量评价,有效地提高了客观评价结果与主观感知之间的相关性。

Description

一种面向压缩失真的立体视频质量客观评价方法
技术领域
本发明涉及一种视频质量评价方法,尤其是涉及一种面向压缩失真的立体视频质量客观评价方法。 
背景技术
随着视频编码技术和显示技术的迅速发展,各类视频系统得到了越来越广泛的应用和关注,并逐渐成为了信息处理领域的研究重点。而立体视频由于其突出的观看感受,更是越来越多的得到了人们的青睐,其相关技术的应用已经大量的融入到了当前的社会生活中,例如立体电视、立体电影、裸眼3D等。然而,在立体视频的采集、压缩、编码、传输、显示等过程中会因为一系列不可控制的因素而不可避免地引入不同程度和类型的失真。因此,如何准确有效地度量视频质量对于各类视频系统的发展起到了重要的推动作用。 
立体视频质量评价可分为主观评价和客观评价两大类,而当前立体视频质量评价领域的关键在于如何建立一种准确有效的客观评价模型来评价立体视频客观质量。目前,大多数立体视频质量客观评价方法只是简单的将平面视频的质量评价方法分别用于左视点视频和右视点视频质量的评价,这类方法没有很好地处理视点间的关系,也没有考虑到立体视频中深度感知对于立体视频质量的影响,因此客观评价结果准确性较差。也有部分方法虽然考虑到了双目之间的关系,但左视点与右视点之间的加权处理不合理,难以准确地描述人眼对于立体视频的感知特性,且目前大部分对立体视频质量评价的时域加权处理只是简单的平均加权,而事实上,人眼对立体视频的时域感知并非只是简单的平均加权。综上,现有的立体视频质量客观评价方法并不能准确地反映人眼感知特性,客观评价结果不够准确。 
发明内容
本发明所要解决的技术问题是提供一种面向压缩失真的立体视频质量客观评价方法,其能够有效地提高客观评价结果与主观感知之间的相关性。 
本发明解决上述技术问题所采用的技术方案为:一种面向压缩失真的立体视频质量客观评价方法,其特征在于包括以下步骤: 
①令Vorg表示原始的无失真的立体视频,令Vdis表示待评价的失真的立体视频,将Vorg中的第f帧立体图像记为的左视点图像和右视点图像对应记为将Vdis中的第f帧立体图像记为的左视点图像和右视点图像对应记为和 其中,1≤f≤Nf,Nf表示Vorg和Vdis各自所包含的立体图像的数量; 
②利用水平Sobel算子,计算Vorg中的每帧立体图像的左视点图像的水平梯度图,将 的水平梯度图记为同样,利用水平Sobel算子,计算Vdis中的每帧立体图像的左视点图像的水平梯度图,将的水平梯度图记为
并,利用垂直Sobel算子,计算Vorg中的每帧立体图像的左视点图像的垂直梯度图,将的垂直梯度图记为同样,利用垂直Sobel算子,计算Vdis中的每帧立体图像的左视点图像的垂直梯度图,将的垂直梯度图记为
③计算Vorg中的每帧立体图像的左视点图像中的每个像素点的梯度场,将中坐标位置为(u,v)的像素点的梯度场记为 G L , org f ( u , v ) = ( Gh L , org f ( u , v ) ) 2 + ( Gv L , org f ( u , v ) ) 2 ;
同样,计算Vdis中的每帧立体图像的左视点图像中的每个像素点的梯度场,将中坐标位置为(u,v)的像素点的梯度场记为 G L , dis f ( u , v ) = ( Gh L , dis f ( u , v ) ) 2 + ( Gv L , dis f ( u , v ) ) 2 ;
其中,u表示像素点的水平坐标位置,v表示像素点的垂直坐标位置,1≤u≤U,1≤v≤V,U表示Vorg和Vdis中的立体图像水平方向上的像素点的数量,V表示Vorg和Vdis中的立体图像垂直方向上的像素点的数量,表示中坐标位置为(u,v)的像素点的像素值,表示中坐标位置为(u,v)的像素点的像素值, 表示中坐标位置为(u,v)的像素点的像素值,表示中坐标位置为(u,v)的像素点的像素值; 
④根据Vorg中的每帧立体图像的左视点图像中的每个像素点的梯度场和Vdis中对应的一帧立体图像的左视点图像中对应坐标位置的像素点的梯度场,确定Vorg中的每帧立体图像的左视点图像中的每个像素点为显著点还是为非显著点,同时确定Vdis中的每帧立体图像的左视点图像中的每个像素点为显著点还是为非显著点,然后获取Vorg中的每帧立体图像的左视点图像的显著点图和Vdis中的每帧立体图像的左视点图像的显著点图,将的显著点图记为的显著点图记为
⑤计算Vorg中的每帧立体图像的左视点图像的显著点图与Vdis中对应的一帧立体图像的左视点图像的显著点图之间的差值图,将之间的差值图记为 然后利用恰可觉察失真模型,根据Vorg中的每帧立体图像的左视点图像的显著点图与Vdis中对应的一帧立体图像的左视点图像的显著点图之间的差值图,确定Vorg中的每帧立体图像的左视点图像中的每个像素点为可见失真点还是为不可见失真点,同时确定Vdis中的每帧立体图像的左视点图像中的每个像素点为可见失真点还是为不可见失真点;其中,符号“||”为取绝对值符号; 
⑥将Vorg中的每帧立体图像的左视点图像中的所有可见失真点构成该帧立体图像的左视点图像的感兴趣区域,将Vorg中的每帧立体图像的左视点图像中的所有不可见失真点构成该帧立体图像的左视点图像的不感兴趣区域,将的感兴趣区域记为 中的所有可见失真点构成,将的不感兴趣区域记为中的所有不可见失真点构成; 
同样,将Vdis中的每帧立体图像的左视点图像中的所有可见失真点构成该帧立体图像的左视点图像的感兴趣区域,将Vdis中的每帧立体图像的左视点图像中的所有不可见 失真点构成该帧立体图像的左视点图像的不感兴趣区域,将的感兴趣区域记为 中的所有可见失真点构成,将的不感兴趣区域记为中的所有不可见失真点构成; 
⑦根据Vorg中的每帧立体图像的左视点图像的感兴趣区域与Vdis中对应的一帧立体图像的左视点图像的感兴趣区域,计算Vdis中的每帧立体图像的左视点图像的感兴趣区域质量,将的感兴趣区域质量记为 其中,SSIM()为结构相似度计算函数; 
同样,根据Vorg中的每帧立体图像的左视点图像的不感兴趣区域与Vdis中对应的一帧立体图像的左视点图像的不感兴趣区域,计算Vdis中的每帧立体图像的左视点图像的不感兴趣区域质量,将的不感兴趣区域质量记为
⑧计算Vdis中的每帧立体图像的左视点图像相对于Vorg中对应的一帧立体图像的左视点图像的初级质量,将相对于的初级质量记为 然后计算Vdis中的每帧立体图像的左视点图像相对于Vorg中对应的一帧立体图像的左视点图像的最终质量,将相对于的最终质量记为 再计算Vdis的左视点质量,记为QL, 其中,λ为感知加权因子,表示Vdis中的第f-1帧立体图像的左视点图像相对于Vorg中的第f-1帧立体图像的左视点图像的初级质量,a-表示相对于 下降时的下降质量调节因子,a+表示相对于上升时的上升质量调节因子, 表示之间的差异, d q f = q L ′ f - q L ′ f - 1 , d q f = q L ′ f - 1 - q L ′ f - 2 中2≤f≤Nf; 
⑨按照步骤②至步骤⑧的操作,以相同的操作方式对Vorg中的每帧立体图像的右视 点图像和Vdis中的每帧立体图像的右视点图像进行处理,获取Vdis的右视点质量,记为QR; 
⑩根据QL和QR,计算Vdis相对于Vorg的左右视点质量,记为QLR,QLR=ws×QL+(1-ws)×QR,其中,ws表示QL在QLR中所占的权重; 
获取Vorg中的每帧立体图像的三维视差空间图,将的三维视差空间图记为  DSI org f ( u , v , d ) = | | L org f ( u , v ) - R org f ( u - d , v ) | | 2 , 其中,表示中坐标位置为(u,v)的像素点在视差偏移量为d时的视差空间值,d取[1,dmax]中的所有整数,dmax为最大视差搜索范围,符号“|| ||”为欧氏距离计算符号,表示中坐标位置为(u,v)的像素点的像素值,表示中坐标位置为(u-d,v)的像素点的像素值,为U×V×dmax的三维矩阵; 
同样,获取Vdis中的每帧立体图像的三维视差空间图,将的三维视差空间图记为  DSI dis f ( u , v , d ) = | | L dis f ( u , v ) - R dis f ( u - d , v ) | | 2 , 其中,表示中坐标位置为(u,v)的像素点在视差偏移量为d时的视差空间值,d取[1,dmax]中的所有整数,dmax为最大视差搜索范围,符号“|| ||”为欧氏距离计算符号,表示中坐标位置为(u,v)的像素点的像素值,表示中坐标位置为(u-d,v)的像素点的像素值,为U×V×dmax的三维矩阵; 
对Vorg中的每帧立体图像的三维视差空间图进行一级三维小波变换,得到Vorg中的每帧立体图像对应的八组子带矩阵,然后将Vorg中的每帧立体图像对应的最低频的一组子带矩阵作为该帧立体图像的低频视差空间图,将的低频视差空间图记为 其中,的三维矩阵; 
同样,对Vdis中的每帧立体图像的三维视差空间图进行一级三维小波变换,得到Vdis中的每帧立体图像对应的八组子带矩阵,然后将Vdis中的每帧立体图像对应的最低频的 一组子带矩阵作为该帧立体图像的低频视差空间图,将的低频视差空间图记为 其中,的三维矩阵; 
根据Vorg中的每帧立体图像的低频视差空间图和Vdis中对应的一帧立体图像的低频视差空间图,计算Vdis中的每帧立体图像相对于Vorg中对应的一帧立体图像的深度感知质量,将相对于的深度感知质量记为 Q depth f = SSIM ( LLL org DSI , f , LLL dis DSI , f ) , 其中,SSIM()为结构相似度计算函数; 
根据Vdis中的每帧立体图像相对于Vorg中对应的一帧立体图像的深度感知质量,计算Vdis相对于Vorg的深度感知质量,记为Qd
根据QLR和Qd,计算Vdis相对于Vorg的失真立体视频质量,记为Q,Q=wLR×QLR+(1-wLR)×Qd,其中,wLR为QLR在Q中所占的权重。 
所述的步骤④中的获取过程为: 
④-1、确定中的每个像素点和中的每个像素点为显著点还是为非显著点,对于中坐标位置为(u,v)的像素点和中坐标位置为(u,v)的像素点,比较分别与显著性阈值T的大小,如果大于T且小于或等于T,或小于或等于T且大于T,或大于T且大于T,则判定中坐标位置为(u,v)的像素点和中坐标位置为(u,v)的像素点均为显著点;如果小于或等于T且小于或等于T,则判定中坐标位置为(u,v)的像素点和中坐标位置为(u,v)的像素点均为非显著点; 
④-2、获取的显著点图,记为中坐标位置为(u,v)的像素点的像素值记为如果中坐标位置为(u,v)的像素点为显著点,则将中坐标位 置为(u,v)的像素点的像素值赋值给如果中坐标位置为(u,v)的像素点为非显著点,则将置为0; 
同样,获取的显著点图,记为中坐标位置为(u,v)的像素点的像素值记为如果中坐标位置为(u,v)的像素点为显著点,则将中坐标位置为(u,v)的像素点的像素值赋值给如果中坐标位置为(u,v)的像素点为非显著点,则将置为0。 
所述的步骤④-1中显著性阈值T的取值为T=0.12×max(Po),其中,max()为取最大值函数,Po中的所有像素点的梯度场构成的集合。 
所述的步骤⑤中对于中的每个像素点为可见失真点还是为不可见失真点的判定过程为: 
⑤-1、计算中坐标位置相同的像素点的恰可觉察失真模型,将中坐标位置为(u,v)的像素点的恰可觉察失真模型记为JNDs(u,v),JNDs(u,v)=JNDl(u,v)+JNDt(u,v)-0.2×min(JNDl(u,v),JNDt(u,v)),其中,JNDl(u,v)表示中坐标位置为(u,v)的像素点的亮度恰可觉察失真模型,JNDt(u,v)表示中坐标位置为(u,v)的像素点的纹理恰可觉察失真模型,min()为取最小值函数; 
⑤-2、根据中坐标位置相同的像素点的恰可觉察失真模型及中的每个像素点的像素值,确定中的每个像素点为可见失真点还是为不可见失真点,对于中坐标位置为(u,v)的像素点和中坐标位置为(u,v)的像素点,如果中坐标位置为(u,v)的像素点的像素值大于JNDs(u,v),则判定中坐标位置为(u,v)的像素点和中坐标位置为(u,v)的像素点均为可见失真点;如果中坐标位置为(u,v)的像素点的像素值小于或等于JNDs(u,v),则判定中坐标位置为(u,v)的像素点和中坐标位置为(u,v)的像素点均为不可见失真点。 
所述的步骤⑧中感知加权因子λ的取值为其中,ωI为感兴趣区域的加权系数,ωNI为不感兴趣区域的加权系数, SI为感兴趣区域的面积,其大小为可见失真点的个数,SNI为不感兴趣区域的面积,其大小为不可见失真点的个数。 
所述的步骤⑧中取a-=0.04,a+=0.5。 
所述的步骤⑩中取ws=0.7。 
所述的步骤中取wLR=0.3。 
与现有技术相比,本发明的优点在于: 
1)本发明方法将立体视频质量分为左右视点质量和深度感知质量两部分,分别从左右视点平面视频质量的角度和立体视频深度感的角度完成对立体视频的客观质量评价,因此有效地提高了客观评价结果与主观感知之间的相关性。 
2)本发明方法根据视频压缩失真的特点,提取梯度信息作为图像特征,可以有效地度量视频图像在压缩时产生的块效应以及模糊等失真现象对于视频图像的改变程度,因而能够更准确评价视频图像质量。 
3)本发明方法通过构建立体图像的三维视差空间图来体现立体视频的深度感知,从而避免了视差求取不准确的问题,同时利用三维小波变换(3D-DWT)提取三维视差空间图的主要特征频率成分,因此可以更准确地评价立体视频的深度感知质量。 
4)本发明方法在评价立体视频质量的过程中,由于充分考虑到了人眼对立体视频的感知特性,分别通过显著点图的提取、时域不对称加权以及左右视点加权等方法模拟了视觉关注度、时域掩蔽效应、立体掩蔽效应等感知特性,因此使得该立体视频质量评价方法更加符合人眼的主观感知。 
附图说明
图1为本发明方法的总体实现框图。 
具体实施方式
以下结合附图实施例对本发明作进一步详细描述。 
本发明提出的一种面向压缩失真的立体视频质量客观评价方法,其将立体视频质量评价分为左右视点质量评价和深度感知质量评价两部分;在左右视点质量评价部分,本发明方法考虑压缩失真的特点,利用梯度信息作为视频图像特征,同时考虑到视觉关注度、时域感知等视觉特征,从而完成对左右视点视频质量的评价;在深度感知质量评价部分,本发明方法通过构建立体图像的三维视差空间图,利用三维小波变换提取三维视差空间图中的低频成分,通过评价低频成分获得深度感知质量,最后将左右视点质量和深度感知质量线性组合得到最终的立体视频质量。本发明的面向压缩失真的立体视频质量客观评价方法的总体实现框图如图1所示,其包括以下步骤: 
①令Vorg表示原始的无失真的立体视频,令Vdis表示待评价的失真的立体视频,将Vorg中的第f帧立体图像记为的左视点图像和右视点图像对应记为将Vdis中的第f帧立体图像记为的左视点图像和右视点图像对应记为和 其中,1≤f≤Nf,Nf表示Vorg和Vdis各自所包含的立体图像的数量。 
②利用水平Sobel算子,计算Vorg中的每帧立体图像的左视点图像的水平梯度图,将 的水平梯度图记为同样,利用水平Sobel算子,计算Vdis中的每帧立体图像的左视点图像的水平梯度图,将的水平梯度图记为
并,利用垂直Sobel算子,计算Vorg中的每帧立体图像的左视点图像的垂直梯度图,将的垂直梯度图记为同样,利用垂直Sobel算子,计算Vdis中的每帧立体图像的左视点图像的垂直梯度图,将的垂直梯度图记为
③计算Vorg中的每帧立体图像的左视点图像中的每个像素点的梯度场,将中坐标位置为(u,v)的像素点的梯度场记为 G L , org f ( u , v ) = ( Gh L , org f ( u , v ) ) 2 + ( Gv L , org f ( u , v ) ) 2 .
同样,计算Vdis中的每帧立体图像的左视点图像中的每个像素点的梯度场,将中坐标位置为(u,v)的像素点的梯度场记为 G L , dis f ( u , v ) = ( Gh L , dis f ( u , v ) ) 2 + ( Gv L , dis f ( u , v ) ) 2 .
其中,u表示像素点的水平坐标位置,v表示像素点的垂直坐标位置,1≤u≤U,1≤v≤V,U表示Vorg和Vdis中的立体图像水平方向上的像素点的数量,V表示Vorg和Vdis中的立体图像垂直方向上的像素点的数量,表示中坐标位置为(u,v)的像素点的像素值,表示中坐标位置为(u,v)的像素点的像素值, 表示中坐标位置为(u,v)的像素点的像素值,表示中坐标位置为(u,v)的像素点的像素值。 
④根据Vorg中的每帧立体图像的左视点图像中的每个像素点的梯度场和Vdis中对应的一帧立体图像的左视点图像中对应坐标位置的像素点的梯度场,确定Vorg中的每帧立体图像的左视点图像中的每个像素点为显著点还是为非显著点,同时确定Vdis中的每帧立体图像的左视点图像中的每个像素点为显著点还是为非显著点,然后获取Vorg中的每帧立体图像的左视点图像的显著点图和Vdis中的每帧立体图像的左视点图像的显著点图,将的显著点图记为的显著点图记为
在此具体实施例中,步骤④中的获取过程为: 
④-1、确定中的每个像素点和中的每个像素点为显著点还是为非显著点,对于中坐标位置为(u,v)的像素点和中坐标位置为(u,v)的像素点,比较分别与显著性阈值T的大小,如果大于T且小于或等于T,或小于或等于T且大于T,或大于T且大于T,则判定中坐标位置为(u,v)的像素点和中坐标位置为(u,v)的像素点均为显著点;如果小于或等于T且小于或等于T,则判定中坐标位置为(u,v)的像素点和中坐标位置为(u,v)的像素点均为非显著点。 
在此,显著性阈值T的取值为T=0.12×max(Po),其中,max()为取最大值函数, Po中的所有像素点的梯度场构成的集合。 
④-2、获取的显著点图,记为中坐标位置为(u,v)的像素点的像素值记为如果中坐标位置为(u,v)的像素点为显著点,则将中坐标位置为(u,v)的像素点的像素值赋值给如果中坐标位置为(u,v)的像素点为非显著点,则将置为0。 
同样,获取的显著点图,记为中坐标位置为(u,v)的像素点的像素值记为如果中坐标位置为(u,v)的像素点为显著点,则将中坐标位置为(u,v)的像素点的像素值赋值给如果中坐标位置为(u,v)的像素点为非显著点,则将置为0。 
⑤计算Vorg中的每帧立体图像的左视点图像的显著点图与Vdis中对应的一帧立体图像的左视点图像的显著点图之间的差值图,将之间的差值图记为 然后利用恰可觉察失真模型,根据Vorg中的每帧立体图像的左视点图像的显著点图与Vdis中对应的一帧立体图像的左视点图像的显著点图之间的差值图,确定Vorg中的每帧立体图像的左视点图像中的每个像素点为可见失真点还是为不可见失真点,同时确定Vdis中的每帧立体图像的左视点图像中的每个像素点为可见失真点还是为不可见失真点;其中,符号“||”为取绝对值符号。 
在此具体实施例中,步骤⑤中对于中的每个像素点为可见失真点还是为不可见失真点的判定过程为: 
⑤-1、计算中坐标位置相同的像素点的恰可觉察失真模型,将中坐标位置为(u,v)的像素点的恰可觉察失真模型记为JNDs(u,v),JNDs(u,v)=JNDl(u,v)+JNDt(u,v)-0.2×min(JNDl(u,v),JNDt(u,v)),其中,JNDl(u,v)表示中坐标位置为(u,v)的像素点的亮度恰可觉察失真模型,JNDt(u,v)表示 和中坐标位置为(u,v)的像素点的纹理恰可觉察失真模型,min()为取最小值函数。 
⑤-2、根据中坐标位置相同的像素点的恰可觉察失真模型及中的每个像素点的像素值,确定中的每个像素点为可见失真点还是为不可见失真点,对于中坐标位置为(u,v)的像素点和中坐标位置为(u,v)的像素点,如果中坐标位置为(u,v)的像素点的像素值大于JNDs(u,v),则判定中坐标位置为(u,v)的像素点和中坐标位置为(u,v)的像素点均为可见失真点;如果中坐标位置为(u,v)的像素点的像素值小于或等于JNDs(u,v),则判定中坐标位置为(u,v)的像素点和中坐标位置为(u,v)的像素点均为不可见失真点。 
⑥将Vorg中的每帧立体图像的左视点图像中的所有可见失真点构成该帧立体图像的左视点图像的感兴趣区域,将Vorg中的每帧立体图像的左视点图像中的所有不可见失真点构成该帧立体图像的左视点图像的不感兴趣区域,将的感兴趣区域记为 中的所有可见失真点构成,将的不感兴趣区域记为中的所有不可见失真点构成。 
同样,将Vdis中的每帧立体图像的左视点图像中的所有可见失真点构成该帧立体图像的左视点图像的感兴趣区域,将Vdis中的每帧立体图像的左视点图像中的所有不可见失真点构成该帧立体图像的左视点图像的不感兴趣区域,将的感兴趣区域记为 中的所有可见失真点构成,将的不感兴趣区域记为中的所有不可见失真点构成。 
⑦根据Vorg中的每帧立体图像的左视点图像的感兴趣区域与Vdis中对应的一帧立体图像的左视点图像的感兴趣区域,计算Vdis中的每帧立体图像的左视点图像的感兴趣区域质量,将的感兴趣区域质量记为 其中,SSIM()为结构相似度(Structural SIMilarity,SSIM)计算函数。 
计算之间的结构相似度  SSIM ( I L , org f , I L , dis f ) = ( 2 μ L , org f μ L , dis f + c 1 ) ( 2 σ L , org , dis f + c 2 ) [ ( μ L , org f ) 2 + ( μ L , dis f ) 2 + c 1 ] [ ( σ L , org f ) 2 + ( σ L , dis f ) 2 + c 2 ] , 其中,表示中的所有可见失真点的像素值的均值,表示中的所有可见失真点的像素值的均值,表示中的所有可见失真点的像素值的方差,表示中的所有可见失真点的像素值的方差,表示之间的协方差,c1,c2为两个常数。 
同样,根据Vorg中的每帧立体图像的左视点图像的不感兴趣区域与Vdis中对应的一帧立体图像的左视点图像的不感兴趣区域,计算Vdis中的每帧立体图像的左视点图像的不感兴趣区域质量,将的不感兴趣区域质量记为
⑧计算Vdis中的每帧立体图像的左视点图像相对于Vorg中对应的一帧立体图像的左视点图像的初级质量,将相对于的初级质量记为 然后计算Vdis中的每帧立体图像的左视点图像相对于Vorg中对应的一帧立体图像的左视点图像的最终质量,将相对于的最终质量记为 再计算Vdis的左视点质量,记为QL, 其中,λ为感知加权因子,表示Vdis中的第f-1帧立体图像的左视点图像相对于Vorg中的第f-1帧立体图像的左视点图像的初级质量,a-表示相对于 下降时的下降质量调节因子,a+表示相对于上升时的上升质量调节因子, 表示之间的差异, d q f = q ′ L f - q ′ L f - 1 , d q f = q ′ L f - q ′ L f - 1 中2≤f≤Nf。 
在本实施例中,取a-=0.04,a+=0.5,感知加权因子λ的取值为 其中,ωI为感兴趣区域的加权系数,ωNI为不感兴趣区域的加权系数,SI为感兴趣区域的面积,其大小为可见失真点的个数,SNI为不感兴趣区域的面积,其大小为不可见失真点的个数。 
⑨按照步骤②至步骤⑧的操作,以相同的操作方式对Vorg中的每帧立体图像的右视点图像和Vdis中的每帧立体图像的右视点图像进行处理,获取Vdis的右视点质量,记为QR。即QR的获取过程为: 
⑨-1、利用水平Sobel算子,计算Vorg中的每帧立体图像的右视点图像的水平梯度图,将的水平梯度图记为同样,利用水平Sobel算子,计算Vdis中的每帧立体图像的右视点图像的水平梯度图,将的水平梯度图记为
并,利用垂直Sobel算子,计算Vorg中的每帧立体图像的右视点图像的垂直梯度图,将的垂直梯度图记为同样,利用垂直Sobel算子,计算Vdis中的每帧立体图像的右视点图像的垂直梯度图,将的垂直梯度图记为
⑨-2、计算Vorg中的每帧立体图像的右视点图像中的每个像素点的梯度场,将中坐标位置为(u,v)的像素点的梯度场记为 G R , org f ( u , v ) = ( Gh R , org f ( u , v ) ) 2 + ( Gv R , org f ( u , v ) ) 2 .
同样,计算Vdis中的每帧立体图像的右视点图像中的每个像素点的梯度场,将中坐标位置为(u,v)的像素点的梯度场记为 G R , dis f ( u , v ) = ( Gh R , dis f ( u , v ) ) 2 + ( Gv R , dis f ( u , v ) ) 2 .
其中,表示中坐标位置为(u,v)的像素点的像素值,表示中坐标位置为(u,v)的像素点的像素值,表示中坐标位置为 (u,v)的像素点的像素值,表示中坐标位置为(u,v)的像素点的像素值。 
⑨-3、根据Vorg中的每帧立体图像的右视点图像中的每个像素点的梯度场和Vdis中对应的一帧立体图像的右视点图像中对应坐标位置的像素点的梯度场,确定Vorg中的每帧立体图像的右视点图像中的每个像素点为显著点还是为非显著点,同时确定Vdis中的每帧立体图像的右视点图像中的每个像素点为显著点还是为非显著点,然后获取Vorg中的每帧立体图像的右视点图像的显著点图和Vdis中的每帧立体图像的右视点图像的显著点图,将的显著点图记为的显著点图记为
⑨-4、计算Vorg中的每帧立体图像的右视点图像的显著点图与Vdis中对应的一帧立体图像的右视点图像的显著点图之间的差值图,将之间的差值图记为 然后利用恰可觉察失真模型,根据Vorg中的每帧立体图像的右视点图像的显著点图与Vdis中对应的一帧立体图像的右视点图像的显著点图之间的差值图,确定Vorg中的每帧立体图像的右视点图像中的每个像素点为可见失真点还是为不可见失真点,同时确定Vdis中的每帧立体图像的右视点图像中的每个像素点为可见失真点还是为不可见失真点。 
⑨-5、将Vorg中的每帧立体图像的右视点图像中的所有可见失真点构成该帧立体图像的右视点图像的感兴趣区域,将Vorg中的每帧立体图像的右视点图像中的所有不可见失真点构成该帧立体图像的右视点图像的不感兴趣区域,将的感兴趣区域记为 中的所有可见失真点构成,将的不感兴趣区域记为中的所有不可见失真点构成。 
同样,将Vdis中的每帧立体图像的右视点图像中的所有可见失真点构成该帧立体图像的右视点图像的感兴趣区域,将Vdis中的每帧立体图像的右视点图像中的所有不可见失真点构成该帧立体图像的右视点图像的不感兴趣区域,将的感兴趣区域记为 中的所有可见失真点构成,将的不感兴趣区域记为中的所有不可见失真点构成。 
⑨-6、根据Vorg中的每帧立体图像的右视点图像的感兴趣区域与Vdis中对应的一帧立体图像的右视点图像的感兴趣区域,计算Vdis中的每帧立体图像的右视点图像的感兴趣区域质量,将的感兴趣区域质量记为
同样,根据Vorg中的每帧立体图像的右视点图像的不感兴趣区域与Vdis中对应的一帧立体图像的右视点图像的不感兴趣区域,计算Vdis中的每帧立体图像的右视点图像的不感兴趣区域质量,将的不感兴趣区域质量记为
⑨-7、计算Vdis中的每帧立体图像的右视点图像相对于Vorg中对应的一帧立体图像的右视点图像的初级质量,将相对于的初级质量记为 然后计算Vdis中的每帧立体图像的右视点图像相对于Vorg中对应的一帧立体图像的右视点图像的最终质量,将相对于的最终质量记为 再计算Vdis的右视点质量,记为QR, 其中,λ为感知加权因子,表示Vdis中的第f-1帧立体图像的右视点图像相对于Vorg中的第f-1帧立体图像的右视点图像的初级质量,a-表示相对于 下降时的下降质量调节因子,a+表示相对于上升时的上升质量调节因子, 表示之间的差异, d q f = q ′ R f - q ′ R f - 1 , d q f = q ′ R f - q ′ R f - 1 中2≤f≤Nf。 
⑩根据QL和QR,计算Vdis相对于Vorg的左右视点质量,记为QLR,QLR=ws×QL+(1-ws)×QR,其中,ws表示QL在QLR中所占的权重,在本实施例中取 ws=0.7。 
获取Vorg中的每帧立体图像的三维视差空间图,将的三维视差空间图记为  DSI org f ( u , v , d ) = | | L org f ( u , v ) - R org f ( u - d , v ) | | 2 , 其中,表示中坐标位置为(u,v)的像素点在视差偏移量为d时的视差空间值,d取[1,dmax]中的所有整数,dmax为最大视差搜索范围,本实施例中dmax的值为32,符号“|| ||”为欧氏距离计算符号, 表示中坐标位置为(u,v)的像素点的像素值,表示中坐标位置为(u-d,v)的像素点的像素值,为U×V×dmax的三维矩阵。 
同样,获取Vdis中的每帧立体图像的三维视差空间图,将的三维视差空间图记为  DSI dis f ( u , v , d ) = | | L dis f ( u , v ) - R dis f ( u - d , v ) | | 2 , 其中,表示中坐标位置为(u,v)的像素点在视差偏移量为d时的视差空间值,d取[1,dmax]中的所有整数,dmax为最大视差搜索范围,本实施例中dmax的值为32,符号“|| ||”为欧氏距离计算符号,表示中坐标位置为(u,v)的像素点的像素值,表示中坐标位置为(u-d,v)的像素点的像素值,为U×V×dmax的三维矩阵。 
对Vorg中的每帧立体图像的三维视差空间图进行一级三维小波变换,得到Vorg中的每帧立体图像对应的八组子带矩阵,然后将Vorg中的每帧立体图像对应的最低频的一组子带矩阵作为该帧立体图像的低频视差空间图,将Vorg的低频视差空间图记为 其中,的三维矩阵。 
同样,对Vdis中的每帧立体图像的三维视差空间图进行一级三维小波变换,得到Vdis中的每帧立体图像对应的八组子带矩阵,然后将Vdis中的每帧立体图像对应的最低频的一组子带矩阵作为该帧立体图像的低频视差空间图,将Vdis的低频视差空间图记为 其中,的三维矩阵。 
根据Vorg中的每帧立体图像的低频视差空间图和Vdis中对应的一帧立体图像的低频视差空间图,计算Vdis中的每帧立体图像相对于Vorg中对应的一帧立体图像的深度感知质量,将相对于的深度感知质量记为 Q depth f = SSIM ( LLL org DSI , f , LLL dis DSI , f ) , 其中,SSIM()为结构相似度(Structural SIMilarity,SSIM)计算函数。 
根据Vdis中的每帧立体图像相对于Vorg中对应的一帧立体图像的深度感知质量,计算Vdis相对于Vorg的深度感知质量,记为Qd
根据QLR和Qd,计算Vdis相对于Vorg的失真立体视频质量,记为Q,Q=wLR×QLR+(1-wLR)×Qd,其中,wLR为QLR在Q中所占的权重,在本实施例中取wLR=0.3。 
在本实施例中,选取法国IRCCyN研究机构提供的NAMA3DS1-CoSpaD1立体视频库(简称“NAMA视频数据库”)中的H.264编码压缩失真和JPEG2000编码压缩失真进行测试。NAMA视频数据库包含10对不同场景的原始高清立体视频,其H.264编码压缩失真包含3种不同的失真程度,共30对失真立体视频;JPEG2000编码压缩失真包含4种不同的失真程度,共40对失真立体视频。对上述70对失真立体视频按本发明方法的步骤①至步骤的过程,采用相同的方式计算得到每对失真立体视频相对于对应的无失真立体视频的失真立体视频质量Q,然后获取每对失真立体视频的平均主观评分差值DMOS,再将Q与平均主观评分差值DMOS进行四参数Logistic函数非线性拟合,最后得到客观评价结果与主观感知之间的性能指标值。这里,利用评估视频质量评价方法的3个常用客观参量作为评价指标,即线性相关系数(Correlation coefficient,CC)、Spearman等级相关系数(Spearman Rank Order Correlation coefficient,SROCC)和均方根误差(Rooted Mean Squared Error,RMSE)。CC和SROCC的取值范围是[0,1],其值越接近1,表明客观评价方法准确性越高;反之,则越差。RMSE值越小,表示客观评价方法的预测越准确,性能越好;反之,则越差。表示本发明方法的评价性能的CC、SROCC和RMSE指标如表1所列。由表1中所列的数据可见,按本发明方法计算得到的失真的立体视频相对于对应的无失真的立体视频的失真立体视频质量Q与平均主观评分差值DMOS之间有很好的相关性。对于H.264编码压缩失真立体视频,CC值达到了0.8539, SROCC值达到了0.8229,而RMSE值低至0.6023;对于JPEG2000编码压缩失真立体视频,CC值达到了0.9084,SROCC值达到了0.8809,而RMSE值低至0.5209;对于包含以上两种失真立体视频的总体失真立体视频,CC值达到了0.8812,SROCC值达到了0.8439,而RMSE值低至0.5723,这表明了本发明方法的客观评价结果与人眼主观感知的结果较为一致,充分说明了本发明方法的有效性。 
表1 按本发明方法计算得到的失真的立体视频相对于对应的无失真的立体视频的失真立体视频质量与平均主观评分差值之间的相关性 
  CC SROCC RMSE
30对H.264编码压缩失真立体视频 0.8539 0.8229 0.6023
40对JPEG2000编码压缩失真立体视频 0.9084 0.8809 0.5209
共计70对失真立体视频 0.8812 0.8439 0.5723

Claims (8)

1.一种面向压缩失真的立体视频质量客观评价方法,其特征在于包括以下步骤:
①令Vorg表示原始的无失真的立体视频,令Vdis表示待评价的失真的立体视频,将Vorg中的第f帧立体图像记为的左视点图像和右视点图像对应记为将Vdis中的第f帧立体图像记为的左视点图像和右视点图像对应记为其中,1≤f≤Nf,Nf表示Vorg和Vdis各自所包含的立体图像的数量;
②利用水平Sobel算子,计算Vorg中的每帧立体图像的左视点图像的水平梯度图,将的水平梯度图记为同样,利用水平Sobel算子,计算Vdis中的每帧立体图像的左视点图像的水平梯度图,将的水平梯度图记为
并,利用垂直Sobel算子,计算Vorg中的每帧立体图像的左视点图像的垂直梯度图,将的垂直梯度图记为同样,利用垂直Sobel算子,计算Vdis中的每帧立体图像的左视点图像的垂直梯度图,将的垂直梯度图记为
③计算Vorg中的每帧立体图像的左视点图像中的每个像素点的梯度场,将中坐标位置为(u,v)的像素点的梯度场记为 G L , org f ( u , v ) = ( Gh L , org f ( u , v ) ) 2 + ( Gv L , org f ( u , v ) ) 2 ;
同样,计算Vdis中的每帧立体图像的左视点图像中的每个像素点的梯度场,将中坐标位置为(u,v)的像素点的梯度场记为 G L , dis f ( u , v ) = ( Gh L , dis f ( u , v ) ) 2 + ( Gv L , dis f ( u , v ) ) 2 ;
其中,u表示像素点的水平坐标位置,v表示像素点的垂直坐标位置,1≤u≤U,1≤v≤V,U表示Vorg和Vdis中的立体图像水平方向上的像素点的数量,V表示Vorg和Vdis中的立体图像垂直方向上的像素点的数量,表示中坐标位置为(u,v)的像素点的像素值,表示中坐标位置为(u,v)的像素点的像素值,表示中坐标位置为(u,v)的像素点的像素值,表示中坐标位置为(u,v)的像素点的像素值;
④根据Vorg中的每帧立体图像的左视点图像中的每个像素点的梯度场和Vdis中对应的一帧立体图像的左视点图像中对应坐标位置的像素点的梯度场,确定Vorg中的每帧立体图像的左视点图像中的每个像素点为显著点还是为非显著点,同时确定Vdis中的每帧立体图像的左视点图像中的每个像素点为显著点还是为非显著点,然后获取Vorg中的每帧立体图像的左视点图像的显著点图和Vdis中的每帧立体图像的左视点图像的显著点图,将的显著点图记为的显著点图记为
⑤计算Vorg中的每帧立体图像的左视点图像的显著点图与Vdis中对应的一帧立体图像的左视点图像的显著点图之间的差值图,将之间的差值图记为 然后利用恰可觉察失真模型,根据Vorg中的每帧立体图像的左视点图像的显著点图与Vdis中对应的一帧立体图像的左视点图像的显著点图之间的差值图,确定Vorg中的每帧立体图像的左视点图像中的每个像素点为可见失真点还是为不可见失真点,同时确定Vdis中的每帧立体图像的左视点图像中的每个像素点为可见失真点还是为不可见失真点;其中,符号“||”为取绝对值符号;
⑥将Vorg中的每帧立体图像的左视点图像中的所有可见失真点构成该帧立体图像的左视点图像的感兴趣区域,将Vorg中的每帧立体图像的左视点图像中的所有不可见失真点构成该帧立体图像的左视点图像的不感兴趣区域,将的感兴趣区域记为 中的所有可见失真点构成,将的不感兴趣区域记为中的所有不可见失真点构成;
同样,将Vdis中的每帧立体图像的左视点图像中的所有可见失真点构成该帧立体图像的左视点图像的感兴趣区域,将Vdis中的每帧立体图像的左视点图像中的所有不可见失真点构成该帧立体图像的左视点图像的不感兴趣区域,将的感兴趣区域记为 中的所有可见失真点构成,将的不感兴趣区域记为中的所有不可见失真点构成;
⑦根据Vorg中的每帧立体图像的左视点图像的感兴趣区域与Vdis中对应的一帧立体图像的左视点图像的感兴趣区域,计算Vdis中的每帧立体图像的左视点图像的感兴趣区域质量,将的感兴趣区域质量记为 其中,SSIM()为结构相似度计算函数;
同样,根据Vorg中的每帧立体图像的左视点图像的不感兴趣区域与Vdis中对应的一帧立体图像的左视点图像的不感兴趣区域,计算Vdis中的每帧立体图像的左视点图像的不感兴趣区域质量,将的不感兴趣区域质量记为
⑧计算Vdis中的每帧立体图像的左视点图像相对于Vorg中对应的一帧立体图像的左视点图像的初级质量,将相对于的初级质量记为 然后计算Vdis中的每帧立体图像的左视点图像相对于Vorg中对应的一帧立体图像的左视点图像的最终质量,将相对于的最终质量记为 再计算Vdis的左视点质量,记为QL其中,λ为感知加权因子,表示Vdis中的第f-1帧立体图像的左视点图像相对于Vorg中的第f-1帧立体图像的左视点图像的初级质量,a-表示相对于下降时的下降质量调节因子,a+表示相对于上升时的上升质量调节因子,表示之间的差异, d q f = q L ′ f - q L ′ f - 1 , d q f = q L ′ f - 1 - q L ′ f - 2 2 ≤ f ≤ N f ;
⑨按照步骤②至步骤⑧的操作,以相同的操作方式对Vorg中的每帧立体图像的右视点图像和Vdis中的每帧立体图像的右视点图像进行处理,获取Vdis的右视点质量,记为QR
⑩根据QL和QR,计算Vdis相对于Vorg的左右视点质量,记为QLR,QLR=ws×QL+(1-ws)×QR,其中,ws表示QL在QLR中所占的权重;
获取Vorg中的每帧立体图像的三维视差空间图,将的三维视差空间图记为 DSI org f ( u , v , d ) = | | L org f ( u , v ) - R org f ( u - d , v ) | | 2 , 其中,表示中坐标位置为(u,v)的像素点在视差偏移量为d时的视差空间值,d取[1,dmax]中的所有整数,dmax为最大视差搜索范围,符号“|| ||”为欧氏距离计算符号,表示中坐标位置为(u,v)的像素点的像素值,表示中坐标位置为(u-d,v)的像素点的像素值,为U×V×dmax的三维矩阵;
同样,获取Vdis中的每帧立体图像的三维视差空间图,将的三维视差空间图记为 DSI dis f ( u , v , d ) = | | L dis f ( u , v ) - R dis f ( u - d , v ) | | 2 , 其中,表示中坐标位置为(u,v)的像素点在视差偏移量为d时的视差空间值,d取[1,dmax]中的所有整数,dmax为最大视差搜索范围,符号“|| ||”为欧氏距离计算符号,表示中坐标位置为(u,v)的像素点的像素值,表示中坐标位置为(u-d,v)的像素点的像素值,为U×V×dmax的三维矩阵;
对Vorg中的每帧立体图像的三维视差空间图进行一级三维小波变换,得到Vorg中的每帧立体图像对应的八组子带矩阵,然后将Vorg中的每帧立体图像对应的最低频的一组子带矩阵作为该帧立体图像的低频视差空间图,将的低频视差空间图记为其中,的三维矩阵;
同样,对Vdis中的每帧立体图像的三维视差空间图进行一级三维小波变换,得到Vdis中的每帧立体图像对应的八组子带矩阵,然后将Vdis中的每帧立体图像对应的最低频的一组子带矩阵作为该帧立体图像的低频视差空间图,将的低频视差空间图记为其中,的三维矩阵;
根据Vorg中的每帧立体图像的低频视差空间图和Vdis中对应的一帧立体图像的低频视差空间图,计算Vdis中的每帧立体图像相对于Vorg中对应的一帧立体图像的深度感知质量,将相对于的深度感知质量记为 其中,SSIM()为结构相似度计算函数;
根据Vdis中的每帧立体图像相对于Vorg中对应的一帧立体图像的深度感知质量,计算Vdis相对于Vorg的深度感知质量,记为Qd
根据QLR和Qd,计算Vdis相对于Vorg的失真立体视频质量,记为Q,Q=wLR×QLR+(1-wLR)×Qd,其中,wLR为QLR在Q中所占的权重。
2.根据权利要求1所述的一种面向压缩失真的立体视频质量客观评价方法,其特征在于所述的步骤④中的获取过程为:
④-1、确定中的每个像素点和中的每个像素点为显著点还是为非显著点,对于中坐标位置为(u,v)的像素点和中坐标位置为(u,v)的像素点,比较分别与显著性阈值T的大小,如果大于T且小于或等于T,或小于或等于T且大于T,或大于T且大于T,则判定中坐标位置为(u,v)的像素点和中坐标位置为(u,v)的像素点均为显著点;如果小于或等于T且小于或等于T,则判定中坐标位置为(u,v)的像素点和中坐标位置为(u,v)的像素点均为非显著点;
④-2、获取的显著点图,记为中坐标位置为(u,v)的像素点的像素值记为如果中坐标位置为(u,v)的像素点为显著点,则将中坐标位置为(u,v)的像素点的像素值赋值给如果中坐标位置为(u,v)的像素点为非显著点,则将置为0;
同样,获取的显著点图,记为中坐标位置为(u,v)的像素点的像素值记为如果中坐标位置为(u,v)的像素点为显著点,则将中坐标位置为(u,v)的像素点的像素值赋值给如果中坐标位置为(u,v)的像素点为非显著点,则将置为0。
3.根据权利要求2所述的一种面向压缩失真的立体视频质量客观评价方法,其特征在于所述的步骤④-1中显著性阈值T的取值为T=0.12×max(Po),其中,max()为取最大值函数,Po中的所有像素点的梯度场构成的集合。
4.根据权利要求1至3中任一项所述的一种面向压缩失真的立体视频质量客观评价方法,其特征在于所述的步骤⑤中对于中的每个像素点为可见失真点还是为不可见失真点的判定过程为:
⑤-1、计算中坐标位置相同的像素点的恰可觉察失真模型,将中坐标位置为(u,v)的像素点的恰可觉察失真模型记为JNDs(u,v),JNDs(u,v)=JNDl(u,v)+JNDt(u,v)-0.2×min(JNDl(u,v),JNDt(u,v)),其中,JNDl(u,v)表示中坐标位置为(u,v)的像素点的亮度恰可觉察失真模型,JNDt(u,v)表示中坐标位置为(u,v)的像素点的纹理恰可觉察失真模型,min()为取最小值函数;
⑤-2、根据中坐标位置相同的像素点的恰可觉察失真模型及中的每个像素点的像素值,确定中的每个像素点为可见失真点还是为不可见失真点,对于中坐标位置为(u,v)的像素点和中坐标位置为(u,v)的像素点,如果中坐标位置为(u,v)的像素点的像素值大于JNDs(u,v),则判定中坐标位置为(u,v)的像素点和中坐标位置为(u,v)的像素点均为可见失真点;如果中坐标位置为(u,v)的像素点的像素值小于或等于JNDs(u,v),则判定中坐标位置为(u,v)的像素点和中坐标位置为(u,v)的像素点均为不可见失真点。
5.根据权利要求4所述的一种面向压缩失真的立体视频质量客观评价方法,其特征在于所述的步骤⑧中感知加权因子λ的取值为其中,ωI为感兴趣区域的加权系数,ωNI为不感兴趣区域的加权系数,SI为感兴趣区域的面积,其大小为可见失真点的个数,SNI为不感兴趣区域的面积,其大小为不可见失真点的个数。
6.根据权利要求5所述的一种面向压缩失真的立体视频质量客观评价方法,其特征在于所述的步骤⑧中取a-=0.04,a+=0.5。
7.根据权利要求6所述的一种面向压缩失真的立体视频质量客观评价方法,其特征在于所述的步骤⑩中取ws=0.7。
8.根据权利要求7所述的一种面向压缩失真的立体视频质量客观评价方法,其特征在于所述的步骤中取wLR=0.3。
CN201410612196.XA 2014-11-04 2014-11-04 一种面向压缩失真的立体视频质量客观评价方法 Active CN104394403B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201410612196.XA CN104394403B (zh) 2014-11-04 2014-11-04 一种面向压缩失真的立体视频质量客观评价方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201410612196.XA CN104394403B (zh) 2014-11-04 2014-11-04 一种面向压缩失真的立体视频质量客观评价方法

Publications (2)

Publication Number Publication Date
CN104394403A true CN104394403A (zh) 2015-03-04
CN104394403B CN104394403B (zh) 2016-04-27

Family

ID=52612231

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201410612196.XA Active CN104394403B (zh) 2014-11-04 2014-11-04 一种面向压缩失真的立体视频质量客观评价方法

Country Status (1)

Country Link
CN (1) CN104394403B (zh)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104954778A (zh) * 2015-06-04 2015-09-30 宁波大学 一种基于感知特征集的立体图像质量客观评价方法
CN105407349A (zh) * 2015-11-30 2016-03-16 宁波大学 基于双目视觉感知的无参考立体图像质量客观评价方法
CN106341677A (zh) * 2015-07-07 2017-01-18 中国科学院深圳先进技术研究院 虚拟视点视频质量评价方法
CN106973281A (zh) * 2017-01-19 2017-07-21 宁波大学 一种虚拟视点视频质量预测方法
CN107040787A (zh) * 2017-03-30 2017-08-11 宁波大学 一种基于视觉感知的3d‑hevc帧间信息隐藏方法
CN107318014A (zh) * 2017-07-25 2017-11-03 西安电子科技大学 基于视觉显著区域和时空特性的视频质量评估方法
CN108064395A (zh) * 2015-05-01 2018-05-22 制图利有限责任公司 在视频图像中嵌入二维码的系统和方法
CN108447059A (zh) * 2018-04-09 2018-08-24 华侨大学 一种全参考光场图像质量评价方法
CN108848365A (zh) * 2018-05-31 2018-11-20 宁波大学 一种重定位立体图像质量评价方法
CN109272479A (zh) * 2017-07-12 2019-01-25 天津大学 基于立体感知特性的立体图像质量评价方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102170581A (zh) * 2011-05-05 2011-08-31 天津大学 基于hvs的ssim与特征匹配立体图像质量评价方法
US20130155192A1 (en) * 2011-12-15 2013-06-20 Industrial Technology Research Institute Stereoscopic image shooting and display quality evaluation system and method applicable thereto
WO2013105720A1 (ko) * 2012-01-10 2013-07-18 에스케이플래닛 주식회사 3차원 입체영상의 품질 분석 장치 및 방법
JP2013236132A (ja) * 2012-05-02 2013-11-21 Nippon Telegr & Teleph Corp <Ntt> 3d映像品質評価装置及び方法及びプログラム
CN103517065A (zh) * 2013-09-09 2014-01-15 宁波大学 一种质降参考立体图像质量客观评价方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102170581A (zh) * 2011-05-05 2011-08-31 天津大学 基于hvs的ssim与特征匹配立体图像质量评价方法
US20130155192A1 (en) * 2011-12-15 2013-06-20 Industrial Technology Research Institute Stereoscopic image shooting and display quality evaluation system and method applicable thereto
WO2013105720A1 (ko) * 2012-01-10 2013-07-18 에스케이플래닛 주식회사 3차원 입체영상의 품질 분석 장치 및 방법
JP2013236132A (ja) * 2012-05-02 2013-11-21 Nippon Telegr & Teleph Corp <Ntt> 3d映像品質評価装置及び方法及びプログラム
CN103517065A (zh) * 2013-09-09 2014-01-15 宁波大学 一种质降参考立体图像质量客观评价方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
东野升云,王世刚,韦健,陈丽伟,吕源治: "《人类深度感知立体图像质量评价方法》", 《中国图象图形学报》 *
毛香英,郁梅,蒋刚毅等: "《基于结构失真分析的立体图像质量客观评价模型》", 《计算机辅助设计与图形学学报》 *

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108064395B (zh) * 2015-05-01 2021-09-24 制图利有限责任公司 在视频图像中嵌入二维码的系统和方法
CN108064395A (zh) * 2015-05-01 2018-05-22 制图利有限责任公司 在视频图像中嵌入二维码的系统和方法
CN104954778A (zh) * 2015-06-04 2015-09-30 宁波大学 一种基于感知特征集的立体图像质量客观评价方法
CN106341677B (zh) * 2015-07-07 2018-04-20 中国科学院深圳先进技术研究院 虚拟视点视频质量评价方法
CN106341677A (zh) * 2015-07-07 2017-01-18 中国科学院深圳先进技术研究院 虚拟视点视频质量评价方法
CN105407349A (zh) * 2015-11-30 2016-03-16 宁波大学 基于双目视觉感知的无参考立体图像质量客观评价方法
CN105407349B (zh) * 2015-11-30 2017-05-03 宁波大学 基于双目视觉感知的无参考立体图像质量客观评价方法
CN106973281A (zh) * 2017-01-19 2017-07-21 宁波大学 一种虚拟视点视频质量预测方法
CN106973281B (zh) * 2017-01-19 2018-12-07 宁波大学 一种虚拟视点视频质量预测方法
CN107040787B (zh) * 2017-03-30 2019-08-02 宁波大学 一种基于视觉感知的3d-hevc帧间信息隐藏方法
CN107040787A (zh) * 2017-03-30 2017-08-11 宁波大学 一种基于视觉感知的3d‑hevc帧间信息隐藏方法
CN109272479A (zh) * 2017-07-12 2019-01-25 天津大学 基于立体感知特性的立体图像质量评价方法
CN109272479B (zh) * 2017-07-12 2021-11-02 天津大学 基于立体感知特性的立体图像质量评价方法
CN107318014A (zh) * 2017-07-25 2017-11-03 西安电子科技大学 基于视觉显著区域和时空特性的视频质量评估方法
CN108447059A (zh) * 2018-04-09 2018-08-24 华侨大学 一种全参考光场图像质量评价方法
CN108447059B (zh) * 2018-04-09 2021-06-29 华侨大学 一种全参考光场图像质量评价方法
CN108848365A (zh) * 2018-05-31 2018-11-20 宁波大学 一种重定位立体图像质量评价方法

Also Published As

Publication number Publication date
CN104394403B (zh) 2016-04-27

Similar Documents

Publication Publication Date Title
CN104394403B (zh) 一种面向压缩失真的立体视频质量客观评价方法
CN102333233B (zh) 一种基于视觉感知的立体图像质量客观评价方法
CN102708567B (zh) 一种基于视觉感知的立体图像质量客观评价方法
CN104811691B (zh) 一种基于小波变换的立体视频质量客观评价方法
CN102663747B (zh) 一种基于视觉感知的立体图像客观质量评价方法
CN103136748B (zh) 一种基于特征图的立体图像质量客观评价方法
CN105407349A (zh) 基于双目视觉感知的无参考立体图像质量客观评价方法
CN103581661A (zh) 一种立体图像视觉舒适度评价方法
CN103517065B (zh) 一种质降参考立体图像质量客观评价方法
CN104036501A (zh) 一种基于稀疏表示的立体图像质量客观评价方法
CN103780895B (zh) 一种立体视频质量评价方法
CN102982535A (zh) 基于psnr和ssim的立体图像质量评价方法
CN102521825B (zh) 一种基于零水印的立体图像质量客观评价方法
CN102750706B (zh) 基于深度显著度的立体图像恰可感知差异模型的构建方法
CN104811693A (zh) 一种立体图像视觉舒适度客观评价方法
CN103413298A (zh) 一种基于视觉特性的立体图像质量客观评价方法
CN104954778A (zh) 一种基于感知特征集的立体图像质量客观评价方法
CN104767993B (zh) 一种基于质降时域加权的立体视频客观质量评价方法
CN105654465A (zh) 一种采用视差补偿视点间滤波的立体图像质量评价方法
CN102722888A (zh) 基于生理与心理立体视觉的立体图像客观质量评价方法
CN102708568B (zh) 一种基于结构失真的立体图像客观质量评价方法
CN104361583A (zh) 一种非对称失真立体图像客观质量评价方法
CN103108209B (zh) 基于视觉阈值与通道融合的立体图像客观质量评价方法
CN103841411B (zh) 一种基于双目信息处理的立体图像质量评价方法
CN102999911B (zh) 一种基于能量图的立体图像质量客观评价方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
TR01 Transfer of patent right

Effective date of registration: 20190808

Address after: Room 1,020, Nanxun Science and Technology Pioneering Park, No. 666 Chaoyang Road, Nanxun District, Huzhou City, Zhejiang Province, 313000

Patentee after: Huzhou You Yan Intellectual Property Service Co.,Ltd.

Address before: 315211 Zhejiang Province, Ningbo Jiangbei District Fenghua Road No. 818

Patentee before: Ningbo University

TR01 Transfer of patent right
TR01 Transfer of patent right

Effective date of registration: 20211103

Address after: 274000 room a-102, zejin Guangcai new material Incubator Co., Ltd., No. 2166, Lanzhou Road, high tech Zone, Heze City, Shandong Province

Patentee after: Shandong Zhongya Information Technology Co.,Ltd.

Address before: 313000 room 1020, science and Technology Pioneer Park, 666 Chaoyang Road, Nanxun Town, Nanxun District, Huzhou, Zhejiang.

Patentee before: Huzhou You Yan Intellectual Property Service Co.,Ltd.

TR01 Transfer of patent right
TR01 Transfer of patent right

Effective date of registration: 20230627

Address after: 100010 4th floor, No. 22, art museum East Street, Dongcheng District, Beijing

Patentee after: Sanlian Life Media Co.,Ltd.

Address before: 274000 room a-102, zejin Guangcai new material Incubator Co., Ltd., No. 2166, Lanzhou Road, high tech Zone, Heze City, Shandong Province

Patentee before: Shandong Zhongya Information Technology Co.,Ltd.

TR01 Transfer of patent right