CN106303513B - 一种降参考三维视频质量评价方法 - Google Patents

一种降参考三维视频质量评价方法 Download PDF

Info

Publication number
CN106303513B
CN106303513B CN201610734525.7A CN201610734525A CN106303513B CN 106303513 B CN106303513 B CN 106303513B CN 201610734525 A CN201610734525 A CN 201610734525A CN 106303513 B CN106303513 B CN 106303513B
Authority
CN
China
Prior art keywords
org
dis
dsi
dct coefficients
virtual viewpoint
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201610734525.7A
Other languages
English (en)
Other versions
CN106303513A (zh
Inventor
邵枫
袁其政
李福翠
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tai'an Taishan Intelligent Technology Co ltd
Original Assignee
Ningbo University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ningbo University filed Critical Ningbo University
Priority to CN201610734525.7A priority Critical patent/CN106303513B/zh
Publication of CN106303513A publication Critical patent/CN106303513A/zh
Application granted granted Critical
Publication of CN106303513B publication Critical patent/CN106303513B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N17/00Diagnosis, testing or measuring for television systems or their details
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • General Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Image Processing (AREA)

Abstract

本发明公开了一种降参考三维视频质量评价方法,其通过基于深度图像绘制的方法,绘制得到多个虚拟视点绘制视频,并构造得到四维空间图,由于所构造的四维空间图同时考虑了彩色和深度视频失真对虚拟视点绘制质量的影响,这样与直接对三维视频进行操作相比,能够更好地衡量彩色和深度视频失真对虚拟视点绘制的影响,从而有效地提升了对三维视频的评价性能;根据四维空间图中所有四维空间体的不同子带和频带的DCT系数统计特征,通过计算系数距离和频率比距离信息,来计算待评价的失真的三维视频的客观质量评价预测值,从而只需要较少的信息就能够较好地反映三维视频的质量变化情况。

Description

一种降参考三维视频质量评价方法
技术领域
本发明涉及一种视频质量评价方法,尤其是涉及一种降参考三维视频质量评价方法。
背景技术
进入本世纪以来,随着数字2D(二维)视频技术日趋成熟,以及计算机、通信及网络技术的快速发展,引发了人们对新一代视频系统的强烈需求。现行的二维视频系统在表现自然场景时,难以满足用户的立体感和视点交互等的需求。三维视频系统由于能够提供立体感、视点交互性的全新视觉体验而越来越受到人们的欢迎,因此在无线视频通信、影视娱乐、数字动漫、虚拟战场、旅游观光、远程教学等领域有着广泛的应用前景。与立体视频相比,基于彩色加深度的三维视频需要同时考虑彩色和深度对虚拟视点绘制的影响,然而,传统的立体图像/视频质量评价方法通常不能直接用于评价彩色、深度或虚拟视点视频质量。
而对于三维视频质量评价而言,如果直接将立体视频质量评价方法应用于三维视频,即彩色和深度视频采用相同的评价方法,则由于彩色视频是显性影响虚拟视点,而深度视频是隐形影响虚拟视点,因此这会导致对虚拟视点绘制质量的不可控;或者如果直接将立体视频质量评价方法应用于虚拟视点视频,则由于虚拟视点存在因绘制引起的几何失真,因此传统的立体视频质量评价难以对其进行定量化。因此,如何对三维视频进行描述以衡量彩色和深度视频失真对虚拟视点绘制的影响,特别是如何能用较少的信息来进行有效描述,都是在对三维视频进行质量评价过程中需要研究解决的问题。
发明内容
本发明所要解决的技术问题是提供一种降参考三维视频质量评价方法,其能够有效地提高客观评价结果与主观感知之间的相关性。
本发明解决上述技术问题所采用的技术方案为:一种降参考三维视频质量评价方法,其特征在于包括以下步骤:
①令Sorg表示原始的无失真的三维视频,令Sdis表示Sorg经失真后得到的三维视频,将Sdis作为待评价的失真的三维视频;将Sorg的左视点视频和右视点视频对应记为Lorg和Rorg,将Sdis的左视点视频和右视点视频对应记为Ldis和Rdis;将Lorg中t时刻的左视点图像记为{Lorg,t(x,y)},将Rorg中t时刻的右视点图像记为{Rorg,t(x,y)},将Ldis中t时刻的左视点图像记为{Ldis,t(x,y)},将Rdis中t时刻的右视点图像记为{Rdis,t(x,y)};其中,1≤t≤T,1≤x≤W,1≤y≤H,T表示Lorg中包含的左视点图像的总帧数,也即Rorg中包含的右视点图像的总帧数,也即Ldis中包含的左视点图像的总帧数,也即Rdis中包含的右视点图像的总帧数,W表示Lorg中的左视点图像、Rorg中的右视点图像、Ldis中的左视点图像、Rdis中的右视点图像的宽度,H表示Lorg中的左视点图像、Rorg中的右视点图像、Ldis中的左视点图像、Rdis中的右视点图像的高度,Lorg,t(x,y)表示{Lorg,t(x,y)}中坐标位置为(x,y)的像素点的像素值,Rorg,t(x,y)表示{Rorg,t(x,y)}中坐标位置为(x,y)的像素点的像素值,Ldis,t(x,y)表示{Ldis,t(x,y)}中坐标位置为(x,y)的像素点的像素值,Rdis,t(x,y)表示{Rdis,t(x,y)}中坐标位置为(x,y)的像素点的像素值;
②采用基于深度图像绘制的方法,并选取6个介于左视点和右视点之间且视点间距相同的虚拟视点,根据Lorg中每个时刻的左视点图像和Rorg中对应时刻的右视点图像绘制得到对应时刻的6幅虚拟视点图像,将根据{Lorg,t(x,y)}和{Rorg,t(x,y)}绘制得到的t时刻的6幅虚拟视点图像对应记为 然后将绘制得到的第1个虚拟视点的T幅虚拟视点图像构成Sorg对应的第1个虚拟视点绘制视频,记为并将绘制得到的第2个虚拟视点的T幅虚拟视点图像构成Sorg对应的第2个虚拟视点绘制视频,记为将绘制得到的第3个虚拟视点的T幅虚拟视点图像构成Sorg对应的第3个虚拟视点绘制视频,记为将绘制得到的第4个虚拟视点的T幅虚拟视点图像构成Sorg对应的第4个虚拟视点绘制视频,记为将绘制得到的第5个虚拟视点的T幅虚拟视点图像构成Sorg对应的第5个虚拟视点绘制视频,记为将绘制得到的第6个虚拟视点的T幅虚拟视点图像构成Sorg对应的第6个虚拟视点绘制视频,记为其中,表示中坐标位置为(x,y)的像素点的像素值,表示中坐标位置为(x,y)的像素点的像素值,表示中坐标位置为(x,y)的像素点的像素值,表示中坐标位置为(x,y)的像素点的像素值,表示中坐标位置为(x,y)的像素点的像素值,表示中坐标位置为(x,y)的像素点的像素值;
同样,采用基于深度图像绘制的方法,并选取介于左视点和右视点之间且视点间距相同的虚拟视点,根据Ldis中每个时刻的左视点图像和Rdis中对应时刻的右视点图像绘制得到对应时刻的6幅虚拟视点图像,将根据{Ldis,t(x,y)}和{Rdis,t(x,y)}绘制得到的t时刻的6幅虚拟视点图像对应记为 然后将绘制得到的第1个虚拟视点的T幅虚拟视点图像构成Sdis对应的第1个虚拟视点绘制视频,记为并将绘制得到的第2个虚拟视点的T幅虚拟视点图像构成Sdis对应的第2个虚拟视点绘制视频,记为将绘制得到的第3个虚拟视点的T幅虚拟视点图像构成Sdis对应的第3个虚拟视点绘制视频,记为将绘制得到的第4个虚拟视点的T幅虚拟视点图像构成Sdis对应的第4个虚拟视点绘制视频,记为将绘制得到的第5个虚拟视点的T幅虚拟视点图像构成Sdis对应的第5个虚拟视点绘制视频,记为将绘制得到的第6个虚拟视点的T幅虚拟视点图像构成Sdis对应的第6个虚拟视点绘制视频,记为其中,表示中坐标位置为(x,y)的像素点的像素值,表示中坐标位置为(x,y)的像素点的像素值,表示中坐标位置为(x,y)的像素点的像素值,表示中坐标位置为(x,y)的像素点的像素值,表示中坐标位置为(x,y)的像素点的像素值,表示中坐标位置为(x,y)的像素点的像素值;
③将Lorg和Rorg按各自所在的视差平面的坐标位置从小到大的顺序排列,构成Sorg的四维空间图,记为{DSIorg(x,y,t,d)};其中,dmax表示左视点和右视点的视差平面的最大坐标位置,d=0代表左视点的视差平面的坐标位置,代表第1个虚拟视点的视差平面的坐标位置,代表第2个虚拟视点的视差平面的坐标位置,代表第3个虚拟视点的视差平面的坐标位置,代表第4个虚拟视点的视差平面的坐标位置,代表第5个虚拟视点的视差平面的坐标位置,代表第6个虚拟视点的视差平面的坐标位置,d=dmax代表右视点的视差平面的坐标位置,当d=0时DSIorg(x,y,t,d)=Lorg,t(x,y),当当d=dmax时DSIorg(x,y,t,d)=Rorg,t(x,y);
同样,将Ldis和Rdis按各自所在的视差平面的坐标位置从小到大的顺序排列,构成Sdis的四维空间图,记为{DSIdis(x,y,t,d)};其中,当d=0时DSIdis(x,y,t,d)=Ldis,t(x,y),当当d=dmax时DSIdis(x,y,t,d)=Rdis,t(x,y);
④将{DSIorg(x,y,t,d)}划分成个互不重叠的尺寸大小为8×8×8×8的四维空间体;然后对{DSIorg(x,y,t,d)}中的每个四维空间体中的每个像素点进行离散余弦变换,得到{DSIorg(x,y,t,d)}中的每个四维空间体中的每个像素点的DCT系数;
同样,将{DSIdis(x,y,t,d)}划分成个互不重叠的尺寸大小为8×8×8×8的四维空间体;然后对{DSIdis(x,y,t,d)}中的每个四维空间体中的每个像素点进行离散余弦变换,得到{DSIdis(x,y,t,d)}中的每个四维空间体中的每个像素点的DCT系数;
⑤计算{DSIorg(x,y,t,d)}中的所有四维空间体中的所有像素点的DCT系数与{DSIdis(x,y,t,d)}中的所有四维空间体中的所有像素点的DCT系数之间的系数距离,记为Q1
⑥计算{DSIorg(x,y,t,d)}中的所有四维空间体中的所有像素点的DCT系数与{DSIdis(x,y,t,d)}中的所有四维空间体中的所有像素点的DCT系数之间的频率比距离,记为Q2
⑦计算Sdis的客观质量评价预测值,记为Q,Q=λ×Q1+(1-λ)×Q2;其中,λ为加权参数。
所述的步骤⑤的具体过程为:
⑤_1、将{DSIorg(x,y,t,d)}中的每个四维空间体中的所有像素点的DCT系数分解成10个不同的子带;然后将{DSIorg(x,y,t,d)}中的所有四维空间体中的所有像素点的DCT系数中属于相同子带的所有DCT系数构成一个DCT系数子带集合,将{DSIorg(x,y,t,d)}中的所有四维空间体中的所有像素点的DCT系数中属于第i个子带的所有DCT系数构成的DCT系数子带集合记为其中,1≤i≤10,表示中的第j个DCT系数,即为{DSIorg(x,y,t,d)}中的所有四维空间体中的所有像素点的DCT系数中属于第i个子带的第j个DCT系数,Ni表示{DSIorg(x,y,t,d)}中的所有四维空间体中的所有像素点的DCT系数中属于第i个子带的DCT系数的总个数;
同样,将{DSIdis(x,y,t,d)}中的每个四维空间体中的所有像素点的DCT系数分解成10个不同的子带;然后将{DSIdis(x,y,t,d)}中的所有四维空间体中的所有像素点的DCT系数中属于相同子带的所有DCT系数构成一个DCT系数子带集合,将{DSIdis(x,y,t,d)}中的所有四维空间体中的所有像素点的DCT系数中属于第i个子带的所有DCT系数构成的DCT系数子带集合记为其中,表示中的第j个DCT系数,即为{DSIdis(x,y,t,d)}中的所有四维空间体中的所有像素点的DCT系数中属于第i个子带的第j个DCT系数,Ni亦表示{DSIdis(x,y,t,d)}中的所有四维空间体中的所有像素点的DCT系数中属于第i个子带的DCT系数的总个数;
⑤_2、获取{DSIorg(x,y,t,d)}对应的每个DCT系数子带集合中的DCT系数的直方图分布,将中的DCT系数的直方图分布记为其中,表示中在第k个直方图节点处的DCT系数的总个数;
同样,获取{DSIdis(x,y,t,d)}对应的每个DCT系数子带集合中的DCT系数的直方图分布,将中的DCT系数的直方图分布记为其中,表示中在第k个直方图节点处的DCT系数的总个数;
⑤_3、采用广义高斯分布模型对{DSIorg(x,y,t,d)}对应的每个DCT系数子带集合中的DCT系数的直方图分布进行拟合,拟合得到{DSIorg(x,y,t,d)}对应的每个DCT系数子带集合中的DCT系数的直方图分布的拟合曲线,将的拟合曲线记为中与对应的点值记为 其中, 表示拟合曲线的尺度参数,表示拟合曲线的形状参数,exp()表示以自然基数e为底的指数函数,符号“| |”为取绝对值符号,t为积分变量;
⑤_4、计算{DSIorg(x,y,t,d)}对应的每个DCT系数子带集合中的DCT系数的直方图分布与其拟合曲线之间的距离,将之间的距离记为 然后计算{DSIorg(x,y,t,d)}对应的所有DCT系数子带集合中的DCT系数的直方图分布所对应的距离之和,记为dorg
并计算{DSIdis(x,y,t,d)}对应的每个DCT系数子带集合中的DCT系数的直方图分布与{DSIorg(x,y,t,d)}对应的每个DCT系数子带集合中的DCT系数的直方图分布的拟合曲线之间的距离,将之间的距离记为 然后计算{DSIdis(x,y,t,d)}对应的所有DCT系数子带集合中的DCT系数的直方图分布所对应的距离之和,记为ddis
⑤_5、计算{DSIorg(x,y,t,d)}中的所有四维空间体中的所有像素点的DCT系数与{DSIdis(x,y,t,d)}中的所有四维空间体中的所有像素点的DCT系数之间的系数距离Q1,Q1=|dorg-ddis|。
所述的步骤⑥的具体过程为:
⑥_1、将{DSIorg(x,y,t,d)}中的每个四维空间体中的所有像素点的DCT系数分解成3个不同的频带,分别为低频频带、中频频带和高频频带;
同样,将{DSIdis(x,y,t,d)}中的每个四维空间体中的所有像素点的DCT系数分解成3个不同的频带,分别为低频频带、中频频带和高频频带;
⑥_2、计算{DSIorg(x,y,t,d)}中的所有四维空间体中的所有像素点的DCT系数的频率比系数,记为γorg其中,μorg,Mid表示{DSIorg(x,y,t,d)}中的所有四维空间体中的所有像素点的DCT系数中属于中频频带的所有DCT系数的均值,μorg,High表示{DSIorg(x,y,t,d)}中的所有四维空间体中的所有像素点的DCT系数中属于高频频带的所有DCT系数的均值,μorg,Low表示{DSIorg(x,y,t,d)}中的所有四维空间体中的所有像素点的DCT系数中属于低频频带的所有DCT系数的均值;
同样,计算{DSIdis(x,y,t,d)}中的所有四维空间体中的所有像素点的DCT系数的频率比系数,记为γdis其中,μdis,Mid表示{DSIdis(x,y,t,d)}中的所有四维空间体中的所有像素点的DCT系数中属于中频频带的所有DCT系数的均值,μdis,High表示{DSIdis(x,y,t,d)}中的所有四维空间体中的所有像素点的DCT系数中属于高频频带的所有DCT系数的均值,μdis,Low表示{DSIdis(x,y,t,d)}中的所有四维空间体中的所有像素点的DCT系数中属于低频频带的所有DCT系数的均值;
⑥_3、计算{DSIorg(x,y,t,d)}中的所有四维空间体中的所有像素点的DCT系数与{DSIdis(x,y,t,d)}中的所有四维空间体中的所有像素点的DCT系数之间的频率比距离其中,符号“| |”为取绝对值符号。
所述的步骤⑦中取λ=0.8。
与现有技术相比,本发明的优点在于:
1)本发明方法通过基于深度图像绘制的方法,绘制得到多个虚拟视点绘制视频,并构造得到四维空间图,由于所构造的四维空间图同时考虑了彩色和深度视频失真对虚拟视点绘制质量的影响,这样与直接对三维视频进行操作相比,能够更好地衡量彩色和深度视频失真对虚拟视点绘制的影响,从而有效地提升了对三维视频的评价性能。
2)本发明方法根据四维空间图中所有四维空间体的不同子带和频带的DCT系数统计特征,通过计算系数距离和频率比距离信息,来计算待评价的失真的三维视频的客观质量评价预测值,从而只需要较少的信息就能够较好地反映三维视频的质量变化情况。
附图说明
图1为本发明方法的实现流程框图;
图2为一个尺寸大小为8×8的图像块中的所有像素点的DCT系数分解成10个不同的子带的示意图。
具体实施方式
以下结合附图实施例对本发明作进一步详细描述。
本发明提出的一种降参考三维视频质量评价方法,其实现流程框图如图1所示,其包括以下步骤:
①令Sorg表示原始的无失真的三维视频,令Sdis表示Sorg经失真后得到的三维视频,将Sdis作为待评价的失真的三维视频;将Sorg的左视点视频和右视点视频对应记为Lorg和Rorg,将Sdis的左视点视频和右视点视频对应记为Ldis和Rdis;将Lorg中t时刻的左视点图像记为{Lorg,t(x,y)},将Rorg中t时刻的右视点图像记为{Rorg,t(x,y)},将Ldis中t时刻的左视点图像记为{Ldis,t(x,y)},将Rdis中t时刻的右视点图像记为{Rdis,t(x,y)};其中,1≤t≤T,1≤x≤W,1≤y≤H,T表示Lorg中包含的左视点图像的总帧数,也即Rorg中包含的右视点图像的总帧数,也即Ldis中包含的左视点图像的总帧数,也即Rdis中包含的右视点图像的总帧数,W表示Lorg中的左视点图像、Rorg中的右视点图像、Ldis中的左视点图像、Rdis中的右视点图像的宽度,H表示Lorg中的左视点图像、Rorg中的右视点图像、Ldis中的左视点图像、Rdis中的右视点图像的高度,Lorg,t(x,y)表示{Lorg,t(x,y)}中坐标位置为(x,y)的像素点的像素值,Rorg,t(x,y)表示{Rorg,t(x,y)}中坐标位置为(x,y)的像素点的像素值,Ldis,t(x,y)表示{Ldis,t(x,y)}中坐标位置为(x,y)的像素点的像素值,Rdis,t(x,y)表示{Rdis,t(x,y)}中坐标位置为(x,y)的像素点的像素值。
②采用现有的基于深度图像绘制的方法,并随机选取6个介于左视点和右视点之间且视点间距相同的虚拟视点,根据Lorg中每个时刻的左视点图像和Rorg中对应时刻的右视点图像绘制得到对应时刻的6幅虚拟视点图像,将根据{Lorg,t(x,y)}和{Rorg,t(x,y)}绘制得到的t时刻的6幅虚拟视点图像对应记为 然后将绘制得到的第1个虚拟视点的T幅虚拟视点图像构成Sorg对应的第1个虚拟视点绘制视频,记为由{Lorg,1(x,y)}和{Rorg,1(x,y)}绘制得到的1时刻的第1幅虚拟视点图像{Lorg,2(x,y)}和{Rorg,2(x,y)}绘制得到的2时刻的第1幅虚拟视点图像和{Rorg,T(x,y)}绘制得到的T时刻的第1幅虚拟视点图像构成;并将绘制得到的第2个虚拟视点的T幅虚拟视点图像构成Sorg对应的第2个虚拟视点绘制视频,记为由{Lorg,1(x,y)}和{Rorg,1(x,y)}绘制得到的1时刻的第2幅虚拟视点图像{Lorg,2(x,y)}和{Rorg,2(x,y)}绘制得到的2时刻的第2幅虚拟视点图像和{Rorg,T(x,y)}绘制得到的T时刻的第2幅虚拟视点图像构成;将绘制得到的第3个虚拟视点的T幅虚拟视点图像构成Sorg对应的第3个虚拟视点绘制视频,记为由{Lorg,1(x,y)}和{Rorg,1(x,y)}绘制得到的1时刻的第2幅虚拟视点图像{Lorg,2(x,y)}和{Rorg,2(x,y)}绘制得到的2时刻的第3幅虚拟视点图像和{Rorg,T(x,y)}绘制得到的T时刻的第3幅虚拟视点图像构成;将绘制得到的第4个虚拟视点的T幅虚拟视点图像构成Sorg对应的第4个虚拟视点绘制视频,记为由{Lorg,1(x,y)}和{Rorg,1(x,y)}绘制得到的1时刻的第4幅虚拟视点图像{Lorg,2(x,y)}和{Rorg,2(x,y)}绘制得到的2时刻的第4幅虚拟视点图像和{Rorg,T(x,y)}绘制得到的T时刻的第4幅虚拟视点图像构成;将绘制得到的第5个虚拟视点的T幅虚拟视点图像构成Sorg对应的第5个虚拟视点绘制视频,记为由{Lorg,1(x,y)}和{Rorg,1(x,y)}绘制得到的1时刻的第5幅虚拟视点图像{Lorg,2(x,y)}和{Rorg,2(x,y)}绘制得到的2时刻的第5幅虚拟视点图像和{Rorg,T(x,y)}绘制得到的T时刻的第5幅虚拟视点图像构成;将绘制得到的第6个虚拟视点的T幅虚拟视点图像构成Sorg对应的第6个虚拟视点绘制视频,记为由{Lorg,1(x,y)}和{Rorg,1(x,y)}绘制得到的1时刻的第6幅虚拟视点图像{Lorg,2(x,y)}和{Rorg,2(x,y)}绘制得到的2时刻的第6幅虚拟视点图像和{Rorg,T(x,y)}绘制得到的T时刻的第6幅虚拟视点图像构成;其中,表示中坐标位置为(x,y)的像素点的像素值,表示中坐标位置为(x,y)的像素点的像素值,表示中坐标位置为(x,y)的像素点的像素值,表示中坐标位置为(x,y)的像素点的像素值,表示中坐标位置为(x,y)的像素点的像素值,表示中坐标位置为(x,y)的像素点的像素值。
同样,采用现有的基于深度图像绘制的方法,并选取介于左视点和右视点之间且视点间距相同的虚拟视点,根据Ldis中每个时刻的左视点图像和Rdis中对应时刻的右视点图像绘制得到对应时刻的6幅虚拟视点图像,将根据{Ldis,t(x,y)}和{Rdis,t(x,y)}绘制得到的t时刻的6幅虚拟视点图像对应记为 然后将绘制得到的第1个虚拟视点的T幅虚拟视点图像构成Sdis对应的第1个虚拟视点绘制视频,记为并将绘制得到的第2个虚拟视点的T幅虚拟视点图像构成Sdis对应的第2个虚拟视点绘制视频,记为将绘制得到的第3个虚拟视点的T幅虚拟视点图像构成Sdis对应的第3个虚拟视点绘制视频,记为将绘制得到的第4个虚拟视点的T幅虚拟视点图像构成Sdis对应的第4个虚拟视点绘制视频,记为将绘制得到的第5个虚拟视点的T幅虚拟视点图像构成Sdis对应的第5个虚拟视点绘制视频,记为将绘制得到的第6个虚拟视点的T幅虚拟视点图像构成Sdis对应的第6个虚拟视点绘制视频,记为其中,表示中坐标位置为(x,y)的像素点的像素值,表示中坐标位置为(x,y)的像素点的像素值,表示中坐标位置为(x,y)的像素点的像素值,表示中坐标位置为(x,y)的像素点的像素值,表示中坐标位置为(x,y)的像素点的像素值,表示中坐标位置为(x,y)的像素点的像素值。
③将Lorg和Rorg按各自所在的视差平面的坐标位置从小到大的顺序排列,构成Sorg的四维空间图,记为{DSIorg(x,y,t,d)};其中,dmax表示左视点和右视点的视差平面的最大坐标位置,在本实施例中dmax的值根据具体的左视点和右视点的基线距离确定,d=0代表左视点的视差平面的坐标位置,代表第1个虚拟视点的视差平面的坐标位置,代表第2个虚拟视点的视差平面的坐标位置,代表第3个虚拟视点的视差平面的坐标位置,代表第4个虚拟视点的视差平面的坐标位置,代表第5个虚拟视点的视差平面的坐标位置,代表第6个虚拟视点的视差平面的坐标位置,d=dmax代表右视点的视差平面的坐标位置,当d=0时DSIorg(x,y,t,d)=Lorg,t(x,y),当当d=dmax时DSIorg(x,y,t,d)=Rorg,t(x,y)。
同样,将Ldis和Rdis按各自所在的视差平面的坐标位置从小到大的顺序排列,构成Sdis的四维空间图,记为{DSIdis(x,y,t,d)};其中,当d=0时DSIdis(x,y,t,d)=Ldis,t(x,y),当当d=dmax时DSIdis(x,y,t,d)=Rdis,t(x,y)。
④将{DSIorg(x,y,t,d)}划分成个互不重叠的尺寸大小为8×8×8×8的四维空间体;然后对{DSIorg(x,y,t,d)}中的每个四维空间体中的每个像素点进行离散余弦变换,得到{DSIorg(x,y,t,d)}中的每个四维空间体中的每个像素点的DCT系数。
同样,将{DSIdis(x,y,t,d)}划分成个互不重叠的尺寸大小为8×8×8×8的四维空间体;然后对{DSIdis(x,y,t,d)}中的每个四维空间体中的每个像素点进行离散余弦变换,得到{DSIdis(x,y,t,d)}中的每个四维空间体中的每个像素点的DCT系数。
⑤考虑到图像失真会引起DCT系数的不同子带分布发生变化,本发明方法计算{DSIorg(x,y,t,d)}中的所有四维空间体中的所有像素点的DCT系数与{DSIdis(x,y,t,d)}中的所有四维空间体中的所有像素点的DCT系数之间的系数距离,记为Q1
在此具体实施例中,步骤⑤的具体过程为:
⑤_1、将{DSIorg(x,y,t,d)}中的每个四维空间体中的所有像素点的DCT系数分解成10个不同的子带;然后将{DSIorg(x,y,t,d)}中的所有四维空间体中的所有像素点的DCT系数中属于相同子带的所有DCT系数构成一个DCT系数子带集合,将{DSIorg(x,y,t,d)}中的所有四维空间体中的所有像素点的DCT系数中属于第i个子带的所有DCT系数构成的DCT系数子带集合记为其中,1≤i≤10,表示中的第j个DCT系数,即为{DSIorg(x,y,t,d)}中的所有四维空间体中的所有像素点的DCT系数中属于第i个子带的第j个DCT系数,Ni表示{DSIorg(x,y,t,d)}中的所有四维空间体中的所有像素点的DCT系数中属于第i个子带的DCT系数的总个数。
同样,将{DSIdis(x,y,t,d)}中的每个四维空间体中的所有像素点的DCT系数分解成10个不同的子带;然后将{DSIdis(x,y,t,d)}中的所有四维空间体中的所有像素点的DCT系数中属于相同子带的所有DCT系数构成一个DCT系数子带集合,将{DSIdis(x,y,t,d)}中的所有四维空间体中的所有像素点的DCT系数中属于第i个子带的所有DCT系数构成的DCT系数子带集合记为其中,表示中的第j个DCT系数,即为{DSIdis(x,y,t,d)}中的所有四维空间体中的所有像素点的DCT系数中属于第i个子带的第j个DCT系数,Ni亦表示{DSIdis(x,y,t,d)}中的所有四维空间体中的所有像素点的DCT系数中属于第i个子带的DCT系数的总个数。
在本实施例中,对于一个尺寸大小为8×8的图像块,将该图像块中的所有像素点的DCT系数分解成10个不同的子带的示意图如图2所示,一个尺寸大小为8×8×8×8的四维空间体可以看作是由64个尺寸大小为8×8的图像块构成,因此,
⑤_2、获取{DSIorg(x,y,t,d)}对应的每个DCT系数子带集合中的DCT系数的直方图分布,将中的DCT系数的直方图分布记为其中,表示中在第k个直方图节点处的DCT系数的总个数。
同样,获取{DSIdis(x,y,t,d)}对应的每个DCT系数子带集合中的DCT系数的直方图分布,将中的DCT系数的直方图分布记为其中,表示中在第k个直方图节点处的DCT系数的总个数。
⑤_3、采用现有的广义高斯分布(GGD)模型对{DSIorg(x,y,t,d)}对应的每个DCT系数子带集合中的DCT系数的直方图分布进行拟合,拟合得到{DSIorg(x,y,t,d)}对应的每个DCT系数子带集合中的DCT系数的直方图分布的拟合曲线,将的拟合曲线记为中与对应的点值记为 其中, 表示拟合曲线的尺度参数,表示拟合曲线的形状参数,exp()表示以自然基数e为底的指数函数,符号“| |”为取绝对值符号,t为积分变量。
⑤_4、计算{DSIorg(x,y,t,d)}对应的每个DCT系数子带集合中的DCT系数的直方图分布与其拟合曲线之间的距离,将之间的距离记为 然后计算{DSIorg(x,y,t,d)}对应的所有DCT系数子带集合中的DCT系数的直方图分布所对应的距离之和,记为dorg
并计算{DSIdis(x,y,t,d)}对应的每个DCT系数子带集合中的DCT系数的直方图分布与{DSIorg(x,y,t,d)}对应的每个DCT系数子带集合中的DCT系数的直方图分布的拟合曲线之间的距离,将之间的距离记为 然后计算{DSIdis(x,y,t,d)}对应的所有DCT系数子带集合中的DCT系数的直方图分布所对应的距离之和,记为ddis
⑤_5、计算{DSIorg(x,y,t,d)}中的所有四维空间体中的所有像素点的DCT系数与{DSIdis(x,y,t,d)}中的所有四维空间体中的所有像素点的DCT系数之间的系数距离Q1,Q1=|dorg-ddis|。
⑥考虑到图像失真会引起DCT系数的不同频带之间关系发生变化,本发明方法计算{DSIorg(x,y,t,d)}中的所有四维空间体中的所有像素点的DCT系数与{DSIdis(x,y,t,d)}中的所有四维空间体中的所有像素点的DCT系数之间的频率比距离,记为Q2
在此具体实施例中,步骤⑥的具体过程为:
⑥_1、将{DSIorg(x,y,t,d)}中的每个四维空间体中的所有像素点的DCT系数分解成3个不同的频带,分别为低频频带、中频频带和高频频带。
同样,将{DSIdis(x,y,t,d)}中的每个四维空间体中的所有像素点的DCT系数分解成3个不同的频带,分别为低频频带、中频频带和高频频带。
在本实施例中,将第1个、第2个、第3个和第4个子带构成低频频带,将第5个、第6个和第7个子带构成中频频带,将第8个、第9个和第10个子带构成高频频带,因此,{DSIorg(x,y,t,d)}中的所有四维空间体中的所有像素点的DCT系数中属于第1个频带即低频频带的DCT系数的总个数、{DSIdis(x,y,t,d)}中的所有四维空间体中的所有像素点的DCT系数中属于第1个频带即低频频带的DCT系数的总个数均为{DSIorg(x,y,t,d)}中的所有四维空间体中的所有像素点的DCT系数中属于第2个频带即中频频带的DCT系数的总个数、{DSIdis(x,y,t,d)}中的所有四维空间体中的所有像素点的DCT系数中属于第2个频带即中频频带的DCT系数的总个数均为{DSIorg(x,y,t,d)}中的所有四维空间体中的所有像素点的DCT系数中属于第3个频带即高频频带的DCT系数的总个数、{DSIdis(x,y,t,d)}中的所有四维空间体中的所有像素点的DCT系数中属于第3个频带即高频频带的DCT系数的总个数均为
⑥_2、计算{DSIorg(x,y,t,d)}中的所有四维空间体中的所有像素点的DCT系数的频率比系数,记为γorg其中,μorg,Mid表示{DSIorg(x,y,t,d)}中的所有四维空间体中的所有像素点的DCT系数中属于中频频带的所有DCT系数的均值,μorg,High表示{DSIorg(x,y,t,d)}中的所有四维空间体中的所有像素点的DCT系数中属于高频频带的所有DCT系数的均值,μorg,Low表示{DSIorg(x,y,t,d)}中的所有四维空间体中的所有像素点的DCT系数中属于低频频带的所有DCT系数的均值。
同样,计算{DSIdis(x,y,t,d)}中的所有四维空间体中的所有像素点的DCT系数的频率比系数,记为γdis其中,μdis,Mid表示{DSIdis(x,y,t,d)}中的所有四维空间体中的所有像素点的DCT系数中属于中频频带的所有DCT系数的均值,μdis,High表示{DSIdis(x,y,t,d)}中的所有四维空间体中的所有像素点的DCT系数中属于高频频带的所有DCT系数的均值,μdis,Low表示{DSIdis(x,y,t,d)}中的所有四维空间体中的所有像素点的DCT系数中属于低频频带的所有DCT系数的均值。
⑥_3、计算{DSIorg(x,y,t,d)}中的所有四维空间体中的所有像素点的DCT系数与{DSIdis(x,y,t,d)}中的所有四维空间体中的所有像素点的DCT系数之间的频率比距离其中,符号“| |”为取绝对值符号。
⑦计算Sdis的客观质量评价预测值,记为Q,Q=λ×Q1+(1-λ)×Q2;其中,λ为加权参数,在本实施例中取λ=0.8。
在本实施例中,采用本发明方法对宁波大学建立的三维视频质量评价数据库进行测试,该三维视频质量评价数据库包含8个原始的彩色视频和对应的深度视频,对彩色视频进行4个强度的编码失真,对深度视频也进行4个强度的编码失真,并通过组合得到192个虚拟视点绘制视频,并给出了每个虚拟视点绘制视频的平均主观评分差值。
在本实施例中,利用评估图像质量评价方法的4个常用客观参量作为评价指标,即非线性回归条件下的Pearson相关系数(Pearson linear correlation coefficient,PLCC)、Spearman相关系数(Spearman rank order correlation coefficient,SROCC)、Kendall相关系数(Kendall rank-order correlation coefficient,KROCC)、均方误差(root mean squared error,RMSE),PLCC和RMSE反映客观评价预测值的准确性,SROCC和KROCC反映其单调性。将分别采用本发明方法与公知的PSNR和SSIM全参考质量评价方法得到失真的三维视频的客观质量评价预测值与平均主观评分差值之间的Pearson相关系数、Spearman相关系数、Kendall相关系数和均方误差进行比较,比较结果如表1所示。从表1中可以看出,采用本发明方法得到的失真的三维视频的客观质量评价预测值与平均主观评分差值之间的相关性是很高的,充分表明了本发明方法的客观评价结果与人眼主观感知的结果较为一致,足以说明本发明方法的有效性。
表1利用本发明方法与公知的PSNR和SSIM全参考质量评价方法得到的失真的三维视频的客观质量评价预测值与平均主观评分差值之间的Pearson相关系数、Spearman相关系数、Kendall相关系数和均方误差比较
PLCC SROCC KROCC RMSE
PSNR方法 0.8375 0.8552 0.6411 7.8790
SSIM方法 0.7091 0.6988 0.5171 10.8747
本发明方法 0.8513 0.8487 0.6582 7.1537

Claims (4)

1.一种降参考三维视频质量评价方法,其特征在于包括以下步骤:
①令Sorg表示原始的无失真的三维视频,令Sdis表示Sorg经失真后得到的三维视频,将Sdis作为待评价的失真的三维视频;将Sorg的左视点视频和右视点视频对应记为Lorg和Rorg,将Sdis的左视点视频和右视点视频对应记为Ldis和Rdis;将Lorg中t时刻的左视点图像记为{Lorg,t(x,y)},将Rorg中t时刻的右视点图像记为{Rorg,t(x,y)},将Ldis中t时刻的左视点图像记为{Ldis,t(x,y)},将Rdis中t时刻的右视点图像记为{Rdis,t(x,y)};其中,1≤t≤T,1≤x≤W,1≤y≤H,T表示Lorg中包含的左视点图像的总帧数,也即Rorg中包含的右视点图像的总帧数,也即Ldis中包含的左视点图像的总帧数,也即Rdis中包含的右视点图像的总帧数,W表示Lorg中的左视点图像、Rorg中的右视点图像、Ldis中的左视点图像、Rdis中的右视点图像的宽度,H表示Lorg中的左视点图像、Rorg中的右视点图像、Ldis中的左视点图像、Rdis中的右视点图像的高度,Lorg,t(x,y)表示{Lorg,t(x,y)}中坐标位置为(x,y)的像素点的像素值,Rorg,t(x,y)表示{Rorg,t(x,y)}中坐标位置为(x,y)的像素点的像素值,Ldis,t(x,y)表示{Ldis,t(x,y)}中坐标位置为(x,y)的像素点的像素值,Rdis,t(x,y)表示{Rdis,t(x,y)}中坐标位置为(x,y)的像素点的像素值;
②采用基于深度图像绘制的方法,并选取6个介于左视点和右视点之间且视点间距相同的虚拟视点,根据Lorg中每个时刻的左视点图像和Rorg中对应时刻的右视点图像绘制得到对应时刻的6幅虚拟视点图像,将根据{Lorg,t(x,y)}和{Rorg,t(x,y)}绘制得到的t时刻的6幅虚拟视点图像对应记为 然后将绘制得到的第1个虚拟视点的T幅虚拟视点图像构成Sorg对应的第1个虚拟视点绘制视频,记为并将绘制得到的第2个虚拟视点的T幅虚拟视点图像构成Sorg对应的第2个虚拟视点绘制视频,记为将绘制得到的第3个虚拟视点的T幅虚拟视点图像构成Sorg对应的第3个虚拟视点绘制视频,记为将绘制得到的第4个虚拟视点的T幅虚拟视点图像构成Sorg对应的第4个虚拟视点绘制视频,记为将绘制得到的第5个虚拟视点的T幅虚拟视点图像构成Sorg对应的第5个虚拟视点绘制视频,记为将绘制得到的第6个虚拟视点的T幅虚拟视点图像构成Sorg对应的第6个虚拟视点绘制视频,记为其中,表示中坐标位置为(x,y)的像素点的像素值,表示中坐标位置为(x,y)的像素点的像素值,表示中坐标位置为(x,y)的像素点的像素值,表示中坐标位置为(x,y)的像素点的像素值,表示中坐标位置为(x,y)的像素点的像素值,表示中坐标位置为(x,y)的像素点的像素值;
同样,采用基于深度图像绘制的方法,并选取介于左视点和右视点之间且视点间距相同的虚拟视点,根据Ldis中每个时刻的左视点图像和Rdis中对应时刻的右视点图像绘制得到对应时刻的6幅虚拟视点图像,将根据{Ldis,t(x,y)}和{Rdis,t(x,y)}绘制得到的t时刻的6幅虚拟视点图像对应记为 然后将绘制得到的第1个虚拟视点的T幅虚拟视点图像构成Sdis对应的第1个虚拟视点绘制视频,记为并将绘制得到的第2个虚拟视点的T幅虚拟视点图像构成Sdis对应的第2个虚拟视点绘制视频,记为将绘制得到的第3个虚拟视点的T幅虚拟视点图像构成Sdis对应的第3个虚拟视点绘制视频,记为将绘制得到的第4个虚拟视点的T幅虚拟视点图像构成Sdis对应的第4个虚拟视点绘制视频,记为将绘制得到的第5个虚拟视点的T幅虚拟视点图像构成Sdis对应的第5个虚拟视点绘制视频,记为将绘制得到的第6个虚拟视点的T幅虚拟视点图像构成Sdis对应的第6个虚拟视点绘制视频,记为其中,表示中坐标位置为(x,y)的像素点的像素值,表示中坐标位置为(x,y)的像素点的像素值,表示中坐标位置为(x,y)的像素点的像素值,表示中坐标位置为(x,y)的像素点的像素值,表示中坐标位置为(x,y)的像素点的像素值,表示中坐标位置为(x,y)的像素点的像素值;
③将Lorg和Rorg按各自所在的视差平面的坐标位置从小到大的顺序排列,构成Sorg的四维空间图,记为{DSIorg(x,y,t,d)};其中,dmax表示左视点和右视点的视差平面的最大坐标位置,d=0代表左视点的视差平面的坐标位置,代表第1个虚拟视点的视差平面的坐标位置,代表第2个虚拟视点的视差平面的坐标位置,代表第3个虚拟视点的视差平面的坐标位置,代表第4个虚拟视点的视差平面的坐标位置,代表第5个虚拟视点的视差平面的坐标位置,代表第6个虚拟视点的视差平面的坐标位置,d=dmax代表右视点的视差平面的坐标位置,当d=0时DSIorg(x,y,t,d)=Lorg,t(x,y),当当d=dmax时DSIorg(x,y,t,d)=Rorg,t(x,y);
同样,将Ldis和Rdis按各自所在的视差平面的坐标位置从小到大的顺序排列,构成Sdis的四维空间图,记为{DSIdis(x,y,t,d)};其中,当d=0时DSIdis(x,y,t,d)=Ldis,t(x,y),当当d=dmax时DSIdis(x,y,t,d)=Rdis,t(x,y);
④将{DSIorg(x,y,t,d)}划分成个互不重叠的尺寸大小为8×8×8×8的四维空间体;然后对{DSIorg(x,y,t,d)}中的每个四维空间体中的每个像素点进行离散余弦变换,得到{DSIorg(x,y,t,d)}中的每个四维空间体中的每个像素点的DCT系数;
同样,将{DSIdis(x,y,t,d)}划分成个互不重叠的尺寸大小为8×8×8×8的四维空间体;然后对{DSIdis(x,y,t,d)}中的每个四维空间体中的每个像素点进行离散余弦变换,得到{DSIdis(x,y,t,d)}中的每个四维空间体中的每个像素点的DCT系数;
⑤计算{DSIorg(x,y,t,d)}中的所有四维空间体中的所有像素点的DCT系数与{DSIdis(x,y,t,d)}中的所有四维空间体中的所有像素点的DCT系数之间的系数距离,记为Q1
⑥计算{DSIorg(x,y,t,d)}中的所有四维空间体中的所有像素点的DCT系数与{DSIdis(x,y,t,d)}中的所有四维空间体中的所有像素点的DCT系数之间的频率比距离,记为Q2
⑦计算Sdis的客观质量评价预测值,记为Q,Q=λ×Q1+(1-λ)×Q2;其中,λ为加权参数。
2.根据权利要求1所述的一种降参考三维视频质量评价方法,其特征在于所述的步骤⑤的具体过程为:
⑤_1、将{DSIorg(x,y,t,d)}中的每个四维空间体中的所有像素点的DCT系数分解成10个不同的子带;然后将{DSIorg(x,y,t,d)}中的所有四维空间体中的所有像素点的DCT系数中属于相同子带的所有DCT系数构成一个DCT系数子带集合,将{DSIorg(x,y,t,d)}中的所有四维空间体中的所有像素点的DCT系数中属于第i个子带的所有DCT系数构成的DCT系数子带集合记为其中,1≤i≤10,表示中的第j个DCT系数,即为{DSIorg(x,y,t,d)}中的所有四维空间体中的所有像素点的DCT系数中属于第i个子带的第j个DCT系数,Ni表示{DSIorg(x,y,t,d)}中的所有四维空间体中的所有像素点的DCT系数中属于第i个子带的DCT系数的总个数;
同样,将{DSIdis(x,y,t,d)}中的每个四维空间体中的所有像素点的DCT系数分解成10个不同的子带;然后将{DSIdis(x,y,t,d)}中的所有四维空间体中的所有像素点的DCT系数中属于相同子带的所有DCT系数构成一个DCT系数子带集合,将{DSIdis(x,y,t,d)}中的所有四维空间体中的所有像素点的DCT系数中属于第i个子带的所有DCT系数构成的DCT系数子带集合记为其中,表示中的第j个DCT系数,即为{DSIdis(x,y,t,d)}中的所有四维空间体中的所有像素点的DCT系数中属于第i个子带的第j个DCT系数,Ni亦表示{DSIdis(x,y,t,d)}中的所有四维空间体中的所有像素点的DCT系数中属于第i个子带的DCT系数的总个数;
⑤_2、获取{DSIorg(x,y,t,d)}对应的每个DCT系数子带集合中的DCT系数的直方图分布,将中的DCT系数的直方图分布记为其中,表示中在第k个直方图节点处的DCT系数的总个数;
同样,获取{DSIdis(x,y,t,d)}对应的每个DCT系数子带集合中的DCT系数的直方图分布,将中的DCT系数的直方图分布记为其中,表示中在第k个直方图节点处的DCT系数的总个数;
⑤_3、采用广义高斯分布模型对{DSIorg(x,y,t,d)}对应的每个DCT系数子带集合中的DCT系数的直方图分布进行拟合,拟合得到{DSIorg(x,y,t,d)}对应的每个DCT系数子带集合中的DCT系数的直方图分布的拟合曲线,将的拟合曲线记为中与对应的点值记为 其中,1≤k≤150,表示拟合曲线的尺度参数,表示拟合曲线的形状参数,exp()表示以自然基数e为底的指数函数,符号“| |”为取绝对值符号,t为积分变量;
⑤_4、计算{DSIorg(x,y,t,d)}对应的每个DCT系数子带集合中的DCT系数的直方图分布与其拟合曲线之间的距离,将之间的距离记为 然后计算{DSIorg(x,y,t,d)}对应的所有DCT系数子带集合中的DCT系数的直方图分布所对应的距离之和,记为dorg
并计算{DSIdis(x,y,t,d)}对应的每个DCT系数子带集合中的DCT系数的直方图分布与{DSIorg(x,y,t,d)}对应的每个DCT系数子带集合中的DCT系数的直方图分布的拟合曲线之间的距离,将之间的距离记为 然后计算{DSIdis(x,y,t,d)}对应的所有DCT系数子带集合中的DCT系数的直方图分布所对应的距离之和,记为ddis
⑤_5、计算{DSIorg(x,y,t,d)}中的所有四维空间体中的所有像素点的DCT系数与{DSIdis(x,y,t,d)}中的所有四维空间体中的所有像素点的DCT系数之间的系数距离Q1,Q1=|dorg-ddis|。
3.根据权利要求1或2所述的一种降参考三维视频质量评价方法,其特征在于所述的步骤⑥的具体过程为:
⑥_1、将{DSIorg(x,y,t,d)}中的每个四维空间体中的所有像素点的DCT系数分解成3个不同的频带,分别为低频频带、中频频带和高频频带;
同样,将{DSIdis(x,y,t,d)}中的每个四维空间体中的所有像素点的DCT系数分解成3个不同的频带,分别为低频频带、中频频带和高频频带;
⑥_2、计算{DSIorg(x,y,t,d)}中的所有四维空间体中的所有像素点的DCT系数的频率比系数,记为γorg其中,μorg,Mid表示{DSIorg(x,y,t,d)}中的所有四维空间体中的所有像素点的DCT系数中属于中频频带的所有DCT系数的均值,μorg,High表示{DSIorg(x,y,t,d)}中的所有四维空间体中的所有像素点的DCT系数中属于高频频带的所有DCT系数的均值,μorg,Low表示{DSIorg(x,y,t,d)}中的所有四维空间体中的所有像素点的DCT系数中属于低频频带的所有DCT系数的均值;
同样,计算{DSIdis(x,y,t,d)}中的所有四维空间体中的所有像素点的DCT系数的频率比系数,记为γdis其中,μdis,Mid表示{DSIdis(x,y,t,d)}中的所有四维空间体中的所有像素点的DCT系数中属于中频频带的所有DCT系数的均值,μdis,High表示{DSIdis(x,y,t,d)}中的所有四维空间体中的所有像素点的DCT系数中属于高频频带的所有DCT系数的均值,μdis,Low表示{DSIdis(x,y,t,d)}中的所有四维空间体中的所有像素点的DCT系数中属于低频频带的所有DCT系数的均值;
⑥_3、计算{DSIorg(x,y,t,d)}中的所有四维空间体中的所有像素点的DCT系数与{DSIdis(x,y,t,d)}中的所有四维空间体中的所有像素点的DCT系数之间的频率比距离Q2其中,符号“| |”为取绝对值符号。
4.根据权利要求3所述的一种降参考三维视频质量评价方法,其特征在于所述的步骤⑦中取λ=0.8。
CN201610734525.7A 2016-08-26 2016-08-26 一种降参考三维视频质量评价方法 Active CN106303513B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201610734525.7A CN106303513B (zh) 2016-08-26 2016-08-26 一种降参考三维视频质量评价方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201610734525.7A CN106303513B (zh) 2016-08-26 2016-08-26 一种降参考三维视频质量评价方法

Publications (2)

Publication Number Publication Date
CN106303513A CN106303513A (zh) 2017-01-04
CN106303513B true CN106303513B (zh) 2017-11-03

Family

ID=57677027

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201610734525.7A Active CN106303513B (zh) 2016-08-26 2016-08-26 一种降参考三维视频质量评价方法

Country Status (1)

Country Link
CN (1) CN106303513B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108810513B (zh) * 2018-06-27 2020-03-13 深圳看到科技有限公司 全景视频的画面质量显示方法及装置

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103517065A (zh) * 2013-09-09 2014-01-15 宁波大学 一种质降参考立体图像质量客观评价方法
CN103533343A (zh) * 2013-09-29 2014-01-22 宁波大学 一种基于数字水印的立体图像质量客观评价方法
CN104144339A (zh) * 2014-06-13 2014-11-12 宁波大学 一种基于人眼感知的质降参考立体图像质量客观评价方法
CN104767993A (zh) * 2015-04-08 2015-07-08 宁波大学 一种基于质降时域加权的立体视频客观质量评价方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101550065B1 (ko) * 2013-06-21 2015-09-07 한국과학기술원 시각적으로 편안한 입체 영상을 위한 스테레오스코픽 영상 촬영 방법 및 시스템

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103517065A (zh) * 2013-09-09 2014-01-15 宁波大学 一种质降参考立体图像质量客观评价方法
CN103533343A (zh) * 2013-09-29 2014-01-22 宁波大学 一种基于数字水印的立体图像质量客观评价方法
CN104144339A (zh) * 2014-06-13 2014-11-12 宁波大学 一种基于人眼感知的质降参考立体图像质量客观评价方法
CN104767993A (zh) * 2015-04-08 2015-07-08 宁波大学 一种基于质降时域加权的立体视频客观质量评价方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Perceptual Full-Reference Quality Assessment of Stereoscopic Images by Considering Binocular Visual Characteristics;Feng Shao ET AL.;《IEEE TRANSACTIONS ON IMAGE PROCESSING》;20130530;第22卷(第5期);第1940-1953页 *
质降参考图像质量评价方法研究;王旭等;《宁波大学学报(理工版)》;20091231;第22卷(第4期);第506-510页 *

Also Published As

Publication number Publication date
CN106303513A (zh) 2017-01-04

Similar Documents

Publication Publication Date Title
US10552989B2 (en) Point cloud attribute compression method based on KD tree and optimized graph transformation
CN105959684B (zh) 基于双目融合的立体图像质量评价方法
CN101872479B (zh) 一种立体图像客观质量评价方法
CN104079925B (zh) 基于视觉感知特性的超高清视频图像质量客观评价方法
CN104036501B (zh) 一种基于稀疏表示的立体图像质量客观评价方法
CN101378519B (zh) 一种基于Contourlet变换的质降参考图像质量评价方法
CN104394403B (zh) 一种面向压缩失真的立体视频质量客观评价方法
CN105761290B (zh) 一种自适应的多尺度分块压缩感知采样方法
CN103517065B (zh) 一种质降参考立体图像质量客观评价方法
CN107578451A (zh) 一种面向自然图像的自适应主色提取方法
CN103780895B (zh) 一种立体视频质量评价方法
CN102970540A (zh) 基于关键帧码率-量化模型的多视点视频码率控制方法
CN104376565A (zh) 基于离散余弦变换和稀疏表示的无参考图像质量评价方法
CN103581687B (zh) 一种基于压缩感知的自适应深度图像编码方法
CN108235057A (zh) 一种大规模海洋洋流数据的网络传输及可视化方法
CN107071423A (zh) 视觉多通道模型在立体视频质量客观评价中的应用方法
CN102521825A (zh) 一种基于零水印的立体图像质量客观评价方法
CN106056638B (zh) 一种自适应纹理对比度的低复杂度压缩感知图像编码方法
CN104144339B (zh) 一种基于人眼感知的质降参考立体图像质量客观评价方法
CN109523508B (zh) 一种密集光场质量评价方法
CN106303513B (zh) 一种降参考三维视频质量评价方法
CN116723305B (zh) 一种基于生成式对抗网络的虚拟视点质量增强方法
CN103841411A (zh) 一种基于双目信息处理的立体图像质量评价方法
CN103108209A (zh) 基于视觉阈值与通道融合的立体图像客观质量评价方法
CN102685531B (zh) 一种三维视频编码的深度和彩色码率分配方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
TR01 Transfer of patent right
TR01 Transfer of patent right

Effective date of registration: 20191220

Address after: Room 1,020, Nanxun Science and Technology Pioneering Park, No. 666 Chaoyang Road, Nanxun District, Huzhou City, Zhejiang Province, 313000

Patentee after: Huzhou You Yan Intellectual Property Service Co.,Ltd.

Address before: 315211 Zhejiang Province, Ningbo Jiangbei District Fenghua Road No. 818

Patentee before: Ningbo University

TR01 Transfer of patent right
TR01 Transfer of patent right

Effective date of registration: 20201201

Address after: 313000 No. 818 Xinhui Road, Lianshi Town, Nanxun District, Huzhou City, Zhejiang Province

Patentee after: ZHEJIANG SANXING ELECTRICAL TECHNOLOGY Co.,Ltd.

Address before: Room 1,020, Nanxun Science and Technology Pioneering Park, No. 666 Chaoyang Road, Nanxun District, Huzhou City, Zhejiang Province, 313000

Patentee before: Huzhou You Yan Intellectual Property Service Co.,Ltd.

TR01 Transfer of patent right
TR01 Transfer of patent right

Effective date of registration: 20221104

Address after: 271000 Taishan science and Technology Industrial Park, north of yitianmen street, high tech Zone, Tai'an City, Shandong Province

Patentee after: Tai'an Taishan Intelligent Technology Co.,Ltd.

Address before: No.818 Xinhui Road, Lianshi Town, Nanxun District, Huzhou City, Zhejiang Province

Patentee before: ZHEJIANG SANXING ELECTRICAL TECHNOLOGY CO.,LTD.