CN104767993B - 一种基于质降时域加权的立体视频客观质量评价方法 - Google Patents

一种基于质降时域加权的立体视频客观质量评价方法 Download PDF

Info

Publication number
CN104767993B
CN104767993B CN201510161665.5A CN201510161665A CN104767993B CN 104767993 B CN104767993 B CN 104767993B CN 201510161665 A CN201510161665 A CN 201510161665A CN 104767993 B CN104767993 B CN 104767993B
Authority
CN
China
Prior art keywords
picture
stereo
org
frame
exercise intensity
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201510161665.5A
Other languages
English (en)
Other versions
CN104767993A (zh
Inventor
郁梅
郑凯辉
蒋刚毅
宋洋
刘姗姗
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Anhui Today Internet Technology Co ltd
Shenzhen Dragon Totem Technology Achievement Transformation Co ltd
Original Assignee
Ningbo University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ningbo University filed Critical Ningbo University
Priority to CN201510161665.5A priority Critical patent/CN104767993B/zh
Publication of CN104767993A publication Critical patent/CN104767993A/zh
Priority to US14/949,045 priority patent/US9836843B2/en
Application granted granted Critical
Publication of CN104767993B publication Critical patent/CN104767993B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N17/00Diagnosis, testing or measuring for television systems or their details
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • G06T2207/10021Stereoscopic video; Stereoscopic image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30168Image quality inspection
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/597Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0085Motion estimation from stereoscopic image signals

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Quality & Reliability (AREA)
  • Biomedical Technology (AREA)
  • General Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于质降时域加权的立体视频客观质量评价方法,其考虑到人眼在视频感知过程中存在的时域感知冗余特性,利用无失真的立体视频的运动强度均值和运动强度方差及每个帧组的运动强度均值和运动强度方差,确定无失真的立体视频中的每个帧组的运动强度等级;然后对于不同运动强度等级的帧组,通过不同密度的帧提取策略选取无失真质降立体图像;接着度量同时刻的失真质降立体图像相对于无失真质降立体图像的质量;最终通过加权各同时刻的失真质降立体图像相对于无失真质降立体图像的质量,得到失真的立体视频相对于无失真的立体视频的质量;优点是获得的质量更符合人眼的时域感知,有效地提高了客观评价结果与主观感知之间的相关性。

Description

一种基于质降时域加权的立体视频客观质量评价方法
技术领域
本发明涉及一种视频质量评价方法,尤其是涉及一种基于质降时域加权的立体视频客观质量评价方法。
背景技术
三维图像和立体视频技术在当前的图像视频处理领域发展迅速,其相关技术的应用已经大量的融入到了当前的社会生活中,例如立体电视、立体电影、裸眼3D等。国内外许多高校和科研机构对于立体图像的客观质量评价展开了研究,并在立体图像客观质量评价领域取得了丰硕的成果,而在立体视频客观质量评价领域研究相对较少。
现有的立体视频客观质量评价方案主要是借鉴立体图像客观质量评价方法对立体视频进行评价,这种方案较少的考虑了立体视频在时域上的感知特性,通常仅对时域上的各帧质量进行平均加权,忽视了各帧的不同特性差异(如亮度、运动等)对立体视频质量的影响,忽略了时域加权的重要性,导致立体视频的客观评价结果与主观感知之间的相关性较差。另一方面,现有的大多数的立体视频客观质量评价方案为全参考型,如基于PSNR的质量评价方案,其需要逐像素的比较失真视点与原始视点的差异,因此,在评价视频质量时,需要完整的原始视频信息,由于全参考型需要完整的原始视频信息做参考比较,而在实际应用过程中往往不能得到原始视频信息,而质降参考型通过在原始视频中提取有效的特征进行质量比较,所需的信息较原始视频信息量大大降低,因此质降参考型较全参考型更加实用。
发明内容
本发明所要解决的技术问题是提供一种基于质降时域加权的立体视频客观质量评价方法,其能够有效地提高客观评价结果与主观感知之间的相关性。
本发明解决上述技术问题所采用的技术方案为:一种基于质降时域加权的立体视频客观质量评价方法,其特征在于包括以下步骤:
①令Vorg表示原始的无失真的立体视频,将Vorg中的第n帧立体图像记为的左视点图像和右视点图像对应记为令Vdis表示待评价的失真的立体视频;其中,1≤n≤fnum,fnum表示Vorg和Vdis中各自包含的立体图像的总帧数;
②计算Vorg中的每帧立体图像的左视点图像的运动强度,将的运动强度记为 并计算Vorg中的每帧立体图像的右视点图像的运动强度,将的运动强度记为 然后计算Vorg中的每帧立体图像的运动强度,将的运动强度记为
其中,M表示Vorg和Vdis中各自包含的立体图像的宽度,N表示Vorg和Vdis中各自包含的立体图像的高度,1≤x≤M,1≤y≤N,表示中坐标位置为(x,y)的像素点的运动强度, 对应表示中坐标位置为(x,y)的像素点的运动矢量的水平偏移量和垂直偏移量,表示中坐标位置为(x,y)的像素点的运动强度, 对应表示中坐标位置为(x,y)的像素点的运动矢量的水平偏移量和垂直偏移量;
③计算Vorg的运动强度均值和运动强度方差,对应记为Eorg,mean和Eorg,var E org , mean = Σ n = 1 f num IE org n f num , E org , var = Σ n = 1 f num ( IE org n - E org , mean ) 2 f num ;
④在Vorg中从第1帧立体图像开始,以连续的g帧立体图像为一个帧组,将Vorg划分成个帧组,将Vorg中的第n'个帧组记为其中,g=2p,p=3或4或5,符号为向下取整符号,
⑤计算Vorg中的每个帧组的运动强度均值和运动强度方差,将的运动强度均值和运动强度方差对应记为 E org , var n ′ = Σ n = n ′ × g - 2 p - 1 n ′ × g ( IE org n - E org , mean ) 2 g ;
⑥确立Vorg中的每个帧组的运动强度等级,将的运动强度等级记为 其中,表示的运动强度最弱,表示的运动强度中等,表示的运动强度最强;
⑦根据Vorg中的每个帧组的运动强度等级,在Vorg中的每个帧组中选取不同帧数的立体图像作为Vorg中的无失真质降立体图像;对于如果,则在中任意选取一帧立体图像作为无失真质降立体图像;如果则在中以连续的帧立体图像为一个子帧组,将划分成2q个子帧组,然后在中的每个子帧组中任意选取一帧立体图像作为无失真质降立体图像,在中共获得2q帧无失真质降立体图像,其中,q=0或1或2;
⑧假设Vorg中的无失真质降立体图像共有fnum'帧,并将Vdis中与每帧无失真质降立体图像同时刻的一帧立体图像作为Vdis中的一帧失真质降立体图像,则Vdis中的失真质降立体图像共有fnum'帧,将Vorg中的第m帧无失真质降立体图像记为将Vdis中的第m帧失真质降立体图像记为其中,1≤m≤fnum';
⑨计算Vdis中的每帧失真质降立体图像相对于Vorg中同时刻的一帧无失真质降立体图像的质量,将相对于的质量记为Qm
⑩计算Vdis相对于Vorg的质量,记为Q,其中,表示的运动强度。
所述的步骤④中取p=4;所述的步骤⑦中取q=2。
所述的步骤⑨中相对于的质量Qm的获取过程为:
⑨-1、将的左视点图像和右视点图像对应记为
⑨-2、采用峰值信噪比图像质量评价方法获取各自的质量,对应记为
⑨-3、计算相对于的质量,记为Qm
所述的步骤⑨中相对于的质量Qm的获取过程为:
⑨-1)、将的左视点图像和右视点图像对应记为
⑨-2)、采用结构相似度图像质量评价方法获取各自的质量,对应记为
⑨-3)、计算相对于的质量,记为Qm
所述的步骤⑨中相对于的质量Qm的获取过程为:采用基于人眼感知的质降参考立体图像质量客观评价方法获取相对于的质量,记为Qm
与现有技术相比,本发明的优点在于:本发明方法考虑到人眼对时域运动感知的特性,分析视频的运动特性,根据不同运动剧烈程度的视频片段,采取不同策略选取质降帧进行后续的质量评价,使得本发明方法符合人眼对视频的时域感知特性,能够很好的反映视频片段在整个立体视频中的重要程度,并通过提取质降帧,有效地降低了立体视频的冗余信息,提高了实际应用能力;本发明方法在最终的视频质量计算中,利用时域运动剧烈程度加权质降帧得到最终的立体视频质量,计算结果更符合人眼的时域感知,有效地提高了客观评价结果与主观感知之间的相关性。
附图说明
图1为本发明方法的总体实现框图。
具体实施方式
以下结合附图实施例对本发明作进一步详细描述。
本发明提出的一种基于质降时域加权的立体视频客观质量评价方法,其考虑到人眼在视频感知过程中存在的时域感知冗余特性,利用无失真的立体视频的运动强度均值和运动强度方差及无失真的立体视频中的每个帧组的运动强度均值和运动强度方差,确定无失真的立体视频中的每个帧组的运动强度等级;然后对于不同运动强度等级的帧组,通过不同密度的帧提取策略选取无失真质降立体图像;接着度量同时刻的失真质降立体图像相对于无失真质降立体图像的质量;最终通过加权各同时刻的失真质降立体图像相对于无失真质降立体图像的质量,得到失真的立体视频相对于无失真的立体视频的质量。
本发明的立体视频客观质量评价方法的总体实现框图如图1所示,其包括以下步骤:
①令Vorg表示原始的无失真的立体视频,将Vorg中的第n帧立体图像记为的左视点图像和右视点图像对应记为令Vdis表示待评价的失真的立体视频,将Vdis中的第n帧立体图像记为的左视点图像和右视点图像对应记为其中,1≤n≤fnum,fnum表示Vorg和Vdis中各自包含的立体图像的总帧数。
②计算Vorg中的每帧立体图像的左视点图像的运动强度,将的运动强度记为并计算Vorg中的每帧立体图像的右视点图像的运动强度,将的运动强度记为 然后计算Vorg中的每帧立体图像的运动强度,将的运动强度记为
其中,M表示Vorg和Vdis中各自包含的立体图像的宽度,N表示Vorg和Vdis中各自包含的立体图像的高度,1≤x≤M,1≤y≤N,表示中坐标位置为(x,y)的像素点的运动强度, 对应表示中坐标位置为(x,y)的像素点的运动矢量的水平偏移量和垂直偏移量,表示中坐标位置为(x,y)的像素点的运动强度, 对应表示中坐标位置为(x,y)的像素点的运动矢量的水平偏移量和垂直偏移量。
在本实施例中,中坐标位置为(x,y)的像素点的运动矢量和中坐标位置为(x,y)的像素点的运动矢量均采用现有的成熟技术获得。
③计算Vorg的运动强度均值和运动强度方差,对应记为Eorg,mean和Eorg,var E org , mean = Σ n = 1 f num IE org n f num , E org , var = Σ n = 1 f num ( IE org n - E org , mean ) 2 f num .
④在Vorg中从第1帧立体图像开始,以连续的g帧立体图像为一个帧组,将Vorg划分成个帧组,将Vorg中的第n'个帧组记为并在Vdis中从第1帧立体图像开始,以连续的g帧立体图像为一个帧组,将Vdis划分成个帧组,将Vdis中的第n'个帧组记为其中,g=2p,p=3或4或5,在本实施例中取p=4,符号为向下取整符号,
在此,Vorg和Vdis中多余的没有构成一个帧组的所有立体图像舍弃不处理。
⑤计算Vorg中的每个帧组的运动强度均值和运动强度方差,将的运动强度均值和运动强度方差对应记为 E org , var n ′ = Σ n = n ′ × g - 2 p - 1 n ′ × g ( IE org n - E org , mean ) 2 g .
⑥确立Vorg中的每个帧组的运动强度等级,将的运动强度等级记为 其中,表示的运动强度最弱,表示的运动强度中等,表示的运动强度最强。
⑦根据Vorg中的每个帧组的运动强度等级,在Vorg中的每个帧组中选取不同帧数的立体图像作为Vorg中的无失真质降立体图像;对于如果则在中任意选取一帧立体图像作为无失真质降立体图像;如果则在中以连续的帧立体图像为一个子帧组,将划分成2q个子帧组,然后在中的每个子帧组中任意选取一帧立体图像作为无失真质降立体图像,在中共获得2q帧无失真质降立体图像,其中,q=0或1或2,在本实施例中取q=2。
⑧假设Vorg中的无失真质降立体图像共有fnum'帧,并将Vdis中与每帧无失真质降立体图像同时刻的一帧立体图像作为Vdis中的一帧失真质降立体图像,则Vdis中的失真质降立体图像共有fnum'帧,将Vorg中的第m帧无失真质降立体图像记为将Vdis中的第m帧失真质降立体图像记为其中,1<fnum'<fnum,1≤m≤fnum'。
⑨计算Vdis中的每帧失真质降立体图像相对于Vorg中同时刻的一帧无失真质降立体图像的质量,将相对于的质量记为Qm
在此具体实施例中,相对于的质量Qm的获取可采用现有的任意成熟的图像质量评价方法,一般情况下可采用现有的三种图像质量评价方法,即现有的峰值信噪比(PSNR)图像质量评价方法和现有的结构相似度(SSIM)图像质量评价方法以及基于人眼感知的质降参考立体图像质量客观评价方法获取,在具体操作时可任选一种方法。
采用现有的峰值信噪比(PSNR)图像质量评价方法获取Qm的具体过程为:⑨-1、将的左视点图像和右视点图像对应记为⑨-2、采用现有的峰值信噪比(PSNR)图像质量评价方法获取各自的质量,对应记为⑨-3、计算相对于的质量,记为Qm
采用现有的结构相似度(SSIM)图像质量评价方法获取Qm的具体过程为:⑨-1)、将的左视点图像和右视点图像对应记为⑨-2)、采用现有的结构相似度(SSIM)图像质量评价方法获取各自的质量,对应记为⑨-3)、计算相对于的质量,记为Qm
在具体操作时建议采用中国公开的发明专利申请“基于人眼感知的质降参考立体图像质量客观评价方法”(公开号:CN104144339A)中公开的方法来获取相对于的质量Qm
⑩计算Vdis相对于Vorg的质量,记为Q,其中,表示的运动强度。
为进一步说明本发明方法的可行性和有效性,对本发明方法进行试验。
在本实施例中,选取法国IRCCyN研究机构提供的立体视频库中的H.264编码失真立体视频进行测试,该立体视频库中包含10对不同场景的原始高清立体视频,其中H.264编码失真立体视频包含3组不同失真程度的H.264编码失真立体视频,共30对失真的立体视频。对上述30对失真的立体视频按本发明方法计算得到每对失真的立体视频相对于对应的无失真的原始高清立体视频的质量,然后将计算得到的质量与平均主观评分差值DMOS进行四参数Logistic函数非线性拟合,最后得到客观评价结果与主观感知之间的性能指标值。这里,利用评估视频质量评价方法的3个常用客观参量作为评价指标,即线性相关系数(Correlation coefficient,CC)、Spearman秩相关系数(Spearman Rank OrderCorrelation coefficient,SROCC)和均方根误差(Rooted Mean Squared Error,RMSE)。CC和SROCC的取值范围是[0,1],其值越接近1,表明客观评价方法越好,反之,表明客观评价方法越差;RMSE值越小,表示客观评价方法的预测越准确,性能越好;反之,表示客观评价方法的预测越差。利用现有的PSNR图像质量评价方法(PSNR方法)、现有的SSIM图像质量评价方法(SSIM方法)、本发明方法(同时刻的失真质降立体图像相对于无失真质降立体图像的质量使用PSNR图像质量评价方法获取)(T-PSNR方法)、本发明方法(同时刻的失真质降立体图像相对于无失真质降立体图像的质量使用SSIM图像质量评价方法获取)(T-SSIM方法)、本发明方法(同时刻的失真质降立体图像相对于无失真质降立体图像的质量使用基于人眼感知的质降参考立体图像质量客观评价方法获取)(T-method方法)分别获取每对失真的立体视频相对于对应的无失真的原始高清立体视频的质量,获取的立体视频质量与平均主观评分差值之间的相关性能参数CC、SROCC和RMSE系数如表1所列。从表1中所列的数据可见,按本发明方法计算得到的失真的立体视频相对于对应的无失真的立体视频的质量与平均主观评分差值DMOS之间有很好的相关性,其中T-PSNR方法的CC值达到了0.7906,SROCC值达到了0.7876,而RMSE值低至0.7087;对于T-SSIM方法,CC值达到了0.8486,SROCC值达到了0.8047,而RMSE值低至0.6122;而T-method方法的CC值达到了0.9487,SROCC值达到了0.9243,而RMSE值低至0.3602,相比于现有的PSNR图像质量评价方法和现有的SSIM图像质量评价方法,本发明方法的客观评价结果与人眼主观感知的结果较为一致,充分说明了本发明方法的有效性。
表1各方法计算得到的失真的立体视频相对于对应的无失真的立体视频的质量与平均主观评分差值之间的相关性能参数

Claims (4)

1.一种基于质降时域加权的立体视频客观质量评价方法,其特征在于包括以下步骤:
①令Vorg表示原始的无失真的立体视频,将Vorg中的第n帧立体图像记为的左视点图像和右视点图像对应记为令Vdis表示待评价的失真的立体视频;其中,1≤n≤fnum,fnum表示Vorg和Vdis中各自包含的立体图像的总帧数;
②计算Vorg中的每帧立体图像的左视点图像的运动强度,将的运动强度记为 并计算Vorg中的每帧立体图像的右视点图像的运动强度,将的运动强度记为 然后计算Vorg中的每帧立体图像的运动强度,将的运动强度记为
其中,M表示Vorg和Vdis中各自包含的立体图像的宽度,N表示Vorg和Vdis中各自包含的立体图像的高度,1≤x≤M,1≤y≤N,表示中坐标位置为(x,y)的像素点的运动强度, 对应表示中坐标位置为(x,y)的像素点的运动矢量的水平偏移量和垂直偏移量,表示中坐标位置为(x,y)的像素点的运动强度, 对应表示中坐标位置为(x,y)的像素点的运动矢量的水平偏移量和垂直偏移量;
③计算Vorg的运动强度均值和运动强度方差,对应记为Eorg,mean和Eorg,var
④在Vorg中从第1帧立体图像开始,以连续的g帧立体图像为一个帧组,将Vorg划分成个帧组,将Vorg中的第n'个帧组记为其中,g=2p,p=3或4或5,符号为向下取整符号,
⑤计算Vorg中的每个帧组的运动强度均值和运动强度方差,将的运动强度均值和运动强度方差对应记为
⑥确立Vorg中的每个帧组的运动强度等级,将的运动强度等级记为 其中,表示的运动强度最弱,表示的运动强度中等,表示的运动强度最强;
⑦根据Vorg中的每个帧组的运动强度等级,在Vorg中的每个帧组中选取不同帧数的立体图像作为Vorg中的无失真质降立体图像;对于如果则在中任意选取一帧立体图像作为无失真质降立体图像;如果则在中以连续的帧立体图像为一个子帧组,将划分成2q个子帧组,然后在中的每个子帧组中任意选取一帧立体图像作为无失真质降立体图像,在中共获得2q帧无失真质降立体图像,其中,q=0或1或2;
⑧假设Vorg中的无失真质降立体图像共有fnum'帧,并将Vdis中与每帧无失真质降立体图像同时刻的一帧立体图像作为Vdis中的一帧失真质降立体图像,则Vdis中的失真质降立体图像共有fnum'帧,将Vorg中的第m帧无失真质降立体图像记为将Vdis中的第m帧失真质降立体图像记为其中,1≤m≤fnum';
⑨计算Vdis中的每帧失真质降立体图像相对于Vorg中同时刻的一帧无失真质降立体图像的质量,将相对于的质量记为Qm
⑩计算Vdis相对于Vorg的质量,记为Q,其中,表示的运动强度。
2.根据权利要求1所述的一种基于质降时域加权的立体视频客观质量评价方法,其特征在于所述的步骤④中取p=4;所述的步骤⑦中取q=2。
3.根据权利要求1或2所述的一种基于质降时域加权的立体视频客观质量评价方法,其特征在于所述的步骤⑨中相对于的质量Qm的获取过程为:
⑨-1、将的左视点图像和右视点图像对应记为
⑨-2、采用峰值信噪比图像质量评价方法获取各自的质量,对应记为
⑨-3、计算相对于的质量,记为Qm
4.根据权利要求1或2所述的一种基于质降时域加权的立体视频客观质量评价方法,其特征在于所述的步骤⑨中相对于的质量Qm的获取过程为:
⑨-1)、将的左视点图像和右视点图像对应记为
⑨-2)、采用结构相似度图像质量评价方法获取各自的质量,对应记为
⑨-3)、计算相对于的质量,记为Qm
CN201510161665.5A 2015-04-08 2015-04-08 一种基于质降时域加权的立体视频客观质量评价方法 Active CN104767993B (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN201510161665.5A CN104767993B (zh) 2015-04-08 2015-04-08 一种基于质降时域加权的立体视频客观质量评价方法
US14/949,045 US9836843B2 (en) 2015-04-08 2015-11-23 Method for assessing objective quality of stereoscopic video based on reduced time-domain weighting

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201510161665.5A CN104767993B (zh) 2015-04-08 2015-04-08 一种基于质降时域加权的立体视频客观质量评价方法

Publications (2)

Publication Number Publication Date
CN104767993A CN104767993A (zh) 2015-07-08
CN104767993B true CN104767993B (zh) 2016-08-24

Family

ID=53649561

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201510161665.5A Active CN104767993B (zh) 2015-04-08 2015-04-08 一种基于质降时域加权的立体视频客观质量评价方法

Country Status (2)

Country Link
US (1) US9836843B2 (zh)
CN (1) CN104767993B (zh)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106888374B (zh) * 2015-12-16 2018-11-20 联芯科技有限公司 一种三维视频编码方法、装置及视频处理设备
US10402696B2 (en) * 2016-01-04 2019-09-03 Texas Instruments Incorporated Scene obstruction detection using high pass filters
CN105915892A (zh) * 2016-05-06 2016-08-31 乐视控股(北京)有限公司 全景视频质量判断方法及系统
CN106097327B (zh) * 2016-06-06 2018-11-02 宁波大学 结合流形特征及双目特性的立体图像质量客观评价方法
CN106303513B (zh) * 2016-08-26 2017-11-03 宁波大学 一种降参考三维视频质量评价方法
US11310475B2 (en) * 2019-08-05 2022-04-19 City University Of Hong Kong Video quality determination system and method

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103024402A (zh) * 2012-11-29 2013-04-03 宁波大学 一种自由视点视频整帧丢失错误隐藏方法
JP2013196532A (ja) * 2012-03-22 2013-09-30 Nippon Hoso Kyokai <Nhk> 3次元モデル−インテグラル画像変換装置およびそのプログラム

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013196532A (ja) * 2012-03-22 2013-09-30 Nippon Hoso Kyokai <Nhk> 3次元モデル−インテグラル画像変換装置およびそのプログラム
CN103024402A (zh) * 2012-11-29 2013-04-03 宁波大学 一种自由视点视频整帧丢失错误隐藏方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
基于人眼视觉特性的三维小波变换视频质量评价方法;宋洋等;《光电子· 激光》;20141025;第25卷(第10期);全文 *
基于小波高频的立体图像质量评价;刘姗姗等;《浙江省电子学会2014学术年会论文集》;20141101;全文 *

Also Published As

Publication number Publication date
CN104767993A (zh) 2015-07-08
US9836843B2 (en) 2017-12-05
US20160301909A1 (en) 2016-10-13

Similar Documents

Publication Publication Date Title
CN104767993B (zh) 一种基于质降时域加权的立体视频客观质量评价方法
CN102333233B (zh) 一种基于视觉感知的立体图像质量客观评价方法
CN102209257B (zh) 一种立体图像质量客观评价方法
CN104394403B (zh) 一种面向压缩失真的立体视频质量客观评价方法
CN104811691B (zh) 一种基于小波变换的立体视频质量客观评价方法
CN106097327B (zh) 结合流形特征及双目特性的立体图像质量客观评价方法
CN102750695B (zh) 一种基于机器学习的立体图像质量客观评价方法
CN103338379B (zh) 一种基于机器学习的立体视频客观质量评价方法
CN103581661A (zh) 一种立体图像视觉舒适度评价方法
CN102708567B (zh) 一种基于视觉感知的立体图像质量客观评价方法
CN104036501A (zh) 一种基于稀疏表示的立体图像质量客观评价方法
CN105407349A (zh) 基于双目视觉感知的无参考立体图像质量客观评价方法
CN103281554B (zh) 一种基于人眼视觉特性的视频客观质量评价方法
CN104202594A (zh) 一种基于三维小波变换的视频质量评价方法
CN105430415A (zh) 一种3d-hevc深度视频帧内快速编码方法
CN104811693A (zh) 一种立体图像视觉舒适度客观评价方法
CN102547368A (zh) 一种立体图像质量客观评价方法
CN105654465A (zh) 一种采用视差补偿视点间滤波的立体图像质量评价方法
CN104954778A (zh) 一种基于感知特征集的立体图像质量客观评价方法
CN103136748A (zh) 一种基于特征图的立体图像质量客观评价方法
CN106303530A (zh) 一种融合视觉感知特性的码率控制方法
CN102708568B (zh) 一种基于结构失真的立体图像客观质量评价方法
CN104243974B (zh) 一种基于三维离散余弦变换的立体视频质量客观评价方法
CN102737380B (zh) 一种基于梯度结构张量的立体图像质量客观评价方法
CN103108209B (zh) 基于视觉阈值与通道融合的立体图像客观质量评价方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
EXSB Decision made by sipo to initiate substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
TR01 Transfer of patent right
TR01 Transfer of patent right

Effective date of registration: 20221214

Address after: Room 2202, 22 / F, Wantong building, No. 3002, Sungang East Road, Sungang street, Luohu District, Shenzhen City, Guangdong Province

Patentee after: Shenzhen dragon totem technology achievement transformation Co.,Ltd.

Address before: 315211, Fenghua Road, Jiangbei District, Zhejiang, Ningbo 818

Patentee before: Ningbo University

Effective date of registration: 20221214

Address after: Floor 2-7, Building B1, Intelligent Equipment Park, Hefei Economic and Technological Development Zone, 230000 Anhui Province

Patentee after: Anhui today Internet Technology Co.,Ltd.

Address before: Room 2202, 22 / F, Wantong building, No. 3002, Sungang East Road, Sungang street, Luohu District, Shenzhen City, Guangdong Province

Patentee before: Shenzhen dragon totem technology achievement transformation Co.,Ltd.