CN102740119A - 用于预测三维视频的主观质量的全参考系统 - Google Patents

用于预测三维视频的主观质量的全参考系统 Download PDF

Info

Publication number
CN102740119A
CN102740119A CN2012101079632A CN201210107963A CN102740119A CN 102740119 A CN102740119 A CN 102740119A CN 2012101079632 A CN2012101079632 A CN 2012101079632A CN 201210107963 A CN201210107963 A CN 201210107963A CN 102740119 A CN102740119 A CN 102740119A
Authority
CN
China
Prior art keywords
video
quality
test
prediction
difference
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN2012101079632A
Other languages
English (en)
Inventor
K.M.费尔古森
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tektronix Inc
Original Assignee
Tektronix Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tektronix Inc filed Critical Tektronix Inc
Publication of CN102740119A publication Critical patent/CN102740119A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/122Improving the 3D impression of stereoscopic images by modifying image signal contents, e.g. by filtering or adding monoscopic depth cues
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/327Calibration thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • G06T2207/10021Stereoscopic video; Stereoscopic image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30168Image quality inspection
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/111Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0081Depth or disparity estimation from stereoscopic image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0088Synthesising a monoscopic image signal from stereoscopic images, e.g. synthesising a panoramic or high resolution monoscopic image

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Quality & Reliability (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

本发明涉及用于预测三维视频的主观质量的全参考系统。提供了一种生成预测图片质量评价的方法。通常,视差测量是通过将三维图像的左和右子分量进行比较而由所述三维图像所构成。随后,使用来自所述视差测量的用于合并的数据,所述三维图像的左和右子分量被合并(融合)为二维图像。预测质量测量随后基于所述二维图像生成,并且进一步包括与原始三维图像的比较相关的质量信息。

Description

用于预测三维视频的主观质量的全参考系统
技术领域
本公开涉及图像的质量预测,且尤其涉及一种用于预测三维(立体)视频的主观质量的全参考系统。
背景技术
诸如电视广播、电影之类的行业以及目前采用基于立体的3D技术的其它行业正面临着若干质量保证和质量控制的问题。与其它相比,在视频中,处理假象(artifact)和损害给一些用户造成更多的分心。此外,虽然目前日益流行,但是三维视频可能导致一些观看者的视觉不适,其中所述不适通常与3D图像的立体(左和右)图像之间的水平视差(disparity)量有关。
可使用目前的技术,其为二维视频的制作设置中的视频提供视觉不适和损害的指示、预测、警告和原因。虽然以困难的方式,但是这些技术中的一些已经被用来对测量3D图像的右和左图像的各种组合进行测量。例如,已经研发了技术来单独测量构成3D图像的右和左的2D图像,随后对右和左的质量结果进行平均。如另一个示例,可以通过相对于未处理的左(参考)视频对经处理的左(测试)视频进行测量以便进行左视图的视频质量评估,并且对于右视图同样如此,而将TEKTRONIX PQA600用于3D视频质量的评估。
然而,正在以日益提高的速度从现有的2D视频生成3D视频。此外,其它的3D处理也正在出现,诸如为了被改变用途作为蓝光DVD等的影院,为了视频设备的R&D(捕捉、诸如编解码的处理等等)以及其它应用所制作的3D电影。目前还没有用于直接预测立体视频的主观质量的全参考系统。
本发明的实施例解决了现有技术的这些和其它局限。
发明内容
在本发明的一些方面,提供了一种生成预测图片质量评价(rating)的方法。通常,视差测量通过将三维图像的左和右子分量进行比较而由所述三维图像所构成。随后,使用来自用于合并的所述视差测量的数据,所述三维图像的左和右子分量被合并(融合)为二维图像。预测质量测量随后基于所述二维图像生成,并且进一步包括与原始三维图像相关的质量信息。
本发明的其它方面包括一种用于相对于参考立体视频预测测试立体视频的质量的质量预测系统。所述预测系统包括用于接受测试三维视频和参考三维视频的输入。这些三维视频的左和右分量随后在比较器中单独进行比较并且取得视差测量。融合器随后使用来自所述比较的数据将三维图像的左和右元素分别合并为二维图像。图片质量分析器随后被用来基于所述二维图像生成图片质量预测或测量。此外,汇总设备在所述质量预测系统的最终输出中包括三维比较的信息。
附图说明
图1是根据本发明实施例的用于立体视频的全参考主观质量预测器的框图。
图2是示出图1中用于立体视频的全参考主观质量预测器的额外细节的框图。
图3是图示能够被用来比较立体图像的过程的示例性流程图。
图4是从图3所示的两幅单独图像的合并所产生的单幅融合图像的示例。
图5是图示本发明的实施例中所使用的用于三维图像的标准视图的平面观看深度和观看角度的参考图像。
具体实施方式
迄今为止,用于广播的最为常见的立体视频表现方法是在每个视频帧的顶部和底部或者并排发送的单独的左和右视频视图(使用公知的MPEG-2或H.264标准),或者在单独的相应通道中发送的单独的左和右视频视图(H.264的多视图视频编码,MVC)。可替换地,2D帧可以在一个通道中连同另一个通道中的其相应的深度图(depth map)一起发送(即,可能经由MVC的适配)。虽然后者2D帧+深度通道视频表现也可以使用本发明的概念进行测量,但是仍使用前者(单独的左和右)方法来解释本发明系统的概念。
本发明的实施例提供了一种(在图像分辨率、帧率、实时相对于较高准确性等方面上)可缩放的方法来生成与当前2D的解决方案相兼容的预测质量评价:每个帧和每个序列一个标量量度,也就是DMOS预测,主观差异意味着3D测试和3D参考视频之间的观点得分(opinion score)。
图1是根据本发明实施例的用于立体视频的全参考主观质量预测器10的框图。质量预测器10包括用于3D图像或视频、参考图像12和测试图像14的两个单独输入。贯穿该公开所要理解的是,对标识符一幅3D图像或多幅3D图像的使用包括静态图像和视频图像二者。如所示,每幅3D图像包括左分量和右分量。
一般来讲,以下更为详细描述的,在相应的评估块22、24中对每幅3D图像单独进行初始测量。接着,参考图像12和测试图像中的每一个的左和右分量的每一个被合并为相应的融合图像。特别地,参考图像12的左和右图像在融合器42中进行合并以产生融合参考图像52,而测试图像14的左和右图像在融合器44中进行合并以产生融合测试图像54。所述融合处理在产生融合图像52、54时使用来自相应评估块22、24的数据。
融合参考图像和融合测试图像52、54被作为输入馈送至2D质量分析器60,在一些实施例中,所述2D质量分析器可以是之前所提到的TEKTRONIX PQA600,或者是具有类似功能的分析器。分析器60的输出被发送到汇总设备90。此外,汇总设备90包括来自评估块22、24的输入,它们为所述汇总设备提供了与3D测试图像12和3D参考图像14的3D方面相关的信息。汇总设备90随后生成3D立体图像12、14的预测图片质量评价(诸如DMOS(差异平均观点得分)评价或对于分析立体视频的那些有用的其它评价)的输出。
图2是示出图1中用于立体视频的全参考主观质量预测器的示例性实施例200的额外细节的框图。
质量预测器200包括3D参考图像输入212和3D测试图像输入214。这些3D输入被提供给相应的视差测量块222、224。测量块222中包括分离器226,所述分离器226将参考图像输入212划分为其左和右分量部分,如果不是已经以那样的形式所接收的话。在一些情况下,分离可能是不重要的(如在H.264 MVC中)。在其它情况下,左通道可以从参考图像输入212的左或顶部部分所取得,而右通道则处于输入帧的其余部分。测量块224包括用于测试图像214的类似分离器228。在分割结束时,总共由四个视频通道:参考左、参考右、测试左和测试右。
每幅图像212、214的左和右要素是去往视差测量块232、234的相应输入,所述视差测量块被用来测量3D图像212、214的每个帧的视差和失配。图3图示了视差测量块232、234中所进行的示例性处理。
图3是图示示例性过程300的框图,其图示了从立体图像的示例性左和右帧创建视差和失配数据。在过程300中,3D图像已经被分离为左图像312和右图像314。重要的是,在这里要注意到图3所示的左图像312和右图像314仅是图2的参考3D图像312或测试3D图像314之一。换句话说,虽然仅图示了针对一幅立体图像的处理,但是对参考和测试图像312、314都进行图3所示的处理。
如可在www.research.microsoft.com获得的Daniel Scharstein和Richard Szeliski的被称作“技术报告”的文章“A Taxonomy and Evaluation of Dense Two-Frame Stereo Correspondence Algorithms”,Microsoft Technical Report MSR-TR-2001-81中所描述的,已经描述了用来测量三维图像的空间视差的一般性方法。在生成视差测量时,这些一般性处理步骤是:a)在局部的基础上对指示相应图像的部分的空间匹配的测量进行量化;b)对来自这样的量化的局部结果进行集合;c)视差计算/优化;以及d)视差精炼(refinement)。
在任选过程316、318中,左和右图像312、314首先在垂直方向被下采样。例如,如果图像312、314如标准HD视频帧那样在垂直方向具有1080个像素而在水平方向具有1920个像素,则每个图像可以下采样为10×1920个像素图像。这产生了一对图像(左和右),其中每幅图像恰好具有10条水平线,每条为1920像素长度。
在另一组任选过程320、322中,垂直下采样的图像线同样可以被水平下采样为更短的线。例如,如果用于评价立体图像的监视器的显示小于1920像素宽度,这可能是适宜的。不同于将图像线下采样为特定数量的像素,其可以以给定百分比进行下采样,例如下采样至具有原始长度的70%长度的一个。在垂直和水平方向二者中的这样的下采样是系统计算速度相对整体测量精确性之间的权衡。
一对过程326、328通过使用题为“Measurement Apparatus and Method of Measurement of Video Spatial Scale, Offset and Cropping”的美国公开申请2008/0152257和题为“Methods and Systems for Image Registration”的美国公开申请2010/0226592中所描述的双向IIR滤波器从原始或下采样图像中的每一个减去相应的双向IIR低通滤波版本而对其执行虚光蒙板(unsharp mask)处理,上述公开申请均通过引用结合于此。所使用的双向IIR滤波器的滤波器系数可以为a1 = 1 – b0。这导致针对每幅图像或垂直下采样的图像线的生成的DC(低频)线。
接下来,在过程330中例如使用经修改的左和右图像之间的差异的绝对值来合并虚光蒙板图像。也可以使用其它技术,例如使用平方差、交叉相关或者相位或小波相位分析。实际上,在具有每个移动(shift)的局部匹配量化结果的不同相对移动处对左和右图像进行比较。
如以上所描述的,过程340通过双向IIR低通滤波器输送差异值以创建连续局部平均值。下一个过程350执行视差计算/优化。典型地,这可以通过取得每个图像部分的最佳匹配来快速执行。例如,如果以该密度测量了立体对应(stereo correspondence),则每个像素均执行视差计算。然而,在计算了所有像素移动之后,可以为了 “平滑性”或者一些应用中不太可能想到的非连续性而对移动群组进行评估。可以使用通过噪声、中值(median)或者其它滤波器进行的滤波。
在过程300的这个阶段,从处理器350的输出创建视差图或图像360以及失配图或图像370。首先,对于过程350的输出的每一列,选择最小误差值并且将其数据值编码为失配图像370的像素。失配图像370的顶部线通过选择过程350的输出的每一列中的最小值而生成,并且被复制另外的107次以便对垂直下采样过程316、318进行补偿。也就是说,失配图像370的前108条线是相同的。这确保了即使原始图像312、314被下采样,失配图像370也与原始立体图像312、314具有相同的维度。在所有的最小误差值都被选择之后,可以针对失配图像370的最大图像对比对所述数值进行规范化。该失配图像370作为观看者是否可能成功生成立体图像的特定部分的三维深度感知的表现。换句话说,失配程度越高,这在失配图像370中可能表现为光亮区域,则指示观看者在其头脑中成功融合左和右图像312、314时存在问题。
同样从过程350的数据输出生成视差图像360。视差图像360中的每个像素表示必须沿其水平线进行移动以生成以上所确定的最小误差的每个像素的像素数量。换句话说,与通过取得每列的实际最小比较数值而生成失配图像370的情况不同,通过在视差图像360中绘制对应于出现最小数值的每一列的线数量的移动来生成视差图像360。移动在实施例中通过移动= LineNumber * ShiftIncrement + InitialShift而与线数量相关。与失配图像370类似,通过复制线另外107次以使得其大小与原始的左和右图像312、314相匹配来生成视差图像360。
3D视频中深度的极值以及深度随时间的高速变化已知与视觉不适相关联。同样,左和右的失配部分可以是视觉不适的来源。因此,如以下所进一步描述的,将该信息计入立体图像质量的最终预测是适宜的。
回去参见图2,视差和失配数据被图示为由视差测量块232、234所产生,虽然如图3所示,并非必须要在图像中产生视差和失配数据。
接下来,在相应处理242和244中,参考帧212和测试帧214的视差测量被用来创建相应的融合帧252、254。图4中图示了融合帧的示例,其中融合帧410是将图3的各体的左图像312与右图像314进行融合,而且另外使用了所计算的并且被表示为图像360的视差测量的最终结果。注意融合帧410中融合证据是明显的特定区域420和430。
对于视频的每个部分,在图3的过程300中所创建的视差图被用作校正偏移以将特定3D图像212或214的左和右通道对齐。这样所记录的左和右帧被2的叠象渐变(cross-fade)所“融合”,实现为左和右帧的加权和。正常情况下,叠象渐变是使得左和右被等同加权,即例如融合图像252由像素所构成,以使得:
融合的[像素] = 左[像素 + 偏移(视差)*.5]*.5 + 右[像素 – 偏移(视差)*.5]*.5
然而,图2中融合参考图像252(或融合测试图像254)的融合并非必须是相等的。换句话说,任选地,可以使用直接用户控制或注意力模型反馈来对右眼或左眼优势(dominance)进行建模。例如,注意力模型(以下进行描述)可以确定与左眼更为接近的对象将导致左眼具有优势,或者一些更加吸引注意力的区域可能会与此相反。如果左眼更具优势,则相应地增加高于.5的权重,其中对右使用l的赠予(compliment)权重。同样,权重可以倾向于右眼优势。图4的融合图像410示出了使用具有相等权重的左图像312和右图像314(图3)的融合帧的亮度部分的示例。
融合的参考和测试图像252、254被输入到2D视频质量预测系统260。该视频质量预测系统260最终生成以DMOS为单位的预测主观质量。然而,视频质量预测系统260还创建有用的感知差异响应的中间结果。这些响应使用CIECAM02 {a,b}单位在百分比感知对比差异以及任选地颜色感知差异方面所给出。CIECAM02是CIE技术委员会8-01所公布的公知的颜色管理系统的颜色外观建模。
视频质量预测系统260进一步包括用于产生其预测结果的各种模型,诸如参考和测试显示模型262、264以及参考和测试观看模型266、268。这些模型被用来基于所评估视频的观看条件来调节预测结果。
感知差异预测系统280在生成参考图像212和测试图像214之间的差异的预测时从各个模型262、264、266和268取得输出。任选的注意力模型用来基于图像212、214自身的帧内所出现的动作来修改最终的输出预测得分。最终,测量模块290的汇总合并感知差异预测系统280所生成的所有信息以及如以上所描述的视差测量系统232、234所生成的测试失配数据以及一对深度图以便生成立体图像质量评价的最终预测作为系统200的输出,其中所述深度图一个针对参考视频而一个针对测试视频。
如以上所提到的,测量模块290的汇总所使用的一组因素是如参见图5所描述的相应生成器272所产生的参考深度图和测试深度图。
图5是在距一对偏移左眼和右眼相对距离的示例性显示角度的说明性参考图500。在参考图500中,左眼和右眼被设置为分开距离Se。如图5所示,来自左眼和右眼的线在每个显示深度处的交点产生了可以通过相应几何学所确定的角度。在参考图500中图示了三个深度平面,标准深度平面Vd和处于Vd的1/2距离处的深度平面以及两倍远的深度平面,标记为2Vd。对于所要观看的任意深度平面的任意点,来自左眼和右眼的视线必须在该点相交。这些视线还在各个点与显示平面相交。使用左视线与显示平面的交点作为参考,右视线与显示平面的交点可以被测量为偏移量Os。因此,Os表示针对特定深度的一点的左和右图像之间的水平移动。在图5中,关于右眼而言,Osi表示针对处于无限远处的点的移动,Os2针对处于两倍观看距离处的点,而Osh则针对观看距离的一半。注意,对于显示平面上的点,Os=0。
根据该关系,右和左间隔可以被确定为深度的函数,并且反之亦然。对于沿左(或右)中心线的点而言,数学关系由于相似的三角形所以十分简单:
Os = Se × (深度-Vd)/深度        等式1
该简单关系也是相对于中心线具有小角度的其它点的良好近似。对于包括左(或右)中心线之外的点的Os的一般公式使用因数:平面屏幕显示的1/cos(leftAngle):
Os = Se × (深度-Vd)/(深度*cos(leftAngle)           等式2
该关系可以在视差(Os)和深度之间转换使用。
在主观上,在适当设置时,显示器示出与显示器屏幕平面(观看距离或1 Vd)、距观看者1/2距离的平面(1/2 Vd)、两倍观看距离的平面(2 Vd)和无限远的平面成一直线的平面。大于Se的视差(Os)对应于“超出无限”的深度。利用该大的视差所表现的对象通常导致与Os超出典型观看者中的Se的量成比例的不适。
Se的这种超出以及对Panum面积/体积限制(融合限制)的其它违背可以在用于图2的立体视频200的全参考主观质量预测器的DMOS计算时被纳入考虑,作为感知差异矢量中的额外分量。例如,在使用深度差异作为以上所描述的感知差异矢量的一个分量时,超出融合限制的量(部分是在失配差异中被计及)的量也可以计入DMOS计算。
使用来自图5的因数,可以如图2所示生成相对应的参考和测试图像212、214的参考和测试深度图。影响深度图的因素包括(从显示模型取得的)图像大小、(从观看模型取得的)距显示平面的距离,以及相应参考和测试图像212、214的左和右图像之间的视差。该测试深度图接着被提供至汇总测量器290以修改已经从质量评价的标准2D预测所生成的预测。
深度图差异(测试-参考)和失配图差异(测试-参考)可以在图2的测量模块290的汇总中与2D感知差异(%百分比对比差异&任选地,使用CIECAM02 {{a,b}}单位的颜色感知差异)进行合并,并且使用诸如美国专利6829005中所描述的那些技术被转换为DMOS。在一些实施例中,每个感知差异(包括深度和失配)分量按照其来自最差情况的训练序列的相应数值进行规范化。而’005专利中所描述的DMOS预测方法仅使用百分比对比差异并且规范化为非常差的视频的示例的感知对比差异(ITU-R BT.500的仿真最差情况的训练),在该方法中,可以通过将每个感知差异分量以其相应的最差情形视频响应进行规范化来创建矢量。例如,主要在深度方面存在误差的具有最差情形DMOS(被认为质量差的测试视频)的示例性视频可以被用来对深度差异进行规范化。再次,使用诸如’005专利中所描述的那些技术,该规范化差异矢量的长度随后被测量并且经受S曲线非线性。在其它实施例中,每个感知差异分量可以根据S曲线非线性进行单独处理,而不是被规范化为平均值。
2D视频质量预测系统260生成感知差异矢量作为产生DMOS预测时的中间步骤。虽然在生成感知差异矢量时可能会考虑多种因素,但是以下提供了一个示例。该感知差异矢量可以包括诸如以下的若干分量:
PerceptualDifferenceVector = { pad, pbd, pcd, pdd, ped, pmd }
其中
pad = CIECAM02颜色外观坐标a的差异,
pbd = CIECAM02颜色外观坐标b的差异,
pcd = 以百分比变化为单位的感知对比的差异,
pdd = 以百分比变化为单位的感知深度的差异,
ped = 视差已经超出融合限制的量的差异(以深度为单元),并且
pmd = 来自于闭塞、超出融合限制、失配损害、失配叠层等的左至右图像失配的差异。
对于pdd的一个示例,
pdd = 100% * ( testDepth – refDepth )/refDepth
此外,使用2D视频质量预测系统260所生成的感知差异矢量,具有多种创建DMOS预测的方式,诸如通过使用’005专利所公开的技术以及其它方式。以下给出了产生DMOS预测的一个示例:
DMOS = Scurve( vectorLength( trainingNormalize(PerceptualDifferenceVector) )
其中 trainingNormalize( { pad, pbd, pcd, pdd, ped, pmd } ) = 
       { (pad-JNDa)/(tpad-JNDa), (pbd-JNDb)/(tpbd-JNDb), (pcd-JNDc)/(tpcd-JNDc), 
       (pdd-JNDd)/(tpdd-JNDd), (ped-JNDe)/(tped-JNDe), (pmd-JNDm)/(tpmd-JNDm) }
JNDa =仅在CIECAM02的a维度中可注意到的差异, ~0.025 (例如)
JNDb =仅在CIECAM02的b维度中可注意到的差异, ~0.025 (例如)
JNDc = 仅对于感知对比可注意到的差异,~0.1 %(例如)
JNDd = 仅对于深度、观看条件和相关内容可注意到的差异, ~0(例如).
JNDe = 仅对于超出融合的深度可注意到的差异,JNDd
JNDm = 仅对于失配可注意到的差异, ~转换为视差的JNDd。  
tpad = pad的最差情形训练结果
tpbd = pbd的最差情形训练结果
tpcd = pcd的最差情形训练结果
tpdd = pbd的最差情形训练结果
tped = ped的最差情形训练结果
tpmd = pmd的最差情形训练结果。
此外,在2D视频质量预测系统260中,可以在生成DMOS预测时使用感知响应的任意组合。例如,可以计算仅亮度的DMOS,通过仅使用pcd并且对其它分量分配以0简单地匹配现有的TEKTRONIX PQA DMOS结果。
以上所描述的设备和方法的变化
诸如图1和图2所图示的本发明实施例的优势在于精确度和鲁棒性相对于速度、复杂度和实施适宜性的平衡。以更为可观的计算成本和复杂度为代价可以实现仍就更为精确的版本。在所述方法的这种变化中,图2所示的4个视频通道(参考左、参考右、测试左、测试右)首先被转换为感知响应(亮度的百分比对比%,并且任选地,针对颜色的CIECAM02 {{a,b}})。这可以通过产生视频的主观质量评价的预测的单端(single-ended)版本来执行,这用纯黑替代了针对所述四个输入视频通道中每一个的参考输入(或者等同地,参考时空自适应滤波器输出)。这4个感知响应随后被用来产生以上所描述的视差和失配测量。该处理的其余部分可以是相同或相似的。
所述精确性改进主要源于图像所融合图像的融合程度,原因在于这种变化考虑了视觉锐度、遮蔽以及融合成功的其它确定因素。
以上所描述的主要方法的另一种选择包含参见图3所描述的视差的迭代计算。2D视频质量预测系统260中所使用的显示器大小和观看距离信息可以被用来在视差和深度之间进行转换,包括滞后处理,并且因此基于Panum面积(体积)、(经由与转眼(vergence)速率相关联的深度变化速率的)视差变化速率来设置视差范围限制。
可能由于分心(distraction)而被损害所“分心”的任选注意力模型284可以被更新以包括深度差异和失配差异作为附加分心。这可以通过(以针对感知对比差异分心的方式)简单地使用校准权重添加这些差异来执行。实际上,所述注意力模型的作用是估计在空间和时间中吸引每个位置的注意力的可能性。将注意力吸引到具有深度差异(相对于参考3D视频的测试)的区域的可能性通常与该差异的量值成比例。对于失配差异同样如此。
如以上所介绍的,与这里所描述的那些相同或相似的方法也可以被用于测量{左,右}视频以及{2D,深度}视频表示:对于{2D,深度}视频而言,可以跳过视差测量和融合阶段,并且失配设置为0或者可以使用诸如基于深度图像的表现(DIBR)方法的方法的稀疏应用对失配进行估计。例如,可以通过以下步骤快速估计由于闭塞而引起的失配:
1)搜索大的深度梯度;
2)使用DIBR(或类似方法)进行局部(子图像)的左和右视图估计;并且
3)使用与参见图3所描述的那些相同或相似的技术来计算它们之间的失配。
虽然已经对特定实施例进行了描述,但是将要意识到的是,本发明的原理并不局限于那些实施例。可以在不背离如以下权利要求所阐明的本发明原理的情况下进行变化和修改。

Claims (13)

1.一种用于预测测试立体视频相对参考立体视频的质量的质量预测系统,所述质量预测系统包括:
第一输入,用于接受测试三维视频,所述测试三维视频包括左分量和右分量;
第二输入,用于接受参考三维视频,所述参考三维视频包括左分量和右分量;
第一分析器,其被构造为生成与测试三维视频的左分量与测试三维视频的右分量的比较相关的第一视差信息;
第二分析器,其被构造为生成与参考三维视频的左分量与参考三维视频的右分量的比较相关的第二视差信息;
第一融合器,其被构造为使用来自第一分析器的视差信息合并测试三维视频的左和右分量以创建融合二维测试视频;
第二融合器,其被构造为使用来自第二分析器的视差信息合并参考三维视频的左和右分量以创建融合二维参考视频;
质量分析器,其被构造为将所述二维参考视频和二维测试视频进行比较并且生成第一预测质量评价;和
汇总设备,其耦合到所述质量分析器并且被构造为利用从所述第一和第二分析器所得出的信息修改所述第一预测质量评价以生成所述测试三维视频与所述参考三维视频的比较的预测质量评价。
2.如权利要求1所述的质量预测系统,其中所述第一视差信息包括与参考三维视频的左分量与参考三维视频的右分量的比较相关的失配数据。
3.如权利要求1所述的质量预测系统,其中所述第一视差信息包括与参考三维视频的左分量与参考三维视频的右分量的比较相关的视差数据。
4.如权利要求1所述的质量预测系统,其中从所述第一和第二分析器所得出的信息包括分别从测试三维视频和参考三维视频所得出的第一和第二深度图信息。
5.如权利要求1所述的质量预测系统,其中所述第一融合器在合并测试三维视频的左和右分量以创建融合二维测试视频时使用第一视差信息作为校正偏移。
6.如权利要求1所述的质量预测系统,其中所述第一融合器在创建融合二维测试视频时对测试三维视频的左和右分量应用相等的权重。
7.如权利要求1所述的质量预测系统,其中所述第一融合器在创建融合二维测试视频时使用l的求补过程以为测试三维视频的左和右分量分配不同的权重。
8.如权利要求1所述的质量预测系统,其中所述汇总设备生成包括来自至少一个CIECAM02颜色外观坐标的分量的感知差异矢量。
9.如权利要求8所述的质量预测系统,其中所述汇总设备生成包括来自测试或参考三维视频中至少一个的所感知深度的分量的感知差异矢量。
10.如权利要求8所述的质量预测系统,其中所述汇总设备生成包括来自第一和第二视差信息与融合限制的比较分析的分量的感知差异矢量。
11.如权利要求8所述的质量预测系统,其中所述汇总设备生成包括来自闭塞分析的分量的感知差异矢量。
12.如权利要求8所述的质量预测系统,其中所述汇总设备生成包括来自失配数据分析的分量的感知差异矢量。
13.如权利要求8所述的质量预测系统,其中所述汇总设备生成包括来自注意力分析的分量的感知差异矢量。
CN2012101079632A 2011-04-15 2012-04-13 用于预测三维视频的主观质量的全参考系统 Pending CN102740119A (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US13/088091 2011-04-15
US13/088,091 US8963998B2 (en) 2011-04-15 2011-04-15 Full reference system for predicting subjective quality of three-dimensional video

Publications (1)

Publication Number Publication Date
CN102740119A true CN102740119A (zh) 2012-10-17

Family

ID=46317119

Family Applications (1)

Application Number Title Priority Date Filing Date
CN2012101079632A Pending CN102740119A (zh) 2011-04-15 2012-04-13 用于预测三维视频的主观质量的全参考系统

Country Status (4)

Country Link
US (1) US8963998B2 (zh)
EP (1) EP2512145A3 (zh)
JP (1) JP6250916B2 (zh)
CN (1) CN102740119A (zh)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103839263A (zh) * 2014-02-26 2014-06-04 宁波大学 一种立体图像深度感知客观评价方法
CN103856775A (zh) * 2014-03-18 2014-06-11 天津大学 一种立体视频质量主观评价结果的处理方法
CN103873854A (zh) * 2014-02-26 2014-06-18 天津大学 一种立体图像主观评价被试者数量及实验数据的确定方法
CN104243977A (zh) * 2014-09-23 2014-12-24 上海交通大学 基于眼优势理论和视差补偿的立体图像质量评价方法
CN106791822A (zh) * 2017-01-13 2017-05-31 浙江科技学院 一种基于单双目特征学习的无参考立体图像质量评价方法
CN108352068A (zh) * 2015-11-18 2018-07-31 皇家飞利浦有限公司 用于估计测试对象的绝对尺寸大小的方法和设备
CN113313682A (zh) * 2021-05-28 2021-08-27 西安电子科技大学 基于时空多尺度分析的无参考视频质量评价方法

Families Citing this family (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008106185A (ja) * 2006-10-27 2008-05-08 Shin Etsu Chem Co Ltd 熱伝導性シリコーン組成物の接着方法、熱伝導性シリコーン組成物接着用プライマー及び熱伝導性シリコーン組成物の接着複合体の製造方法
US9049434B2 (en) 2010-03-05 2015-06-02 Panasonic Intellectual Property Management Co., Ltd. 3D imaging device and 3D imaging method
US9188849B2 (en) 2010-03-05 2015-11-17 Panasonic Intellectual Property Management Co., Ltd. 3D imaging device and 3D imaging method
WO2011108276A1 (ja) * 2010-03-05 2011-09-09 パナソニック株式会社 立体撮像装置、および立体撮像方法
EP2790406B1 (en) * 2011-12-05 2017-09-27 Nippon Telegraph And Telephone Corporation Video quality evaluation device, method and program
EP2831752A4 (en) * 2012-03-30 2015-08-26 Intel Corp METHOD OF QUALITY CONTROL IN MEDIA
US20140253698A1 (en) * 2013-03-11 2014-09-11 Allan Thomas Evans System, apparatus, and method for enhancing stereoscopic images
US9483111B2 (en) 2013-03-14 2016-11-01 Intel Corporation Techniques to improve viewing comfort for three-dimensional content
CN104581112B (zh) * 2013-10-14 2016-10-05 钰立微电子股份有限公司 快速产生摄像机的距离对视差关系表的系统及其相关方法
US10409079B2 (en) 2014-01-06 2019-09-10 Avegant Corp. Apparatus, system, and method for displaying an image using a plate
US10303242B2 (en) 2014-01-06 2019-05-28 Avegant Corp. Media chair apparatus, system, and method
US9823474B2 (en) 2015-04-02 2017-11-21 Avegant Corp. System, apparatus, and method for displaying an image with a wider field of view
US9995857B2 (en) 2015-04-03 2018-06-12 Avegant Corp. System, apparatus, and method for displaying an image using focal modulation
CN104902268B (zh) * 2015-06-08 2016-12-07 浙江科技学院 基于局部三元模式的无参考立体图像客观质量评价方法
CN105979253B (zh) * 2016-05-06 2017-11-28 浙江科技学院 基于广义回归神经网络的无参考立体图像质量评价方法
CN107438180B (zh) * 2017-08-28 2019-02-22 中国科学院深圳先进技术研究院 三维视频的深度感知质量评价方法
CN109118474B (zh) * 2018-07-07 2021-11-02 福州大学 一种多视点稀疏测量的图像绘制方法
CN110473200B (zh) * 2019-08-22 2021-11-12 深圳大学 全参考的视频图像质量评价方法
US20220272320A1 (en) * 2021-02-23 2022-08-25 Innolux Corporation Display Device

Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1650622A (zh) * 2002-03-13 2005-08-03 图象公司 用于数字重新灌录或修改电影或其他图像序列数据的系统和方法
CN1700475A (zh) * 2004-05-21 2005-11-23 松下电器产业株式会社 固体摄像器件及其制造方法
US20050259174A1 (en) * 2004-05-21 2005-11-24 Matsushita Electric Industrial Co., Ltd. Solid state imaging device and method for producing the same
KR20080029371A (ko) * 2006-09-29 2008-04-03 광운대학교 산학협력단 영상 화질 평가 시스템 및 방법
WO2008038068A1 (en) * 2006-09-25 2008-04-03 Nokia Corporation Supporting a 3d presentation
US20100007718A1 (en) * 2006-02-13 2010-01-14 Rohaly Jr Janos Monocular three-dimensional imaging
WO2010093745A1 (en) * 2009-02-12 2010-08-19 Dolby Laboratories Licensing Corporation Quality evaluation of sequences of images
CN101841728A (zh) * 2003-04-17 2010-09-22 夏普株式会社 三维图像处理装置
CN101924954A (zh) * 2009-06-17 2010-12-22 Nec卡西欧移动通信株式会社 终端装置及其控制程序
US20110025829A1 (en) * 2009-07-31 2011-02-03 3Dmedia Corporation Methods, systems, and computer-readable storage media for selecting image capture positions to generate three-dimensional (3d) images
US20110043613A1 (en) * 2008-01-04 2011-02-24 Janos Rohaly Three-dimensional model refinement
US20110074933A1 (en) * 2009-09-28 2011-03-31 Sharp Laboratories Of America, Inc. Reduction of viewer discomfort for stereoscopic images
US20110080401A1 (en) * 2008-06-13 2011-04-07 Imax Corporation Methods and systems for reducing or eliminating perceived ghosting in displayed stereoscopic images

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7254265B2 (en) * 2000-04-01 2007-08-07 Newsight Corporation Methods and systems for 2D/3D image conversion and optimization
US6829005B2 (en) 2001-11-21 2004-12-07 Tektronix, Inc. Predicting subjective quality ratings of video
JP4362105B2 (ja) * 2002-07-16 2009-11-11 韓國電子通信研究院 2次元および3次元立体ビデオ信号の適応変換装置およびその方法
US7920758B2 (en) 2006-11-22 2011-04-05 Tektronix, Inc. Measurement apparatus and method of measurement of video spatial scale, offset and cropping
US8437577B2 (en) 2009-03-05 2013-05-07 Tektronix, Inc. Methods and systems for image registration

Patent Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1650622A (zh) * 2002-03-13 2005-08-03 图象公司 用于数字重新灌录或修改电影或其他图像序列数据的系统和方法
CN101841728A (zh) * 2003-04-17 2010-09-22 夏普株式会社 三维图像处理装置
CN1700475A (zh) * 2004-05-21 2005-11-23 松下电器产业株式会社 固体摄像器件及其制造方法
US20050259174A1 (en) * 2004-05-21 2005-11-24 Matsushita Electric Industrial Co., Ltd. Solid state imaging device and method for producing the same
US20100007718A1 (en) * 2006-02-13 2010-01-14 Rohaly Jr Janos Monocular three-dimensional imaging
WO2008038068A1 (en) * 2006-09-25 2008-04-03 Nokia Corporation Supporting a 3d presentation
KR20080029371A (ko) * 2006-09-29 2008-04-03 광운대학교 산학협력단 영상 화질 평가 시스템 및 방법
US20110043613A1 (en) * 2008-01-04 2011-02-24 Janos Rohaly Three-dimensional model refinement
US20110080401A1 (en) * 2008-06-13 2011-04-07 Imax Corporation Methods and systems for reducing or eliminating perceived ghosting in displayed stereoscopic images
WO2010093745A1 (en) * 2009-02-12 2010-08-19 Dolby Laboratories Licensing Corporation Quality evaluation of sequences of images
CN101924954A (zh) * 2009-06-17 2010-12-22 Nec卡西欧移动通信株式会社 终端装置及其控制程序
US20110025829A1 (en) * 2009-07-31 2011-02-03 3Dmedia Corporation Methods, systems, and computer-readable storage media for selecting image capture positions to generate three-dimensional (3d) images
US20110074933A1 (en) * 2009-09-28 2011-03-31 Sharp Laboratories Of America, Inc. Reduction of viewer discomfort for stereoscopic images

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
ALEXANDRE BENOIT,ET AL: "Quality Assessment of Stereoscopic Images", 《EURASIP JOURNAL ON IMAGE AND VIDEO PROCESSING》 *
ATANAS BOEV,ET AL: "Towards compound stereo-video quality metric: a specific encoder-based framework", 《2006 IEEE SOUTHWEST SYMPOSIUM ON IMAGE ANALYSIS AND INTERPRETATION》 *

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103839263A (zh) * 2014-02-26 2014-06-04 宁波大学 一种立体图像深度感知客观评价方法
CN103873854A (zh) * 2014-02-26 2014-06-18 天津大学 一种立体图像主观评价被试者数量及实验数据的确定方法
CN103839263B (zh) * 2014-02-26 2016-07-06 宁波大学 一种立体图像深度感知客观评价方法
CN103856775A (zh) * 2014-03-18 2014-06-11 天津大学 一种立体视频质量主观评价结果的处理方法
CN104243977A (zh) * 2014-09-23 2014-12-24 上海交通大学 基于眼优势理论和视差补偿的立体图像质量评价方法
CN108352068A (zh) * 2015-11-18 2018-07-31 皇家飞利浦有限公司 用于估计测试对象的绝对尺寸大小的方法和设备
CN106791822A (zh) * 2017-01-13 2017-05-31 浙江科技学院 一种基于单双目特征学习的无参考立体图像质量评价方法
CN113313682A (zh) * 2021-05-28 2021-08-27 西安电子科技大学 基于时空多尺度分析的无参考视频质量评价方法
CN113313682B (zh) * 2021-05-28 2023-03-21 西安电子科技大学 基于时空多尺度分析的无参考视频质量评价方法

Also Published As

Publication number Publication date
US8963998B2 (en) 2015-02-24
EP2512145A3 (en) 2015-03-18
JP2012227916A (ja) 2012-11-15
US20120262549A1 (en) 2012-10-18
EP2512145A2 (en) 2012-10-17
JP6250916B2 (ja) 2017-12-20

Similar Documents

Publication Publication Date Title
CN102740119A (zh) 用于预测三维视频的主观质量的全参考系统
TWI536801B (zh) 三維視訊格式偵測
Dricot et al. Subjective evaluation of Super Multi-View compressed contents on high-end light-field 3D displays
US9225962B2 (en) Stereo matching for 3D encoding and quality assessment
Choi et al. Visual fatigue modeling and analysis for stereoscopic video
CN102106152A (zh) 通用3-d画面格式
Solh et al. A no-reference quality measure for DIBR-based 3D videos
CN102783161A (zh) 用于3d tv的视差分布估计
Bosc et al. A quality assessment protocol for free-viewpoint video sequences synthesized from decompressed depth data
US10728511B2 (en) Video processing method and apparatus for use with a sequence of stereoscopic images
Ling et al. Prediction of the influence of navigation scan-path on perceived quality of free-viewpoint videos
Banitalebi-Dehkordi et al. An efficient human visual system based quality metric for 3D video
Shao et al. Visual discomfort relaxation for stereoscopic 3D images by adjusting zero-disparity plane for projection
CN103167308A (zh) 立体影像摄影系统与播放品质评估系统,及其方法
KR20110139020A (ko) 깊이 영상에 기반한 3차원 영상의 피로도 측정 방법 및 장치
CN104969546B (zh) 用于生成中间视点图像的系统
KR101960577B1 (ko) 뷰 공간에 관한 스테레오 정보를 송수신하는 방법
Boev et al. Comparative study of autostereoscopic displays for mobile devices
Battisti et al. A perceptual quality metric for high-definition stereoscopic 3D video
Hanhart et al. Free-viewpoint video sequences: A new challenge for objective quality metrics
Meesters et al. A survey of perceptual quality issues in three-dimensional television systems
CN103152588B (zh) 有效测量立体视差以及生成相关失配图像的系统和方法
Silva et al. A no-reference stereoscopic quality metric
Viola et al. A comprehensive framework for visual quality assessment of light field tensor displays
Lebreton et al. 3D Video

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication

Application publication date: 20121017

RJ01 Rejection of invention patent application after publication