CN105103544B - 引导式3d显示器适配 - Google Patents
引导式3d显示器适配 Download PDFInfo
- Publication number
- CN105103544B CN105103544B CN201480019109.8A CN201480019109A CN105103544B CN 105103544 B CN105103544 B CN 105103544B CN 201480019109 A CN201480019109 A CN 201480019109A CN 105103544 B CN105103544 B CN 105103544B
- Authority
- CN
- China
- Prior art keywords
- qve
- depth
- input
- data
- value
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/302—Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/128—Adjusting depth or disparity
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/144—Processing image signals for flicker reduction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
- H04N13/207—Image signal generators using stereoscopic image cameras using a single 2D image sensor
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/327—Calibration thereof
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
- Controls And Circuits For Display Device (AREA)
Abstract
由观看体验质量(QVE)映射表征3D显示器,观看体验质量(QVE)映射表示输入深度值和输出QVE值之间的特定于显示器的输入输出关系。给出了基于“观看模糊”度量的QVE映射的示例。给定针对基准显示器产生的基准深度数据和艺术家的映射函数的表示,该映射函数表示原始输入深度数据和使用针对基准显示器的QVE映射产生的QVE数据之间的输入输出关系,解码器可以重构基准深度数据并且应用针对目标显示器的逆QVE映射以产生针对目标显示器优化的输出深度数据。
Description
与相关申请的交叉引用
本申请要求提交于2013年4月2日的美国临时申请61/807672的优先权,其完整内容通过引用被结合在此。
技术领域
本发明一般地涉及立体图像和显示器。更特别地,本发明的实施例涉及立体图像在立体或者自动立体显示器上的引导式呈现。
背景技术
无论是在电影院还是在家中,3D视频系统都广受关注以增强消费者体验。这些系统使用立体的或者自动立体表现方法,包括:
(i)补色立体图-通过借助于两色滤色器过滤光来提供左/右眼分离,通常一只眼睛为红色并且另一只眼睛为青色;
(ii)线性偏振-通过借助于(一般)垂直取向的线性偏光镜过滤左眼并且借助于水平取向的线性偏光镜过滤右眼图像,在放映机处提供分离;
(iii)圆偏振-通过(一般)借助于左旋圆偏光镜过滤左眼图像并且借助于右旋圆偏光器过滤右眼图像,在放映机处提供分离;
(iv)快门眼镜-通过在时间上多路复用左右图像来提供分离,以及
(v)光谱分离-通过在放映机处光谱过滤左右眼来提供分离,其中左右眼各自接收红、绿和蓝光谱的互补部分。
当今市场上可获得的3D显示器中的大部分是立体电视,需要用户佩戴特殊的3D眼镜以便体验3D效果。向这些显示器传送3D内容仅仅需要输送两个分离的视图:左视图和右视图。即将出现自动立体(无眼镜)或者多视图显示器。这些显示器提供某个量的运动视差;观看者可以四处移动他的/她的头,就如同他们四处移动时从不同角度观看物体。
传统的立体显示器提供单个3D视图;然而基于显示器的设计,自动立体显示器需要提供多个视图,诸如5个视图、9个视图、28个视图等。当向自动立体显示器提供规则的立体内容时,显示器提取深度图并且基于这些深度图创建或者呈现多个视图。如本文中使用的,术语“深度图”表示包含关于从观看点到场景物体的表面的距离的信息的图像或者其它比特流。深度图可被容易地转换为视差图,并且反之亦然,在本文的上下文中,术语深度图和视差图是相同的并且可以互换。
针对特定目标显示器(例如电影院的屏幕)优化的3D内容可能在家中的立体或多视图HDTV上看起来不同。3D观看体验还可能根据显示器的屏幕大小、多视图技术以及其它参数而不同。如此处发明人理解的,期望开发用于在保留原始创作者(例如导演)的艺术意图的同时在3D显示器上呈现立体内容的改进的技术。
本节中描述的方法是可能被寻求的方法,但不一定是以前设想过或寻求过的方法。因此,除非另外指出,否则不应当仅仅因为本节描述的任何方法被包括在本节中就假定它们是现有技术。类似地,除非另外指出,否则不应该基于本节而假设在任何现有技术中已经认识到了针对一个或多个方法指出的问题。
附图说明
在附图中以示例的方式而不是以限制的方式示出了本发明的实施例,并且其中相同的附图标记指示类似的元件,并且其中:
图1A和图1B示出了根据实施例的三个自动立体显示器的观看体验质量(QVE)映射的示例;
图2示出了根据实施例的确定目标显示器的QVE映射的示例处理;
图3示出了根据实施例的确定目标显示器的QVE映射的示例目标测试图像;
图4A和图4B示出了根据实施例的用于引导式3D显示器适配的示例处理;以及
图5示出了根据实施例的用于3D显示器仿真的示例处理。
具体实施方式
本文描述了用于在立体和多视图显示器上显示立体图像的引导式3D显示器适配技术。使用作为输入视差或者深度数据的函数表示特定3D显示器上的观看体验度量的观看体验质量(QVE)映射(例如映射函数或者输入—输出曲线)来表征显示器。可以使用深度范围转换函数和响应于基准显示器的QVE映射和导演的原始艺术意图而创建的元数据,来表示从基准3D显示器到任何3D显示器的深度数据的映射。在下面的说明中,出于解释的目的阐述了许多具体细节以便提供对本发明的彻底理解。然而很清楚的是,可以没有这些具体细节而实现本发明。在其它实例中,公知的结构和设备未被无遗漏地描述以避免不必要地模糊本发明。
概述
此处描述的示例实施例涉及用于在立体和多视图显示器上显示立体图像的引导式3D显示器适配技术。由作为输入视差或者深度数据的函数表示特定3D显示器上的观看体验度量的观看体验质量(QVE)映射来表征3D显示器。给出了基于“观看模糊”的度量的QVE映射函数的示例。给定根据基准显示器的输入深度数据产生的基准深度数据和艺术家的映射函数(该映射函数表示输入深度数据和使用基准显示器QVE映射产生的QVE数据之间的输入输出关系)的表示,解码器可以重构基准深度数据并且应用用于目标显示器的逆QVE映射以便产生用于目标显示器的输出深度数据,该输出深度数据还保持原始艺术家的意图。
在另一个实施例中,通过以已知深度或者视差显示立体图像、使用2D照相机捕获显示的图像并且分析捕获的2D图像以产生对应的QVE值,来产生3D显示器QVE映射函数。在一个实施例中,对应的QVE值是高斯模糊滤波器的标准偏差的函数,给定测试图像作为输入,该函数根据给定的准则产生最接近捕获的2D图像的输出。
在另一个实施例中,接收立体图像的原始输入深度数据。响应于该原始输入深度数据,使用基准显示器来产生基准深度图数据。深度范围转换函数可以表示输入深度数据和基准输出深度数据之间的输入输出关系。响应于基准深度图数据和基准显示器QVE映射而产生观看体验质量(QVE)数据。产生表示输入深度数据和QVE数据之间的输入输出关系的艺术家的映射函数,并且该映射函数作为元数据与基准深度图数据或者原始输入深度数据一起传输到接收器。
在另一个实施例中,3D显示器仿真系统访问立体图像的原始输入深度数据。响应于原始输入深度数据,使用基准显示器来产生基准深度图数据。响应于基准深度图数据和基准显示器QVE映射而产生观看体验质量(QVE)数据。在不同型号的目标显示器中选择将被仿真的目标显示器并且将QVE数据应用于仿真的目标显示器的逆QVE映射以产生仿真的目标显示器的目标深度数据,其中仿真的目标显示器的逆QVE映射表示针对仿真的目标显示器确定的输入QVE值和输出深度值之间的输入输出关系。
示例观看体验质量映射
在立体内容制作和显示时,通常针对特定目标显示器尺寸和观看距离来优化原始发行,然后使用包括图像数据和深度或视差数据的比特流来传送该原始发行。例如,可以针对向家庭3D HDTV的传送优化现场体育广播,而可以针对3D影院放映机优化剧场的发行。如本文中使用的,术语“视差”表示物体在立体图像的左视图和右视图中的位置之间的距离的差。在立体视频成像时,视差通常表示一个视图(例如左图像)中的图像特征当在另一视图中观看时(例如右图像)的(例如向左或者向右的)水平位移。例如,在左图像中位于水平位置hL并且在右图像中位于水平位置hR的点可被表示为具有hL-hR像素的视差。
视差数据还可以被表示为深度或者“输入Z”数据,虽然备选表示也是可以的,但是通常其被表示为8位[0,255]范围中的灰度级数据。在一个实施例中,给定输入视差D以及下面定义的dmin和dmax视差极限值,范围[0,255]中的视差到深度变换(Z)可被定义为:
在等式(1)中,dmin表示对应于解码的深度值Z=0的纹理的亮度像素的输入视差值。dmin的负值涉及屏幕面前面的虚拟位置。类似地,dmax定义对应于解码的深度值Z=255的纹理视图的亮度像素中的输入视差值。dmax的值应当大于dmin。dmin和dmax一起定义输入视差范围,解码的深度值应当被均匀映射到该输入视差范围。给定Z、dmin和dmax值,还可以从等式(1)得到逆Z到D映射为
注意dmin和dmax值可以基于每个帧、每个感兴趣的区域、每个场景或者其它适合的基础而改变。例如,在第一场景中视差范围可以在范围[-10,30]中,而在第二场景中视差可以在范围[-50,200]中。可使用元数据或者附属比特流数据将dmin和dmax值传递至下游处理器或者目标接收器(诸如机顶盒)。
传送全分辨率视频和优质深度/视差图数据对于立体和自动立体显示器两者来说是必不可少的。可以在3D内容创建处理过程中手动或自动创建优质视差图。这些视差图通常针对特定显示器类型(例如3D影院放映机)而创建,并且可能不适于其它3D显示器(例如具有3D显示器的便携游戏设备或平板设备或家庭3D HDTV),因此必须被修改。例如,如果针对基于眼镜的影院放映机或者基于眼镜的立体电视创建视差图,那么视差范围可能大于可由典型的无眼镜自动立体(AS3D)显示器处理的视差范围。例如,这些视差图可能不以最佳方式使用AS3D显示器的有限能力。此外,AS3D显示器由不同制造商制造并且具有彼此不同的特性。因此,给定基准立体图像,需要产生在保持原始导演意图的同时可被在不同类型的3D显示器上普遍地使用的视差图。
根据一个实施例,该问题的解决方案的第一步是定义作为输入数据的深度或视差的函数唯一地表征特定显示器上的观看体验质量(QVE)的映射或函数。在一个实施例中,不失一般性,为表示观看体验质量考虑的主要参数是“观看模糊”;然而,它可被扩展为包括其它观看因素,诸如图像幻影或串扰或多视图AS3D显示器的锥形边界处的图像翻转(即拭擦效应)。
在图1A中,100示出了根据示例实施例的三个不同的自动立体显示器的QVE映射(110、120、130)的示例。对角地测量,100示出了11英寸显示器(110)、23英寸显示器(120)和56英寸显示器(130)的QVE映射。如后面更详细解释的,在这个实施例中,100的y轴提供了为具有在0和255之间的深度值的输入图像计算的输出模糊的量度。
图2示出了根据一个实施例的得出用于特定显示器的QVE映射(例如110、120或130)的示例处理。如图2所示,在步骤205,该处理通过设置所考虑的显示器和照相机以捕获投影在该显示器上的测试图像而开始。设置包括校准显示器并且将照相机置于针对目标显示器的典型观看距离(例如,对于11英寸的显示器,1.5英尺)处。对于自动立体显示器,照相机还被置于在显示器的观看锥的中心。给定目标深度范围(例如,0到255),为进行测试的每个深度值准备一组测试图像(225)。注意,对于每个显示器,涉及视差的参数(例如,dmin和dmax)可能改变。在一个实施例中,每个测试图像225可以包括可变宽度的一系列垂直线。例如,垂直线可以表示以各种频率绘制的空间2-D正弦波。图3示出了这种测试图案的示例。
为所考虑的每个深度值重复处理循环250,并且处理循环250包括下列步骤:(a)在步骤210,显示目标测试图像。(b)在步骤215,由照相机捕获所显示的图像作为2D图像。由于测试图像中嵌入的视差,预期由照相机捕获的图像将具有比原始测试图像差的视觉质量(例如,更模糊)。最后,(c)在步骤220,捕获的图像被分析并被分配QVE度量。QVE度量可以是主观的或客观的并且根据某个预定准则被分配数值。在一个实施例(100)中,0和4之间的客观QVE度量表示产生与输入视差等同模糊的输出的高斯模糊滤波器的标准偏差σ。接下来讨论计算这种度量的示例。
给定考虑“视觉模糊”作为视觉体验因素的主要参数,那么可以使用各种模糊滤波器(230)(诸如一组高斯模糊滤波器,或者任意其它类型的低通或模糊滤波器)来模糊每个测试图像(225)。在一个实施例中,这些高斯模糊滤波器中的每一个可以具有相同尺寸的核心但是不同的标准偏差σ参数(例如,0.3和4之间的σ)。然后,在步骤220,根据误差准则(诸如通常使用的SNR(信噪比)和峰值信噪比准则)将每个捕获的图像(215)与该组所有模糊图像(230)进行比较。然后,对于给定的深度,输出QVE度量(例如,QVE=3.0)可被定义为模糊滤波器的标准偏差,对于该模糊滤波器,其输出根据给定的准则最佳地匹配捕获的测试图像。
如后面进一步讨论的,给定QVE映射(例如fTQ(Z)110),在某些实施例中,可能希望应用其逆fZ(Q)=f-1 TQ(Z),从而对于给定QVE值(例如Q)可以确定对应深度Z=fZ(Q)。然而,图1A所示的QVE映射的表示不适于定义逆,因为单个QVE值可被映射到两个不同的深度值。给定图1A所示的QVE映射fTQ(Z),在某些实施例中,可以如下得到可逆fQ(Z)映射函数:
其中对于给定深度Z、dmin和dmax,可以使用等式(2)计算和视差D。对于图1A所示的fTQ(Z)映射族,图1B示出了示例的对应fQ(Z)映射。
应用于引导式显示器适配
图4A示出了根据实施例的用于3D显示器的示例引导式显示器适配处理。原始内容405包括图像和针对以原始目标显示器(例如影院放映机)为目标的原始发行创建的深度或者视差数据。在很多感兴趣的情况下,该内容需要被再加工以产生以不同类型的显示器为目标的另一个发行。
步骤410表示典型的后期制作阶段,其中输入深度数据407(例如,以ZI(n)表示)被转变为用于后期制作处理中使用的基准显示器的基准深度数据414(例如,以ZR(n)表示)。该处理通常是半自动的,且具有来自原始艺术家(导演、电影摄影师等)的某种输入406以保留导演的意图。该处理还可以包括附加处理步骤(未示出),诸如调色或者从增强或高动态范围到较低动态范围的色彩映射。在3D内容后期制作和分发的一个实施例(400A)中,步骤410的输出可以包括使用深度范围转换函数(例如,以fCR(Z)表示)产生的输出基准深度数据414(例如,ZR(n)),从而输出414ZR(n)=fCR(ZI(n))。在一个实施例中,处理410的输出还可以包括用于产生基准深度图数据414的用于基准显示器的显示器QVE映射412的表示(例如,以fQR(Z)表示)。基准显示器QVE映射412可与深度数据414一起作为元数据与其它元数据一起传输。基准显示器QVE映射412可以本领域已知的各种方式传输(诸如查询表,作为参数线性、分段线性或非线性函数的参数等)从而其可由诸如深度转换器420的下游处理步骤重构。
给定基准显示器QVE映射412(例如fQR(Z))和基准深度数据414(例如ZR(n)),深度转换器420可以根据QVE映射412(例如QR(n)=fQR(ZR(n))而将深度数据414转变为QVE值424(例如,以QR(n)表示)。在某些实施例中,步骤420可以是向合适的接收器(诸如机顶盒接收器或3D电视)广播QVE值424的编码器或者发射器的一部分。在这种情况下,比特流424已经结合有关于基准显示器QVE映射的信息并且不需要传输其它信息。在某些其它实施例中,步骤420可以是解码器(诸如机顶盒接收器或3D电视)的一部分。在这种情况下,编码器需要传输基准深度数据414和基准显示器QVE映射412两者。老式接收器可以忽略基准显示器映射412并且仅仅以其最佳的能力处理深度数据;然而,如下面描述的,能够正确地解释进行引导的QVE映射元数据的较新的解码器可以使用它们以进一步改进图像数据412在目标显示器(440)上的显示。
设fQT(Z)表示用于目标显示器440的QVE映射函数428。如前所述,给定fQT(Z)(例如110B),显示处理器可以容易地构造其逆f-1 QT(Q),该逆f-1 QT(Q)针对输入VQE值输出对应的Z值。在步骤430,在接收器中,给定该组输入QVE值424(例如QR(n)),可以如下产生最终的目标显示器深度数据432(例如,以ZT(n)表示)
图4B示出了用于引导式显示器适配的备选实施例。类似于处理400A,400B中的步骤410产生以一种类型的显示器为目标的深度数据;然而,步骤410输出原始深度数据407(例如,ZI(n))和深度范围转换函数(fCR(Z))的表示,从而使得ZR(n)=fCR(ZI(n)),而不是输出输出深度数据本身(例如ZR(n)414)和基准显示器QVE映射412。
给定ZI(n)407、fCR(Z)和基准显示器QVE映射412(fQR(Z)),步骤420可以产生表示艺术家意图的映射函数422fQR_A(Z)从而QR(n)424可被表示为QR(n)=fQR_A(ZI(n))。在一个实施例中,可使用元数据与深度数据407一起从发射器或编码器将映射函数422fQR_A(Z)的表示传送至下游解码器。映射函数422可以本领域已知的各种方式(诸如查询表,作为参数线性、分段线性或非线性函数的参数等)传输,从而使得其可由诸如QVE数据到深度转换器430的下游处理步骤重构。
给定ZI(n)407、fQR_A(Z)422和目标显示器QVE映射428(fQT(Z)),如前面解释的,处理430可以如下产生最终ZT(n)深度数据432:
QR(n)=fQR_A(Z1(n)),
在某些实施例中,除了fQR_A(Z)函数422之外,在步骤410产生的深度数据转换函数416(fCR(Z))也可被传输到接收器。这将允许没有QVE映射概念的老式解码器能够以ZT(n)=fCR(ZI(n))来重构ZT(n)。
在某些实施例中,为了保留带宽以及最小化传输数据速率,发射器可以仅仅发射艺术家的映射函数fQR_A(Z)函数的部分表示。然后解码器可以重构fQR_A(Z)的接近的近似。在本文的上下文中,对fQR_A(Z)的精确或者近似版本的使用是相同的并且是可互换的。
显示器仿真
在某些实施例中,在内容创建阶段410的过程中,QVE映射函数408族可被用于使用单个基准显示器540来仿真不同目标显示器上的观看情况。在一个实施例中,图5示出了用于3D显示器仿真的示例处理。除了处理步骤420和430现在可被合并为单个的显示器仿真520的步骤之外,处理500类似于处理400A。
在后期制作500过程中,艺术家406可以使用显示器540作为基准显示器以产生基准深度数据414。在本处理阶段过程中,可以绕过显示器仿真处理520,并且显示器540可以直接基于基准深度数据414来显示经调色的图像内容512。在艺术家想要仿真在另一个显示器(具有已知的或者未来显示器的将来的QVE映射函数)上将如何观看输出414的情况下,可以将显示器仿真520产生的深度数据馈送至显示器540,该显示器仿真520仅仅是组合前面作为处理400A的一部分描述的步骤420和430。在显示器仿真模式下,QVE映射函数428表示目标仿真显示器的QVE映射。
表1概述了本文中使用的关键符号和术语。
表1:关键符号和术语
示例计算机系统实现
本发明的实施例可由以下实现:计算机系统、被配置在电子电路和组件中的系统、诸如微控制器、现场可编程门阵列(FPGA)或另一种可配置的或可编程逻辑器件(PLD)的集成电路(IC)设备、离散时间或数字信号处理器(DSP)、专用IC(ASIC)和/或包括这种系统、设备或组件中的一个或多个的装置。计算机和/或IC可以执行、控制或者运行关于诸如本文描述的引导式3D显示器适配的指令。该计算机和/或IC可以计算涉及本文描述的引导式3D显示器适配的各种参数或值中的任一个。引导式3D显示器适配实施例可由硬件、软件、固件和其各种组合实现。
本发明的特定实现包括如下的计算机处理器,该计算机处理器运行使该处理器执行本发明的方法的软件指令。例如,显示器、编码器、机顶盒、编码转换器等中的一个或多个处理器可以通过运行该处理器可以访问的程序存储器中的软件指令来实现如上所述的用于引导式3D显示器适配的方法。本发明还可以程序产品的形式被提供。该程序产品可以包括承载一组计算机可读信号的任何介质,所述计算机可读信号包括当被数据处理器执行时使数据处理器执行本发明的方法的指令。根据本发明的程序产品可以为各种形式中的任一种。该程序产品可以包括例如诸如磁数据存储介质的物理介质(包括软盘、硬盘驱动)、包括CD ROM、DVD的光学数据存储介质、包括ROM、闪速RAM的电子数据存储介质等。该程序产品上的计算机可读信号可以可选择地被压缩或者加密。
在上文提及组件(例如,软件模块、处理器、组装、设备、电路等)时,除非另有说明,否则对该组件的引用(包括对“装置”的引用)应当被解释为包括执行描述的组件的功能(例如,功能等同)的任何组件作为该组件的等同物,包括在结构上不等同于在本发明所示的示例实施例中执行功能的公开的结构的组件。
等同物、扩展、备选和其他
如此描述了涉及引导式3D显示器适配的示例实施例。在以上的说明书中,已经参考许多具体细节描述了本发明的实施例,这些具体细节可以根据实现而改变。因此,根据本申请提出的权利要求书(具有提出这些权利要求的具体形式(包括任何随后的修正))是本发明是什么以及申请人对本发明的预期的唯一的且排它的指示。本文中明确阐述的包含在这些权利要求中的术语的任何定义决定了权利要求中使用的这些术语的含义。因此,权利要求中未明确地记载的限制、元件、性质、特征、优点或属性不应以任何方式限制这些权利要求的范围。因此,应当以说明的方式而不是限制的方式看待本说明书和附图。
Claims (36)
1.一种使用观看体验质量(QVE)映射来表征3D显示器的方法,该方法包括:
针对用于将被在3D显示器上显示的立体图像的深度范围的输入深度值中的每个值或视差范围中的输入视差值中的每个值,通过产生输入深度值或输入视差值与针对所述3D显示器的输出QVE显示器值之间的观看体验质量(QVE)映射,产生针对所述3D显示器的对应的输出QVE显示器值,其中,对于每个输入深度值或者输入视差值,所生成的QVE显示器值对应于视觉模糊的量度。
2.如权利要求1所述的方法,包括:
针对用于将被在基准3D显示器上显示的立体图像的深度范围的输入深度值中的每个值或视差范围中的输入视差值中的每个值,产生针对所述基准3D显示器的对应的输出QVE基准显示器值;
产生输入深度值或输入视差值与产生的输出QVE显示器值之间的基准QVE映射。
3.如权利要求1所述的方法,其中产生QVE显示器值包括:
在该3D显示器上使用输入深度或视差来显示(210)测试立体图像;
使用照相机捕获所显示的图像以产生2D捕获的图像(215);以及
分析所述2D捕获的图像以产生对应于所述输入深度或视差的输出QVE值(220)。
4.如权利要求3所述的方法,其中所述测试立体图像的视图包括正弦函数的一个或多个2D表示。
5.如权利要求3所述的方法,其中分析所述2D捕获的图像包括:
响应于所述测试立体图像的视图而使用模糊滤波器产生一组模糊图像,其中使用不同的模糊参数产生该组模糊图像中的每一个模糊图像;
将所述2D捕获的图像与该组模糊图像中的一个或多个模糊图像进行比较,以根据图像比较准则确定一个或多个差度量;以及
响应于所确定的一个或多个差度量产生输出QVE值。
6.如权利要求5所述的方法,其中所述模糊滤波器包括高斯滤波器,所述模糊参数包括高斯滤波器的标准偏差,并且所述输出QVE值是其输出和2D捕获的图像之间的差度量最小的高斯滤波器的标准偏差的函数。
7.一种用于引导式3D显示器适配的方法,所述方法包括:
接收用于立体图像的原始输入深度数据(407);
产生基准深度图数据(414),所述基准深度图数据响应于原始输入深度数据(407)和深度范围转换函数(416)而产生;以及
响应于所述基准深度图数据(414)和基准显示器QVE映射(412)而产生观看体验质量(QVE)数据(424),其中所述基准显示器QVE映射表示针对所述基准显示器确定的输入深度或视差值与输出QVE值之间的输入输出关系。
8.如权利要求7所述的方法,其中,通过针对用于将被在基准3D显示器上显示的立体图像的深度范围的输入深度值中的每个值或视差范围中的输入视差值中的每个值,产生针对所述基准3D显示器的对应的输出QVE基准显示器值,并且产生输入深度值或输入视差值与产生的输出QVE显示器值之间的基准QVE映射,产生所述基准显示器QVE映射(412)。
9.如权利要求7所述的方法,还包括:
产生艺术家的映射函数(422),所述艺术家的映射函数表示原始输入深度数据和QVE数据(424)之间的输入输出关系;以及
将所述艺术家的映射函数(422)和原始输入深度数据(407)传输至接收器。
10.如权利要求7所述的方法,还包括将QVE数据(424)传输至接收器。
11.如权利要求7所述的方法,还包括将所述基准深度数据(414)和基准显示器QVE映射(412)的表示传输至接收器。
12.如权利要求7所述的方法,还包括将所述原始输入深度数据(407)、所述基准显示器QVE映射(412)的表示和所述深度范围转换函数(416)的表示传输至接收器。
13.一种用于解码器中的引导式3D显示器适配的方法,所述方法包括:
在解码器处接收原始输入深度数据(407)和艺术家的映射函数(422)的表示,所述艺术家的映射函数表示原始输入深度数据和由编码器针对基准显示器产生的QVE数据(424)之间的输入输出关系;
将艺术家的映射函数应用于原始深度数据以产生解码的QVE数据;以及
向解码的QVE数据应用针对目标显示器的逆QVE映射(428),以产生针对目标显示器的目标深度数据(432),其中针对目标显示器的逆QVE映射表示针对所述目标显示器确定的输入QVE值和输出深度值之间的输入输出关系。
14.一种用于解码器中的引导式3D显示器适配的方法,所述方法包括:
在解码器处接收由编码器根据权利要求10产生的QVE数据(424);以及
向所述QVE数据应用针对目标显示器的逆QVE映射(428),以产生针对该目标显示器的目标深度数据,其中针对目标显示器的逆QVE映射表示针对所述目标显示器确定的输入QVE值与输出深度值之间的输入输出关系。
15.一种用于解码器中的引导式3D显示器适配的方法,所述方法包括:
在解码器处接收基准深度数据(414)和基准显示器QVE映射(412)的表示,其中所述基准显示器QVE映射表示针对基准显示器确定的输入深度或视差数据与输出QVE值之间的输入输出关系;
将所述基准显示器QVE映射应用于基准深度数据(414)以产生解码的QVE数据;以及
向所述解码的QVE数据应用针对目标显示器的逆QVE映射(428)以产生针对该目标显示器的目标深度数据,其中针对目标显示器的逆QVE映射表示针对所述目标显示器确定的输入QVE值与输出深度值之间的输入输出关系。
16.一种用于解码器中的引导式3D显示器适配的方法,所述方法包括:
在解码器处接收原始输入深度数据(407)、深度范围转换函数和基准显示器QVE映射(412)的表示,其中所述基准显示器QVE映射表示针对基准显示器确定的输入深度或视差数据与输出QVE值之间的输入输出关系;
将所述深度范围转换函数应用于所述原始输入深度数据以产生基准深度数据(414);
将所述基准显示器QVE映射应用于所述基准深度数据(414)以产生解码的QVE数据;和
向所述解码的QVE数据应用目标显示器的逆QVE映射(428)以产生针对所述目标显示器的目标深度数据,其中针对目标显示器的逆QVE映射表示针对所述目标显示器确定的输入QVE值与输出深度值之间的输入输出关系。
17.一种用于3D显示器仿真的方法,所述方法包括:
接收用于立体图像的原始输入深度数据(407);
产生基准深度图数据(414),所述基准深度图数据响应于原始输入深度数据(407)和深度范围转换函数(416)而产生;
响应于所述基准深度图数据(414)和基准显示器QVE映射(412)而产生观看体验质量(QVE)数据(424),其中所述基准显示器QVE映射表示针对所述基准显示器确定的输入深度或视差数据与输出QVE值之间的输入输出关系;
选择以仿真目标显示器;以及
将针对仿真的目标显示器的逆QVE映射(428)应用于所述QVE数据(424)以产生针对所述仿真的目标显示器的目标深度数据,其中针对仿真的目标显示器的逆QVE映射表示针对所述仿真的目标显示器确定的输入QVE值与输出深度值之间的输入输出关系。
18.一种使用观看体验质量(QVE)映射来表征3D显示器的方法,该方法包括:
针对用于将被在3D显示器上显示的立体图像的深度范围的输入深度值中的每个值或视差范围中的输入视差值中的每个值,产生针对所述3D显示器的对应的输出QVE显示器值,其中产生所述QVE显示器值包括:
在该3D显示器上使用所述输入深度或视差来显示(210)测试立体图像;
使用照相机捕获所显示的图像以产生2D捕获的图像(215);以及
分析所述2D捕获的图像以产生对应于所述输入深度或视差的输出QVE值(220),其中分析所述2D捕获的图像包括:
响应于所述测试立体图像的视图而使用模糊滤波器产生一组模糊图像,其中使用不同的模糊参数来产生该组模糊图像中的每一个模糊图像;
将所述2D捕获的图像与该组模糊图像中的一个或多个模糊图像进行比较,以根据图像比较准则确定一个或多个差度量;以及
响应于所确定的一个或多个差度量产生输出QVE值。
19.一种使用观看体验质量(QVE)映射来表征3D显示器的系统,该系统包括:
用于针对用于将被在3D显示器上显示的立体图像的深度范围的输入深度值中的每个值或视差范围中的输入视差值中的每个值,通过产生输入深度值或输入视差值与针对所述3D显示器的输出QVE显示器值之间的观看体验质量(QVE)映射,来产生针对所述3D显示器的对应的输出QVE显示器值的装置,其中,对于每个输入深度值或者输入视差值,所生成的QVE显示器值对应于视觉模糊的量度。
20.如权利要求19所述的系统,包括:
用于针对用于将被在基准3D显示器上显示的立体图像的深度范围的输入深度值中的每个值或视差范围中的输入视差值中的每个值,产生针对所述基准3D显示器的对应的输出QVE基准显示器值的装置;
用于产生输入深度值或输入视差值与产生的输出QVE显示器值之间的基准QVE映射的装置。
21.如权利要求19所述的系统,其中用于产生QVE显示器值的装置包括:
用于在该3D显示器上使用输入深度或视差来显示(210)测试立体图像的装置;
用于使用照相机捕获所显示的图像以产生2D捕获的图像(215)的装置;以及
用于分析所述2D捕获的图像以产生对应于所述输入深度或视差的输出QVE值(220)的装置。
22.如权利要求21所述的系统,其中所述测试立体图像的视图包括正弦函数的一个或多个2D表示。
23.如权利要求21所述的系统,其中用于分析所述2D捕获的图像的装置包括:
用于响应于所述测试立体图像的视图而使用模糊滤波器产生一组模糊图像的装置,其中使用不同的模糊参数产生该组模糊图像中的每一个模糊图像;
用于将所述2D捕获的图像与该组模糊图像中的一个或多个模糊图像进行比较,以根据图像比较准则确定一个或多个差度量的装置;以及
用于响应于所确定的一个或多个差度量产生输出QVE值的装置。
24.如权利要求23所述的系统,其中所述模糊滤波器包括高斯滤波器,所述模糊参数包括高斯滤波器的标准偏差,并且所述输出QVE值是其输出和2D捕获的图像之间的差度量最小的高斯滤波器的标准偏差的函数。
25.一种用于引导式3D显示器适配的系统,所述系统包括:
用于接收用于立体图像的原始输入深度数据(407)的装置;
用于产生基准深度图数据(414)的装置,所述基准深度图数据响应于原始输入深度数据(407)和深度范围转换函数(416)而产生;以及
用于响应于所述基准深度图数据(414)和基准显示器QVE映射(412)而产生观看体验质量(QVE)数据(424)的装置,其中所述基准显示器QVE映射表示针对所述基准显示器确定的输入深度或视差值与输出QVE值之间的输入输出关系。
26.如权利要求25所述的系统,其中,通过针对用于将被在基准3D显示器上显示的立体图像的深度范围的输入深度值中的每个值或视差范围中的输入视差值中的每个值,产生针对所述基准3D显示器的对应的输出QVE基准显示器值,并且产生输入深度值或输入视差值与产生的输出QVE显示器值之间的基准QVE映射,产生所述基准显示器QVE映射(412)。
27.如权利要求25所述的系统,还包括:
用于产生艺术家的映射函数(422)的装置,所述艺术家的映射函数表示原始输入深度数据和QVE数据(424)之间的输入输出关系;以及
用于将所述艺术家的映射函数(422)和原始输入深度数据(407)传输至接收器的装置。
28.如权利要求25所述的系统,还包括用于将QVE数据(424)传输至接收器的装置。
29.如权利要求25所述的系统,还包括用于将所述基准深度数据(414)和基准显示器QVE映射(412)的表示传输至接收器的装置。
30.如权利要求25所述的系统,还包括用于将所述原始输入深度数据(407)、所述基准显示器QVE映射(412)的表示和所述深度范围转换函数(416)的表示传输至接收器的装置。
31.一种用于解码器中的引导式3D显示器适配的系统,所述系统包括:
用于在解码器处接收原始输入深度数据(407)和艺术家的映射函数(422)的表示的装置,所述艺术家的映射函数表示原始输入深度数据和由编码器针对基准显示器产生的QVE数据(424)之间的输入输出关系;
用于将艺术家的映射函数应用于原始深度数据以产生解码的QVE数据的装置;以及
用于向解码的QVE数据应用针对目标显示器的逆QVE映射(428),以产生针对目标显示器的目标深度数据(432)的装置,其中针对目标显示器的逆QVE映射表示针对所述目标显示器确定的输入QVE值和输出深度值之间的输入输出关系。
32.一种用于解码器中的引导式3D显示器适配的系统,所述系统包括:
用于在解码器处接收由编码器根据权利要求28产生的QVE数据(424)的装置;以及
用于向所述QVE数据应用针对目标显示器的逆QVE映射(428),以产生针对该目标显示器的目标深度数据的装置,其中针对目标显示器的逆QVE映射表示针对所述目标显示器确定的输入QVE值与输出深度值之间的输入输出关系。
33.一种用于解码器中的引导式3D显示器适配的系统,所述系统包括:
用于在解码器处接收基准深度数据(414)和基准显示器QVE映射(412)的表示的装置,其中所述基准显示器QVE映射表示针对基准显示器确定的输入深度或视差数据与输出QVE值之间的输入输出关系;
用于将所述基准显示器QVE映射应用于基准深度数据(414)以产生解码的QVE数据的装置;以及
用于向所述解码的QVE数据应用针对目标显示器的逆QVE映射(428)以产生针对该目标显示器的目标深度数据的装置,其中针对目标显示器的逆QVE映射表示针对所述目标显示器确定的输入QVE值与输出深度值之间的输入输出关系。
34.一种用于解码器中的引导式3D显示器适配的系统,所述系统包括:
用于在解码器处接收原始输入深度数据(407)、深度范围转换函数和基准显示器QVE映射(412)的表示的装置,其中所述基准显示器QVE映射表示针对基准显示器确定的输入深度或视差数据与输出QVE值之间的输入输出关系;
用于将所述深度范围转换函数应用于所述原始输入深度数据以产生基准深度数据(414)的装置;
用于将所述基准显示器QVE映射应用于所述基准深度数据(414)以产生解码的QVE数据的装置;和
用于向所述解码的QVE数据应用目标显示器的逆QVE映射(428)以产生针对所述目标显示器的目标深度数据的装置,其中针对目标显示器的逆QVE映射表示针对所述目标显示器确定的输入QVE值与输出深度值之间的输入输出关系。
35.一种用于3D显示器仿真的系统,所述系统包括:
用于接收用于立体图像的原始输入深度数据(407)的装置;
用于产生基准深度图数据(414)的装置,所述基准深度图数据响应于原始输入深度数据(407)和深度范围转换函数(416)而产生;
用于响应于所述基准深度图数据(414)和基准显示器QVE映射(412)而产生观看体验质量(QVE)数据(424)的装置,其中所述基准显示器QVE映射表示针对所述基准显示器确定的输入深度或视差数据与输出QVE值之间的输入输出关系;
用于选择以仿真目标显示器的装置;以及
用于将针对仿真的目标显示器的逆QVE映射(428)应用于所述QVE数据(424)以产生针对所述仿真的目标显示器的目标深度数据的装置,其中针对仿真的目标显示器的逆QVE映射表示针对所述仿真的目标显示器确定的输入QVE值与输出深度值之间的输入输出关系。
36.一种使用观看体验质量(QVE)映射来表征3D显示器的系统,该系统包括:
用于针对用于将被在3D显示器上显示的立体图像的深度范围的输入深度值中的每个值或视差范围中的输入视差值中的每个值,产生针对所述3D显示器的对应的输出QVE显示器值的装置,其中用于产生所述QVE显示器值的装置包括:
用于在该3D显示器上使用所述输入深度或视差来显示(210)测试立体图像的装置;
用于使用照相机捕获所显示的图像以产生2D捕获的图像(215)的装置;以及
用于分析所述2D捕获的图像以产生对应于所述输入深度或视差的输出QVE值(220)的装置,其中用于分析所述2D捕获的图像的装置包括:
用于响应于所述测试立体图像的视图而使用模糊滤波器产生一组模糊图像的装置,其中使用不同的模糊参数来产生该组模糊图像中的每一个模糊图像;
用于将所述2D捕获的图像与该组模糊图像中的一个或多个模糊图像进行比较,以根据图像比较准则确定一个或多个差度量的装置;以及
用于响应于所确定的一个或多个差度量产生输出QVE值的装置。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201361807672P | 2013-04-02 | 2013-04-02 | |
US61/807,672 | 2013-04-02 | ||
PCT/US2014/030588 WO2014165316A1 (en) | 2013-04-02 | 2014-03-17 | Guided 3d display adaptation |
Publications (2)
Publication Number | Publication Date |
---|---|
CN105103544A CN105103544A (zh) | 2015-11-25 |
CN105103544B true CN105103544B (zh) | 2017-05-10 |
Family
ID=50729789
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201480019109.8A Active CN105103544B (zh) | 2013-04-02 | 2014-03-17 | 引导式3d显示器适配 |
Country Status (8)
Country | Link |
---|---|
US (1) | US10063845B2 (zh) |
EP (1) | EP2982106B1 (zh) |
JP (1) | JP6302540B2 (zh) |
KR (1) | KR101724309B1 (zh) |
CN (1) | CN105103544B (zh) |
HK (1) | HK1216694A1 (zh) |
TW (1) | TWI547142B (zh) |
WO (1) | WO2014165316A1 (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20150103162A1 (en) * | 2013-10-14 | 2015-04-16 | Etron Technology, Inc. | System of quickly generating a relationship table of distance to disparity of a camera and related method thereof |
KR102695911B1 (ko) | 2017-05-15 | 2024-08-14 | 아우스터, 인크. | 파노라마 lidar 결과의 컬러 보강 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1577401A (zh) * | 2003-07-03 | 2005-02-09 | 汤姆森许可贸易公司 | 产生模糊的方法 |
CN102474639A (zh) * | 2009-08-06 | 2012-05-23 | 高通股份有限公司 | 根据人类视觉系统反馈度量变换视频数据 |
CN103004214A (zh) * | 2010-07-16 | 2013-03-27 | 高通股份有限公司 | 用于三维视频的基于视觉的质量度量 |
Family Cites Families (25)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101602904B1 (ko) | 2008-10-10 | 2016-03-11 | 코닌클리케 필립스 엔.브이. | 신호에 포함된 시차 정보를 처리하는 방법 |
JP4737573B2 (ja) | 2009-02-05 | 2011-08-03 | 富士フイルム株式会社 | 3次元画像出力装置及び方法 |
JP5444955B2 (ja) * | 2009-08-31 | 2014-03-19 | ソニー株式会社 | 立体画像表示システム、視差変換装置、視差変換方法およびプログラム |
US9030530B2 (en) | 2009-12-15 | 2015-05-12 | Thomson Licensing | Stereo-image quality and disparity/depth indications |
US20110169818A1 (en) | 2010-01-13 | 2011-07-14 | Sharp Laboratories Of America, Inc. | Reducing viewing discomfort |
US20130033586A1 (en) * | 2010-04-21 | 2013-02-07 | Samir Hulyalkar | System, Method and Apparatus for Generation, Transmission and Display of 3D Content |
JP4875762B2 (ja) | 2010-05-26 | 2012-02-15 | シャープ株式会社 | 画像処理装置、画像表示装置および画像撮像装置 |
WO2012050089A1 (ja) * | 2010-10-12 | 2012-04-19 | 株式会社Jvcケンウッド | 奥行き信号生成装置、擬似立体画像信号生成装置、奥行き信号生成方法、擬似立体画像信号生成方法、奥行き信号生成プログラム、擬似立体画像信号生成プログラム |
US9292973B2 (en) | 2010-11-08 | 2016-03-22 | Microsoft Technology Licensing, Llc | Automatic variable virtual focus for augmented reality displays |
US8836796B2 (en) * | 2010-11-23 | 2014-09-16 | Dolby Laboratories Licensing Corporation | Method and system for display characterization or calibration using a camera device |
KR101727899B1 (ko) | 2010-11-26 | 2017-04-18 | 엘지전자 주식회사 | 휴대 단말기 및 그 동작 제어방법 |
US8274552B2 (en) * | 2010-12-27 | 2012-09-25 | 3Dmedia Corporation | Primary and auxiliary image capture devices for image processing and related methods |
US9407904B2 (en) * | 2013-05-01 | 2016-08-02 | Legend3D, Inc. | Method for creating 3D virtual reality from 2D images |
US8654181B2 (en) | 2011-03-28 | 2014-02-18 | Avid Technology, Inc. | Methods for detecting, visualizing, and correcting the perceived depth of a multicamera image sequence |
WO2012156518A2 (en) | 2011-05-17 | 2012-11-22 | MAX-PLANCK-Gesellschaft zur Förderung der Wissenschaften e.V. | Methods and device for processing digital stereo image content |
JP2014522600A (ja) * | 2011-05-31 | 2014-09-04 | ドルビー ラボラトリーズ ライセンシング コーポレイション | 分解能トレードオフおよび最適化を実装するビデオ圧縮 |
WO2012176431A1 (ja) * | 2011-06-20 | 2012-12-27 | パナソニック株式会社 | 多視点画像生成装置、多視点画像生成方法 |
US8855472B2 (en) * | 2011-07-26 | 2014-10-07 | Panasonic Corporation | Video editing apparatus, video editing method, program, and integrated circuit |
US9560334B2 (en) * | 2011-09-08 | 2017-01-31 | Qualcomm Incorporated | Methods and apparatus for improved cropping of a stereoscopic image pair |
US20130258044A1 (en) * | 2012-03-30 | 2013-10-03 | Zetta Research And Development Llc - Forc Series | Multi-lens camera |
IN2015DN01832A (zh) * | 2012-09-14 | 2015-05-29 | Sony Corp | |
US9547937B2 (en) * | 2012-11-30 | 2017-01-17 | Legend3D, Inc. | Three-dimensional annotation system and method |
US9436358B2 (en) * | 2013-03-07 | 2016-09-06 | Cyberlink Corp. | Systems and methods for editing three-dimensional video |
US9438878B2 (en) * | 2013-05-01 | 2016-09-06 | Legend3D, Inc. | Method of converting 2D video to 3D video using 3D object models |
TWI530156B (zh) * | 2014-01-10 | 2016-04-11 | 友達光電股份有限公司 | 立體顯示方法 |
-
2014
- 2014-02-19 TW TW103105463A patent/TWI547142B/zh active
- 2014-03-17 US US14/781,560 patent/US10063845B2/en active Active
- 2014-03-17 KR KR1020157027050A patent/KR101724309B1/ko active IP Right Grant
- 2014-03-17 JP JP2016506318A patent/JP6302540B2/ja active Active
- 2014-03-17 EP EP14724215.0A patent/EP2982106B1/en active Active
- 2014-03-17 WO PCT/US2014/030588 patent/WO2014165316A1/en active Application Filing
- 2014-03-17 CN CN201480019109.8A patent/CN105103544B/zh active Active
-
2016
- 2016-04-21 HK HK16104608.8A patent/HK1216694A1/zh unknown
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1577401A (zh) * | 2003-07-03 | 2005-02-09 | 汤姆森许可贸易公司 | 产生模糊的方法 |
CN102474639A (zh) * | 2009-08-06 | 2012-05-23 | 高通股份有限公司 | 根据人类视觉系统反馈度量变换视频数据 |
CN103004214A (zh) * | 2010-07-16 | 2013-03-27 | 高通股份有限公司 | 用于三维视频的基于视觉的质量度量 |
Also Published As
Publication number | Publication date |
---|---|
JP2016521041A (ja) | 2016-07-14 |
TW201448565A (zh) | 2014-12-16 |
HK1216694A1 (zh) | 2016-11-25 |
CN105103544A (zh) | 2015-11-25 |
US20160065949A1 (en) | 2016-03-03 |
EP2982106B1 (en) | 2019-06-19 |
TWI547142B (zh) | 2016-08-21 |
KR20150126640A (ko) | 2015-11-12 |
JP6302540B2 (ja) | 2018-03-28 |
WO2014165316A1 (en) | 2014-10-09 |
EP2982106A1 (en) | 2016-02-10 |
KR101724309B1 (ko) | 2017-04-07 |
US10063845B2 (en) | 2018-08-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN102075694B (zh) | 用于视频制作、后期制作和显示适应的立体编辑 | |
US9445072B2 (en) | Synthesizing views based on image domain warping | |
Song et al. | MCL-3D: A database for stereoscopic image quality assessment using 2D-image-plus-depth source | |
Terzić et al. | Methods for reducing visual discomfort in stereoscopic 3D: A review | |
WO2019041351A1 (zh) | 一种3d vr视频与虚拟三维场景实时混叠渲染的方法 | |
CN102055991B (zh) | 二维图像转换为三维图像的转换方法及转换装置 | |
Devernay et al. | Stereoscopic cinema | |
TW201243763A (en) | Method for 3D video content generation | |
Kovács et al. | Measurement of perceived spatial resolution in 3D light-field displays | |
CN101697597A (zh) | 产生3d影像的方法 | |
TW201325204A (zh) | 立體影像攝影與播放品質評估系統,及其方法 | |
CN105103544B (zh) | 引导式3d显示器适配 | |
CN103905806A (zh) | 利用单摄像头实现3d拍摄的系统和方法 | |
Hanhart et al. | Subjective evaluation of two stereoscopic imaging systems exploiting visual attention to improve 3D quality of experience | |
US10666925B2 (en) | Stereoscopic calibration using a multi-planar calibration target | |
Chu et al. | Saliency structure stereoscopic image quality assessment method | |
Lucas et al. | 3D Video: From Capture to Diffusion | |
CN104185005B (zh) | 图像处理装置和图像处理方法 | |
KR101121421B1 (ko) | 입체영상 제작시의 카메라 간격 제공방법, 프로그램 기록매체 및 입체영상 생성기 | |
CN104883559A (zh) | 视频播放方法和视频播放装置 | |
Xu | Capturing and post-processing of stereoscopic 3D content for improved quality of experience | |
Tian et al. | Comfort evaluation of 3D movies based on parallax and motion | |
Fliegel et al. | Open source database of images DEIMOS: high dynamic range and stereoscopic content | |
Zhang et al. | An quality metric for 3D rendered image based on stereo saliency and structural similarity | |
Gadia et al. | Local color correction of stereo pairs |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
REG | Reference to a national code |
Ref country code: HK Ref legal event code: DE Ref document number: 1216694 Country of ref document: HK |
|
GR01 | Patent grant | ||
GR01 | Patent grant | ||
REG | Reference to a national code |
Ref country code: HK Ref legal event code: GR Ref document number: 1216694 Country of ref document: HK |