CN106028018B - 面向裸眼3d显示的实拍双视点3d视频优化方法及系统 - Google Patents
面向裸眼3d显示的实拍双视点3d视频优化方法及系统 Download PDFInfo
- Publication number
- CN106028018B CN106028018B CN201610375463.5A CN201610375463A CN106028018B CN 106028018 B CN106028018 B CN 106028018B CN 201610375463 A CN201610375463 A CN 201610375463A CN 106028018 B CN106028018 B CN 106028018B
- Authority
- CN
- China
- Prior art keywords
- visual point
- point image
- parallax
- ment
- video
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/139—Format conversion, e.g. of frame-rate or size
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/128—Adjusting depth or disparity
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
- Image Processing (AREA)
Abstract
本发明揭示了一种面向裸眼3D显示的实拍双视点3D视频优化方法及系统,所述方法包括如下步骤:输入实拍双视点3D视频;选择左图或右图为第一视点图像,则相应的右图或左图为第二视点图像;将第一视点图像分割成基本计算单元;基于第一视点图像的基本计算单元在第二视点图像中搜索匹配单元,计算视差场;使用边缘指导的插值方法将基于基本计算单元的视差场转换为基于像素的视差场;将基于像素的视差场归一化,将第一视点图像与基于像素的视差场按图像及深度3D视频格式输出。本发明可避免复杂的后期处理以消除实拍双视点3D视频左右画面的差异;利用半自动视差计算方法可有效提取实拍双视点3D视频的深度信息或视差信息,保持实拍双视点3D视频的3D效果。
Description
技术领域
本发明属于3D视频优化技术领域,涉及一种3D视频优化方法,尤其涉及一种面向裸眼3D显示的实拍双视点3D视频优化方法;同时,本发明还涉及一种面向裸眼3D显示的实拍双视点3D视频优化系统。
背景技术
双视点3D视频是通用3D视频格式,是3D影视内容的主要形式。双视点3D视频可以通过双摄像头3D摄像机拍摄,是3D影视内容获取的主要方式。但是,双摄像头3D摄像机使用双摄像头分别拍摄左右画面,导致实拍双视点3D视频的左右画面通常存在差异,如亮度不一致、颜色不一致、垂直视差等,会显著影响实拍双视点3D视频的3D显示效果,因此实拍双视点3D影视内容通常需要复杂的后期处理与优化以获得好的3D视觉效果。
一种裸眼3D显示设备,由显示装置与光栅装置组成,可让观看者无需任何辅助设备就可以感觉到3D效果。为解决多人多角度同时观看的问题,通常采用多视点显示方式,多视点立体图像经过合成后可以在该裸眼3D显示设备上观看到3D效果。这样双视点3D视频要在该裸眼3D显示设备上显示就需要实时提取双视点3D视频的深度信息或视差信息并实时渲染成多视点立体视频,实时提取深度信息或视差信息是个巨大的难题,尤其是实拍双视点3D视频,亮度不一致、颜色不一致、垂直视差等都是影响深度信息或视差信息实时提取的重要因素。
播放3D影视类等经过良好后期处理的双视点3D视频的裸眼3D显示设备已经出现并规模应用,但是直接播放实拍双视点3D视频在该裸眼3D显示设备上面临诸多问题:(1)实拍双视点3D视频左右画面存在亮度不一致、颜色不一致和垂直视差等显著影响3D效果的问题;(2)亮度不一致、颜色不一致和垂直视差等问题也是影响实时多视点转换的重要因素,使深度提取或视差提取不准确,导致3D图像扯动等严重问题。
随着多视点裸眼3D显示设备的普及,迫切需要一种面向裸眼3D显示的简单快速的实拍双视点3D视频优化方法与系统以优化其裸眼3D显示效果。
发明内容
本发明所要解决的技术问题是:提供一种面向裸眼3D显示的实拍双视点3D视频优化方法,避免实拍双视点3D视频左右画面不一致并保持深度信息或视差信息,提升3D显示效果。
此外,本发明还提供一种面向裸眼3D显示的实拍双视点3D视频优化系统,避免实拍双视点3D视频左右画面不一致并保持深度信息或视差信息,提升3D显示效果。
为解决上述技术问题,本发明采用如下技术方案:
一种面向裸眼3D显示的实拍双视点3D视频优化方法,所述方法包括如下步骤:
步骤S1.输入实拍双视点3D视频;
步骤S2.选择左图或右图为第一视点图像,则相应的右图或左图为第二视点图像;
步骤S3.将第一视点图像分割成基本计算单元;所述基本计算单元按照块的形式进行划分,优选块的大小为4x4或8x8或16x16;
步骤S4.基于第一视点图像的基本计算单元在第二视点图像中搜索匹配单元,计算视差场;
所述搜索匹配单元采用半自动方法;边缘块及其相邻块采用人工方式进行视差赋值,非边缘块根据空间相关性自动搜索匹配单元获取视差;
所述非边缘块的自动搜索方法中,其中Dm,n为基本计算单元视差,I1、I2分别为第一视点图像和第二视点图像,argmin为参数极小值计算;
步骤S5.使用边缘指导的插值方法将基于基本计算单元的视差场转换为基于像素的视差场;
所述边缘指导的插值方法中,垂直方向插值采用如下方式进行:
Si,n=((M-v)*Dm,n+v*Dm+1,n)/M,M为基本计算单元垂直方向大小,如果当前像素属于边缘块且位于边缘上方,则否则
水平方向插值采用如下方式进行:
di,j=((N-h)*Si,n+h*Si,n+1)/N,di,j为像素视差,N为基本计算单元水平方向大小,如果当前像素属于边缘块且位于边缘左边,则否则
步骤S6.将基于像素的视差场归一化,将第一视点图像与基于像素的视差场按图像及深度3D视频格式输出;
其中,视差场归一化采用如下方式:xi,j=-k*di,j+b,k与b为常数,且最大负视差对应最大值,最大正视差对应零;
所述步骤S6中,将第一视点图像放在左边,对应的视差场放在右边形成图像及深度3D视频格式。
一种面向裸眼3D显示的实拍双视点3D视频优化方法,所述方法包括如下步骤:
步骤S1.输入实拍双视点3D视频;
步骤S2.选择左图或右图为第一视点图像,则相应的右图或左图为第二视点图像;
步骤S3.将第一视点图像分割成基本计算单元;
步骤S4.基于第一视点图像的基本计算单元在第二视点图像中搜索匹配单元,计算视差场;
步骤S5.使用边缘指导的插值方法将基于基本计算单元的视差场转换为基于像素的视差场;
步骤S6.将基于像素的视差场归一化,将第一视点图像与基于像素的视差场按图像及深度3D视频格式输出。
作为本发明的一种优选方案,所述基本计算单元按照块的形式进行划分,优选块的大小为4x4或8x8或16x16。
作为本发明的一种优选方案,所述搜索匹配单元采用半自动方法。
作为本发明的一种优选方案,所述搜索匹配单元采用的半自动方法中,边缘块及其相邻块采用人工方式进行视差赋值,非边缘块根据空间相关性自动搜索匹配单元获取视差。
作为本发明的一种优选方案,所述非边缘块的自动搜索方法中,其中Dm,n为基本计算单元视差,I1、I2分别为第一视点图像和第二视点图像,argmin为参数极小值计算。
作为本发明的一种优选方案,所述边缘指导的插值方法中,垂直方向插值采用如下方式进行:
Si,n=((M-v)*Dm,n+v*Dm+1,n)/M,M为基本计算单元垂直方向大小,如果当前像素属于边缘块且位于边缘上方,则否则
水平方向插值采用如下方式进行:
di,j=((N-h)*Si,n+h*Si,n+1)/N,di,j为像素视差,N为基本计算单元水平方向大小,如果当前像素属于边缘块且位于边缘左边,则否则
作为本发明的一种优选方案,所述步骤S6中,视差场归一化采用如下方式:xi,j=-k*di,j+b,k与b为常数,且最大负视差对应最大值,最大正视差对应零。
作为本发明的一种优选方案,所述步骤S6中,将第一视点图像放在左边,对应的视差场放在右边形成图像及深度3D视频格式。
一种面向裸眼3D显示的实拍双视点3D视频优化系统,所述系统包括:
实拍双视点3D视频输入模块,用以输入实拍双视点3D视频;
视点图像选择模块,用以选择左图或右图为第一视点图像,则相应的右图或左图为第二视点图像;
第一视点图像分割模块,用以将第一视点图像分割成基本计算单元;
视差场计算模块,用以基于第一视点图像的基本计算单元在第二视点图像中搜索匹配单元,计算视差场;
视差场转换模块,用以使用边缘指导的插值方法将基于基本计算单元的视差场转换为基于像素的视差场;
3D视频格式输出模块,用以将基于像素的视差场归一化,将第一视点图像与基于像素的视差场按图像及深度3D视频格式输出。
本发明的有益效果在于:本发明提出的面向裸眼3D显示的实拍双视点3D视频优化方法及系统,可避免实拍双视点3D视频左右画面不一致,同时克服由于实时深度提取或视差提取不准确导致的3D视觉效果问题。
本发明将实拍双视点3D视频转换为图像及深度3D视频,可避免复杂的后期处理以消除实拍双视点3D视频左右画面的差异,如亮度差异、颜色差异和垂直视差等;利用半自动视差计算方法可有效提取实拍双视点3D视频的深度信息或视差信息,保持实拍双视点3D视频的3D效果。
附图说明
图1实拍双视点3D视频示例。
图2边缘基本计算单元示意图。
图3本发明技术方案流程图。
图4图像+深度3D视频示例。
具体实施方式
下面结合附图详细说明本发明的优选实施例。
实施例一
请参阅图3,本发明揭示了一种面向裸眼3D显示的实拍双视点3D视频优化方法,所述方法包括如下步骤:
步骤S1.输入实拍双视点3D视频,可参见图1;
步骤S2.选择左图或右图为第一视点图像,则相应的右图或左图为第二视点图像;
步骤S3.将第一视点图像分割成基本计算单元;所述基本计算单元按照块的形式进行划分(如图2所示),优选块的大小为4x4或8x8或16x16;
步骤S4.基于第一视点图像的基本计算单元在第二视点图像中搜索匹配单元,计算视差场;
所述搜索匹配单元采用半自动方法;边缘块及其相邻块采用人工方式进行视差赋值,非边缘块根据空间相关性自动搜索匹配单元获取视差;
所述非边缘块的自动搜索方法中,其中Dm,n为基本计算单元视差,I1、I2分别为第一视点图像和第二视点图像,argmin为参数极小值计算;
步骤S5.使用边缘指导的插值方法将基于基本计算单元的视差场转换为基于像素的视差场;
所述边缘指导的插值方法中,垂直方向插值采用如下方式进行:
Si,n=((M-v)*Dm,n+v*Dm+1,n)/M,M为基本计算单元垂直方向大小,如果当前像素属于边缘块且位于边缘上方,则否则
水平方向插值采用如下方式进行:
di,j=((N-h)*Si,n+h*Si,n+1)/N,di,j为像素视差,N为基本计算单元水平方向大小,如果当前像素属于边缘块且位于边缘左边,则否则
步骤S6.将基于像素的视差场归一化,将第一视点图像与基于像素的视差场按图像及深度3D视频格式输出(可参阅图4);
其中,视差场归一化采用如下方式:xi,j=-k*di,j+b,k与b为常数,且最大负视差对应最大值,最大正视差对应零;
所述步骤S6中,将第一视点图像放在左边,对应的视差场放在右边形成图像及深度3D视频格式。
本发明还揭示一种面向裸眼3D显示的实拍双视点3D视频优化系统,所述系统包括:实拍双视点3D视频输入模块、视点图像选择模块、第一视点图像分割模块、视差场计算模块、视差场转换模块、3D视频格式输出模块。
实拍双视点3D视频输入模块用以输入实拍双视点3D视频;
视点图像选择模块用以选择左图或右图为第一视点图像,则相应的右图或左图为第二视点图像;
第一视点图像分割模块用以将第一视点图像分割成基本计算单元;
视差场计算模块用以基于第一视点图像的基本计算单元在第二视点图像中搜索匹配单元,计算视差场;
视差场转换模块用以使用边缘指导的插值方法将基于基本计算单元的视差场转换为基于像素的视差场;
3D视频格式输出模块用以将基于像素的视差场归一化,将第一视点图像与基于像素的视差场按图像及深度3D视频格式输出。
上述各个模块的具体功能可以参见上述方法的描述,这里不做赘述。
实施例二
一种面向裸眼3D显示的实拍双视点3D视频优化方法,所述方法包括如下步骤:
步骤S1.输入实拍双视点3D视频;
步骤S2.选择左图或右图为第一视点图像,则相应的右图或左图为第二视点图像;
步骤S3.将第一视点图像分割成基本计算单元;
步骤S4.基于第一视点图像的基本计算单元在第二视点图像中搜索匹配单元,计算视差场;
步骤S5.使用边缘指导的插值方法将基于基本计算单元的视差场转换为基于像素的视差场;
步骤S6.将基于像素的视差场归一化,将第一视点图像与基于像素的视差场按图像及深度3D视频格式输出。
综上所述,本发明提出的面向裸眼3D显示的实拍双视点3D视频优化方法及系统,可避免实拍双视点3D视频左右画面不一致,同时克服由于实时深度提取或视差提取不准确导致的3D视觉效果问题。
本发明将实拍双视点3D视频转换为图像及深度3D视频,可避免复杂的后期处理以消除实拍双视点3D视频左右画面的差异,如亮度差异、颜色差异和垂直视差等;利用半自动视差计算方法可有效提取实拍双视点3D视频的深度信息或视差信息,保持实拍双视点3D视频的3D效果。
这里本发明的描述和应用是说明性的,并非想将本发明的范围限制在上述实施例中。这里所披露的实施例的变形和改变是可能的,对于那些本领域的普通技术人员来说实施例的替换和等效的各种部件是公知的。本领域技术人员应该清楚的是,在不脱离本发明的精神或本质特征的情况下,本发明可以以其它形式、结构、布置、比例,以及用其它组件、材料和部件来实现。在不脱离本发明范围和精神的情况下,可以对这里所披露的实施例进行其它变形和改变。
Claims (7)
1.一种面向裸眼3D显示的实拍双视点3D视频优化方法,其特征在于,所述方法包括如下步骤:
步骤S1.输入实拍双视点3D视频;
步骤S2.选择左图或右图为第一视点图像,则相应的右图或左图为第二视点图像;
步骤S3.将第一视点图像分割成基本计算单元;所述基本计算单元按照块的形式进行划分,块的大小为4x4或8x8或16x16;
步骤S4.基于第一视点图像的基本计算单元在第二视点图像中搜索匹配单元,计算视差场;
所述搜索匹配单元采用半自动方法;边缘块及其相邻块采用人工方式进行视差赋值,非边缘块根据空间相关性自动搜索匹配单元获取视差;
所述非边缘块的自动搜索方法中,其中Dm,n为基本计算单元视差,I1、I2分别为第一视点图像和第二视点图像,argmin为参数极小值计算;
步骤S5.使用边缘指导的插值方法将基于基本计算单元的视差场转换为基于像素的视差场:
所述边缘指导的插值方法中,垂直方向插值Si,n采用如下方式进行:
Si,n=((M-v)*Dm,n+v*Dm+1,n)/M,M为基本计算单元垂直方向大小,v=i%M;如果当前像素属于边缘块且位于边缘上方,则v=0,否则v=0:
水平方向插值采用如下方式进行:
di,j=((N-h)*Si,n+h*Si,n+1)/N,di,j为像素视差,N为基本计算单元水平方向大小,h=j%N;如果当前像素属于边缘块且位于边缘左边,则h=0,否则h=0;
步骤S6.将基于像素的视差场归一化,将第一视点图像与基于像素的视差场按图像及深度3D视频格式输出;
其中,视差场归一化采用如下方式:xi,j=-k*di,j+b,k与b为常数,且最大负视差对应最大值,最大正视差对应零;
所述步骤S6中,将第一视点图像放在左边,对应的视差场放在右边形成图像及深度3D视频格式。
2.一种面向裸眼3D显示的实拍双视点3D视频优化方法,其特征在于,所述方法包括如下步骤:
步骤S1.输入实拍双视点3D视频;
步骤S2.选择左图或右图为第一视点图像,则相应的右图或左图为第二视点图像;
步骤S3.将第一视点图像分割成基本计算单元;
步骤S4.基于第一视点图像的基本计算单元在第二视点图像中搜索匹配单元,计算视差场;搜索匹配单元采用半自动方法;搜索匹配单元采用的半自动方法中,边缘块及其相邻块采用人工方式进行视差赋值,非边缘块根据空间相关性自动搜索匹配单元获取视差;所述非边缘块的自动搜索方法中,其中Dm,n为基本计算单元视差,I1、I2分别为第一视点图像和第二视点图像,argmin为参数极小值计算;
步骤S5.使用边缘指导的插值方法将基于基本计算单元的视差场转换为基于像素的视差场;
步骤S6.将基于像素的视差场归一化,将第一视点图像与基于像素的视差场按图像及深度3D视频格式输出。
3.根据权利要求2所述的面向裸眼3D显示的实拍双视点3D视频优化方法,其特征在于:
所述基本计算单元按照块的形式进行划分,块的大小为4x4或8x8或16x16。
4.根据权利要求2所述的面向裸眼3D显示的实拍双视点3D视频优化方法,其特征在于:
所述边缘指导的插值方法中,垂直方向插值Si,n采用如下方式进行:
Si,n=((M-v)*Dm,n+v*Dm+1,n)/M,M为基本计算单元垂直方向大小,v=i%M;如果当前像素属于边缘块且位于边缘上方,则v=0,否则v=0:
水平方向插值采用如下方式进行:
di,j=((N-h)*Si,n+h*Si,n+1)/N,di,j为像素视差,N为基本计算单元水平方向大小,h=j%N;如果当前像素属于边缘块且位于边缘左边,则h=0,否则h=0。
5.根据权利要求2所述的面向裸眼3D显示的实拍双视点3D视频优化方法,其特征在于:
所述步骤S6中,视差场归一化采用如下方式:xi,j=-k*di,j+b,k与b为常数,且最大负视差对应最大值,最大正视差对应零。
6.根据权利要求2所述的面向裸眼3D显示的实拍双视点3D视频优化方法,其特征在于:
所述步骤S6中,将第一视点图像放在左边,对应的视差场放在右边形成图像及深度3D视频格式。
7.一种面向裸眼3D显示的实拍双视点3D视频优化系统,其特征在于,所述系统包括:
实拍双视点3D视频输入模块,用以输入实拍双视点3D视频;
视点图像选择模块,用以选择左图或右图为第一视点图像,则相应的右图或左图为第二视点图像;
第一视点图像分割模块,用以将第一视点图像分割成基本计算单元;
视差场计算模块,用以基于第一视点图像的基本计算单元在第二视点图像中搜索匹配单元,计算视差场;搜索匹配单元采用半自动方法;搜索匹配单元采用的半自动方法中,边缘块及其相邻块采用人工方式进行视差赋值,非边缘块根据空间相关性自动搜索匹配单元获取视差;所述非边缘块的自动搜索方法中,其中Dm,n为基本计算单元视差,I1、I2分别为第一视点图像和第二视点图像,argmin为参数极小值计算;
视差场转换模块,用以使用边缘指导的插值方法将基于基本计算单元的视差场转换为基于像素的视差场;
3D视频格式输出模块,用以将基于像素的视差场归一化,将第一视点图像与基于像素的视差场按图像及深度3D视频格式输出。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610375463.5A CN106028018B (zh) | 2016-05-31 | 2016-05-31 | 面向裸眼3d显示的实拍双视点3d视频优化方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610375463.5A CN106028018B (zh) | 2016-05-31 | 2016-05-31 | 面向裸眼3d显示的实拍双视点3d视频优化方法及系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN106028018A CN106028018A (zh) | 2016-10-12 |
CN106028018B true CN106028018B (zh) | 2019-01-11 |
Family
ID=57093054
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201610375463.5A Active CN106028018B (zh) | 2016-05-31 | 2016-05-31 | 面向裸眼3d显示的实拍双视点3d视频优化方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN106028018B (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112188186B (zh) * | 2020-09-28 | 2023-01-24 | 南京工程学院 | 一种基于归一化无限视点的获取裸眼3d合成图方法 |
CN112634304B (zh) * | 2020-12-31 | 2022-09-13 | 上海易维视科技有限公司 | 去除3d格式视频或图像中的反射光斑的方法 |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101605270B (zh) * | 2009-07-16 | 2011-02-16 | 清华大学 | 生成深度图的方法和装置 |
CN102447933A (zh) * | 2011-11-01 | 2012-05-09 | 浙江捷尚视觉科技有限公司 | 基于双目架构的深度信息获取方法 |
CN102523464A (zh) * | 2011-12-12 | 2012-06-27 | 上海大学 | 一种双目立体视频的深度图像估计方法 |
KR101883200B1 (ko) * | 2011-12-16 | 2018-08-01 | 에스케이플래닛 주식회사 | 입체영상 깊이감 측정 장치 및 방법 |
KR101856257B1 (ko) * | 2012-12-12 | 2018-05-09 | 현대자동차주식회사 | 양안 시차 영상의 보정 장치 및 그 방법 |
CN105528785B (zh) * | 2015-12-03 | 2018-06-15 | 河北工业大学 | 一种双目视觉图像立体匹配方法 |
-
2016
- 2016-05-31 CN CN201610375463.5A patent/CN106028018B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
CN106028018A (zh) | 2016-10-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US8610758B2 (en) | Depth map generation for a video conversion system | |
US10855909B2 (en) | Method and apparatus for obtaining binocular panoramic image, and storage medium | |
CN105654471B (zh) | 应用于互联网视频直播的增强现实ar系统及方法 | |
US9299152B2 (en) | Systems and methods for image depth map generation | |
WO2012086120A1 (ja) | 画像処理装置、撮像装置、画像処理方法、プログラム | |
CN102186023A (zh) | 一种双目立体字幕处理方法 | |
CN108616730A (zh) | 一种基于虚拟现实的立体弹幕方法及系统 | |
CN105578172B (zh) | 基于Unity3D引擎的裸眼3D视频显示方法 | |
Bleyer et al. | Temporally consistent disparity maps from uncalibrated stereo videos | |
CN106028018B (zh) | 面向裸眼3d显示的实拍双视点3d视频优化方法及系统 | |
US10122987B2 (en) | 3D system including additional 2D to 3D conversion | |
CN101662695A (zh) | 一种获取虚拟视图的方法和装置 | |
CN105657268A (zh) | 一种基于多分辨率的多视点视频拼接融合算法 | |
US20210321073A1 (en) | 3d system | |
KR100540732B1 (ko) | 2차원 영상신호를 3차원 영상신호로 변환하는 장치 | |
Zhang et al. | A real-time time-consistent 2D-to-3D video conversion system using color histogram | |
US10277879B2 (en) | 3D system including rendering with eye displacement | |
CN102111637A (zh) | 生成立体视频深度图的方法及装置 | |
CN104052990B (zh) | 一种基于融合深度线索的全自动二维转三维方法和装置 | |
CN108307245B (zh) | 一种基于背景感知技术的字幕字体颜色获取方法、显示器 | |
GB2585197A (en) | Method and system for obtaining depth data | |
US10148933B2 (en) | 3D system including rendering with shifted compensation | |
CN104349073A (zh) | 一种光场编辑传播方法及装置 | |
Chappuis et al. | Subjective evaluation of an active crosstalk reduction system for mobile autostereoscopic displays | |
Bae et al. | Efficient and scalable view generation from a single image using fully convolutional networks |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |