CN102932662A - 单目转多目的立体视频生成方法、求解深度信息图以及生成视差图的方法 - Google Patents

单目转多目的立体视频生成方法、求解深度信息图以及生成视差图的方法 Download PDF

Info

Publication number
CN102932662A
CN102932662A CN2012105178073A CN201210517807A CN102932662A CN 102932662 A CN102932662 A CN 102932662A CN 2012105178073 A CN2012105178073 A CN 2012105178073A CN 201210517807 A CN201210517807 A CN 201210517807A CN 102932662 A CN102932662 A CN 102932662A
Authority
CN
China
Prior art keywords
video
viewpoint
scene
depth
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN2012105178073A
Other languages
English (en)
Other versions
CN102932662B (zh
Inventor
刘丽丽
邢文峰
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hisense Visual Technology Co Ltd
Original Assignee
Qingdao Hisense Xinxin Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Qingdao Hisense Xinxin Technology Co Ltd filed Critical Qingdao Hisense Xinxin Technology Co Ltd
Priority to CN201210517807.3A priority Critical patent/CN102932662B/zh
Publication of CN102932662A publication Critical patent/CN102932662A/zh
Application granted granted Critical
Publication of CN102932662B publication Critical patent/CN102932662B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

本发明公开一种单目转多目的立体视频生成方法、求解深度信息图以及生成视差图的方法,能够将现有的2D视频源转换成可以在3D立体显示设备上播放的视频,包括以下步骤:将输入的2D视频利用梯度法求解图像运动矢量的方法得到图像的深度信息图;利用得到的深度信息图渲染生成N视点的3D视差图,并合成3D视频输出。本发明提供一种方法,能够将现有的2D视频源转换成可以在3D立体显示设备上播放的片源,利用梯度法求解运动矢量,利用各种运算简单的方法提取准确的深度图,同时运用一路2D的深度图合成多路的多视点视差图解决3D片源短缺的难题,尤其能够解决多视点裸眼立体显示器的3D片源短缺难题,运算复杂度低,运算量小,利于芯片级硬件实现。

Description

单目转多目的立体视频生成方法、求解深度信息图以及生成视差图的方法
技术领域
本发明涉及多视点立体视频合成领域,尤其涉及一种单目转多目的立体视频生成方法、求解深度信息图以及生成视差图的方法。
背景技术
随着告别3D电视元年2010年以及进一步放量发展的2011年,3D显示技术已进入3D电视的普及元年2012年。纵观整个3D电视发展历程,无论是眼镜式3D显示技术还是裸眼3D显示技术都已进入稳定发展期。但是,相对于3D显示技术的迅猛发展,3D片源逐渐成为制约3D电视在消费市场上进一步普及的最大瓶颈。
3D片源分为双目片源和多目片源,双目片源需要佩戴辅助设备进行观看,如通过主动快门式、偏振式、红蓝式眼镜等将双目图像分别发送至人的左右两眼,从而形成立体视觉感知。这种方式需要用户佩戴眼镜,观看不便。多目片源播放则采用裸眼3D立体显示设备显示,裸眼3D立体显示技术能够让用户无需佩戴辅助设备即可观看视频所具有的立体效果,是未来立体视频显示的发展方向。
无论是双目还是多目片源,由于制作成本高、周期长、对采集设备及辅助设备的要求高等问题,成为制约3D电视普及的瓶颈,而且现有的大量2D视频资料一方面提供了丰富的片源问题,另一方面却由于显示不兼容的问题而无法在3D立体显示设备上显示。
发明内容
针对上述问题,本发明的目的在于提供一种单目转多目的立体视频生成方法、求解深度信息图以及生成视差图的方法,能够将现有的2D视频源转换成可以在3D立体显示设备上播放的视频。
为达到上述目的,本发明所述一种单目转多目的立体视频生成方法,包括以下步骤:
将输入的2D视频求解得到图像的深度信息图,利用得到的深度信息图渲染生成N视点的3D视差图,并合成3D视频输出;其中,
求解得到深度信息图的具体步骤为:
对视频图像进行预处理;
对预处理后的图像利用梯度法得到运动矢量;
对运动矢量进行场景改变度检测以得到视频图像的初始深度信息;
对初始深度信息进行再处理以得到清晰的深度图。
优选地,生成视差图的具体步骤为:
结合深度信息图和原始图,视点区的N个视点在显示屏后生成N路虚拟像点,设视点区的N个左视点为L0、L1、L2......LN;N个右视点为R0、R1、R2......RN;则各视点在显示屏后生成的N路虚拟像点曲线为L0”、R0”;L1”、R1”;L2”、20”......LN”、RN”;
求得N视点视差图为:
LN”=S+(2N+1)*depth;
RN”=S-(2N+1)*depth;
进而合成N幅输入到显示屏的视频源;
根据显示器特性将N幅视频源合成一幅视频源到显示器上显示。
优选地,对视频图像进行预处理具体为:
将输入的2D视频由RGB色彩空间转换到YUV空间;
对YUV空间的Y分量进行重复下采样处理,同时进行场景自然度检测和场景相关度检测;
对初始深度信息进行再处理具体为:
对初始深度信息进行重复平滑滤波和重复上采样处理,并根据场景相关度检测信息对视频图像内的边界信息进行保留,得到清晰的深度图;
根据场景自然度检测信息和场景改变度检测信息对深度图进行混合滤波,得到最终的图像深度信息图。
优选地,对运动矢量进行场景改变度检测具体为:
若场景发生变化,则重新计算变化后的图像利用梯度法得到运动矢量;
反之,进行运动矢量累加。
优选地,所述场景自然度检测是完成检测视频的电影模式中上方和下方有大面积的黑幕情况,形成有效的视频图像检测区域;
所述场景改变度检测是检测前后帧的图像是否发生场景变化,场景变化时将重新计算运动矢量;
所述场景相关度检测是检测同一帧图像中的相邻像素是否相关。
优选地,所述下采样处理具体是将视频原始分辨率降到低分辨率。
优选地,所述上采样处理具体是将视频所降到的低分辨率还原到原始分辨率。
优选地,所述N视点的N=2,为佩带眼镜的3D模式;所述N视点的N>2,为裸眼的3D模式。
为达到上述目的,本发明所述一种求解深度信息图的方法,具体包括以下步骤:
将输入的2D视频由RGB色彩空间转换到YUV空间;
对YUV空间的Y分量进行重复下采样处理,同时进行场景自然度检测和场景相关度检测;
对下采样处理的视频图像信息利用梯度法得到运动矢量,同时对运动矢量进行场景改变度检测,并判断场景是否发生变化;
若场景发生变化,则重新计算变化后的图像利用梯度法得到运动矢量;
反之,进行运动矢量累加;
进而得到视频图像的初始深度信息;
对初始深度信息进行重复平滑滤波和重复上采样处理,并根据场景相关度检测信息对视频图像内的边界信息进行保留,得到清晰的深度图;
根据场景自然度检测信息和场景改变度检测信息对深度图进行混合滤波,得到最终的图像深度信息图。
为达到上述目的,本发明所述一种生成视差图的方法,具体包括以下步骤:
结合深度信息图和原始图,视点区的N个视点在显示屏后生成N路虚拟像点,设视点区的N个左视点为L0、L1、L2......LN;N个右视点为R0、R1、R2......RN;则各视点在显示屏后生成的N路虚拟像点曲线为L0”、R0”;L1”、R1”;L2”、20”......LN”、RN”;
求得N视点视差图为:
LN”=S+(2N+1)*depth;
RN”=S-(2N+1)*depth;
进而合成N幅输入到显示屏的视频源;
根据显示器特性将N幅视频源合成一幅视频源到显示器上显示。
本发明的有益效果为:
本发明提供一种方法,能够将现有的2D视频源转换成可以在3D立体显示设备上播放的片源,利用梯度法求解运动矢量,利用各种运算简单的方法提取准确的深度图,同时运用一路2D的深度图合成多路的多视点视差图解决3D片源短缺的难题,尤其能够解决多视点裸眼立体显示器的3D片源短缺难题,运算复杂度低,运算量小,利于芯片级硬件实现。
附图说明
图1是本发明实施例所述单目转多目的立体视频生成方法的框图;
图2是本发明实施例所述深度图求解框图;
图3是人眼观看3D显示器产生深度感的原理图;
图4是生成视差图像的基本原理;
图5是一路2D视频根据深度信息合成多路视频的俯视图。
具体实施方式
下面结合说明书附图对本发明做进一步的描述。
单目视频(2D)转多目视频(3D)是在现有3D信号比较少的情况下出现的一种技术,它能够将日常观看的普通2D电视节目,通过运算产生出3D的显示效果。
2D转3D是在原有2D图像的基础上经过运算,生成新的视差图像,然后将视差图像以3D存储格式输出,通过佩戴合适的3D眼镜,或者输出合适的多视点视频源,通过多视点立体显示器,从而达到实现3D效果的目的。
为此,如图1所示,本发明实施例所述一种单目转多目的立体视频生成方法,能够将现有的2D视频源转换成可以在3D立体显示设备上播放的视频。
该方法包括以下步骤:
将输入的2D视频利用梯度法求解图像运动矢量的方法得到图像的深度信息图;
利用得到的深度信息图渲染生成N视点的3D视差图,并合成3D视频输出。
本发明实现的内容为两个部分,一部分为利用2D视频图像求解深度图;一部分为利用深度图合成3D视频源。
1、得到深度信息图的具体步骤为:
将输入的2D视频由RGB色彩空间转换到YUV空间;
对YUV空间的Y分量进行重复下采样处理,同时进行场景自然度检测和场景相关度检测;
对下采样处理的视频图像信息利用梯度法得到运动矢量,同时对运动矢量进行场景改变度检测,并判断场景是否发生变化;
若场景发生变化,则重新计算变化后的图像利用梯度法得到运动矢量;
反之,进行运动矢量累加;
进而得到视频图像的初始深度信息;
对初始深度信息进行重复平滑滤波和重复上采样处理,并根据场景相关度检测信息对视频图像内的边界信息进行保留,得到清晰的深度图;
根据场景自然度检测信息和场景改变度检测信息对深度图进行混合滤波,得到图像的深度信息图。
上述步骤的具体处理为:如图2所示;
将输入的2D视频先由RGB色彩空间转换到YUV空间,在图像的YUV空间内Y向量表示明亮度,也就是灰阶值,而U向量和V向量主要用于指定像素的颜色,在这里,Y向量集中绝大部分的图像信息,因此,本发明中需要对Y向量进行处理。
接着,对Y分量进行下采样到低分辨率以减少运算复杂度(例如:分辨率从1080*1920下采样到64*64等级),在这个分辨率降低过程中,由于分辨率的降低需要分阶段的降低,因此,下采样过程需要重复处理,以达到所需要的视频分辨率。
在每次的下采样的过程中需要运用双三次立方插值法以最大程度的保持图像细节,同时在下采样的过程中进行场景自然度检测和场景相关度检测,该两项检测也随着下采样过程的重复处理,也需重复检测,以便记录每一次的检测信息,为后续上采样作为滤波条件生成深度图。在这里,场景自然度检测主要完成检测视频的电影模式中上方和下方有大面积的黑幕情况,形成有效的视频图像检测区域;所述场景相关度检测是检测同一帧图像中的相邻像素是否相关,确保像素之间的合理配合。
然后,根据硬件配置,调低到合适的分辨率后根据梯度法求解图像的运动矢量,通过视频的连续播放,对运动矢量进行场景改变度检测。场景改变度检测主要检测前后帧的图像是否发生场景变化,如发生镜头切换等,场景改变时将重新计算运动矢量。在场景未改变的视频帧中进行运动矢量累加,从而求得连续视频帧的运动矢量,得到视频帧的初始深度信息。
接着,对初始深度信息进行平滑滤波和上采样操作,在这个过程中需要将低分辨率还原到原始的高分辨率(如从64*64等级到1080*1920),还原过程同样分阶段的进行,因此,重复滤波和上采样步骤需要重复处理,最终到原始的分辨率等级,在进行平滑滤波的时候根据场景相关度检测信息对图像内的边界信息进行保留,即滤波时只在边界内进行滤波,这样就能将图像内前景和背景在边界处区分,从而形成清晰的深度图。
最后,根据场景自然度信息和场景改变度信息对深度图进行混合滤波,得到图像的深度信息图。
2、生成视差图的具体步骤为:
结合深度信息图和原始图,视点区的N个视点在显示屏中生成N路虚拟像点,进而合成N幅输入到显示屏的视频源;
根据显示器特性将N幅视频源合成一幅视频源到显示器上显示。
对于上述的具体步骤需要一步步以形成原理进行解释说明:
首先,要知道人眼在观看3D显示器为什么能够产生深度感,深度感的产生可以进一步的使人眼看到立体场景。在这里,以图3作为解释视图,在图中,观看者以观看距离L观看3D显示器,左、右眼分别看到左、右视差图像中的同源像点O1和Or时,会感觉到空间点O位于显示屏后方H距离处。同理,该行像素上其他同源像点也会相应地产生深度感。这些同源像点综合产生的视觉效果使得观看者感觉到有一条曲线AB出现在显示屏的后方。该曲线AB可看作是某一行像素的深度图。那么,当出现整幅图像时,按照该原理,观看者就可以感觉到具有深度感的整个场景。
由深度图生成多幅视差图像的原理是人眼观看3D显示器获得深度感的一个逆过程,即要利用要显示的深度反过来生成相应的视差图像。在这里,以图4解释生产视差图像的基本原理。曲线A’B’为设定的场景某一行像素的深度图,该深度图反映了观看者观看3D显示器上产生的立体效果。在图中,设3D显示器最佳观看距离为L,则在距离显示屏垂直距离L处设定多个水平放置且间距为人眼瞳距的视点来模拟人眼观看3D显示器的实际情况。图中标识了3个视点,当人眼位于视点1处观看折线A’B’时,其视觉效果等同于从显示屏上观看折线A’B’的投影,同理,在视点2和视点3,以及在整个场景的每个视点都可以得到一个在显示屏上的投影图像。该投影图像就是视差图像。当左、右眼位于两个相邻视点观看到对应的投影图像时,就可以观看到图像的立体效果。
上述内容介绍的是在单个视点看到的视差图像,下面要解释左、右视点是如何根据上述视差形成原理得到所需要的立体图像。以图5说明,其中视点区代表N个视点,即:L0、L1、L2......LN为左边视点,R0、R1、R2......RN为右边视点。以L0和R0这组左、右视点为例,在图中,L0视点观看深度曲线L0”上的三个虚拟像点,在显示屏上投影三个影点,其中包括L0’。而R0视点观看深度曲线R0”上的三个虚拟像点,在显示屏上投影三个影点,其中包括R0’。L0’和R0’为左、右眼产生的视差图像点。因此,可以得到N个视点生成N路虚拟像点,即合成N幅输入显示屏的视频源,最后根据显示屏的类型,从N幅视频源中按照相应的输入格式合成一幅输入视频源在显示屏上显示。如图上所示,显示屏后的曲线L0”表示L0视点看到的某一行像素形成的像,曲线R0”表示R0视点看到的这行像素形成的像,L0”和R0”之间的视差就是上述求解深度图,即视差偏移量depth,那么,用数学表达式表示为:
L0”=S+depth
R0”=S-depth
其中S表示原2D图像。
当N=2时,就可以作为普通辅助眼镜观看的3D显示输入视频源。
当N>2时,N视点视差图分别为
LN”=S+(2n+1)*depth;
RN”=S-(2n+1)*depth;
最后再根据裸眼立体显示装置的3D像素排列方式将N幅视差图组合排列成一幅裸眼立体显示图,就可以在裸眼立体显示器上进行显示。供于显示的显示器可有裸眼立体显示器、SG屏立体显示器、PR屏立体显示器等。
以上,仅为本发明的较佳实施例,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,可轻易想到的变化或替换,都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应该以权利要求所界定的保护范围为准。

Claims (10)

1.一种单目转多目的立体视频生成方法,其特征在于,包括以下步骤:
将输入的2D视频求解得到图像的深度信息图,利用得到的深度信息图渲染生成N视点的3D视差图,并合成3D视频输出;其中,
求解得到深度信息图的具体步骤为:
对视频图像进行预处理;
对预处理后的图像利用梯度法得到运动矢量;
对运动矢量进行场景改变度检测以得到视频图像的初始深度信息;
对初始深度信息进行再处理以得到清晰的深度图。
2.根据权利要求1所述的单目转多目的立体视频生成方法,其特征在于,生成视差图的具体步骤为:
结合深度信息图和原始图,视点区的N个视点在显示屏后生成N路虚拟像点,设视点区的N个左视点为L0、L1、L2......LN;N个右视点为R0、R1、R2......RN;则各视点在显示屏后生成的N路虚拟像点曲线为L0”、R0”;L1”、R1”;L2”、20”......LN”、RN”;
求得N视点视差图为:
LN”=S+(2N+1)*depth;
RN”=S-(2N+1)*depth;
进而合成N幅输入到显示屏的视频源;
根据显示器特性将N幅视频源合成一幅视频源到显示器上显示。
3.根据权利要求1所述的单目转多目的立体视频生成方法,其特征在于,对视频图像进行预处理具体为:
将输入的2D视频由RGB色彩空间转换到YUV空间;
对YUV空间的Y分量进行重复下采样处理,同时进行场景自然度检测和场景相关度检测;
对初始深度信息进行再处理具体为:
对初始深度信息进行重复平滑滤波和重复上采样处理,并根据场景相关度检测信息对视频图像内的边界信息进行保留,得到清晰的深度图;
根据场景自然度检测信息和场景改变度检测信息对深度图进行混合滤波,得到最终的图像深度信息图。
4.根据权利要求1所述的单目转多目的立体视频生成方法,其特征在于,对运动矢量进行场景改变度检测具体为:
若场景发生变化,则重新计算变化后的图像利用梯度法得到运动矢量;
反之,进行运动矢量累加。
5.根据权利要求3所述的单目转多目的立体视频生成方法,其特征在于,所述场景自然度检测是完成检测视频的电影模式中上方和下方有大面积的黑幕情况,形成有效的视频图像检测区域;
所述场景改变度检测是检测前后帧的图像是否发生场景变化,场景变化时将重新计算运动矢量;
所述场景相关度检测是检测同一帧图像中的相邻像素是否相关。
6.根据权利要求3所述的单目转多目的立体视频生成方法,其特征在于,所述下采样处理具体是将视频原始分辨率降到低分辨率。
7.根据权利要求3所述的单目转多目的立体视频生成方法,其特征在于,所述上采样处理具体是将视频所降到的低分辨率还原到原始分辨率。
8.根据权利要求1所述的单目转多目的立体视频生成方法,其特征在于,所述N视点的N=2,为佩带眼镜的3D模式;所述N视点的N>2,为裸眼的3D模式。
9.一种求解深度信息图的方法,其特征在于,具体包括以下步骤:
将输入的2D视频由RGB色彩空间转换到YUV空间;
对YUV空间的Y分量进行重复下采样处理,同时进行场景自然度检测和场景相关度检测;
对下采样处理的视频图像信息利用梯度法得到运动矢量,同时对运动矢量进行场景改变度检测,并判断场景是否发生变化;
若场景发生变化,则重新计算变化后的图像利用梯度法得到运动矢量;
反之,进行运动矢量累加;
进而得到视频图像的初始深度信息;
对初始深度信息进行重复平滑滤波和重复上采样处理,并根据场景相关度检测信息对视频图像内的边界信息进行保留,得到清晰的深度图;
根据场景自然度检测信息和场景改变度检测信息对深度图进行混合滤波,得到最终的图像深度信息图。
10.一种生成视差图的方法,其特征在于,具体包括以下步骤:
结合深度信息图和原始图,视点区的N个视点在显示屏后生成N路虚拟像点,设视点区的N个左视点为L0、L1、L2......LN;N个右视点为R0、R1、R2......RN;则各视点在显示屏后生成的N路虚拟像点曲线为L0”、R0”;L1”、R1”;L2”、20”......LN”、RN”;
求得N视点视差图为:
LN”=S+(2N+1)*depth;
RN”=S-(2N+1)*depth;
进而合成N幅输入到显示屏的视频源;
根据显示器特性将N幅视频源合成一幅视频源到显示器上显示。
CN201210517807.3A 2012-12-05 2012-12-05 单目转多目的立体视频生成方法、求解深度信息图以及生成视差图的方法 Active CN102932662B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201210517807.3A CN102932662B (zh) 2012-12-05 2012-12-05 单目转多目的立体视频生成方法、求解深度信息图以及生成视差图的方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201210517807.3A CN102932662B (zh) 2012-12-05 2012-12-05 单目转多目的立体视频生成方法、求解深度信息图以及生成视差图的方法

Publications (2)

Publication Number Publication Date
CN102932662A true CN102932662A (zh) 2013-02-13
CN102932662B CN102932662B (zh) 2015-03-18

Family

ID=47647346

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201210517807.3A Active CN102932662B (zh) 2012-12-05 2012-12-05 单目转多目的立体视频生成方法、求解深度信息图以及生成视差图的方法

Country Status (1)

Country Link
CN (1) CN102932662B (zh)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103391447A (zh) * 2013-07-11 2013-11-13 上海交通大学 3d节目镜头切换中安全深度保证与调整方法
CN103501433A (zh) * 2013-09-26 2014-01-08 深圳市掌网立体时代视讯技术有限公司 一种3d书画显示方法及装置
CN104717487A (zh) * 2015-03-31 2015-06-17 王子强 一种裸眼3d界面显示方法
CN107659805A (zh) * 2017-09-07 2018-02-02 深圳市迅雷网络技术有限公司 一种视频转换方法和装置
WO2018119808A1 (zh) * 2016-12-29 2018-07-05 浙江工商大学 一种基于3d卷积神经网络的立体视频生成方法
WO2018152654A1 (zh) * 2017-02-22 2018-08-30 刘简 2d视频转换为3d视频的理论方法和眼镜装置
CN108702499A (zh) * 2016-01-27 2018-10-23 Fa系统工程株式会社 二维影像的立体影像化显示装置
CN111325693A (zh) * 2020-02-24 2020-06-23 西安交通大学 一种基于单视点rgb-d图像的大尺度全景视点合成方法
CN112700485A (zh) * 2020-12-31 2021-04-23 重庆电子工程职业学院 图像深度信息提取方法
CN114035871A (zh) * 2021-10-28 2022-02-11 深圳市优聚显示技术有限公司 基于人工智能的3d显示屏的显示方法、系统及计算机设备
CN115442580A (zh) * 2022-08-17 2022-12-06 深圳市纳晶云实业有限公司 一种便携式智能设备裸眼3d图片效果处理方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102244804A (zh) * 2011-07-19 2011-11-16 彩虹集团公司 一种视频信号2d转3d方法
CN102497525A (zh) * 2011-12-27 2012-06-13 广东威创视讯科技股份有限公司 一种运动补偿去隔行方法
CN102695064A (zh) * 2011-03-25 2012-09-26 中华大学 即时立体影像产生装置与方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102695064A (zh) * 2011-03-25 2012-09-26 中华大学 即时立体影像产生装置与方法
CN102244804A (zh) * 2011-07-19 2011-11-16 彩虹集团公司 一种视频信号2d转3d方法
CN102497525A (zh) * 2011-12-27 2012-06-13 广东威创视讯科技股份有限公司 一种运动补偿去隔行方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
陈铭 等: "基于运动矢量场的二维到三维视频转换技术", 《哈尔滨商业大学学报》, vol. 26, no. 6, 31 December 2010 (2010-12-31), pages 697 - 1 *

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103391447A (zh) * 2013-07-11 2013-11-13 上海交通大学 3d节目镜头切换中安全深度保证与调整方法
CN103391447B (zh) * 2013-07-11 2015-05-20 上海交通大学 3d节目镜头切换中安全深度保证与调整方法
CN103501433A (zh) * 2013-09-26 2014-01-08 深圳市掌网立体时代视讯技术有限公司 一种3d书画显示方法及装置
CN103501433B (zh) * 2013-09-26 2015-12-23 深圳市掌网立体时代视讯技术有限公司 一种3d书画显示方法及装置
CN104717487A (zh) * 2015-03-31 2015-06-17 王子强 一种裸眼3d界面显示方法
CN108702499A (zh) * 2016-01-27 2018-10-23 Fa系统工程株式会社 二维影像的立体影像化显示装置
WO2018119808A1 (zh) * 2016-12-29 2018-07-05 浙江工商大学 一种基于3d卷积神经网络的立体视频生成方法
US10542249B2 (en) 2016-12-29 2020-01-21 Zhejiang Gongshang University Stereoscopic video generation method based on 3D convolution neural network
WO2018152654A1 (zh) * 2017-02-22 2018-08-30 刘简 2d视频转换为3d视频的理论方法和眼镜装置
CN107659805A (zh) * 2017-09-07 2018-02-02 深圳市迅雷网络技术有限公司 一种视频转换方法和装置
CN111325693A (zh) * 2020-02-24 2020-06-23 西安交通大学 一种基于单视点rgb-d图像的大尺度全景视点合成方法
CN111325693B (zh) * 2020-02-24 2022-07-12 西安交通大学 一种基于单视点rgb-d图像的大尺度全景视点合成方法
CN112700485A (zh) * 2020-12-31 2021-04-23 重庆电子工程职业学院 图像深度信息提取方法
CN114035871A (zh) * 2021-10-28 2022-02-11 深圳市优聚显示技术有限公司 基于人工智能的3d显示屏的显示方法、系统及计算机设备
CN115442580A (zh) * 2022-08-17 2022-12-06 深圳市纳晶云实业有限公司 一种便携式智能设备裸眼3d图片效果处理方法
CN115442580B (zh) * 2022-08-17 2024-03-26 深圳市纳晶云实业有限公司 一种便携式智能设备裸眼3d图片效果处理方法

Also Published As

Publication number Publication date
CN102932662B (zh) 2015-03-18

Similar Documents

Publication Publication Date Title
CN102932662B (zh) 单目转多目的立体视频生成方法、求解深度信息图以及生成视差图的方法
CN102761761B (zh) 立体图像显示器及其立体图像调整方法
KR101185870B1 (ko) 3d 입체 영상 처리 장치 및 방법
CN102170577B (zh) 用于处理视频图像的方法和系统
US6496598B1 (en) Image processing method and apparatus
Tam et al. 3D-TV content generation: 2D-to-3D conversion
CN102685523B (zh) 深度信息产生器、深度信息产生方法及深度调整装置
US20060012675A1 (en) Three dimensional interaction with autostereoscopic displays
KR20040017333A (ko) 스테레오스코픽 영상 처리 장치 및 방법
JP2012010084A (ja) 立体表示装置及び立体表示装置の制御方法
EP1967016A1 (en) 3d image display method and apparatus
CN102223549A (zh) 三维图像显示装置及三维图像显示方法
Schmeing et al. Depth image based rendering: A faithful approach for the disocclusion problem
Zhang et al. Visual pertinent 2D-to-3D video conversion by multi-cue fusion
CN103108199A (zh) 动态景深调整装置及其方法
CN103096112A (zh) 2d/3d偏光显示方法、偏光显示装置及电视
Tam et al. Depth image based rendering for multiview stereoscopic displays: Role of information at object boundaries
CN102780900B (zh) 一种多人多视角立体显示器影像显示方法
CN113014902B (zh) 3d-2d同步显示方法及系统
CN102196276A (zh) 一种完全立体电视图像显示方案
CN102868904A (zh) 立体图像显示方法及图像时序控制器
Edirisinghe et al. Stereo imaging, an emerging technology
JP2012134885A (ja) 画像処理装置及び画像処理方法
CN102231841A (zh) 基于双视点立体数据裸眼立体显示电视及实现方法
Limbachiya 2D to 3D video conversion

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
C41 Transfer of patent application or patent right or utility model
TR01 Transfer of patent right

Effective date of registration: 20160308

Address after: 266100 Zhuzhou Road, Laoshan District, Shandong, No. 151, No.

Patentee after: Qingdao Hisense Electric Co., Ltd.

Address before: 266100 Zhuzhou Road, Laoshan District, Shandong, No. 151, No.

Patentee before: Qingdao Hisense Xinxin Technology Co., Ltd.

CP01 Change in the name or title of a patent holder

Address after: 266100 Zhuzhou Road, Laoshan District, Shandong, No. 151, No.

Patentee after: Hisense Video Technology Co.,Ltd.

Address before: 266100 Zhuzhou Road, Laoshan District, Shandong, No. 151, No.

Patentee before: HISENSE ELECTRIC Co.,Ltd.

CP01 Change in the name or title of a patent holder