CN102203829B - 用于生成深度图的方法和设备 - Google Patents
用于生成深度图的方法和设备 Download PDFInfo
- Publication number
- CN102203829B CN102203829B CN2009801439795A CN200980143979A CN102203829B CN 102203829 B CN102203829 B CN 102203829B CN 2009801439795 A CN2009801439795 A CN 2009801439795A CN 200980143979 A CN200980143979 A CN 200980143979A CN 102203829 B CN102203829 B CN 102203829B
- Authority
- CN
- China
- Prior art keywords
- depth
- depth map
- image
- value
- map
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/128—Adjusting depth or disparity
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/507—Depth or shape recovery from shading
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20024—Filtering details
- G06T2207/20028—Bilateral filtering
Landscapes
- Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Processing Or Creating Images (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
- Image Processing (AREA)
Abstract
本发明涉及使用单眼信息生成图像的深度图的设备和方法(100),该方法包含:生成(110)图像(205)的第一深度图,其中,所述第一深度图与对于该图像中描绘的场景的全局深度分布的估计相对应;生成(120)该图像的第二深度图,其中,与第二深度图中的像素相关联的深度值基于在空间上相邻于该像素的区域内的第一深度图中的深度值以及该区域内的图像的色彩和亮度值中的至少一个;以及使用来自第一深度图和第二深度图的深度值生成(130)该图像的第三深度图,该生成对深度差异进行缩放,以使得相比于第二和第一深度图的深度值之间的对应差异,第三和第一深度图的深度值之间的差异被缩放。本发明进一步涉及用于执行根据本发明的方法的计算机程序产品。
Description
技术领域
本发明涉及用于使用单眼信息生成图像的深度图的方法和设备,以及涉及计算机可读介质上的用于使用单眼信息生成图像的深度图的计算机程序产品。
背景技术
在过去十年中,相当多数量的研究已聚焦于在家庭中和周围使用的3D显示技术的实现。结果,有了立体和自动立体显示器两者的风潮。
在立体显示器中,例如一般由位于观众眼睛和显示器之间的眼镜或薄片(foil)辅助观众的眼睛以时间复用或同时的方式(例如,通过光谱分离)将左眼图像引至观众的左眼,并将右眼图像引至观众的右眼。由于用户一般发现佩戴眼镜是麻烦的,因此自动立体显示器同样已受到相当多的注意。自动立体显示器(经常为多视图显示器)一般允许可视以聚焦于观众的视锥(viewing cone)的方式所复用的多个(例如,5-9或者更多)图像或视图。通过分别利用左右眼从锥体观察分离的视图,肉眼获得了立体效果。
对于立体显示器和自动立体显示器两者的重要问题是内容的传送。已知各种办法用于将三维内容传送至显示器。这些办法中的一些办法明确地对所有的视图编码,而其它办法对一个或一些视图以及这些视图中的一个或所有视图的附加深度和/或视差信息进行编码。提供深度信息的优点在于,其例如在基于所提供的图像呈现附加视图时,方便了三维内容的操作。
尽管例如可以通过立体图像的视差的分析或者使用测距仪(range finder)来获取这些深度信息,但是这一般仅对于新获取的内容而言是可能的。此外,立体或多视图获取一般也具有更高的成本。结果,已存在相当多的研究聚焦于从单眼图像或单眼图像序列获取深度信息。可想象范围从完全自动转换至用于高质量内容的用户辅助2D到3D转换的这些算法的各种应用。在用户辅助2D到3D转换的情况下,计算机辅助深度图生成可能代表相当多的时间节省。
S. Battiato 等人在Proceedings of SPIE Electronic Imaging 2004, Three-Dimensional Image Capture and Applications VI - Vol. 5302-13中出版的“Depth Map Generation by Image Classification”给出了从单眼图像获得深度图的办法的示例。
在上面的论文中,通过组合基于所估计出的图像全局深度分布的深度图来生成深度图,其然后与包含图像结构的另一个深度图相组合。然而,作为结果的组合并不总是在作为结果的图像中提供令人满意的深度感觉。
发明内容
据此,对于本发明的目标,本发明需提供一种替代的方法,其提供替代的深度图。
以上通过使用单眼信息生成图像的深度图的方法而实现,该方法包含:生成该图像的第一深度图,其中,所述第一深度图对应于对于该图像中描绘的场景的全局深度分布的估计;生成该图像的第二深度图,其中,与第二深度图中的像素相关联的深度值基于在空间上相邻于该像素的区域内的第一深度图中的深度值以及该区域内的图像的色彩和亮度值中的至少一个;以及使用来自第一深度图和第二深度图的深度值生成该图像的第三深度图,该生成对深度差异进行缩放,以使得相比于第二和第一深度图的深度值之间的对应差异,第三和第一深度图的深度值之间的差异被缩放。
第三深度图的生成基于两个下面(underlying)的深度图成分:第一和第二深度图,它们均基于所估计出的在该第一深度图下面的全局深度分布。具体地,当该图像是来自图像序列的图像时,对于该序列中的各相邻图像,该全局深度分布可能是类似的,由此有助于第三深度图的时间稳定性。
第二深度图生成接着将局部结构高效地并入到全局深度分布。在第二深度图的生成期间,图像中的亮度和/或色彩相似性用于分配深度值。结果,局部地使得图像中具有相似色彩和/或亮度的各对象的深度值更加相似,从而产生在图像中具有相似性的结构,获得一般更加相似并且经常不同于全局深度分布的深度值。
注意,上面提到的相似性可以量化为落在色彩和/或亮度值的预定变化内。
最后,第三步骤以高效地缩放第一和第二深度图之间的某些差异的方式来组合所生成的第一和第二深度图。在根据本发明的一个实施例中,这允许在局部结构和全局深度分布之间引入更加显著的差异。以此方式,可以为各对象增强第一和第二深度图之间经常为某种程度的细微差异,这产生更加动态的深度图。可替代地,第二深度图中的局部结构可能太显著,在这种情况下,具有0和1之间的因子的缩放可改善3D观看体验。
注意,当生成第二深度图中的像素的深度值时,使用处于第一深度图中对应像素周围区域中的、来自第一深度图的深度值。优选地,基于色彩和/或亮度相似性(尽管也可以使用其它的图像属性,如图像动作、局部边缘状态(edginess)和/或附近的纹理量)来加权这种相邻深度值的深度值。以此方式,相比于较不相似的像素,与相似色彩和/或亮度的像素相关联的深度值更加有助于第二深度图中的像素的深度值。
注意,这里的相邻旨在表示局部而不是全局;即,不基于图像的整体。实践中,相邻经常涉及光圈内的像素。尽管光圈可以是预定形状和/或尺寸,但是其也可以例如基于进一步的图像信息来动态地适配光圈。
在实施例中,第一深度图基于深度图模板。这种模板可以是简单的普通模板,如斜线;即,从场景底部的前景到顶部的背景的渐变。替代的斜线可以包含定义背景开始的某一垂直位置上的水平线。可替代地,可以构造更加复杂的能够以参数表示的模板,如上面所引的、在此通过引用并入的S. Battiato的“Depth Map Generation by Image Classification”中公开的模板。这里给出了关于可以怎样基于图像分析来构造能够以参数表示的全局深度分布的示例。一般而言,深度图模板包含对于特定类型场景的深度分布的估计,由此可能表现出相当大的变化;例如,考虑室内对话场景的典型深度分布或者鱼眼特写之间的差异。
在优选实施例中,第二深度图的生成包含:将双边滤波器应用于图像中的色彩和亮度值之一以及第一深度图中的深度值。结果,不需要图像的分割,然而同时,图像内的色彩和/或亮度变化可用于防止来自色彩转变一侧的深度值有助于色彩转变另一侧的像素的深度值。结果,相比于第一深度图中的各对应区域,第二深度图中对应于具有特定色彩和/或亮度相似性的各区域的深度值一般将具有更加相似的深度值。结果,将会使得对象更加不同于全局深度分布。
在进一步的优选实施例中, 第三深度图的深度值设为与最接近于场景的视点的深度相对应的深度值,并且为:
- 第一深度图中的对应深度值,或
- 基于来自第二深度图的对应深度值的候选深度值。实践中,一般将第三深度图的深度值设为第一深度图中的深度值与基于来自第二深度图的对应深度值的候选深度值中的最大者。作为这种特定措施的结果,第三深度图中的深度值不会置于全局深度分布的后面。从而,在第二深度图中被置于全局深度分布后面的(部分)对象将被设为全局深度分布。将注意,设想进一步的候选深度值。
上面提到的有利实施例中的候选值包含来自第一深度图的深度值加上来自第一深度图的深度值与来自第二深度图的对应深度值的加权差异。结果,可能即使在用户/观众控制的情况下,增强也可以予以调整。可替代地,候选值可包含基于在空间上相邻于来自第一深度图的深度值的一个或多个深度值的阈值深度值。以此方式,对于具有特定色彩或亮度的对象的深度值可以得到进一步增强。
在实施例中,为其生成深度图的图像是图像序列的一部分。作为第一阶近似,可以以镜头(shot)分割图像序列,然后可以基于镜头中的图像来选择全局深度分布。以此方式,所生成的深度图的时间连续性可以得到进一步改善。
在更加先进的方法(其可以特别有利地例如与能够以参数表示的深度图模板相组合)中,基于镜头中多于一个的图像(例如,镜头中的第一个和最后一个图像),或者假设在镜头内具有关于大量图像/帧的进一步变化的情况下,来确定全局深度分布。
尽管上面的实施例是特别有益的,但这并不排除进一步的实施例,如这样的实施例:其中基于处于隔离的图像序列的每个图像/帧,或者更加可选地通过评估当前图像/帧以及所使用的最后的全局深度分布,来选择全局深度分布。
对于本发明的目标,本发明需进一步提供一种替代的设备,其提供了替代的深度图。
以上通过用于使用单眼信息生成图像的深度图的设备而实现,该设备包含:接收装置,其被安排用于接收图像;以及处理装置,该处理装置配置为:生成该图像的第一深度图,其中,所述第一深度图对应于对于该图像中描绘的场景的全局深度分布的估计;生成该图像的第二深度图,其中,与第二深度图中的像素相关联的深度值基于在空间上相邻于该像素的区域内的第一深度图中的深度值以及该区域内的图像的色彩和亮度值中的至少一个;以及使用来自第一深度图和第二深度图的深度值生成图像的第三深度图,该生成对深度差异进行缩放,以使得相比于第二和第一深度图的深度值之间的对应差异,第三和第一深度图的深度值之间的差异被缩放。
以上进一步通过计算机可读介质上的用于使用单眼信息生成图像的深度图的计算机程序产品而实现。
本发明的这些和其它方面、特征和优点将根据下文描述的(一个或多个)实施例而清楚,并且将参照所述实施例加以说明。
附图说明
将参照附图,仅以示例的方式描述本发明的实施例,附图中
图1示出根据本发明的方法的流程图;
图2示出根据本发明的设备的框图;
图3A示出第一和第二深度图的垂直横截面;
图3B示出两个深度图的垂直横截面;
图3C示出三个深度图的垂直横截面;
图3D示出三个深度图的垂直横截面;
图4示出对于场景的全局深度分布的若干估计;以及
图5示出根据本发明的方法的若干步骤的输出。
具体实施方式
如上指出的,使用单眼信息生成图像的深度图比使用立体图像时更加复杂。在立体或多视图图像的情况下,经常可以使用场景的各个视图之间的视差,以获得与视图中描绘的场景有关的深度信息。
尽管立体以及较小程度上的多视图获取装置正变得可用,然而相比于单眼获取装置,一般仍存在使用这些装置时所涉及到的附加成本。此外,对于现有的单眼内容,经常不能以双视图(即,立体)或多视图形式进行重新捕获。
结果,需要用于使用单眼信息生成图像的深度图的方法。
图1示出根据本发明的方法100的流程图。方法100表示使用单眼信息生成图像的深度图的方法。该方法包含用于生成110图像的第一深度图的第一步骤。在该第一步骤期间,生成深度图(一般为图像中所有像素的深度图),其中第一深度图中的深度值与对于图像中描绘的场景的全局深度分布的估计相对应。
在V. Nedovic等人发表于IEEE 11th International Conference on Computer Vision, 2007, ICCV 2007的“Depth Information by Stage Classification”中(这里通过引用将其并入),给出了5个全局深度级和11个更具体的深度级的图像的分类,以及将图像映射于这些深度级上的方法。全局级对应于包含天空、背景和地面的第一级(如,风景镜头)。第二级包含框(box),通常适于室内场景。第三级称为角落级,通常适于室内场景。第四级用于背景前方的一个或多个人,最后,第五级包含不具有深度的场景。
尽管上面的论文中所使用的分类是特别有利的,但是应当注意,其不是穷举的,而是可以由本领域技术人员容易地扩展。例如,论文中给出的模型未提供与使用鱼眼透镜制作的微距镜头(macro shot)相对应的全局深度分布。
图4提供可用于某些图像的全局深度分布的深度图的若干示例。这里,图像410提供了图像底部的前景至图像顶部的背景的渐变。对于本领域技术人员清楚的是,一般而言,当使用这种分布以通过检测水平线并随后将水平线以上的所有像素置于背景中来提炼(refine)该分布时,其可能是有益的。可替代地,创建具有更多预示的云彩的风景可能是有利的。在后一情况下,可以使用包含两个垂直渐变的图像420。结果,位于图像顶部的云彩相比于水平线上的那些更靠近于观众。
图像440接着示出了对于鱼眼微距镜头的全局深度分布的深度图,其包括具有白色中心和朝向图像边缘的更暗的环形的圆形渐变。结果,将图像的中心从观察图像的视点移开最近,并且将图像的边缘从观察图像的视点移开最远。最终,图像450像前方观看的场景一样提供了简单框(box)的深度图。
再次参考图1,在生成第一深度图之后,下一步骤对应于生成120图像的第二深度图。在第二深度图中,与像素相关联的深度值基于以下两者:
- 在空间上相邻于该像素的区域内的第一深度图中的深度值,以及
- 该区域内的图像的色彩和/或亮度值。
注意,第二深度图明确地基于第一深度图以及图像中的色彩和/或亮度信息。结果,第二深度图通常允许将具有不同色彩和/或亮度的对象与全局深度分布进行区分。
在优选实施例中,第二深度图的生成一方面涉及例如对于第一图像中深度值的双边滤波器,另一方面涉及对于图像的色彩信息的双边滤波器。
为了将局部结构添加至深度图,可以使用交叉(cross)或联合(joint)双边滤波器。
双边滤波器是既利用(空间)域又利用(强度)范围特性的非线性滤波器。下面的等式(1)示出了基本的双边滤波器。通过位置p的邻居S中来自输入图像I q 的各位置q的各像素的加权平均,确定输出图像O p 。加权计算取决于空间距离函数s和强度范围函数r。这里的函数s是传统的2D卷积滤波器核(kernel)。函数r接着随着更大的强度差异而减小,以传送边缘保存特性。
其中, (1)
优选地,函数s和r按照下面在等式(2)和(3)中所示的那样实施,其中
(2)
并且
如上面提到的,基于来自第二图像的色彩和/或亮度信息的范围信息引入局部深度信息的特别有利的方式是应用交叉或联合双边滤波器。在本发明的实施例中,使用这种联合双边滤波器生成第二深度图。联合双边滤波器用于使用来自输入图像的范围信息(色彩和/或亮度)来对第一深度图(其表示对于场景的全局深度分布的估计)进行滤波。
等式(4)示出可以如何使用第一深度图D1 p (其表示对于场景的深度分布的估计)和来自图像I的图像内容来生成第二深度图D2 p 。
尽管上面提供了生成第二深度图的特别有效的方法,但是可以以对于本领域技术人员已知的其它方式来生成第二深度图。
如Proceedings of European Conference on Computer Vision (ECCV'06), 2006中出版的Sylvain Paris和Frédo Durand所著的“A Fast Approximation of the Bilateral Filter using a Signal Processing Approach”中描述的(在此通过引用将其包括),优选地可以在更高维数的双边网格域中表达(formulate)双边滤波器。这种表达使用粗略的3D网格对数据进行下采样,因此可以非常高效地实施。这种办法可以有利地与这里公开的方法相组合,这是由于在优选实施例中,可以在上采样之前,在下采样的3D网格中执行用以生成第三深度图的缩放操作。在上面的论文中,Paris和Durand表明可以针对双边滤波器自身进行下采样。当应用于本发明时,这意味着可以以更低的分辨率生成第一和第二深度图两者。
再次参照图1,在第二深度图生成之后,该方法继续如下的步骤:使用来自第一深度图和第二深度图的深度值生成130图像的第三深度图,该生成对深度差异进行缩放,以使得相比于第二和第一深度图的深度值之间的对应差异,第三和第一深度图的深度值之间的差异被缩放。
上面再次在视觉上呈现在图3A-3D中。图3A示出第一深度图的垂直横截面10和第二深度图20的垂直横截面。如可看到的,第一深度图对应于斜线。第二横截面接着对应于在某种程度上跟随第一深度图但是局部地与其背离的曲线。该第二曲线是可以例如按照上述那样使用双边滤波器生成的示例曲线。
尽管双边滤波器是特别有利的,但是也设想了其它的办法,如,通过对输入图像使用分割之后进行T-结合处检测(其中,可以使用来自第一全局深度图的值将T-结合处所提供的稀疏的局部排序集成为密集的深度分布)。图3B再次示出垂直横截面10以及根据本发明的、与横截面10和20上的(Z方向中的)最大值相对应的第三垂直横截面30。这里,深度值d3(y)与垂直横截面30的各个深度值相对应,对应于:
其中,d1(y)对应于横截面10的各个深度值,并且
其中,d2(y)对应于横截面20的各个深度值。
图3C基于横截面30接着示出了根据本发明的第四垂直横截面40。横截面40与横截面30一起示出,以便说明横截面40上的如下这样的点:其处于斜线(横截面10)前面,并且位于距离该斜线像横截面 30上的对应点两倍那么远。
通过为选择适当的值,可以进一步加强或降低深度差。当创建深度图时,此参数允许用户基于局部色彩和/或亮度变化来增强深度图变化。结果,图像的深度图更加有可能示出与图像信息的适当相关性,结果,将提供更加栩栩如生的外观,而的更低值将产生主要反映场景的总体深度分布的深度图。
对于本领域技术人员清楚的是,是否要放大差异或削弱差异的选择是高度取决于第二深度图的特性的。在第二深度图显现与第一深度图的巨大差异的情况下,可能需要削弱差异。而当差异通常较小时,可以适宜进行差异的放大。
图3D接着示出同样根据本发明的第五垂直横截面50。第五横截面接着示出将横截面40上的处于斜线前面的点的深度值设为阈值d2T(y)。基于色彩和/或亮度相似性,通过垂直扫描确定这里的阈值。在这种垂直扫描(这里为底部至顶部)期间遇到就色彩和/或亮度而言从背景中突出的并且具有显著更高深度值的部分的情况下,那么可以基于在扫描中遇到的深度值,为此部分选择阈值。此部分下面和上面的深度值(扫描方向上)接着通常将反映第一深度图中呈现的全局深度分布;即,除非存在其它的部分。通过针对顶部手右边的横截面50沿着背景斜率延伸深度值,将该处理显现在图3D中。这里,示出了深度值中的“不连续”,其对应于图像中的色彩和/或亮度不连续。
如上文所指出的,通过在更高维数双边网格域中表达用于生成第二深度图的双边滤波器,深度图生成变得更加高效。然而,该特定实施方案另外地提供了进一步的优点;这是由于双边滤波器的该特定表达在额外的亮度(或色彩)范围中提供了另外的分离。这接着意味着可以如图3D中示例的那样使用单个扫描,其中具有亮度(或色彩)相似性的每个相应部分可以隔离地予以处理。结果,由于不再需要明确地检测任何的不连续,因此该特定实施方案提供了附加的效果。
来自图1的方法进一步图示在图5中。图5示出已经使用根据本发明的方法处理的一系列图像部分。图像510包含输入图像的一部分,该特定部分对应于一些冰山的场景视图,其中图像510的底部对应于前景,而图像的顶部对应于背景。
图像520中提供了基于斜线的第二深度图,注意,随后使用双边滤波器(其使用了第一深度图以及图像的亮度两者)来对斜线进行滤波。随后,图像530提供与中间值对应的图像,所述中间值与第一和第二深度图中的最大者对应。
为了进一步增强深度印象,本发明建议按照图3C示出的示例增强第一和第二深度图之间的差异(这里按因子2来增强)。 作为结果的图像540示出对于图像530的一些改善,尤其是相比于冰山后面的天空使得部分冰山前移。
图像550示出相同的过程,这里按因子4增强。结果,对于前景对象的深度印象得到进一步改善。
图2示出根据本发明的用于使用单眼信息生成图像205的深度图的设备200。设备200包含接收装置210,其被安排用以接收图像。尽管为了清楚仅参照单个图像的深度图的生成讨论了示例,但是对于本领域技术人员清楚的是,这可以针对图像序列的深度图的生成而加以修改。实际上,根据本发明的设备优选地是这样的设备:其适用于单眼图像序列至三维视频信号(其例如包含图像信息和深度信息的并行流)的2D至3D转换。
设备200进一步包含处理装置220。这种处理装置一般可以以各种方式来实施,例如,使用通用处理平台、使用数字信号处理器和/或使用专用集成电路。处理装置200配置为生成图像205的第一深度图。第一深度图与对于图像中描绘的场景的全局深度分布的估计相对应。
处理装置进一步配置为生成图像的第二深度图。第二深度图中的深度值通常与图像中的单个像素相关联(尽管深度图的分辨率可能在本发明的某些实施例中相比于图像205的分辨率被子采样)。
关联到特定图像像素的第二深度图中的深度值基于在空间上相邻该图像像素的区域内的第一深度图中的深度值。另外,其基于该区域内图像像素的色彩或亮度值。结果,相比于呈现在第一深度图中的全局深度信息,第二深度图可包含局部深度信息。
处理装置进一步配置为使用来自第一深度图和第二深度图的深度值生成图像205的第三深度图215。当生成第三深度图中的深度值时,第一和第二深度图之间的经常细微的深度差被缩放。结果,相比于第二和第一深度图的深度值之间的对应差异,第三深度图的特定深度值和第一深度图的对应深度值之间的特定差异被缩放。
可选地,设备200可进一步包含额外的软件/硬件装置以用于处理第三深度图。
例如,第三深度图215可以随后在设备200内被进一步处理,或者可替代地,可以存储于存储装置230以便稍后使用。可替代地,第三深度图可以由编码装置240(优选地连同图像205一起)编码为三维图像信号。然后这种编码图像信号可以存储于存储装置230,或者通过发送装置250发送,例如以便使用(例如)诸如IP协议之类的协议、例如通过线缆或RF进行发送。
更进一步可替代地,第三深度图优选地与图像205一起可用作输入,以用于呈现装置260呈现一个或多个视图。呈现的视图接着可以输出在三维(自动)立体显示装置270上。
将理解的是,上面的描述出于清楚的原因参照各种功能单元描述了本发明的实施例。然而,将清楚的是,可以使用不同功能单元(或处理器)之间的任何适当的功能分布而不减损本发明。例如,被示出由单独的处理器或控制器执行的功能可以由相同的处理器或控制器执行。因此,对于特定功能单元的引用应当仅仅视作对于用于提供所描述的功能的适当装置的引用,而不是表示严格的逻辑或物理结构或组织。
本发明可以以任何适当的形式实现,包括硬件、软件、固件或者这些的任意组合。可选地,本发明可以至少部分地实现为运行在一个或多个数据处理器和/或数字信号处理器上的计算机软件。本发明的实施例的元件和部件可以在物理上、功能上和逻辑上以任何适当的方式实现。事实上,所述功能可以在单个单元中、在多个单元中或者作为其他功能单元的一部分而实现。同样地,本发明可以在单个单元中实现,或者可以在物理上和功能上分布在不同单元和处理器之间。
尽管已经结合一些实施例描述了本发明,但是本发明并不预期限于本文阐述的特定形式。相反地,本发明的范围仅由所附权利要求书限制。此外,虽然特征可能看起来结合特定实施例而被描述,但是本领域技术人员将认识到,依照本发明可以组合所描述的实施例的各种特征。在权利要求书中,措词包括/包含并没有排除其他元件或步骤的存在。
此外,尽管单独地被列出,但是多个装置、元件或方法步骤可以由例如单个单元或处理器实现。此外,尽管单独的特征可以包含于不同的权利要求中,但是这些特征可能地可以有利地加以组合,并且包含于不同的权利要求中并不意味着特征的组合不可行和/或不是有利的。而且,特征包含于一种权利要求类别中并不意味着限于该类别,而是表示该特征同样可适当地应用于其他权利要求类别。此外,权利要求中特征的顺序并不意味着其中特征必须起作用的任何特定顺序,并且特别地,方法权利要求中各个步骤的顺序并不意味着这些步骤必须按照该顺序来执行。相反地,这些步骤可以以任何适当的顺序执行。此外,单数引用并没有排除复数。因此,对于“一”、“一个”、“第一”、“第二”等等的引用并没有排除复数。权利要求中的附图标记仅仅作为澄清的实例而被提供,不应当以任何方式被解释为限制了权利要求的范围。
Claims (9)
1.一种使用单眼信息生成图像(205)的深度图的方法(100),该方法包含:
- 生成(110)图像(205)的第一深度图,其中,所述第一深度图对应于对于图像(205)中描绘的场景的全局深度分布(410、420、440、450)的估计,
- 通过应用使用双边网格实施的双边滤波器生成(120)图像(205)的第二深度图(520),其中,与第二深度图中的像素相关联的深度值基于在空间上相邻于该像素的区域内的第一深度图中的深度值以及该区域内的图像的色彩和亮度值中的至少一个,以及
- 使用来自第一深度图和第二深度图的深度值生成(130)图像(205)的第三深度图(550),该生成包括在上采样之前在双边网格中对第一深度图和第二深度图之间的深度差异以预定因子ω进行放大,以使得相比于第二和第一深度图的深度值之间的对应差异,第三和第一深度图的深度值之间的差异被放大。
2.如权利要求1所述的方法,其中
第三深度图的深度值设为与最接近于场景的视点的深度相对应的深度值,并且选自以下之一:
- 第一深度图中的对应深度值,以及
- 基于来自第二深度图的对应深度值的候选深度值。
3.如权利要求2所述的方法,其中
所述候选深度值是来自第一深度图的深度值加上来自第一深度图的深度值与来自第二深度图的对应深度值的加权差。
4.如权利要求1-3中任何一项所述的方法,其中
所述图像是图像序列的一部分,并且其中,对于全局深度分布的估计对于镜头中的所有图像是相同的。
5.如权利要求1-3中任何一项所述的方法,其中
所述图像是图像序列的一部分,并且其中,对于全局深度分布的估计基于镜头的多于一个的图像而确定。
6.一种用于使用单眼信息生成图像(205)的深度图的设备(200),该设备包含:
- 用于生成(110)图像(205)的第一深度图的装置,其中,所述第一深度图对应于对于图像(205)中描绘的场景的全局深度分布(410、420、440、450)的估计,
- 用于通过应用使用双边网格实现的双边滤波器生成(120)图像(205)的第二深度图(520)的装置,其中,与第二深度图中的像素相关联的深度值基于在空间上相邻于该像素的区域内的第一深度图中的深度值以及该区域内的图像的色彩和亮度值中的至少一个,以及
- 用于使用来自第一深度图和第二深度图的深度值生成(130)图像(205)的第三深度图(550)的装置,该生成包括在上采样之前在双边网格中对第一深度图和第二深度图之间的深度差异以预定因子ω进行放大,以使得相比于第二和第一深度图的深度值之间的对应差异,第三和第一深度图的深度值之间的差异被放大。
7.如权利要求6所述的设备,其中
第三深度图的深度值设为与最接近于场景的视点的深度相对应的深度值,并且选自以下之一:
- 第一深度图中的对应深度值,以及
- 基于来自第二深度图的对应深度值的候选深度值。
8.如权利要求7所述的设备,其中
所述候选深度值是来自第一深度图的深度值加上来自第一深度图的深度值与来自第二深度图的对应深度值的加权差。
9.如权利要求6-8中任何一项所述的设备,其中
所述图像是图像序列的一部分,并且其中,对于全局深度分布的估计对于镜头中的所有图像是相同的。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
EP08168248A EP2184713A1 (en) | 2008-11-04 | 2008-11-04 | Method and device for generating a depth map |
EP08168248.6 | 2008-11-04 | ||
PCT/IB2009/054857 WO2010052632A1 (en) | 2008-11-04 | 2009-11-02 | Method and device for generating a depth map |
Publications (2)
Publication Number | Publication Date |
---|---|
CN102203829A CN102203829A (zh) | 2011-09-28 |
CN102203829B true CN102203829B (zh) | 2013-11-06 |
Family
ID=40394209
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN2009801439795A Expired - Fee Related CN102203829B (zh) | 2008-11-04 | 2009-11-02 | 用于生成深度图的方法和设备 |
Country Status (7)
Country | Link |
---|---|
US (1) | US8447141B2 (zh) |
EP (2) | EP2184713A1 (zh) |
JP (1) | JP5587894B2 (zh) |
KR (1) | KR101625830B1 (zh) |
CN (1) | CN102203829B (zh) |
TW (1) | TWI524734B (zh) |
WO (1) | WO2010052632A1 (zh) |
Families Citing this family (59)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20120269458A1 (en) * | 2007-12-11 | 2012-10-25 | Graziosi Danillo B | Method for Generating High Resolution Depth Images from Low Resolution Depth Images Using Edge Layers |
US8731320B2 (en) * | 2009-01-20 | 2014-05-20 | Andre Leitao | Image processing using a bilateral grid |
US8884948B2 (en) * | 2009-09-30 | 2014-11-11 | Disney Enterprises, Inc. | Method and system for creating depth and volume in a 2-D planar image |
US8947422B2 (en) * | 2009-09-30 | 2015-02-03 | Disney Enterprises, Inc. | Gradient modeling toolkit for sculpting stereoscopic depth models for converting 2-D images into stereoscopic 3-D images |
US8502862B2 (en) | 2009-09-30 | 2013-08-06 | Disney Enterprises, Inc. | Method and system for utilizing pre-existing image layers of a two-dimensional image to create a stereoscopic image |
WO2011060579A1 (en) * | 2009-11-18 | 2011-05-26 | Industrial Technology Research Institute | Method for generating depth maps from monocular images and systems using the same |
US20110157155A1 (en) * | 2009-12-31 | 2011-06-30 | Disney Enterprises, Inc. | Layer management system for choreographing stereoscopic depth |
US9042636B2 (en) | 2009-12-31 | 2015-05-26 | Disney Enterprises, Inc. | Apparatus and method for indicating depth of one or more pixels of a stereoscopic 3-D image comprised from a plurality of 2-D layers |
WO2011138472A1 (es) * | 2010-05-07 | 2011-11-10 | Telefonica, S.A. | Método de generación de mapas de profundidad para conversión de imágenes animadas 2d en 3d |
US8848038B2 (en) * | 2010-07-09 | 2014-09-30 | Lg Electronics Inc. | Method and device for converting 3D images |
US9571811B2 (en) | 2010-07-28 | 2017-02-14 | S.I.Sv.El. Societa' Italiana Per Lo Sviluppo Dell'elettronica S.P.A. | Method and device for multiplexing and demultiplexing composite images relating to a three-dimensional content |
IT1401367B1 (it) * | 2010-07-28 | 2013-07-18 | Sisvel Technology Srl | Metodo per combinare immagini riferentesi ad un contenuto tridimensionale. |
WO2012016600A1 (en) * | 2010-08-06 | 2012-02-09 | Trident Microsystems, Inc. | Method for generating of a depth map, method for converting a two-dimensional image sequence and device for generating a stereoscopic image |
TWI472218B (zh) * | 2011-02-11 | 2015-02-01 | Chunghwa Picture Tubes Ltd | 立體影像產生裝置及其方法 |
US20120293489A1 (en) * | 2011-05-20 | 2012-11-22 | Himax Technologies Limited | Nonlinear depth remapping system and method thereof |
AU2011203028B1 (en) * | 2011-06-22 | 2012-03-08 | Microsoft Technology Licensing, Llc | Fully automatic dynamic articulated model calibration |
JP5155462B2 (ja) * | 2011-08-17 | 2013-03-06 | 株式会社スクウェア・エニックス・ホールディングス | 動画配信サーバ、動画再生装置、制御方法、プログラム、及び記録媒体 |
WO2013054240A1 (en) * | 2011-10-10 | 2013-04-18 | Koninklijke Philips Electronics N.V. | Depth map processing |
US9471988B2 (en) | 2011-11-02 | 2016-10-18 | Google Inc. | Depth-map generation for an input image using an example approximate depth-map associated with an example similar image |
US9672609B1 (en) | 2011-11-11 | 2017-06-06 | Edge 3 Technologies, Inc. | Method and apparatus for improved depth-map estimation |
US9661307B1 (en) * | 2011-11-15 | 2017-05-23 | Google Inc. | Depth map generation using motion cues for conversion of monoscopic visual content to stereoscopic 3D |
US9161010B2 (en) * | 2011-12-01 | 2015-10-13 | Sony Corporation | System and method for generating robust depth maps utilizing a multi-resolution procedure |
US20150030233A1 (en) * | 2011-12-12 | 2015-01-29 | The University Of British Columbia | System and Method for Determining a Depth Map Sequence for a Two-Dimensional Video Sequence |
US8682087B2 (en) * | 2011-12-19 | 2014-03-25 | Cisco Technology, Inc. | System and method for depth-guided image filtering in a video conference environment |
US20130176300A1 (en) * | 2012-01-10 | 2013-07-11 | Thomson Licensing | Disparity maps in uniform areas |
US20130202194A1 (en) * | 2012-02-05 | 2013-08-08 | Danillo Bracco Graziosi | Method for generating high resolution depth images from low resolution depth images using edge information |
US9111350B1 (en) | 2012-02-10 | 2015-08-18 | Google Inc. | Conversion of monoscopic visual content to stereoscopic 3D |
WO2013124312A1 (en) | 2012-02-21 | 2013-08-29 | Tp Vision Holding B.V. | Object-aligned filtering method and apparatus |
JP5307958B1 (ja) | 2012-02-23 | 2013-10-02 | 株式会社スクウェア・エニックス・ホールディングス | 動画配信サーバ、動画再生装置、制御方法、プログラム、及び記録媒体 |
TWI586143B (zh) * | 2012-04-05 | 2017-06-01 | 皇家飛利浦電子股份有限公司 | 用於提供用於傳送至三維[3d]目標裝置之3d視訊信號之3d源裝置、方法及記錄載體以及用於自3d源裝置接收3d視訊信號之3d目標裝置 |
EP2674916B1 (en) * | 2012-04-12 | 2018-06-27 | Square Enix Holdings Co., Ltd. | Moving image distribution server, moving image playback device, control method, program, and recording medium |
EP2839437B1 (en) | 2012-04-19 | 2019-01-23 | Telefonaktiebolaget LM Ericsson (publ) | View synthesis using low resolution depth maps |
WO2014001062A2 (en) * | 2012-06-26 | 2014-01-03 | Ultra-D Coöperatief U.A. | Device for generating a depth map |
DE102012014174A1 (de) * | 2012-07-16 | 2014-01-16 | Rational Aktiengesellschaft | Verfahren zur Anzeige von Parametern eines Garprozesses und Anzeigevorrichtung für ein Gargerät |
LU92074B1 (en) | 2012-09-18 | 2014-03-19 | Iee Sarl | Depth image enhancement method |
KR101961943B1 (ko) * | 2012-12-17 | 2019-03-26 | 엘지디스플레이 주식회사 | 3d 영상 데이터 생성방법과 이를 이용한 입체영상 표시장치 |
US9299152B2 (en) | 2012-12-20 | 2016-03-29 | Hong Kong Applied Science And Technology Research Institute Co., Ltd. | Systems and methods for image depth map generation |
US9674498B1 (en) | 2013-03-15 | 2017-06-06 | Google Inc. | Detecting suitability for converting monoscopic visual content to stereoscopic 3D |
US10122992B2 (en) | 2014-05-22 | 2018-11-06 | Disney Enterprises, Inc. | Parallax based monoscopic rendering |
US9292926B1 (en) | 2014-11-24 | 2016-03-22 | Adobe Systems Incorporated | Depth map generation |
EP3243188A4 (en) * | 2015-01-06 | 2018-08-22 | Facebook Inc. | Method and system for providing depth mapping using patterned light |
US20170059305A1 (en) * | 2015-08-25 | 2017-03-02 | Lytro, Inc. | Active illumination for enhanced depth map generation |
US11328446B2 (en) | 2015-04-15 | 2022-05-10 | Google Llc | Combining light-field data with active depth data for depth map generation |
CN107534764B (zh) | 2015-04-30 | 2020-03-17 | 深圳市大疆创新科技有限公司 | 增强图像分辨率的系统及方法 |
US10282623B1 (en) * | 2015-09-25 | 2019-05-07 | Apple Inc. | Depth perception sensor data processing |
US9996933B2 (en) * | 2015-12-22 | 2018-06-12 | Qualcomm Incorporated | Methods and apparatus for outlier detection and correction of structured light depth maps |
EP3236657A1 (en) * | 2016-04-21 | 2017-10-25 | Ultra-D Coöperatief U.A. | Dual mode depth estimator |
EP3389265A1 (en) * | 2017-04-13 | 2018-10-17 | Ultra-D Coöperatief U.A. | Efficient implementation of joint bilateral filter |
EP3396949A1 (en) * | 2017-04-26 | 2018-10-31 | Koninklijke Philips N.V. | Apparatus and method for processing a depth map |
CN108496201A (zh) | 2017-09-27 | 2018-09-04 | 深圳市大疆创新科技有限公司 | 图像处理方法和设备 |
US20190340776A1 (en) * | 2018-05-04 | 2019-11-07 | Qualcomm Incorporated | Depth map interpolation using generalized likelihood ratio test parameter estimation of a coded image |
US10699430B2 (en) | 2018-10-09 | 2020-06-30 | Industrial Technology Research Institute | Depth estimation apparatus, autonomous vehicle using the same, and depth estimation method thereof |
CN111383257B (zh) * | 2018-12-29 | 2024-06-07 | 顺丰科技有限公司 | 一种车厢装卸率确定方法和装置 |
CN111583324B (zh) * | 2019-02-19 | 2023-11-28 | 顺丰科技有限公司 | 单目图像深度估测装载率识别方法和装置 |
CN110378853B (zh) * | 2019-07-11 | 2021-03-26 | Oppo广东移动通信有限公司 | 深度图处理方法和装置 |
KR102306432B1 (ko) * | 2019-12-02 | 2021-09-30 | 한국전자기술연구원 | 내시경 영상에 대한 깊이 추정 방법 및 장치 |
CN113938665B (zh) * | 2020-07-14 | 2023-10-13 | 宏达国际电子股份有限公司 | 用于传输缩减的深度信息的方法和电子装置 |
CN111932576B (zh) * | 2020-07-15 | 2023-10-31 | 中国科学院上海微系统与信息技术研究所 | 一种基于深度相机的物体边界测量方法和装置 |
US11688090B2 (en) | 2021-03-16 | 2023-06-27 | Toyota Research Institute, Inc. | Shared median-scaling metric for multi-camera self-supervised depth evaluation |
Family Cites Families (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6999087B2 (en) * | 2002-03-12 | 2006-02-14 | Sun Microsystems, Inc. | Dynamically adjusting sample density in a graphics system |
US6975329B2 (en) * | 2002-12-09 | 2005-12-13 | Nvidia Corporation | Depth-of-field effects using texture lookup |
US7738725B2 (en) * | 2003-03-19 | 2010-06-15 | Mitsubishi Electric Research Laboratories, Inc. | Stylized rendering using a multi-flash camera |
JP4366634B2 (ja) * | 2003-08-08 | 2009-11-18 | ノーリツ鋼機株式会社 | ノイズ画素マップ作成方法とその方法を実施する装置とプログラム及び写真プリント装置 |
JP4214976B2 (ja) * | 2003-09-24 | 2009-01-28 | 日本ビクター株式会社 | 擬似立体画像作成装置及び擬似立体画像作成方法並びに擬似立体画像表示システム |
CN1914643A (zh) * | 2004-02-03 | 2007-02-14 | 皇家飞利浦电子股份有限公司 | 创建一种深度图 |
WO2006003577A1 (en) * | 2004-06-29 | 2006-01-12 | Koninklijke Philips Electronics N.V. | Creating a depth map |
EP2087466B1 (en) * | 2006-11-21 | 2020-06-17 | Koninklijke Philips N.V. | Generation of depth map for an image |
CN100559398C (zh) * | 2007-06-19 | 2009-11-11 | 北京航空航天大学 | 自动的深度图像配准方法 |
US7675024B2 (en) * | 2008-04-23 | 2010-03-09 | Aptina Imaging Corporation | Method and apparatus providing color filter array with non-uniform color filter sizes |
KR101502365B1 (ko) * | 2008-11-06 | 2015-03-13 | 삼성전자주식회사 | 삼차원 영상 생성기 및 그 제어 방법 |
-
2008
- 2008-11-04 EP EP08168248A patent/EP2184713A1/en not_active Ceased
-
2009
- 2009-11-02 CN CN2009801439795A patent/CN102203829B/zh not_active Expired - Fee Related
- 2009-11-02 US US13/127,263 patent/US8447141B2/en not_active Expired - Fee Related
- 2009-11-02 EP EP09756850A patent/EP2347386A1/en not_active Withdrawn
- 2009-11-02 KR KR1020117012662A patent/KR101625830B1/ko not_active IP Right Cessation
- 2009-11-02 WO PCT/IB2009/054857 patent/WO2010052632A1/en active Application Filing
- 2009-11-02 JP JP2011533916A patent/JP5587894B2/ja not_active Expired - Fee Related
- 2009-11-04 TW TW098137434A patent/TWI524734B/zh not_active IP Right Cessation
Also Published As
Publication number | Publication date |
---|---|
EP2184713A1 (en) | 2010-05-12 |
CN102203829A (zh) | 2011-09-28 |
WO2010052632A1 (en) | 2010-05-14 |
TWI524734B (zh) | 2016-03-01 |
TW201029443A (en) | 2010-08-01 |
KR101625830B1 (ko) | 2016-05-31 |
JP2012507907A (ja) | 2012-03-29 |
EP2347386A1 (en) | 2011-07-27 |
US8447141B2 (en) | 2013-05-21 |
US20110210969A1 (en) | 2011-09-01 |
JP5587894B2 (ja) | 2014-09-10 |
KR20110093829A (ko) | 2011-08-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN102203829B (zh) | 用于生成深度图的方法和设备 | |
CN101542529B (zh) | 图像的深度图的生成方法和图像处理单元 | |
Tam et al. | 3D-TV content generation: 2D-to-3D conversion | |
US9153032B2 (en) | Conversion method and apparatus with depth map generation | |
US9030469B2 (en) | Method for generating depth maps from monocular images and systems using the same | |
CN101635859B (zh) | 一种实现平面视频转立体视频的方法和装置 | |
US20130235153A1 (en) | Method and apparatus for generating depth information of an image | |
US20100315488A1 (en) | Conversion device and method converting a two dimensional image to a three dimensional image | |
JP2011129116A (ja) | ビデオ変換システムのためのデプスマップを生成する方法およびそのシステム | |
Ko et al. | 2D to 3D stereoscopic conversion: depth-map estimation in a 2D single-view image | |
KR20110113924A (ko) | 영상 변환 장치 및 이를 포함하는 입체 영상 표시 장치 | |
US8665262B2 (en) | Depth map enhancing method | |
US20160180514A1 (en) | Image processing method and electronic device thereof | |
TW201710998A (zh) | 用於判定影像之深度圖之方法與裝置 | |
EP2745520B1 (en) | Auxiliary information map upsampling | |
Yang et al. | Depth map generation from a single image using local depth hypothesis | |
Yang et al. | A depth map generation algorithm based on saliency detection for 2D to 3D conversion | |
Cheng et al. | 51.3: An Ultra‐Low‐Cost 2‐D/3‐D Video‐Conversion System | |
Huang et al. | Creating depth map from 2D scene classification | |
Caviedes et al. | Real time 2D to 3D conversion: Technical and visual quality requirements | |
KR101626679B1 (ko) | 2d 영상으로부터 입체 영상을 생성하는 방법 및 이를 기록한 기록 매체 | |
Kim et al. | Depth-adaptive sharpness adjustments for stereoscopic perception improvement and hardware implementation | |
Cheng et al. | An Image Inpainting Method for Stereoscopic Images Based on Filling Route | |
Adhikarla et al. | View synthesis for lightfield displays using region based non-linear image warping | |
Wafa | Automatic real-time 2D-to-3D video conversion |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20131106 Termination date: 20161102 |
|
CF01 | Termination of patent right due to non-payment of annual fee |