CN101933335B - 将二维图像数据转换为立体图像数据的方法和系统 - Google Patents

将二维图像数据转换为立体图像数据的方法和系统 Download PDF

Info

Publication number
CN101933335B
CN101933335B CN2008801258259A CN200880125825A CN101933335B CN 101933335 B CN101933335 B CN 101933335B CN 2008801258259 A CN2008801258259 A CN 2008801258259A CN 200880125825 A CN200880125825 A CN 200880125825A CN 101933335 B CN101933335 B CN 101933335B
Authority
CN
China
Prior art keywords
image
parallax
value
pixel
reference picture
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
CN2008801258259A
Other languages
English (en)
Other versions
CN101933335A (zh
Inventor
张冬青
伊泽特·H·伊泽特
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Thomson Licensing SAS
International Digital Madison Patent Holding SAS
Original Assignee
Thomson Licensing SAS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Thomson Licensing SAS filed Critical Thomson Licensing SAS
Publication of CN101933335A publication Critical patent/CN101933335A/zh
Application granted granted Critical
Publication of CN101933335B publication Critical patent/CN101933335B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/261Image signal generators with monoscopic-to-stereoscopic image conversion

Abstract

提供了用于将二维图像序列转换为三维图像的方法和系统。在一个实施例中,一种用于将二维图像序列转换为三维图像的方法包括:确定(201)单视场参考2D图像序列中连续图像之间的照相机运动参数,其中连续图像包括当前参考图像和相邻图像;使用所述照相机运动参数确定(202)目标图像的水平视差图;确定(203,204)视差图的每个视差向量的视差概率值;以及使用所述视差概率值,确定(205)目标图像为当前参考图像中像素值的加权平均,使得目标图像和当前参考图像包括立体图像对。

Description

将二维图像数据转换为立体图像数据的方法和系统
技术领域
本发明涉及用于生成立体或三维图像的方法和系统,并且更具体地,涉及用于从具有普遍的照相机运动的单个二维(2D)单视场图像(monoscopicimage)序列(例如,2D视频图像序列)生成立体图像对的方法和系统。
背景技术
通常,立体图像转换是包括将二维(2D)图像或视频转换成三维(3D)立体图像或视频的处理。在一个传统处理中,可以通过将由位于不同地点的两个分离照相机捕获的两个单视场视图(左眼和右眼透视图)相组合来生成立体图像,其中,每个照相机捕获给定场景的2D透视图像(左眼和右眼视图),并且由此将两个2D透视图像相组合以形成3D或立体图像。在其它传统处理中,从由单个摄像机捕获的原始2D单视场图像生成3D或立体图像,由此,使用从原始2D图像中提取的信息来估计对应的2D单视场图像对。利用这样的方法,可以将原始2D图像建立为提供立体图像对的第一视图的左透视图,而对应的右透视图像是用于生成提供所述立体图像对的第二视图的对应右透视图而从原始2D图像处理而得的图像。
在一个具体的传统方案中,2D到3D转换系统可以被配置为:使用在源图像数据中的顺序2D图像之间估计的照相机运动数据来从单个2D单视场图像序列(例如,2D视频图像序列)生成立体图像对。利用这样的技术,输入2D图像数据经常是在照相机运动的情况下捕获的视频片段。在分析了照相机运动之后,然后可以从输入视频中的2D图像和所推导的照相机运动导出右图像。2D到3D转换系统可以被用来将2D格式的图像和视频数据(电影、家庭录像、游戏等)转换为立体图像,以便使得能够进行2D格式的源图像数据的3D观看。当将第一图像序列和第二图像序列传送到左眼或右眼时,第二图像序列与第一图像序列一起使得能够三维地观看原始的二维图像。
利用照相机运动从2D图像序列中生成立体图像对的传统方式使用深度图(depth map)来产生/生成对应的立体图像对,所述深度图是从照相机的视频图像数据计算而得的。通常,这些技术包括:在单视场2D图像序列中的两个连续2D图像之间估计照相机运动,使得它们变为规范的立体对;然后,进行深度估计以便使用所估计的照相机运动来从两个或多个连续图像中提取深度图。然后,使用所估计的深度图来将左眼图像重新产生为右眼图像。更具体地,假设两个连续2D图像Li,Li+1,其中,认为输入的2D图像序列提供左眼透视图,可以通过使关于深度图D的成本函数F(D|Li,Li+1)最小化来从2D图像估计深度图。假设最优深度图是
Figure BPA00001187461200021
则通过产生函数:
Figure BPA00001187461200022
可以产生右图像。
理论上,如果可以精确地估计深度图,则该传统方式良好地工作。该方式的优点在于照相机运动可以是任意的。然而,在实践级别,深度估计处理是有问题的,并且在大多数情况下,深度图被噪声污染。结果,所估计的深度图将包含噪声分量:其中Di是真实深度图,而
Figure BPA00001187461200024
是误差分量。在产生右眼图像时,误差分量将被传播并且很有可能被产生函数放大,从而导致不期望的伪像。
基于照相机运动的其它传统方法使用平面转换(planar transform)技术以便避免深度图计算,但是当被应用于具有普遍的、任意的照相机运动的视频数据时这样的方式具有明显的限制。通常,平面转换技术包括:通过例如使用相邻帧计算基本矩阵来从输入视频序列估计照相机运动。然后,所估计的照相机运动参数被用来导出平面转换矩阵,其被用来将输入视频图像序列中的当前图像转换为假定右眼图像。然而,仅当照相机运动仅包含水平运动时,才能导出转换矩阵。如果照相机也沿垂直方向运动,将建立垂直视差(parallax),并且垂直视差在任何平面转换下都不能被去除。大多数的深度感知(例如,即在观看场景时的3D或立体效果)是在大致水平的平面中获得的而不是在垂直平面中获得的,这是因为观看者的眼睛通常在大致水平的平面上间隔开,并且相应视图是根据观看者的双眼之间距离的立体迹线而看到的。这样,一对连续图像之间的垂直运动或视差可以被2D到3D转换系统不正确地解释为指示深度的运动。但是平面转换可以去除照相机旋转和缩放,因而建立规范的立体图像对(即,使左图像和右图像配准以具有相同的焦距和平行的焦平面)。在这些情况下,如果照相机运动被限制于水平平移,则输入的2D图像的视频流可以被当作具有小偏离的一系列立体图像对。
发明内容
这里描述的各个实施例包括用于从具有任意照相机运动的单眼2D图像序列中生成立体图像对的方法和系统,其中,使用照相机运动和考虑了视差图生成的误差的优化技术,直接估计目标图像上的视差图,使得生成目标图像的处理对视差图的估计噪声较不敏感。
在本发明的一个示例实施例中,2D到3D转换的方法包括:确定单视场2D图像序列中连续图像之间的照相机运动参数,其中连续图像包括当前参考图像和相邻图像;使用所述照相机运动参数确定目标图像的水平视差图;确定视差图的每个视差向量的视差概率值;以及使用所述视差概率值,确定目标图像为当前参考图像中像素值的加权平均,使得目标图像和当前参考图像包括立体图像对。
例如,在本发明的一个实施例中,通过构造成本函数来确定水平视差图,所述成本函数包括:像素匹配成本函数分量,其确定在水平视差图情况下将当前参考图像中的像素匹配到相邻图像中的像素的成本;以及平滑成本函数分量,其考虑水平视差图中相邻像素位置的视差值的相似性以便获得平滑的水平视差图。
另外,在本发明的一个示例实施例中,通过构造水平视差图的概率函数模型来确定视差图的视差向量的视差概率值,其中,将每个像素的视差向量的值考虑为可以是多个离散值之一的随机值。可以通过将成本函数的成本函数分量转换为与概率模型相关联的对应的能量函数来构造概率函数模型。
进一步,在一个示例实施例中,概率函数模型是马尔可夫随机场模型,其中,通过第一和第二能量函数来定义马尔可夫随机场,第一能量函数对应于匹配成本函数,而第二能量函数对应于平滑成本函数。可以使用诸如置信传播算法之类的概率推理算法来确定视差图的每个视差向量的视差概率值。
在本发明的一个示例实施例中,在估计视差图之前,可以使用照相机运动参数来确定当前参考图像和相邻图像之间的垂直照相机运动量,其中,如果垂直运动量低于预定阈值,则可以使用平面转换来从当前参考图像计算目标图像。
在本发明的替代实施例中,用于将二维图像序列转换为三维图像的系统包括:图像数据缓存器,其用于存储第一2D图像单视场序列中的连续图像,其中,所述连续图像包括当前参考图像和相邻图像;以及图像数据处理系统。在一个实施例中,图像数据处理系统包括:照相机运动估计模块,其用于确定存储在图像数据缓存器中的连续图像之间的照相机运动参数;视差图估计模块,其用于使用所述照相机运动参数来确定目标图像的水平视差图,并且确定视差图的每个视差向量的视差概率值;以及图像产生模块,其用于使用所述视差概率值确定目标图像为当前参考图像中像素值的加权平均,使得目标图像和当前参考图像包括立体图像对。
附图说明
通过结合附图考虑以下详细描述可以容易理解本原理的教导,在附图中:
图1示出了依据本发明实施例的将2D图像序列转换为3D立体图像的系统的高级框图;
图2示出了依据本发明实施例的将2D图像序列转换为3D立体图像的方法的流程图;以及
图3示出了依据本发明替代实施例的、用于将2D图像序列转换为3D立体图像的方法的流程图。
应理解,附图是用于例示本发明构思的目的,并且不必是例示本发明的唯一可能结构。为了便于理解,如果可能的话,已经使用相同参考标号来表示各图中共有的相同要素。
具体实施方式
本原理有利地提供一种从具有普遍的照相机运动的单个二维(2D)单视场图像序列(例如,2D视频图像序列)生成立体图像对的方法和系统。尽管将主要在用于将2D图像转换为3D立体图像(其中,左图像是参考图像,右图像是目标图像)的特定系统的背景下描述本原理,但是本发明的特定实施例不应被当作限制本发明的范围。例如,在本发明的替代实施例中,可以将任何第一图像用作参考图像(即,右图像或左图像)以便导出立体图像对。
依据本发明的各个实施例,设计2D到3D转换技术以便:使用依据输入流中的连续2D图像(即,参考图像)确定的照相机运动参数、以及考虑了视差图生成的误差的优化技术,来估计右眼图像(目标)上的视差图,从而使用所估计的视差图从原始2D(参考图像)生成右图像(目标)的处理对视差图的估计噪声较不敏感。
在一个实施例中,估计在右图像上定义的视差场(disparity field)。该视差场描述如何将Li的像素传送给右图像Ri。例如,如果将视差场表示为Dr,则可以根据以下公式一(1)从左眼图像转换得到右眼图像:
Ri(x,y)=Li(x+Dr(x,y),y)                        (1)
视差场Dr包括指定被应用于左眼图像Li内的像素的偏移量的向量数据,所述偏移量被应用于左眼图像Li内的像素以得到右眼图像中的对应像素。向量数据与两个立体图像之间的透视(perspective)改变、以及从照相机到要拍摄的场景的对象的距离有关。应注意,视差场仅具有水平分量,由此,视差场(或视差图)包含相应位移值d,对于左立体图像视图(参考)中的每个相应像素而言,当将位移值d应用于Li中的相应像素的位置(x,y)时,给出了其在右立体图像视图Ri中的对应像素的位置(x+d,y)。在这点上,可以将视差图考虑为位移值的矩阵,其中,该矩阵是与每个立体图像中的像素数目相同的尺寸,使得矩阵包含立体图像之一中每个像素的单个一维位移值。
图1示出了依据本发明实施例的将2D图像序列转换为3D立体图像的系统100的高级框图。通常,系统100包括图像数据处理器110,其被配置为处理输入的第一2D数字图像(单视场)序列120并使用如下面将描述的各种图像处理和优化方法从该第一单眼2D图像序列120生成第二2D数字图像(单视场)序列130。在图1的示例实施例中,第一2D图像序列120包括2D参考图像Li,Li+1,Li+2...的序列,为了例示的目的,认为该2D参考图像Li,Li+1,Li+2...的序列是立体图像对的左眼透视图,第二2D数字图像序列130包括2D合成(目标)图像Ri,Ri+1,Ri+2...的序列,为了例示的目的,认为该2D参考图像Ri,Ri+1,Ri+2...的序列是立体图像对的对应右眼透视图。在一个实施例中,输入120可以是在照相机运动的情况下捕获的视频片段。
第一2D数字图像序列120和第二2D数字图像序列130经由图像组合器模块140组合在一起,以便生成立体图像序列150。立体图像序列150可以包括:分离的但同步的左图像流和右图像流,所述左图像流和右图像流提供立体图像对流;单个3D图像流,其中,将对应的立体对交织以形成3D图像。
在图1的实施例中,图像数据处理器110例示性地包括输入图像缓存器111、照相机运动估计模块112、成本函数和概率函数生成模块113、平面转换生成模块114、视差场估计模块115和图像生成器116。图像数据处理器110的组成系统部件/模块,通过测量二维图像序列120中的相邻连续图像之间的照相机运动向量、使用该运动向量和概率建模来估计并优化右眼图像上的水平视差图以使视差图估计误差最小化,来实现各种示例操作模式(如将参考图2和3的流程图所讨论的),从而生成2D右眼图像序列130。
在图1的实施例中,图像缓存器111接收并存储输入的2D图像序列中的多个相邻图像帧。照相机运动估计模块112确定第一2D图像单视场序列120中的连续图像之间的照相机运动参数,例如当前参考图像Li和相邻图像Li+1之间的照相机运动参数。在本发明的各个实施例中,照相机运动估计模块112还操作为图像校正和校准模块,以便校正和校准当前参考图像Li和相邻图像Li+1,从而当前参考图像和相邻图像是规范的立体图像对。
函数生成模块113生成被用来计算优化的视差图的成本函数(例如,如下面所讨论的公式2或公式4)。如下面所解释的,成本函数被构造有:第一成本分量,其将像素匹配成本函数确定为被用来将水平视差图(即,目标图像的水平视差图)转换为相邻参考图像Li和Li+1之间的视差的水平运动转换函数和垂直运动转换函数的函数,该像素匹配成本函数在视差映射的情况下考虑匹配当前参考图像Li和相邻图像Li+1中的对应像素的成本;以及平滑分量,其考虑相邻像素视差的视差值的相似性。
函数模块113生成定义目标图像视差图的概率模型的概率函数,其中,像素的视差值是可以是表示像素的可能视差的n个离散状态之一的随机值。函数生成模块113通过将成本函数转换为概率函数可以生成概率函数。
视差场估计模块115使用函数生成模块113生成的成本函数、概率函数和参数来估计并优化目标图像的视差场(或视差图)。如下面所解释的,在一个示例实施例中,视差图估计模块115通过使成本函数或从成本函数导出的概率模型的能量函数最小化来确定视差图的视差值的概率、并使用视差的概率值作为权重值来将目标图像的像素值计算为参考图像中像素值的加权平均,从而确定初始视差图。图像产生模块116使用所估计的视差图来生成并输出第二2D图像(例如,目标图像)序列,其中,对应的目标图像130和参考图像120包括立体图像对。平面转换模块114可以被用来计算平面转换矩阵,该平面转换矩阵被用来在照相机运动没有或具有非常小的垂直照相机运动的情况下从参考图像计算目标图像。
图1中的系统可以以硬件、软件、固件、专用处理器、或它们的组合的各种形式来实现。这里描述的组成系统组件和处理步骤可以被以软件实现为应用程序,该应用程序包括确切体现在一个或多个程序存储设备(例如,磁软盘、RAM、CD ROM、ROM、闪存等)上并由包括适当结构的任何设备、机器或平台执行的程序指令。还应理解,由于这里示出的一些系统组件和方法步骤优选地以软件实现,因此,系统组件(或处理步骤)之间的实际连接可能取决于本原理的示例实施例被编排的方式而不同。
图2示出了依据本发明实施例的将2D图像序列转换为3D立体图像的方法的流程图。应理解,图2的方法仅表示图1的系统的一种示例操作模式。该方法在步骤200开始,在步骤200,临时缓存例如包括二维图像序列的当前帧Li和前一帧Li+1的多个相邻帧。然后,该方法进行到步骤201。
在步骤201,估计相邻帧之间的照相机运动的量和方向。如上面注意到的,在估计水平视差图的处理中使用照相机运动参数,所述水平视差图被应用于当前2D图像Li以估计对应的右眼图像Ri,从而形成立体对。在该处理中,估计输入的单视场序列的两个连续2D源图像之间的照相机运动允许计算右图像Ri,其中图像Ri类似于与当前左图像Li连续的图像,并且视差向量D类似于所估计的照相机运动向量。
例如,通过例如使用相邻帧计算基本矩阵,可以估计相邻图像Li和Li+1之间的照相机运动。如本领域已知的,基本矩阵将一个图像中的点与其它图像中的对应点相关,其中,通过利用基本矩阵建模这样的帧之间的照相机运动,可以确定两个连续的输入图像之间的视差映射。然后,该方法进行到步骤202。
在步骤202,构造成本函数,以基于照相机运动估计目标(例如,右)图像的优化后的视差图。通过根据以下的公式二(2)使成本函数最小化,可以生成水平视差图:
C ( D r ) = Σ ( x , y ) d ( L i ( x , y ) , L i + 1 ( x + H x ( D r ( x , y ) ) , y + H y ( D r ) ) ) + Σ x , y S ( D r ( x , y ) ) - - - ( 2 )
在公式(2)中,d(.,.)表示像素差,例如,欧几里得距离。Hx、Hy分别是表示沿水平(x)和垂直(y)方向中所确定的照相机运动的转换函数,其被用来将右眼水平视差图转换为Li和Li+1之间的视差,从而可以计算像素差。在公式(2)的成本函数公式中,使用运动转换函数来考虑图像校正和校准。此外,在公式(2)中,S(Dr(x,y))表示在视差场上所定义的平滑限制,其可以根据以下的公式三(3)被特征化:
S(Dr(x,y))=||Dr(x,y)-Dr(x-1,y)||2+||Dr(x,y)-Dr(x,y-1)||2            (3)
取相对简单的示例,如果照相机运动是垂直平移,则仅存在Li和Li+1之间的垂直视差。如果校正了Li和Li+1,则通过
Figure BPA00001187461200081
可以将Dr(x,y)中的视差转换为Li上的视差场。公式(2)中的成本函数可以通过优化方式(例如,动态编程和置信传播)而最小化。
在替代实施例中,通过执行图像校正和校准可以将视差场估计执行作为照相机运动估计处理的一部分,并构造更简化的成本函数。即,假设作为照相机运动估计处理的一部分,将两个连续图像Li-1和Li转换为校正后的对L′i-1和L′i,通过根据以下公式四(4)使成本函数最小化,可以估计视差图Dr
C ( D r ) = Σ ( x , y ) d ( L i ( x , y ) , L i + 1 ( x + D r ( x , y ) ) ) + Σ x , y S ( D r ( x , y ) ) - - - ( 4 )
其中,如公式(2)中所定义的,d(.,.)是像素差,S(Dr(x,y))是平滑限制。与公式(2)的成本函数相比,由于相邻参考图像的校正和校准在之前被作为照相机运动估计处理的一部分而执行,因此,公式(4)的成本函数不包括用于估计水平视差图的图像校正和校准分量。
通常,公式(2)和(4)的成本函数包括:像素匹配成本函数分量,其确定在水平视差图情况下将当前参考图像中的像素匹配到相邻图像中的像素的成本;以及平滑成本函数分量,其考虑水平视差图中相邻像素位置的视差值的相似性以便获得平滑的水平视差图。尽管通过使成本函数最小化,可以估计优化后的水平视差图,但是在存在视差估计误差时,单独使用公式(2)或(4)的水平视差图的估计可能导致传播到右眼图像的误差,从而导致潜在的伪像。
相应地,通过使用视差估计的概率(或可信度)来考虑视差估计的不确定性。假设视差值的概率为W(x,y,d),右图像的像素值根据以下公式五(5)可以被设置为左眼图像中像素值的加权平均:
R i ( x , y ) = Σ d L i ( x + d , y ) W ( x , y , d ) - - - ( 5 )
图2的方法,然后进行到步骤203。
在步骤203,通过将公式(4)的成本函数公式转换为概率公式并且然后应用概率推理算法可以确定权重W(x,y,d)(即,视差向量的概率值)。在该框架下,每个像素的真实视差值是对于每个像素位置的随机变量。每个变量可以取n个离散状态之一,所述离散状态表示那个像素位置处的可能视差。对于每个可能的视差值,存在在那个视差值处与将像素匹配到对应的立体图像中的对应像素相关联的成本,其中,该成本优选地基于两个像素之间的亮度差。
再次参考图2,可以将公式(4)中的成本函数转换为等效的根据如下公式六(6)的概率公式:
log p ( d ( . ) ) = Σ ( i ) log φ i ( d i ) + Σ ( i j ) log ψ ij ( d i , d j ) - log Z - - - ( 6 )
其中,d是视差值,i和j是标识图像中一点的唯一标记。例如,如果图像具有320×240大小,则i=0表示在(0,0)处的像素,i=321表示在(1,1)处的像素,依此类推。这样,di对应于公式(3)中的Dr(x,y)。比较公式(4)和(6),结果是:
(i)总成本函数C=log p(d(.)),
Figure BPA00001187461200092
φi(di)=exp((I(x,y)-I′(x-d(x,y)))2)
ψij(di,dj)=exp([d(x,y)-d(x±1,y)]2+[d(x,y)-d(x,y±1)]2)
其中,使用±是因为符号取决于像素的相邻关系(neighborhood)。项log Z是关于视差图的常数,其不影响公式(6)和公式(4)的等效。通过该转换,最小化公式(4)的成本函数等效于最大化公式(6)中的概率函数,其中,公式(5)也已知为马尔可夫随机场,其中,φi和ψij是马尔可夫随机场的势函数(potential function)。
返回参考图2,在步骤204,在将成本函数转换为概率模型(例如,马尔可夫随机场)之后,使用概率推理算法可以获得给定像素的视差b(di=w)的概率值。例如,依据本发明可以被用来计算视差的一个推理算法是置信传播算法,其中b(di=w)近似真实概率p(di=w),其是点i(具有坐标x,y)处的视差值的具有值w的概率,其中w是从1到M(M是最大视差值)的整数。该方法然后进行到步骤205。
在步骤205,当前源图像Li的相关联的2D立体图像Ri可以被使用所估计的视差概率值而计算为当前图像Li中像素的加权平均。具体地,参考公式(5),可以将权重W(x,y,d)的值设置为等于给定像素的视差值的近似概率值b(di=w),其中,索引i对应于具有坐标(x,y)的像素。该方法然后可以退出。
图2的方法可应用于普遍的照相机运动(水平的和垂直的照相机运动)。由于构造并使用水平视差图来产生目标图像(例如,右眼视图),因此尽管照相机运动可能具有垂直分量,但仍产生逼真的立体图像。然而,如果照相机运动具有水平分量以及很少或没有垂直分量,则可以使用平面的运动转换来计算右眼水平视差图并产生目标图像。
例如,图3示出了依据本发明替代实施例的、用于将2D图像序列转换为3D立体图像的方法的流程图。图3的方法表示能够由图1的系统执行的、用于将2D图像序列转换为3D立体图像的方法的替代实施例。在图3的方法中,初始步骤300和301类似于图2的步骤200和201。更具体地,在步骤300,临时缓存例如包括二维图像序列的当前帧Li和前一帧Li+1的多个相邻帧。然后,该方法进行到步骤301。
在步骤301,如上面参考图2的方法的步骤201所描述地,估计相邻帧之间的照相机运动的量和方向。然后,该方法进行到步骤302。
在步骤302,如果存在垂直视差的量的话,执行垂直视差检测处理以确定可能存在的垂直视差的量。在一个实施例中,通过尝试校正输入序列中两个图像(Li和Li+1),可以实现垂直视图检测。在计算了校正转换之后,如果校正包括旋转Li图像,则一定存在垂直视差。因此,这里可以将旋转角度用作用于标识垂直视差的度量。该方法然后进行到步骤303。
在步骤303,确定垂直视差的量是否小于预定义阈值。即,在本发明的一个实施例中,检测器输出指示所检测的垂直视差的量的值。如果垂直视差的量小于预定义阈值(步骤303中的肯定确定),则该方法进行到步骤304。
在步骤304,执行平面转换处理以便估计目标图像Ri。具体地,例如,使用构造平面转换的已知方法,利用照相机运动参数来构造平面转换。该方法然后进行到步骤305。
在步骤305,对当前参考图像Li应用平面转换,以计算相关联的目标图像Ri。该方法然后可以退出。
利用步骤304和305,可以使用照相机运动参数来导出可以被用来将参考图像Li转换为目标图像Ri的平面转换矩阵。然而,仅当照相机运动只有水平运动时,才可以导出转换矩阵。如果照相机运动具有垂直分量,则将建立垂直视差,并且在任何平面转换下都不能去除垂直视差。然而,平面转换可以去除照相机旋转和缩放,因此建立了规范的立体对(即,将左图像和右图像配准以便具有相同的焦距和平行的焦平面)。
返回参考图3的步骤303,然而如果确定垂直视差不小于预定义阈值(步骤303中的否定确定),则该方法跳到步骤306,其类似于如上所述的图2中的步骤202。
即,在步骤306,如上面参考图2的步骤202所述地,构造成本函数以基于照相机运动估计目标(例如,右)图像的优化后的视差图。在步骤306之后,图3的方法进行到步骤307。
在步骤307,如上面参考图2的步骤203所述地,将成本函数转换为概率模型。在步骤307之后,图3的方法进行到步骤308。
在步骤308,如上面参考图2的步骤204所述地,对概率模型应用概率推理算法以确定视差模型的概率。在步骤308之后,图3的方法进行到步骤309。
在步骤309,如上面参考图2的步骤205所述地,使用所估计的视差概率值,可以将当前源图像Li的相关联的2D立体图像Ri计算为当前图像Li中像素的加权平均。该方法然后可以退出。
已经描述了用于从具有普遍的照相机运动(其旨在例示而非限制)的单个二维(2D)单视场图像序列(例如,2D视频图像序列)生成立体图像对的方法和系统的优选实施例,注意本领域技术人员根据以上教导可以作出修改和变形。因此,应理解,可以在所公开的发明的具体实施例中作出在由所附权利要求所概括的本发明的范围和精神之内的改变。尽管以上内容针对本发明的各个实施例,但是在不偏离本发明基本范围的情况下可以设计本发明的其它和另外的实施例。

Claims (16)

1.一种将二维图像序列转换为三维图像的方法,包括:
确定(201)二维图像的单视场序列中连续图像之间的照相机运动参数,其中所述连续图像包括当前参考图像和相邻图像;
使用所述照相机运动参数确定(202)目标图像的水平视差图;
确定(203,204)水平视差图的每个视差向量的视差概率值;以及
使用所述视差概率值,确定(205)目标图像为当前参考图像中像素值的加权平均,使得目标图像和当前参考图像包括三维图像对;
其中,确定水平视差图包括构造(202)成本函数,所述成本函数包括:像素匹配成本函数分量,其确定在水平视差图情况下将当前参考图像中的像素匹配到相邻图像中的像素的成本;以及平滑成本函数分量,其考虑水平视差图中相邻像素位置的视差值的相似性以便获得平滑的水平视差图。
2.如权利要求1所述的方法,其中,确定视差图的视差向量的视差概率值包括:
确定其中每个像素的视差向量的值是可以是多个离散值之一的随机值的水平视差图的概率模型(203);
使用概率推理算法,确定(204)视差图中每个视差向量的最可能的视差值;以及
应用与最可能视差值相关联的概率值作为给定像素的权重值。
3.如权利要求2所述的方法,其中,确定水平视差图的概率模型包括:
将成本函数转换(203)为对应的能量函数。
4.如权利要求2所述的方法,其中,概率模型是马尔可夫随机场模型。
5.如权利要求4所述的方法,其中,通过第一和第二能量函数来定义马尔可夫随机场,其中,第一能量函数对应于所述像素匹配成本函数分量,而第二能量函数对应于所述平滑成本函数分量。
6.如权利要求2所述的方法,其中,概率推理算法是置信传播算法。
7.如权利要求1所述的方法,还包括:
使用照相机运动参数来确定(301)当前参考图像和相邻图像之间的垂直照相机运动量;以及
如果垂直照相机运动量低于预定阈值,则执行(304)平面转换来从当前参考图像计算目标图像。
8.如权利要求1所述的方法,还包括:在使用所述照相机运动参数确定目标图像的水平视差图的步骤之前,校正当前参考图像和相邻图像。
9.一种用于将二维图像序列转换为三维图像的系统(100),包括:
图像数据缓存器(111),其用于存储二维图像的第一单视场序列中的连续图像,其中,所述连续图像包括当前参考图像和相邻图像;以及
图像数据处理系统(110),其包括:
照相机运动估计模块(112),其用于确定存储在图像数据缓存器中的连续图像之间的照相机运动参数;
视差图估计模块(115),其用于使用所述照相机运动参数来确定目标图像的水平视差图,并且确定水平视差图的每个视差向量的视差概率值;
图像产生模块(116),其用于使用所述视差概率值确定目标图像为当前参考图像中像素值的加权平均,使得目标图像和当前参考图像包括三维图像对;以及
成本函数生成模块(113),其用于构造被视差图估计模块用来确定水平视差图的成本函数,其中,所述成本函数包括:像素匹配成本函数分量,其确定在水平视差图情况下将当前参考图像中的像素匹配到相邻图像中的像素的成本;以及平滑成本函数分量,其考虑水平视差图中相邻像素位置的视差值的相似性以便获得平滑的水平视差图。
10.如权利要求9所述的系统,其中,图像数据处理系统包括概率函数生成模块(113),其用于:确定其中每个像素的视差向量的值是可以是多个离散值之一的随机值的水平视差图的概率模型,并且
其中,视差图估计模块(115)使用概率推理算法确定视差图中每个视差向量的最可能的视差值,并且应用与最可能视差值相关联的概率值作为给定像素的权重值。
11.如权利要求10所述的系统,其中,概率模型是马尔可夫随机场模型。
12.如权利要求11所述的系统,其中,通过第一和第二能量函数来定义马尔可夫随机场,其中,第一能量函数对应于所述像素匹配成本函数分量,而第二能量函数对应于所述平滑成本函数分量。
13.如权利要求11所述的系统,其中,概率推理算法是置信传播算法。
14.如权利要求9所述的系统,其中,图像数据处理系统包括:
概率函数生成模块(113),其用于:构造其中将每个像素的视差向量的值考虑为可以是多个离散值之一的随机值的水平视差图的概率函数模型,其中,通过将成本函数的成本函数分量转换为与概率模型相关联的对应的能量函数来构造概率函数模型。
15.如权利要求9所述的系统,其中,照相机运动估计模块(112)使用照相机运动参数来确定当前参考图像和相邻图像之间的垂直照相机运动量;以及
其中,该系统还包括平面转换生成模块(114),其用于:在照相机运动估计模块确定垂直照相机运动量低于预定阈值的情况下,计算平面转换函数,并且使用平面转换函数来从当前参考图像计算目标图像。
16.如权利要求9所述的系统,还包括:图像校正和校准模块(112),其用于校正和校准当前参考图像和相邻图像,使得当前参考图像和相邻图像是规范的三维图像对。
CN2008801258259A 2008-01-29 2008-01-29 将二维图像数据转换为立体图像数据的方法和系统 Expired - Fee Related CN101933335B (zh)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/US2008/001151 WO2009096912A1 (en) 2008-01-29 2008-01-29 Method and system for converting 2d image data to stereoscopic image data

Publications (2)

Publication Number Publication Date
CN101933335A CN101933335A (zh) 2010-12-29
CN101933335B true CN101933335B (zh) 2012-09-05

Family

ID=39790350

Family Applications (1)

Application Number Title Priority Date Filing Date
CN2008801258259A Expired - Fee Related CN101933335B (zh) 2008-01-29 2008-01-29 将二维图像数据转换为立体图像数据的方法和系统

Country Status (7)

Country Link
US (1) US9137518B2 (zh)
EP (1) EP2235955A1 (zh)
JP (1) JP5561781B2 (zh)
KR (1) KR101419979B1 (zh)
CN (1) CN101933335B (zh)
BR (1) BRPI0822142A2 (zh)
WO (1) WO2009096912A1 (zh)

Families Citing this family (76)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8471844B2 (en) * 2008-01-18 2013-06-25 Sony Corporation Streaming geometry for use in displaying and editing 3D imagery
KR101506217B1 (ko) * 2008-01-31 2015-03-26 삼성전자주식회사 스테레오스코픽 영상의 부분 데이터 구간 재생을 위한스테레오스코픽 영상 데이터스트림 생성 방법과 장치, 및스테레오스코픽 영상의 부분 데이터 구간 재생 방법과 장치
US8345956B2 (en) * 2008-11-03 2013-01-01 Microsoft Corporation Converting 2D video into stereo video
CN101790103B (zh) 2009-01-22 2012-05-30 华为技术有限公司 一种视差计算方法及装置
US8395709B2 (en) * 2009-03-04 2013-03-12 ATI Technology ULC 3D video processing
EP2442561A4 (en) * 2009-06-08 2013-10-16 Lg Electronics Inc DEVICE AND METHOD FOR DISPLAYING A THREE-DIMENSIONAL PIP IMAGE
US9380292B2 (en) 2009-07-31 2016-06-28 3Dmedia Corporation Methods, systems, and computer-readable storage media for generating three-dimensional (3D) images of a scene
WO2011014419A1 (en) * 2009-07-31 2011-02-03 3Dmedia Corporation Methods, systems, and computer-readable storage media for creating three-dimensional (3d) images of a scene
US20110025830A1 (en) 2009-07-31 2011-02-03 3Dmedia Corporation Methods, systems, and computer-readable storage media for generating stereoscopic content via depth map creation
KR101347744B1 (ko) * 2009-08-19 2014-01-03 서울시립대학교 산학협력단 영상 처리 장치 및 방법
US20110080466A1 (en) * 2009-10-07 2011-04-07 Spatial View Inc. Automated processing of aligned and non-aligned images for creating two-view and multi-view stereoscopic 3d images
US20120314023A1 (en) * 2010-02-24 2012-12-13 Jesus Barcons-Palau Split screen for 3d
JP2011216937A (ja) * 2010-03-31 2011-10-27 Hitachi Consumer Electronics Co Ltd 立体画像表示装置
US10917624B2 (en) 2010-06-02 2021-02-09 Maxell, Ltd. Reception device, display control method, transmission device, and transmission method for program content type
JP5505637B2 (ja) * 2010-06-24 2014-05-28 ソニー株式会社 立体表示装置および立体表示装置の表示方法
US9344701B2 (en) 2010-07-23 2016-05-17 3Dmedia Corporation Methods, systems, and computer-readable storage media for identifying a rough depth map in a scene and for determining a stereo-base distance for three-dimensional (3D) content creation
WO2012037685A1 (en) * 2010-09-22 2012-03-29 Berfort Management Inc. Generating 3d stereoscopic content from monoscopic video content
KR101669840B1 (ko) * 2010-10-21 2016-10-28 삼성전자주식회사 다시점 비디오로부터 일관성 있는 변이를 추정하는 변이 추정 시스템 및 방법
US8824762B2 (en) * 2010-10-22 2014-09-02 The Johns Hopkins University Method and system for processing ultrasound data
WO2012061549A2 (en) 2010-11-03 2012-05-10 3Dmedia Corporation Methods, systems, and computer program products for creating three-dimensional video sequences
US9123115B2 (en) * 2010-11-23 2015-09-01 Qualcomm Incorporated Depth estimation based on global motion and optical flow
US9171372B2 (en) 2010-11-23 2015-10-27 Qualcomm Incorporated Depth estimation based on global motion
JP5468526B2 (ja) * 2010-11-25 2014-04-09 株式会社東芝 画像処理装置及び画像処理方法
US9230315B2 (en) 2010-12-08 2016-01-05 Thomson Licensing Complexity estimation of a 2D/3D conversion
US10200671B2 (en) 2010-12-27 2019-02-05 3Dmedia Corporation Primary and auxiliary image capture devices for image processing and related methods
US8274552B2 (en) 2010-12-27 2012-09-25 3Dmedia Corporation Primary and auxiliary image capture devices for image processing and related methods
CN103947198B (zh) * 2011-01-07 2017-02-15 索尼电脑娱乐美国公司 基于场景内容的预定三维视频设置的动态调整
US20130120528A1 (en) * 2011-01-09 2013-05-16 Thomson Licensing Video processing apparatus and method for detecting a temporal synchronization mismatch
US8823777B2 (en) * 2011-03-30 2014-09-02 Intel Corporation Real-time depth extraction using stereo correspondence
US8941717B2 (en) * 2011-04-08 2015-01-27 Tektronix, Inc. Semi-automatic 3D stereoscopic disparity cursor
CN102158725B (zh) * 2011-05-06 2013-04-10 深圳超多维光电子有限公司 一种生成立体图像的方法和系统
KR20130003135A (ko) * 2011-06-30 2013-01-09 삼성전자주식회사 다시점 카메라를 이용한 라이트 필드 형상 캡처링 방법 및 장치
US9118902B1 (en) 2011-07-05 2015-08-25 Lucasfilm Entertainment Company Ltd. Stereoscopic conversion
US8786681B1 (en) * 2011-07-05 2014-07-22 Lucasfilm Entertainment Company, Ltd. Stereoscopic conversion
JP5318168B2 (ja) * 2011-09-07 2013-10-16 シャープ株式会社 立体画像処理装置、立体画像処理方法、及びプログラム
KR101863626B1 (ko) * 2011-11-02 2018-07-06 삼성전자주식회사 영상 처리 장치 및 방법
US9471988B2 (en) 2011-11-02 2016-10-18 Google Inc. Depth-map generation for an input image using an example approximate depth-map associated with an example similar image
US9661307B1 (en) * 2011-11-15 2017-05-23 Google Inc. Depth map generation using motion cues for conversion of monoscopic visual content to stereoscopic 3D
CN102421003A (zh) * 2011-11-21 2012-04-18 宝利微电子系统控股公司 图像处理方法和装置
JP2013123153A (ja) * 2011-12-12 2013-06-20 Sony Corp 画像処理装置、その制御方法およびプログラム
US9111350B1 (en) 2012-02-10 2015-08-18 Google Inc. Conversion of monoscopic visual content to stereoscopic 3D
US9495806B2 (en) 2012-03-29 2016-11-15 Panasonic Intellectual Property Management Co., Ltd. Image processing apparatus and image processing method
WO2013158097A1 (en) * 2012-04-19 2013-10-24 Intel Corporation 3d video coding including depth based disparity vector calibration
CA2869322C (en) 2012-04-20 2021-04-13 Affirmation, Llc Systems and methods for real-time conversion of video into three-dimensions
WO2013170040A1 (en) * 2012-05-11 2013-11-14 Intel Corporation Systems and methods for row causal scan-order optimization stereo matching
DE102012209316A1 (de) * 2012-06-01 2013-12-05 Robert Bosch Gmbh Verfahren und Vorrichtung zum Verarbeiten von Sensordaten eines Stereosensorsystems
US9648347B1 (en) * 2012-06-14 2017-05-09 Pixelworks, Inc. Disparity postprocessing and interpolation for motion estimation and motion correction
CN102802006B (zh) * 2012-08-03 2014-08-06 梁智伟 数码照相机、层叠式相片印刷器和立体彩色图像制作系统
KR101429349B1 (ko) * 2012-09-18 2014-08-12 연세대학교 산학협력단 중간 시점 영상 합성 장치 및 방법과 이에 관한 기록매체
US8867826B2 (en) * 2012-11-26 2014-10-21 Mitusbishi Electric Research Laboratories, Inc. Disparity estimation for misaligned stereo image pairs
US9237345B2 (en) * 2013-02-26 2016-01-12 Qualcomm Incorporated Neighbor block-based disparity vector derivation in 3D-AVC
WO2014135910A1 (en) * 2013-03-08 2014-09-12 JACQUEMET, Jean-Philippe Method of replacing objects in a video stream and computer program
US9674498B1 (en) 2013-03-15 2017-06-06 Google Inc. Detecting suitability for converting monoscopic visual content to stereoscopic 3D
TWI538476B (zh) * 2014-03-24 2016-06-11 立普思股份有限公司 立體攝影系統及其方法
CA2848794C (en) * 2014-04-11 2016-05-24 Blackberry Limited Building a depth map using movement of one camera
KR102224716B1 (ko) 2014-05-13 2021-03-08 삼성전자주식회사 스테레오 소스 영상 보정 방법 및 장치
US9888229B2 (en) * 2014-06-23 2018-02-06 Ricoh Company, Ltd. Disparity estimation for multiview imaging systems
KR102214934B1 (ko) 2014-07-18 2021-02-10 삼성전자주식회사 단항 신뢰도 및 쌍별 신뢰도 학습을 통한 스테레오 매칭 장치 및 방법
US9978135B2 (en) * 2015-02-27 2018-05-22 Cognex Corporation Detecting object presence on a target surface
US9779328B2 (en) 2015-08-28 2017-10-03 Intel Corporation Range image generation
WO2017039026A1 (en) * 2015-08-31 2017-03-09 Siliconarts Inc. Method of generating virtual reality on head mounted display and head mounted display performing the same
US9727775B2 (en) * 2015-12-01 2017-08-08 Intel Corporation Method and system of curved object recognition using image matching for image processing
US10121221B2 (en) * 2016-01-18 2018-11-06 Advanced Micro Devices, Inc. Method and apparatus to accelerate rendering of graphics images
FR3054347B1 (fr) * 2016-07-19 2019-08-23 Safran Procede et dispositif d'aide a la navigation d'un vehicule
WO2018211127A1 (en) * 2017-05-19 2018-11-22 Movidius Ltd. Methods, systems and apparatus to optimize pipeline execution
KR102455632B1 (ko) * 2017-09-14 2022-10-17 삼성전자주식회사 스테레오 매칭 방법 및 장치
US10839541B2 (en) * 2018-03-14 2020-11-17 Google Llc Hierarchical disparity hypothesis generation with slanted support windows
WO2020084091A1 (en) * 2018-10-25 2020-04-30 Five AI Limited Stereo image processing
KR102116770B1 (ko) 2018-12-26 2020-05-29 한화글로벌에셋 주식회사 백색층용 조성물, 이를 이용한 백색 커버레이 필름, 및 그 제조 방법
US10956762B2 (en) 2019-03-29 2021-03-23 Advanced New Technologies Co., Ltd. Spoof detection via 3D reconstruction
CN110223219B (zh) * 2019-05-22 2023-04-28 北京卡路里信息技术有限公司 3d图像的生成方法及装置
WO2020237553A1 (zh) * 2019-05-30 2020-12-03 深圳市大疆创新科技有限公司 图像处理方法、系统及可移动平台
US10984270B2 (en) * 2019-06-21 2021-04-20 Advanced New Technologies Co., Ltd. Spoof detection by estimating subject motion from captured image frames
AT524118B1 (de) * 2020-10-15 2022-03-15 Ait Austrian Inst Tech Gmbh Computer-implementiertes Verfahren zur Erstellung von mehrdimensionalen Gegenstands-Datenstrukturen
CN112203073B (zh) * 2020-12-07 2021-03-05 南京爱奇艺智能科技有限公司 一种适用于vr实时渲染应用的异步帧外插管线方法和系统
WO2023184527A1 (en) * 2022-04-02 2023-10-05 Covidien Lp System and method for unsupervised stereoscopic reconstruction with disparity consistency

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101086788A (zh) * 2006-06-07 2007-12-12 三星电子株式会社 产生视差图的方法和装置及其立体匹配方法和装置

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2700654B1 (fr) 1993-01-19 1995-02-17 Thomson Csf Procédé d'estimation de disparité entre les images monoscopiques constituant une image stéréoscopiques.
JP3477023B2 (ja) * 1996-04-05 2003-12-10 松下電器産業株式会社 多視点画像伝送方法および多視点画像表示方法
JP3769850B2 (ja) * 1996-12-26 2006-04-26 松下電器産業株式会社 中間視点画像生成方法および視差推定方法および画像伝送方法
US6163337A (en) 1996-04-05 2000-12-19 Matsushita Electric Industrial Co., Ltd. Multi-view point image transmission method and multi-view point image display method
JP3753201B2 (ja) 1996-07-22 2006-03-08 富士写真フイルム株式会社 視差画像入力装置
KR100307883B1 (ko) 1998-04-13 2001-10-19 박호군 정합화소수를이용한유사도측정방법및이를구현하기위한장치
GB2372659A (en) * 2001-02-23 2002-08-28 Sharp Kk A method of rectifying a stereoscopic image
US7184071B2 (en) * 2002-08-23 2007-02-27 University Of Maryland Method of three-dimensional object reconstruction from a video sequence using a generic model
GB2418314A (en) * 2004-09-16 2006-03-22 Sharp Kk A system for combining multiple disparity maps
KR100603603B1 (ko) * 2004-12-07 2006-07-24 한국전자통신연구원 변위 후보 및 이중 경로 동적 프로그래밍을 이용한 스테레오 변위 결정 장치 및 그 방법
US7512262B2 (en) * 2005-02-25 2009-03-31 Microsoft Corporation Stereo-based image processing
CA2553473A1 (en) * 2005-07-26 2007-01-26 Wa James Tam Generating a depth map from a tw0-dimensional source image for stereoscopic and multiview imaging
WO2007017834A2 (en) 2005-08-09 2007-02-15 Koninklijke Philips Electronics N.V. Disparity value generator
US7599547B2 (en) * 2005-11-30 2009-10-06 Microsoft Corporation Symmetric stereo model for handling occlusion
US20070165942A1 (en) 2006-01-18 2007-07-19 Eastman Kodak Company Method for rectifying stereoscopic display systems
CN101390131B (zh) * 2006-02-27 2013-03-13 皇家飞利浦电子股份有限公司 呈现输出图像

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101086788A (zh) * 2006-06-07 2007-12-12 三星电子株式会社 产生视差图的方法和装置及其立体匹配方法和装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
Zhang Liang ET AL.Reliability measurement of disparity estimates for intermediate view reconstruction.《IEEE ICIP 2002》.2002,837-840. *

Also Published As

Publication number Publication date
BRPI0822142A2 (pt) 2015-06-30
JP5561781B2 (ja) 2014-07-30
CN101933335A (zh) 2010-12-29
US9137518B2 (en) 2015-09-15
US20110050853A1 (en) 2011-03-03
KR20100119559A (ko) 2010-11-09
EP2235955A1 (en) 2010-10-06
WO2009096912A1 (en) 2009-08-06
JP2011511532A (ja) 2011-04-07
KR101419979B1 (ko) 2014-07-16

Similar Documents

Publication Publication Date Title
CN101933335B (zh) 将二维图像数据转换为立体图像数据的方法和系统
CN101689299B (zh) 用于图像的立体匹配的系统和方法
Kang et al. An efficient image rectification method for parallel multi-camera arrangement
US20110298898A1 (en) Three dimensional image generating system and method accomodating multi-view imaging
US9159154B2 (en) Image processing method and apparatus for generating disparity value
CN102047288A (zh) 利用正向和反向深度预测进行图像的深度提取的系统和方法
JP2014103689A (ja) 立体映像エラー改善方法及び装置
CN102077246A (zh) 利用运动补偿进行图像的深度提取的系统和方法
EP3061064A1 (en) Depth map generation
CN111127522B (zh) 基于单目相机的深度光流预测方法、装置、设备及介质
EP3001382B1 (en) Method and apparatus for generating disparity map based on image frames photographed by stereo camera
CN106934828B (zh) 深度图像处理方法及深度图像处理系统
CN103260032B (zh) 一种立体视频深度图序列的帧率提升方法
Park et al. Real time rectification using differentially encoded lookup table
JP2014035597A (ja) 画像処理装置、コンピュータプログラム、記録媒体及び画像処理方法
Knorr et al. An image-based rendering (ibr) approach for realistic stereo view synthesis of tv broadcast based on structure from motion
CN104284193A (zh) 编码装置和编码方法、以及解码装置和解码方法
WO2008152607A1 (en) Method, apparatus, system and computer program product for depth-related information propagation
KR20200108548A (ko) 3차원 포인트 클라우드 시퀀스의 압축 시스템 및 방법
JP5871113B2 (ja) 立体画像生成装置、立体画像生成方法及び立体画像生成プログラム
CN105282534A (zh) 用于嵌入立体图像的系统及方法
US10580210B2 (en) Method and device for refocusing at least one plenoptic video
Jeong et al. Confidence stereo matching using complementary tree structures and global depth-color fitting
Song et al. An improved two-view convergent-style-based disparity estimation algorithm
KR20110036234A (ko) 다시점 영상 압축 방법 및 장치

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
TR01 Transfer of patent right
TR01 Transfer of patent right

Effective date of registration: 20190211

Address after: Paris France

Patentee after: International Digital Madison Patent Holding Co.

Address before: I Si Eli Murli Nor, France

Patentee before: THOMSON LICENSING

Effective date of registration: 20190211

Address after: I Si Eli Murli Nor, France

Patentee after: THOMSON LICENSING

Address before: I Si Eli Murli Nor, France

Patentee before: THOMSON LICENSING

CF01 Termination of patent right due to non-payment of annual fee
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20120905

Termination date: 20200129