CN102598646A - 3d视频中深度过渡的有效编码 - Google Patents
3d视频中深度过渡的有效编码 Download PDFInfo
- Publication number
- CN102598646A CN102598646A CN2010800514132A CN201080051413A CN102598646A CN 102598646 A CN102598646 A CN 102598646A CN 2010800514132 A CN2010800514132 A CN 2010800514132A CN 201080051413 A CN201080051413 A CN 201080051413A CN 102598646 A CN102598646 A CN 102598646A
- Authority
- CN
- China
- Prior art keywords
- information
- pixel
- video data
- depth
- transitional
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/161—Encoding, multiplexing or demultiplexing different image signal components
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/20—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using video object coding
- H04N19/21—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using video object coding with binary alpha-plane coding for video objects, e.g. context-based arithmetic encoding [CAE]
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/46—Embedding additional information in the video signal during the compression process
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/597—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N2213/00—Details of stereoscopic systems
- H04N2213/003—Aspects relating to the "2D+depth" image format
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
Abstract
提供了一种编码视频数据信号(15)的方法以及一种用于解码的方法。该编码方法包括提供图像中像素的颜色信息(51),提供具有像素的深度信息(52)的深度图,提供表示图像中过渡区域(61,72)的宽度(63,73)的过渡信息(56,57,60,70,71),该过渡区域(61,72)包括深度过渡(62)和其中前景对象和背景对象的颜色被融合的融合像素,以及生成(24)包括表示颜色信息(51)、深度图(52)和过渡信息(56,57,60,70,71)的编码数据的视频数据信号(15)。解码包括使用过渡信息(56,57,60,70,71)以确定过渡区域(61,72)的宽度(63,73)并确定过渡区域(61,72)内部的像素的α值(53)。所确定的α值(53)用于确定前景对象和背景对象的过渡处的融合像素的颜色。
Description
技术领域
本发明涉及一种编码视频数据信号的方法,该方法包括提供图像中的像素的颜色信息,提供具有像素的深度信息的深度图(depth map),提供融合像素的过渡信息,在所述融合像素中前景对象和背景对象的颜色被融合,并生成包括表示颜色信息、深度信息和过渡信息的编码数据的视频数据信号。
本发明进一步涉及解码视频数据信号的方法、用于编码或解码的编码器、解码器和计算机程序产品、视频数据信号和数字数据载体。
背景技术
在新兴的三维(3D)视频技术中,存在用于将第三维编码进视频数据信号的多种方法。呈现3D视频的流行方法是使用一个或多个二维(2D)图像加上提供第三维信息的深度表示。该方法也允许以不同于2D图像的视点和视角来生成包括在3D图像数据中的2D图像。这种方法提供了许多优点,包括允许以相对低的复杂度来生成3D视图并提供了有效的数据表示,因此降低了例如3D视频信号的存储和通信资源需求。
当以不同的视点生成图像时,不同对象的不同深度导致对象边界的变化(shifting)而不是所应当完成的,生成新的边界。对象边界的变化可能导致不希望的降低图像质量的效果。例如,当来自离焦的前景对象的光反射与焦点对准的背景对象混合时,可能出现看起来不真实的边界。通常使用在视频数据信号的单独层中传输的α图(alpha map)来解决该问题。
该α图包括为每个像素指示其是否是前景像素、背景像素或混合像素的α值,其中在混合像素中,颜色部分地由前景对象决定且部分地由背景对象决定。该α值反映了混合率。因此这些混合像素也被称为“不确定”像素。该颜色的混合也称为融合(blending)。为了编码的目的,可以从手动分配或估计的现有数据中检索α值。典型地,α估计算法使用来自前景和背景的空间邻近的样本来为“不确定”区域中所有像素估计α的值。为便利该估计过程,首先产生所谓的三元图(trimap),为每个像素指示其是否是前景、背景或不确定的。多个空间邻近的样本取自邻近的前景和背景,以便估计前景值、背景值和不确定区域中的像素的α值。当生成新视图时,变化了的前景像素值与新背景相融合。
典型地,α图包括相对大的区域,对于前景像素使用值“1”或对背景像素使用值“0”。在这些区域之间,α值进行从“0”到“1”的快速过渡,或反之亦然。例如对于前景对象离焦的对象过渡和对于诸如头发的非常细小的对象,就是这种情况,其中使用透明用作用于处理这些对象的机制是方便的。诸如窗等较大区域上的真正的透明在自然的视频中不是非常经常发生的。α图中的空间地快速的改变使它们压缩时相当低效并增加了视频数据信号的传输成本。
发明目的
本发明的目的是提供如在开头段落中描述的编码视频数据信号的方法,该方法降低了传输成本,同时在新呈现的视图中保留了平滑的对象过渡。
发明内容
根据本方面的第一方面,该目的通过提供编码视频数据信号的方法来达到,该方法包括提供图像中的像素的颜色信息,提供具有像素的深度信息的深度图,提供表示图像中过渡区域的宽度的过渡信息,过渡区域包括深度过渡和其中前景对象和背景对象的颜色被融合的融合像素,生成包括表示颜色信息、深度图和过渡信息的编码数据的视频数据信号。
不必提供过渡区域中所有像素的α值,根据本发明的方法仅要求关于深度过渡周围的过渡区域的宽度的某些信息。如以下将被阐述的,可以以许多不同的形式来提供关于过渡区域的宽度的信息。提供关于过渡区域的宽度的信息的主要优点在于其使得不必提供每个“不确定”像素的准确的α值。当已知过渡区域的宽度时,通过创建深度过渡的位置周围的像素带来确定不确定像素。给定不确定像素的位置,可以用不同的方法来产生α值。
首先,可以使用“不确定”像素与深度过渡的距离以及该像素自身的深度(局部前景或局部背景)以产生各个像素的α值。例如,在不确定像素上线性地从局部背景中的0变化为局部前景上的1的地方可以使用α线性函数。另外,非线性轮廓(profile)当然是可能的。单独具有α值,能够通过将融合的颜色与像素扭曲于其上的背景相混合来满足新视图的粗糙的(近似的)呈现。尽管不准确,视觉上这是一种处理模糊区域的可接受方式。
其次,可以使用已知的α估计技术来生成α,其中或者按像素估计两个未知数,即:前景值和α(假设在数据流中已经有背景图);或者,估计三个未知数,即:前景值、背景值和α。因此当确定α值时,优选地考虑形成深度过渡的前景和/或背景对象的深度值。该深度值是已经可以从深度图中获得的。
根据本发明的方法使得能够从非常少量的数据得出通常的α值。因此降低了传输成本而对于图像质量不具有有害的效果。
在该创新性方法的实施例中,过渡信息包括宽度图。该宽度图定义了被包括在特定深度过渡中的像素的数目。这种图仅需要一个整数值以定义过渡区域的宽度。与其中对于每个像素包括α值的现有技术中使用的α图相比,该方法使用了少得多的数据用于提供相似的信息。实际的情况例如是在标准的YUV 4:2:0视频的U通道和或V通道中提供与宽度相关的数据,其中诸如深度的其他信息或“传统的”α通道被编码在Y通道中。
通过将宽度分配给数据块,宽度图中所使用的数据量可以进一步降低,因此有效地缩减了宽度图的规模。只要深度过渡之间的距离远大于块的大小,通过将最近块的宽度值分配给给定的深度过渡,高分辨率原物的重建是可能的。在实际的情况中,这将意味着U和/或V通道的DC值将用于存储宽度数据,因为DC值典型地不易于压缩。
在可替换的实施例中,对于每个像素,二元图指示其是否是在过渡区域内。之后可以通过对过渡区域中的像素的数目进行计数而容易地确定过渡区域的宽度,且对于过渡区域中的每个像素可以使用过渡区域的宽度和像素的位置来确定α值。该二元图与已知的α图类似,但对于每个像素其仅使用“1”或“0”来代替8位的α值。尽管具有二元图的该实施例与具有宽度图的先前实施例相比对于更多像素使用非零值,数据总量仍然是低的并甚至可以比先前实施例中还要低。
通过缩减二元图的规模,用于二元图的数据量甚至可以进一步降低。那么较低分辨率的二元图可以用作过渡区域的略粗糙估计。对于过渡区域中的像素,进行α值的估计。然而,缩减了规模的二元图优选地用于在确定α值之前重建原始的较高分辨率二元图。
另一个实施例并不使用宽度图,而使用查找表。查找表可以包括对于不同的过渡深度的宽度参数。过渡区域的宽度强烈地依赖于深度过渡和图像中焦平面之间的距离。靠近焦平面,过渡是锐利的且过渡区域的宽度是小的。进一步远离焦平面,过渡区域更宽。过渡深度可以例如定义为导致过渡深度的前景或背景对象的深度。过渡深度也可以定义在前景和背景对象的深度值之间的某处。当为前景和背景对象的深度值的特定对提供宽度参数时,可以获取最佳的结果。然后将过渡深度定义为导致深度过渡的两个对象的深度值的组合。
在另一个实施例中,不仅是宽度,α图重建(固定曲线、局部估计)的方法也可以规定在查找表中。如之前所述,存在生成α数据的多个方法。优选的方法依赖于这样的内容(例如,头发周围相对于其他对象周围),该内容可以通过使具有三个值的图来编码重建的方法以及不确定区域的位置来信号表示,而不是二元图或将这些数据与宽度数据合并。典型地,可以用少于8位来表示宽度数据,留出几位来指示α重建方法。这样,可以使用例如整除(DIV运算)来提取宽度,然而可以使用取模运算符(MOD)来获取α重建方法。
应当注意,过渡信息可以包含深度过渡的深度和用于捕获视频数据的摄影机设置的某些参数。发明人已经认识到,过渡区域的宽度可以根据例如过渡深度和摄影机镜头的焦距和数值孔径确定。
根据本发明的又一方面,提供了一种解码视频数据信号的方法,该视频数据信号包括表示图像中像素的颜色信息的编码数据、具有像素的深度信息的深度图以及代表包括深度过渡和其中前景对象和背景对象的颜色相融合的融合像素的过渡区域的宽度的过渡信息。解码的方法包括接收视频数据信号,确定过渡区域的宽度,确定融合像素的α值以及基于α值和颜色信息确定融合像素的颜色。基于过渡信息来确定过渡区域的宽度。基于过渡区域的宽度来确定α值,融合像素的α值依赖于到深度过渡的距离。
在该解码方法中,根据与视频数据信号一起编码的过渡信息来生成α值。在优选的解码方法中,α值还依赖于导致深度过渡的前景对象和/或背景对象的深度。考虑用于捕获视频数据的摄影机设置的参数可以提高所计算的α值和获得的像素颜色的准确度。
本发明的这些和其他方面根据以下描述的实施例将是清楚明白的,并且将参照所述实施例进行阐述。
附图说明
在附图中:
图1示出了根据本发明的用于编码视频数据的系统的框图,
图2和3示例了过渡区域中的颜色的混合,
图4示出了根据本发明的编码方法的流程图,
图5示出了可以存储在表中的过渡信息的图示,
图6示出了根据本发明的宽度图的实例,
图7a和7b示出了依照当前的发明生成的具有过渡信息的二元图的实例,
图8示出了根据本发明的用于解码视频数据的系统的框图,以及
图9示出了根据本发明的解码方法的流程图。
具体实施方式
图1示出了根据本发明的用于编码视频数据的系统的框图。该系统包括两个数字视频摄影机11、12和编码器10。第一摄影机11和第二摄影机12记录相同的场景100,但是从稍有不同的位置并因此也是从稍有不同的角度进行记录。来自两个视频摄影机11、12的记录器数字视频信号被发送至编码器10。该编码器可以例如是专用编码盒、计算机中的视频卡或要由通用微处理器执行的软件实现的函数的一部分。可替换地,视频摄影机11、12是模拟视频摄影机,并且在将模拟视频信号提供为编码器10的输入之前,将模拟视频信号转换为数字视频信号。如果视频摄影机耦合至编码器10,可以在记录场景100期间进行编码。先记录场景100并然后将所记录的视频数据提供给编码器10也是可能的。应当注意,根据本发明的方法涉及编码视频数据信号的特别方式且不限于获得视频数据的特定方式。例如,将深度信息添加至仅由一个视频摄影机获得的视频数据也是可能的。
编码器10或者直接或者间接地从视频摄影机11,12接收数字视频数据,并将两个数字视频信号合成为一个3D视频信号15。应当注意,可以将两个视频摄影机11、12合成为一个3D视频摄影机。也可能使用两个以上视频摄影机从甚至更多的视点来捕获场景100。
以下,将使用单个图像来解释根据本发明的编码和解码方法以及与现有技术方法的差别。3D视频信号可以被看做许多这种图像的序列。应当注意,编码器10和解码器所使用的一部分信息可以由多个图像共享。对于特定图像或场景(连续的图像之集),某些参数可能是特定的。其他的参数对于整个视频可能是有用的。本领域技术人员将认识到对于视频中的不同图像使用相同参数的可能性。
在现有技术的编码器中,生成的3D视频信号可以包括具有图像中像素的颜色信息51的2D图像层、具有像素深度信息的深度图52以及具有α值的α图53,该α值指示前景颜色和背景颜色应当怎样在深度过渡和靠近深度过渡处混合。上述的格式示例在图2中,其中图像被示意性地描绘为一个具有多个像素的2D图像线51。可以在边界处观察到从前景值F(≈220)至背景值B(≈20)的逐渐过渡。过渡区域的宽度是U。这些区域被虚线封装。由Z指示的相关联的深度图52示出在图像线51的下方。过渡区域将相同的深度值,ZB,作为前景对象。这是任意的选择,因为没有很好地定义从前景至背景对象的确切过渡。该附图中的第三张图描绘了α通道53。在α通道53中,低值(此处:接近0)指示对相应像素的主导贡献来自于背景像素,而高值(此处:接近1)指示主导贡献来自于前景像素。在该过渡区域之外没有定义α值。现有技术α图53包括在图像51的每个过渡区域中的每个像素的α值。
在图3中更详细地示例了使用摄影机捕获图像所固有的模糊效应。在位置Ci的像素接收多个加权的贡献,即,来自周围背景像素的一个加权总和,其中权重反映在背景高斯分布54左侧的被标记的部分B,以及来自靠近前景像素的一个加权总和中,该前景像素的权重反映在前景高斯分布55右侧被标记的部分A中。高斯分布曲线的形状依赖于摄影机设定(例如焦距、数值孔径)以及对象至摄影机的距离,也被称为深度。在捕获场景期间所使用的孔径和焦点的设定将确定高斯分布的形状,且因此确定高斯分布曲线的宽度。效果是在深度过渡附近存在融合像素。
重要的是要注意,根据编码的图像数据是不可能模拟摄影机模糊过程(blurring process)的,因为图像已经模糊了。只有我们具有到处锐利的计算机图形图像,这才是可能的。之后我们能在该过程期间模拟摄影机光学的效果。然而,可以通过选择过渡区域的合适宽度来说明模糊过程,并使用或者线性或者非线性的函数使α在过渡区域中从0至1逐渐改变。
图4示出了根据本发明的示范性编码方法的框图。该编码方法可以由图1的系统的编码器10来执行。该编码方法使用来自摄影机11,12的被记录的数字视频数据并提供根据本发明的视频数据信号15。在基底图像提供步骤21中,提供场景的至少第一图像以用于包括在视频数据信号15中。该基底图像可以是来自两个摄影机11、12之一的标准2D视频数据。编码器10也可以使用两个基底图像;一个来自于第一摄影机11而一个来自于第二摄影机12。根据该基底图像,可以得出被记录的视频的每帧中所有像素的颜色值。基底图像代表某时刻如同从特定视点所看见的场景。可以包括显示来自不同的视点的同一图像的附加图像。
在3D启用步骤22中,使用来自摄影机11、12的进入视频数据来将深度信息添加至基底图像。该添加的信息使得解码器能够生成来自不同视点的同一场景的被呈现图像。编码器使用已知的、优选地标准的用于从被记录的规则视频数据得出深度信息的方法。应当注意,也可以对来自外部源并已经包括深度信息的3D视频数据执行根据本发明的编码方法。
在过渡信息生成步骤23中,编码器10生成代表图像中过渡区域宽度的信息。可以如以上已经描述的和以下将参考图5至7描述的许多不同的形式提供该过渡信息。
在信号生成步骤24中,先前步骤21、22、23中提供的信息用于生成根据本发明的视频数据信号15。该视频数据信号15至少代表2D图像、深度信息和过渡信息。此外,视频数据信号15可以包括用于使得解码器能够根据具有高准确度的过渡信息得出α值的参数。这种参数可以包括描述捕获视频数据时的摄影机设置的参数,诸如摄影机位置,照明条件或所使用的摄影机11、12的数值孔径和焦距。
图5示出了可以存储在表中的过渡信息的图示。根据本发明,可以提供一个表,在其中可以找到针对不同的过渡深度(Z)的宽度参数56、57(U(ZF))。根据这种表,解码器10可以找到相应深度Z处的前景对象的边界处的过渡区域宽度U(ZF)。焦点对准的(f)前景对象的边界处的过渡区域将是窄的。因此,对应于这种对象的深度的宽度参数57小于其他深度处的宽度参数56。离焦越多,过渡区域越宽。替代或除了前景对象的深度之外,该表也可以使用背景对象的深度。可替换地,该表包括对于图像中相互重叠的前景和背景对象的特定深度值对的宽度参数。宽度参数U(ZF)56、57使得解码器能够确定图像中过渡区域的宽度。宽度参数U(ZF)56、57例如可以是具有来自两个对象的颜色贡献的像素数目。
图6示出了根据本发明的宽度图60的一部分的实例。宽度图60的大部分是空的。该宽度图60在与图像中深度过渡相对应的位置处包括具有宽度参数的线62。过渡区域可以根据宽度参数来确定,并可以由虚线61来指示。在根据现有技术的α图中,过渡区域中的所有像素必须具有α值。在宽度图62中,仅有指示深度过渡的线62上的像素具有非零值。解码器根据该一个值得出过渡区域的宽度63,并将其用于生成过渡区域中其他像素的α值。
在图6示出的示范性情况中,深度过渡在过渡区域的中心。可替换地,深度过渡可以在过渡区域的边界处,并且宽度参数指示属于过渡区域的深度过渡的左/右/上/下侧处的像素数目。在又一实施例中,深度过渡可以默认地在过渡区域和前景对象之间的边界处或在过渡区域和背景对象的边界处。
通过将宽度分配给数据块,可以进一步降低在宽度图中使用的数据量,因此有效地缩减宽度图的规模。只要深度过渡之间的距离远大于块的大小,通过将最近块的宽度值分配给给定的深度过渡,高分辨率原物的重建是可能的。在实际情况中,标准YUV 4:2:0视频中的U和/或V通道的DC值被用于存储宽度数据,因为DC值典型地不易于压缩。
图7a和7b示出了依照当前的发明生成的具有过渡信息的二元图70、71的实例。图7b中的二元图71是图7a的二元图的缩减了规模的版本。图7a的高分辨率二元图70包括对于过渡区域72中的每个像素的“1”和对于不在过渡区域72中的每个像素的“0”。解码器可以通过对连续的“1”的数目进行计数而得出过渡区域72的宽度。使用该宽度可以计算α值。该二元图70包括与现有技术α图相等的数据量。然而,宽度图70每个像素仅使用单独一位,而α图使用例如8位值用于编码α值。因此根据本发明的宽度图70减少了传输成本。
在缩减了规模的二元图71中,图像被分为例如10乘10像素的段74。对于每个段74,仅需要一位以指示该段是否包括深度过渡。解码器可以将整个段74看做过渡区域,但这将导致不那么准确的α估计以及较低质量的图像。然而,如同从图7b中的虚线75能够看出的,低分辨率二元图71提供了足够的信息以准确地重建过渡区域。在该重建后,解码器可以如同使用图7a的高分辨率二元图70时一样来确定具有相似精度的α值。
图8示出了根据本发明的用于解码视频数据的系统的框图。该系统包括用于接收视频数据信号15并将该视频数据信号15转换成适于由显示器31显示的显示信号的解码器30。该视频数据信号15可以作为广播信号的一部分例如借助于缆线或卫星传输到达解码器30。视频数据信号15也可以根据请求来提供,例如借助于互联网或借助于视频点播服务。可替换地,视频数据信号15提供在数字数据载体上,诸如DVD或蓝光光盘。
显示器31能够提供被捕获并由图1的系统的编码器10编码的场景100的3D呈现。显示器31可以包括解码器30或可以耦合至解码器30。例如,解码器30可以是3D视频接收器的一部分,该3D视频接收器要被耦合至一个或多个普通电视机或计算机显示器。优选地,显示器是能够将不同的视图提供给观察者的不同眼睛的专用3D显示器31。
图9示出了解码方法的流程图,其可以由图8的解码器30来执行。在视频数据接收步骤41中,由编码器10编码的视频数据信号15在解码器30的输入处被接收。接收到的视频数据信号15包括表示如上所述的图像、深度信息和过渡信息的编码数据。过渡信息可以例如以表或宽度图的形式提供。编码数据可以包括附加信息,诸如摄影机设置参数。
在宽度确定步骤42中,使用过渡信息来确定图像中过渡区域的宽度。在α确定步骤43中,使用所确定的宽度来计算过渡区域中像素的α值。解码器可以不仅仅使用宽度信息和深度信息。例如,导致深度过渡的对象的深度信息和摄影机设置参数可以有助于确定α值。在像素融合步骤44中,将α值和图像的颜色信息进行组合以确定过渡区域中所有像素的颜色值。
具体地参考编码视频数据信号的方法、解码数据信号的方法、编码器设备和解码器设备描述了根据本发明的方法、编码器和解码器设备。然而本发明也可以在发送视频数据信号的方法、包括了编码方法的所有步骤以及发送编码的视频信号的其他步骤的方法中应用。相反地,本发明可以应用在接收视频数据信号的方法、包括了解码方法的所有步骤以及接收编码的视频信号的其他步骤的方法中。
视频数据信号可以在有线或无线信道上发送和/或接收,例如视频数据信号可以在IEEE1394链路、IP链路上进行传输。同样地,视频数据信号可以在家用网络中的无线链路(诸如无线IEEE802.11链路或UWB链路)上发送。
本发明也可以体现在用于视频数据信号的发射器和/或接收器中。依照本发明的发射器包括根据本发明的编码器设备并进一步包括用于发送编码的视频数据信号的传输装置。优选地,编码器的输出起发送装置的作用。相反地,依照本发明的接收器包括解码器设备并进一步包括用于接收编码的视频数据信号的接收器装置;其处理在有线或无线通道上到达的数据。优选地,解码器的输入起接收器装置的作用。如以上所示,发送和接收装置的特性依赖于用于交换数据的通道的类型。
可替换地,替代在通道上发送和/或接收编码的视频数据信号,编码的视频数据信号也可以被存储和/或从存储介质取回。在这种实施例中,相应的方法包括将视频数据信号存储在存储介质或存储设备上和/或从该存储介质或存储设备取回视频数据信号的附加步骤。
存储介质或存储设备可以是光学存储介质,诸如CD、CD-R、CD-RW、DVD、DVD+R、DVD-R、DVD+RW、DVD-RW、或蓝光光盘。同样地,编码的视频数据信号可以存储在HDD或固态存储介质上。存储和/或取回设备可以进而是更大的设备(诸如个人计算机、个人录像机或蓝光播放器)的一部分。
当本发明包含在用于存储视频数据信号和/或取回视频数据信号的设备中时,用于提供视频数据信号的输出优选地还包含用于存储视频数据信号的装置。相反地,用于接收视频数据信号的输入在此情况下优选地包括用于取回视频数据信号的装置。
本领域技术人员将清楚,相应的装置随着所包含的存储介质和存储设备而改变。
依照本发明的解码器和编码器包括用于处理的装置,例如在解码器的情况下,解码器包括用于确定过渡区域的宽度的装置、用于确定α值的装置和用于确定颜色的装置。本领域技术人员将清楚,这种处理装置可以在多种处理平台上实现。这些平台可以由诸如专用集成电路或FPGA的专用硬件构成。然而这样的处理也可以在软件中实现,该软件用于在诸如例如PC环境中的通用处理器或视频信号处理器的通用处理平台上执行。也设想了混合的硬件软件解决方案。尽管对于根据本发明的解码器中的装置进行了示例,但是对于根据本发明的编码器中的装置也同样适用。
参考透明度值和透明度图描述了本发明。然而本领域技术人员将清楚,本发明对于不透明度值和不透明度图进行应用具有同样的效果。透明度和不透明度在这一点上是本质上互补的;鉴于一个定义了物体透明的程度,另一个定义了物体不透明的程度。
将要理解的是,本发明还延伸到适于实施本发明的计算机程序,特别是在载体上或者载体中的计算机程序。程序可以以源代码、目标代码、源和目标代码中间的代码(例如,部分编译的形式)的形式,或者以适于在实现根据本发明的方法中使用的任何其他形式。还要理解的是,这种程序可以具有许多不同的架构设计。例如,实现根据本发明的方法或者系统的功能的程序代码可以被细分为一个或者多个子例程。在这些子例程中分配功能的许多不同的方法对于本领域技术人员是清楚明白的。子例程可以一起存储在一个可执行文件中,以形成独立的程序。这种可执行文件可以包括计算机可执行指令,例如,处理器指令和/或编译器指令(例如,Java解释器指令)。可替代地,一个或者多个或者全部的子例程可以存储在至少一个外部库文件中,并且例如在运行时静态地或者动态地与主程序相链接。主程序含有对至少一个子程序的至少一个调用。同时,子例程可以包括彼此的功能调用。与计算机程序产品相关的实施例包括与所提到的方法中至少一个的处理步骤中每一个相对应的计算机可执行指令。这些指令可以细分为子例程,和/或存储在可以静态或者动态地链接的一个或者多个文件中。与计算机程序产品相关的另一个实施例包括与所提到的系统和/或产品中至少一个的装置中的每一个相对应的计算机可执行指令。这些指令可以细分为子例程,和/或存储在可以静态或者动态地链接的一个或者多个文件中。
计算机程序的载体可以是能够携带程序的任何实体或者设备。例如,载体可以包括存储介质,例如,ROM(例如,CD ROM或者半导体ROM)或者磁性记录介质(例如,软盘或者硬盘)。此外,载体可以是可传送的载体,例如,电或者光信号,其可以经由电缆或光缆或者通过无线电或其他方式来传送。当程序体现在这个信号中时,载体可以由这种线缆或者其它设备或装置来构成。可替代地,载体可以是在其中嵌入程序的集成电路,集成电路适于执行相关方法或者在执行相关方法时使用。
应注意的是,上述实施例说明而不是限制本发明,并且本领域技术人员将能够设计许多可替代实施例,而不脱离所附权利要求的范围。在权利要求中,括号之间的任何附图标记将不被解释为限制权利要求。使用动词“包括”和其词性变化并不排除存在不同于权利要求中所陈述那些的元件或者步骤。元件之前的冠词“一”或“一个”不排除存在多个这种元件。本发明通过可以借助于包括许多独立元件的硬件以及借助于合适地编程的计算机来实现。在列举了若干装置的设备权利要求中,这些装置中的几个可以由一个或者相同项的硬件来体现。在相互不同的从属权利要求中叙述某些措施的纯粹事实不表示这些措施的结合不能使用以受益。
Claims (15)
1.一种编码视频数据信号(15)的方法,该方法包括:
提供图像中像素的颜色信息(51),
提供具有像素的深度信息(52)的深度图,
提供表示图像中过渡区域(61,72)的宽度(63,73)的过渡信息(56,57,60,70,71),该过渡区域(61,72)包括深度过渡(62)和其中前景对象和背景对象的颜色被融合的融合像素,
生成(24)包括表示颜色信息(51)、深度图(52)和过渡信息(56,57,60,70,71)的编码数据的视频数据信号(15)。
2.如权利要求1所述的编码视频数据信号(15)的方法,其中过渡信息包括对于深度过渡(62)将相应宽度定义为融合像素数目的宽度图(60)。
3.如权利要求1所述的编码视频数据信号(15)的方法,其中过渡信息包括指示图像中的每个像素是否在过渡区域(72)中的二元图(70,71)。
4.如权利要求3所述的编码视频数据信号(15)的方法,其中二元图(71)具有比该图像低的分辨率。
5.如权利要求1所述的编码视频数据信号(15)的方法,其中过渡信息(56,57)包括具有对于不同过渡深度的宽度参数(56,75)的表。
6.如权利要求5所述的编码视频数据信号(15)的方法,其中过渡深度被定义为深度过渡处的前景对象的深度。
7.如权利要求5所述的编码视频数据信号(15)的方法,其中过渡深度被定义为深度过渡处前景对象和背景对象的深度的组合。
8.一种解码视频数据信号(15)的方法,该视频数据信号(15)包括表示图像中像素的颜色信息(51)的编码数据、具有像素的深度信息(52)的深度图、以及代表包括深度过渡(62)和其中前景对象和背景对象的颜色被融合的融合像素的过渡区域(61,72)的宽度(63,73)的过渡信息(56,57,60,70,71),该方法包括:
接收视频数据信号(41),
基于过渡信息(56,57,60,70,71),确定过渡区域(61,72)的宽度(63,73),
基于过渡区域的宽度,确定融合像素的α值(53),融合像素的α值(53)依赖于到深度过渡(62)的距离,
基于α值(53)和颜色信息(51)确定融合像素的颜色。
9.如权利要求8所述的解码视频数据信号(15)的方法,其中α值(53)的确定进一步基于深度过渡(62)的深度(52)。
10.一种用于编码视频数据信号(15)的编码器,该编码器包括:
用于提供图像中像素的颜色信息(51)、具有像素的深度信息(52)的深度图、以及代表包括深度过渡(62)和其中前景对象和背景对象的颜色被融合的融合像素的过渡区域(61,72)的宽度(63,73)的过渡信息(56,57,60,70,71)的装置,
用于生成(24)包括表示颜色信息(51)、深度信息(52)和过渡信息的编码数据的视频数据信号(15)的装置,以及
用于提供视频数据信号(15)的输出。
11.一种用于解码视频数据信号(15)的解码器,该解码器包括:
用于接收视频数据信号(15)的输入,该视频数据信号(15)包括表示图像中像素的颜色信息(51)的编码数据、具有像素的深度信息(52)的深度图、以及代表包括深度过渡(62)和其中前景对象和背景对象的颜色被融合的融合像素的过渡区域(61,72)的宽度(63,73)的过渡信息(56,57,60,70,71),
用于基于过渡信息(56,57,60,70,71),确定过渡区域(61,72)的宽度(63,73)的装置,
用于基于过渡区域(61,72)的宽度(63,73),确定融合像素的α值(53)的装置,所述融合像素的α值(53)依赖于到深度过渡(62)的距离,以及
用于基于α值(53)和颜色信息(51)确定融合像素的颜色的装置。
12.一种用于编码视频数据信号的计算机程序产品,可操作该程序以导致处理器执行如权利要求1所述的方法。
13.一种用于解码视频数据信号的计算机程序产品,可操作该程序以导致处理器执行如权利要求8所述的方法。
14.一种视频数据信号(15),包括表示图像中像素的颜色信息(51)的编码数据、具有像素的深度信息(52)的深度图、以及代表包括深度过渡(62)和其中前景对象和背景对象的颜色被融合的融合像素的过渡区域(61,72)的宽度(63,73)的过渡信息(56,57,60,70,71)。
15.一种在其上编码了如权利要求14所述的视频数据信号(15)的数字数据载体。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
EP09175913 | 2009-11-13 | ||
EP09175913.4 | 2009-11-13 | ||
PCT/IB2010/055054 WO2011058492A1 (en) | 2009-11-13 | 2010-11-08 | Efficient coding of depth transitions in 3d ((video)) |
Publications (2)
Publication Number | Publication Date |
---|---|
CN102598646A true CN102598646A (zh) | 2012-07-18 |
CN102598646B CN102598646B (zh) | 2014-05-07 |
Family
ID=43566506
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201080051413.2A Active CN102598646B (zh) | 2009-11-13 | 2010-11-08 | 3d视频中深度过渡的有效编码 |
Country Status (7)
Country | Link |
---|---|
US (3) | US10097843B2 (zh) |
EP (1) | EP2499811B1 (zh) |
JP (1) | JP5731525B2 (zh) |
KR (1) | KR101768855B1 (zh) |
CN (1) | CN102598646B (zh) |
TW (1) | TWI504220B (zh) |
WO (1) | WO2011058492A1 (zh) |
Families Citing this family (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20120162412A1 (en) * | 2010-12-22 | 2012-06-28 | Electronics And Telecommunications Research Institute | Image matting apparatus using multiple cameras and method of generating alpha maps |
US8682091B2 (en) * | 2011-08-18 | 2014-03-25 | International Business Machines Corporation | Real-time image compression |
US9672609B1 (en) * | 2011-11-11 | 2017-06-06 | Edge 3 Technologies, Inc. | Method and apparatus for improved depth-map estimation |
TWI544447B (zh) * | 2011-11-29 | 2016-08-01 | 財團法人資訊工業策進會 | 擴增實境的方法及系統 |
US9691360B2 (en) * | 2012-02-21 | 2017-06-27 | Apple Inc. | Alpha channel power savings in graphics unit |
US10447990B2 (en) | 2012-02-28 | 2019-10-15 | Qualcomm Incorporated | Network abstraction layer (NAL) unit header design for three-dimensional video coding |
US20130300823A1 (en) * | 2012-05-10 | 2013-11-14 | Jiun-Sian Chu | Stereo effect enhancement systems and methods |
GB2499694B8 (en) * | 2012-11-09 | 2017-06-07 | Sony Computer Entertainment Europe Ltd | System and method of image reconstruction |
US10080036B2 (en) | 2013-05-16 | 2018-09-18 | City University Of Hong Kong | Method and apparatus for depth video coding using endurable view synthesis distortion |
JP6494249B2 (ja) * | 2014-11-12 | 2019-04-03 | キヤノン株式会社 | 画像形成装置、画像形成方法、プログラム |
US10616551B2 (en) * | 2017-01-27 | 2020-04-07 | OrbViu Inc. | Method and system for constructing view from multiple video streams |
US10880475B2 (en) * | 2018-10-25 | 2020-12-29 | Korea Electronics Technology Institute | Video conversion apparatus and system for generating 360-degree virtual reality video in real time |
EP3800615A1 (en) * | 2019-10-01 | 2021-04-07 | Axis AB | Method and device for image analysis |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP1612738A2 (en) * | 2004-06-28 | 2006-01-04 | Microsoft Corporation | A system and process for generating a two-layer, 3D representation of a scene |
EP1612732A2 (en) * | 2004-06-28 | 2006-01-04 | Microsoft Corporation | Interactive viewpoint video system and process |
CN1734499A (zh) * | 2004-08-09 | 2006-02-15 | 微软公司 | 通过动态规划进行修边 |
WO2009001255A1 (en) * | 2007-06-26 | 2008-12-31 | Koninklijke Philips Electronics N.V. | Method and system for encoding a 3d video signal, enclosed 3d video signal, method and system for decoder for a 3d video signal |
Family Cites Families (28)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2964931B2 (ja) * | 1995-04-25 | 1999-10-18 | 富士ゼロックス株式会社 | 画像処理装置および画像形成装置 |
US5812787A (en) | 1995-06-30 | 1998-09-22 | Intel Corporation | Video coding scheme with foreground/background separation |
JP2870465B2 (ja) * | 1995-07-24 | 1999-03-17 | 日本電気株式会社 | 3次元参照画像切り出し方法及び装置並びに物体判定装置 |
US5838828A (en) * | 1995-12-12 | 1998-11-17 | Massachusetts Institute Of Technology | Method and apparatus for motion estimation in a video signal |
US5917937A (en) | 1997-04-15 | 1999-06-29 | Microsoft Corporation | Method for performing stereo matching to recover depths, colors and opacities of surface elements |
GB2354416B (en) | 1999-09-17 | 2004-04-21 | Technologies Limit Imagination | Depth based blending for 3D graphics systems |
US6670955B1 (en) | 2000-07-19 | 2003-12-30 | Ati International Srl | Method and system for sort independent alpha blending of graphic fragments |
US6901170B1 (en) * | 2000-09-05 | 2005-05-31 | Fuji Xerox Co., Ltd. | Image processing device and recording medium |
JP4596224B2 (ja) * | 2001-06-27 | 2010-12-08 | ソニー株式会社 | 画像処理装置および方法、記録媒体、並びにプログラム |
US7081892B2 (en) | 2002-04-09 | 2006-07-25 | Sony Computer Entertainment America Inc. | Image with depth of field using z-buffer image data and alpha blending |
US7142209B2 (en) * | 2004-08-03 | 2006-11-28 | Microsoft Corporation | Real-time rendering system and process for interactive viewpoint video that was generated using overlapping images of a scene captured from viewpoints forming a grid |
US7221366B2 (en) | 2004-08-03 | 2007-05-22 | Microsoft Corporation | Real-time rendering system and process for interactive viewpoint video |
US8031774B2 (en) * | 2005-01-31 | 2011-10-04 | Mediatek Incoropration | Video encoding methods and systems with frame-layer rate control |
TWI301953B (en) | 2005-03-14 | 2008-10-11 | Qisda Corp | Methods and apparatuses for video encoding |
EP1931150A1 (en) * | 2006-12-04 | 2008-06-11 | Koninklijke Philips Electronics N.V. | Image processing system for processing combined image data and depth data |
KR100846513B1 (ko) * | 2007-01-15 | 2008-07-17 | 삼성전자주식회사 | 영상 처리 방법 및 장치 |
JP4793933B2 (ja) * | 2007-03-12 | 2011-10-12 | 任天堂株式会社 | 画像処理プログラムおよび画像処理装置 |
US20080240239A1 (en) * | 2007-04-02 | 2008-10-02 | Stuart David A | Methods and apparatus to selectively reduce streaming bandwidth consumption |
JP4948273B2 (ja) * | 2007-06-11 | 2012-06-06 | キヤノン株式会社 | 情報処理方法及び情報処理装置 |
EP2009899A1 (en) * | 2007-06-27 | 2008-12-31 | Thomson Licensing | Method of creating a gamut boundary descriptor preserving the discontinuities of an actual gamut surface |
WO2009027788A2 (en) * | 2007-08-31 | 2009-03-05 | Furuno Electric Co., Ltd. | Chart display device and method for displaying chart |
RU2497196C2 (ru) * | 2007-10-11 | 2013-10-27 | Конинклейке Филипс Электроникс Н.В. | Способ и устройство для обработки карты глубины |
JP5112989B2 (ja) | 2008-08-20 | 2013-01-09 | 株式会社ミツトヨ | 光電式エンコーダ |
EP2180449A1 (en) * | 2008-10-21 | 2010-04-28 | Koninklijke Philips Electronics N.V. | Method and device for providing a layered depth model of a scene |
US8306283B2 (en) * | 2009-04-21 | 2012-11-06 | Arcsoft (Hangzhou) Multimedia Technology Co., Ltd. | Focus enhancing method for portrait in digital image |
US8659592B2 (en) * | 2009-09-24 | 2014-02-25 | Shenzhen Tcl New Technology Ltd | 2D to 3D video conversion |
KR101760323B1 (ko) * | 2010-01-13 | 2017-07-21 | 삼성전자주식회사 | 장면의 3차원 뷰들을 렌더링 하기 위한 시스템 및 방법 |
US10217195B1 (en) * | 2017-04-17 | 2019-02-26 | Amazon Technologies, Inc. | Generation of semantic depth of field effect |
-
2010
- 2010-11-08 CN CN201080051413.2A patent/CN102598646B/zh active Active
- 2010-11-08 EP EP10785529.8A patent/EP2499811B1/en active Active
- 2010-11-08 KR KR1020127015217A patent/KR101768855B1/ko active IP Right Grant
- 2010-11-08 WO PCT/IB2010/055054 patent/WO2011058492A1/en active Application Filing
- 2010-11-08 US US13/508,739 patent/US10097843B2/en active Active
- 2010-11-08 JP JP2012538450A patent/JP5731525B2/ja active Active
- 2010-11-10 TW TW099138724A patent/TWI504220B/zh active
-
2018
- 2018-09-12 US US16/128,821 patent/US11438608B2/en active Active
-
2021
- 2021-12-08 US US17/545,049 patent/US11601659B2/en active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP1612738A2 (en) * | 2004-06-28 | 2006-01-04 | Microsoft Corporation | A system and process for generating a two-layer, 3D representation of a scene |
CN1716311A (zh) * | 2004-06-28 | 2006-01-04 | 微软公司 | 用于生成场景的两层、3d表示的系统和过程 |
EP1612732A2 (en) * | 2004-06-28 | 2006-01-04 | Microsoft Corporation | Interactive viewpoint video system and process |
CN1734499A (zh) * | 2004-08-09 | 2006-02-15 | 微软公司 | 通过动态规划进行修边 |
WO2009001255A1 (en) * | 2007-06-26 | 2008-12-31 | Koninklijke Philips Electronics N.V. | Method and system for encoding a 3d video signal, enclosed 3d video signal, method and system for decoder for a 3d video signal |
Also Published As
Publication number | Publication date |
---|---|
US11601659B2 (en) | 2023-03-07 |
US11438608B2 (en) | 2022-09-06 |
US20220094953A1 (en) | 2022-03-24 |
EP2499811A1 (en) | 2012-09-19 |
US10097843B2 (en) | 2018-10-09 |
KR20120097383A (ko) | 2012-09-03 |
EP2499811B1 (en) | 2019-08-28 |
US20120229603A1 (en) | 2012-09-13 |
TWI504220B (zh) | 2015-10-11 |
US20190028720A1 (en) | 2019-01-24 |
TW201141236A (en) | 2011-11-16 |
CN102598646B (zh) | 2014-05-07 |
KR101768855B1 (ko) | 2017-08-17 |
JP5731525B2 (ja) | 2015-06-10 |
WO2011058492A1 (en) | 2011-05-19 |
JP2013511190A (ja) | 2013-03-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN102598646B (zh) | 3d视频中深度过渡的有效编码 | |
KR102560187B1 (ko) | 3차원("3d") 장면의 2차원("2d") 캡처 이미지를 기반으로 하는 가상 현실 콘텐츠를 렌더링하기 위한 방법 및 시스템 | |
CN108475330B (zh) | 用于有伪像感知的视图合成的辅助数据 | |
KR102386712B1 (ko) | 포인트 클라우드 데이터 전송 장치, 전송 방법, 처리 장치 및 처리 방법 | |
JP5567562B2 (ja) | 多用途三次元画像フォーマット | |
JP2020536300A (ja) | 3dシーンの点の属性を修正するための方法及び装置 | |
RU2503062C2 (ru) | Способ и система для кодирования сигнала трехмерного видео, кодер для кодирования сигнала трехмерного видео, кодированный сигнал трехмерного видео, способ и система для декодирования сигнала трехмерного видео, декодер для декодирования сигнала трехмерного видео | |
US20050180340A1 (en) | Method, medium and apparatus for encoding and decoding 3D data | |
CN100565589C (zh) | 用于深度感知的装置和方法 | |
US11232625B2 (en) | Image processing | |
CN103562958A (zh) | 尺度无关图 | |
JP2004504736A (ja) | 三次元画像生成方法及び装置 | |
CN104067310A (zh) | 显示图像的改进 | |
ES2265504T3 (es) | Procedimiento para la compresion y la descompresion de datos de video. | |
EP2803041B1 (en) | Method for multi-view mesh texturing and corresponding device | |
WO2018127629A1 (en) | Method and apparatus for video depth map coding and decoding | |
EP2908527A1 (en) | Device, program, and method for reducing data size of multiple images containing similar information | |
US7439976B2 (en) | Visual communication signal | |
US20070076978A1 (en) | Moving image generating apparatus, moving image generating method and program therefor | |
CN114897681A (zh) | 基于实时虚拟视角插值的多用户自由视角视频方法及系统 | |
Rocha et al. | An overview of three-dimensional videos: 3D content creation, 3D representation and visualization | |
US20240179347A1 (en) | Point cloud data transmission device, point cloud data transmission method, point cloud data reception device, and point cloud data reception method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant |