CN103916658A - 采用深度传播技术的3dv系统视点间深度图生成方法 - Google Patents

采用深度传播技术的3dv系统视点间深度图生成方法 Download PDF

Info

Publication number
CN103916658A
CN103916658A CN201410158068.2A CN201410158068A CN103916658A CN 103916658 A CN103916658 A CN 103916658A CN 201410158068 A CN201410158068 A CN 201410158068A CN 103916658 A CN103916658 A CN 103916658A
Authority
CN
China
Prior art keywords
depth
viewpoint
pixel
parallax compensation
viewpoints
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201410158068.2A
Other languages
English (en)
Other versions
CN103916658B (zh
Inventor
刘琚
曹广昊
葛川
葛菁
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shandong University
Original Assignee
Shandong University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shandong University filed Critical Shandong University
Priority to CN201410158068.2A priority Critical patent/CN103916658B/zh
Publication of CN103916658A publication Critical patent/CN103916658A/zh
Application granted granted Critical
Publication of CN103916658B publication Critical patent/CN103916658B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

本发明提供一种采用深度传播技术的3DV系统视点间深度图生成的方法。该方法利用视点间的双向深度传播技术,首先通过双方向的自适应可重叠块的视差补偿对代表像素的深度值进行赋值,然后对未进行深度赋值的像素利用亮度深度一致性原理建立有约束的优化方程并求解,从而获得所有视点的深度图。本发明使现有的3DV系统仅仅需要编码并传输纹理图和两个视点的深度图,就能够在解码端获得与采用常用深度视图编码方法质量相当的多视点的深度数据,节省了传输带宽和发送端的编码资源,在3D视频编解码领域有着潜在的应用价值。

Description

采用深度传播技术的3DV系统视点间深度图生成方法
技术领域
本发明涉及一种3DV(三维视频)系统视点间深度图生成方法,属于视频编解码、多媒体信号处理技术领域。
背景技术
如今,3D视频在电影行业和消费电子行业有着越来越广泛的应用。得益于3D显示技术的发展,多视点显示技术也逐渐发展并且提高了用户的视觉体验。然而,多视点显示带来的数据量的增加使三维视频(3DV)系统中多视点视频数据的压缩、存储和传输面临一个挑战。
3DV系统中普遍采用的数据格式是多视点视频加深度(MVD)格式,它包括了多视点的纹理视图和相对应的深度视图。这种基于深度的数据格式包含深度信息作为输入信息的一部分,利用DIBR技术来产生中间视图,能够更好的解决空洞问题并且能够提供更好的立体兼容性。然而,MVD带来的数据量增大问题使MVD数据格式的有效压缩变得非常重要。
近年来,对3DV系统的多视点数据的压缩技术现在正在进行紧张的研究中,相关的编码技术的标准化也在被评估中。以今年来不断进行标准化的3D-HEVC标准提案为例,纹理视图独立于深度视图进行编码以用来支持立体兼容性。其中对深度图采用了视频编码中用到的视点内预测、运动补偿预测,视差补偿预测,变换域编码等方法,在此基础上也进行了一些修改。然而,深度视图无论采用现有的何种方法进行编码,都需要在发送端对每一个视点的深度图进行编码,占用发送端的编码资源。另外,现有的深度编码方式都会产生需要传输的编码信息,占用传输带宽。比如,视点内预测、运动补偿预测、视差补偿预测、变换域编码方式会产生运动向量、视差向量和残差等信息。利用深度建模编码,需要传输模式等信息。这些信息都需要在编码端通过计算产生并且占用传输带宽。
深度传播源于2D转3D技术中的深度估计。2D转3D根据人工参与的多少可以被分为3类:手动,全自动和半自动2D转3D。其中,半自动的方法因为利用较少的人工参与获得好的深度图获得了大家的青睐,在这种系统中用户参与和3D转换效果得到了平衡。在半自动的2D到3D的转换中,利用已有的深度信息来生成整个视频序列的深度图的方法被称为深度传播。深度传播的方法是指事先获得关键帧的深度图,然后利用关键帧和非关键帧的相关性来计算出非关键帧的深度图。同样是利用两幅图像的相关性,根据视点间的相关性也可以利用深度传播技术获得视点的深度图。
发明内容
本发明针对当前3DV系统传播深度数据冗余大,占用编码资源等缺点,提出了一种利用视点间深度传播技术的视点间深度图生成的方法,用于系统解码端。本发明使现有的3DV系统仅仅需要编码并传输纹理图和两个视点的深度图,就能够在解码端获得与采用常用深度图编码方法质量相当的多视点的深度数据,节省了传输带宽和发送端的编码资源。
本发明根据双向的视点间深度传播原理,将3DV系统视点间深度图的生成方法分解为基于自适应可重叠块的视差补偿和建立并求解优化方程对未视差补偿的像素点进行深度分配两个部分。本发明采用的技术方案为:
一种3DV系统视点间深度图生成方法,利用深度传播,由一部分视点的深度图获得另一部分视点的深度图,其特征在于:在系统编码端不需要对每一个视点的纹理图和深度图均进行编码并发送,而是仅需要编码并传输纹理图和两个视点的深度图,在系统解码端根据视点间的相关性,获得其它视点的深度图,具体步骤如下:
(1)自适应可重叠块的视差补偿:取3DV系统MVD格式多视点数据中的2个视点作为关键视点,则其他视点为非关键视点,利用非关键视点的纹理图对2个关键视点的纹理图进行双向可重叠块视差估计,然后,根据视差向量对非关键视点的代表像素进行自适应可重叠块的视差补偿,自适应是指对估计出的视差向量按照估计准确程度分为3级,从1到3级估计准确程度越来越小,把前两级视差补偿的像素点作为代表像素并进行不同方式的视差补偿,第1级直接进行视差补偿,第2级根据权值矩阵进行可重叠块的视差补偿,第3级不进行视差补偿;
(2)建立并求解优化方程对未视差补偿的像素点进行深度分配:对于剩余的未进行视差补偿的像素,根据亮度深度一致性原理建立有约束的优化方程,优化问题被建模为当前像素与邻域窗口像素的加权深度值差异最小化问题,约束条件为非关键视点已经进行了视差补偿的代表像素的深度值,求解后求得未视差补偿的像素点的深度值,即获得整个深度图的深度值。
优选地,通过绝对误差和SAD值计算估计出的视差向量的估计准确程度。
优选地,进行双向视差估计时,根据绝对误差和SAD选择前向和后向视差向量。
本发明中,由于代表像素的深度值具有很高的准确性,经过求解优化方程获得的未视差补偿的像素点的深度值也更加准确。利用视点间的深度传播技术,仅需要编码纹理图和选取的关键视点的深度图就可以在接收端获得所有视点的深度图。实验证明,通过本方法获得的深度数据与现有的深度图编码方法获得的深度数据质量相当,并且由于编码端的编码任务和传输数据量大大降低(仅仅需要编码并传输纹理图和两个视点的深度图),节省了传输带宽和发送端的编码资源。
附图说明
图1是本发明视点间深度传播的原理图;
图2是本发明的方法框图;
图3是本发明采用的双向可重叠块视差估计的原理图;
图4是本发明采用的可重叠块运动补偿中的权值矩阵;
图5是本发明针对测试图片得到的实验结果。其中(a)(c)是解码重建的关键视点的纹理图,(b)是解码重建的非关键视点的纹理图,(d)是自适应可重叠块运动补偿之后得到的非关键视点的深度图,(e)是通过优化建模得到的最终的深度图,(f)是解码重建的非关键视点的深度图。
具体实施方式
本发明为了模拟真正的3DV系统接收端的条件,选取的测试的MVD格式数据都是经过编码重建之后的数据。测试统一采用HEVC标准进行编码,量化参数QP值都设置为18,同样也可在其它实验条件下进行实验。将3DV系统接收端中纹理图和深度图都传输的两个视点定义为关键视点,需要通过深度传播生成深度图的视点定义为非关键视点。视点间深度传播过程如图1所示,已知视点0和视点N的深度图和所有视点的纹理图,可深度传播出其余视点的深度图。本发明中选取两个关键视点利用双方向的自适应可重叠块视差补偿对纹理图进行视差估计,然后利用关键视点的深度图对非关键视点的深度图进行视差补偿来获得代表像素点的深度值,最后利用亮度深度一致性对图像进行建模,通过求解有约束的优化方程来获得未进行视差补偿的像素的深度值,从而获得整个非关键视点的深度图。方法框图如图2所示。
下面结合具体实例(但不限于此例)以及附图对本发明进行进一步的说明。其中图1为本发明的方法框图。
步骤一:基于自适应可重叠块的视差补偿
(1)本发明采用双向可重叠块视差估计方法来进行视差估计,如图3所示。图3表示双向可重叠块视差估计,V(i)代表了非关键视点的纹理图,两侧的帧V(i-1)和V(i+1)是对应的两个关键视点的纹理图,V(i)上的灰色块表示非关键视点纹理图上的一个重叠块。首先,在非关键视点帧上取出L×L块,并扩展为M×M的可重叠块,然后在前一关键视点帧内找到匹配可重叠块对应的前向视差向量,在后一关键视点帧上找到匹配可重叠块对应的后向视差向量。可重叠块的使用提高了原有块视差估计的准确性,同时也减弱了边缘效应。
(2)本发明采用计算SAD值作为最佳匹配准则,从前向和后向视差向量中选取使SAD最小的视差向量,作为L×L块的最佳视差向量。
在确定了每一块的最佳视差向量之后,将这些视差信息用于视差补偿。在进行传统的运动补偿(MC)时,每一块的运动向量(MV)是固定的,因此当相邻块MV与当前块MV差别很大时,会产生边界效应。而可重叠块运动补偿(OBMC)中,每块的每个点的像素值是对当前块和相邻块的每个对应像素点加权得到的,这样就可以降低边界效应。但与此同时,因为所有相邻块都采用同一个权值矩阵,所以引进了模糊或过平滑现象,尤其当估计MV和真实MV很接近时,模糊和过平滑现象更明显。本发明利用分级运动补偿模型,也就是自适应可重叠块视差补偿来克服这些问题,采用公式(1)来计算归一化SAD。
SAD norm = Σ i , j | C ( i , j ) - M ( i , j ) | Σ i , j C ( i , j ) - - - ( 1 )
其中SADnorm是绝对误差和的归一化值,C代表当前块,M代表当前根据视差估计确定的当前块在关键视点帧中的匹配块,(i,j)代表当前块中像素点的坐标。
(3)根据视差向量分级结果对非关键视点深度图进行自适应可重叠块视差补偿(AOBDC)。
本发明根据SAD值的大小对视差向量分为三个等级,三个门限值分别为T1,T2,T3,而且T1<T2<T3。本发明设T1=0.01,T2=0.03,T3=0.05。
如果SAD<T1,直接视差补偿;
如果T1≤SAD≤T2,采用可重叠块权值矩阵进行视差补偿,补偿之后的像素点的深度值由公式(2)得出。
D ( i , j ) OBDC W c ( i , j ) &CenterDot; C ( i , j ) + &Sigma; n = 1 4 W n ( i , j ) &CenterDot; N n ( i , j ) W c ( i , j ) + &Sigma; n = 1 4 W n ( i , j ) - - - ( 2 )
其中,Wc为当前块对应的权值矩阵,Wn为当前块对应的上、下、左、右四个相邻块对应的权值矩阵,Nn为当前块的上下左右四个相邻块。本发明选取4×4的块为原始块,即L=4,采用的用于可重叠块视差补偿的梯形窗类型的权值矩阵如图4所示,从左至右分别表示中心块和与中心块上、下、左、右相邻的块的权值矩阵,它们的值作为公式(2)的参数值;
如果SAD>T2,不进行视差补偿。
经过AOBDC得到的非关键视点的深度图如图5(d)所示。由于关键视点和关键视点之间的高度相关性,非关键视点中的大部分像素点都能利用自适应可重叠块视差补偿传播出深度值。这部分像素的深度值具有很高的准确度,用以作为代表像素。代表像素深度值的准确性间接影响了最终深度传播产生的整体深度图的准确性。
步骤二:建立并求解优化方程对未视差补偿的像素点进行深度分配。
(1)本发明基于亮度深度一致性约束将未进行视差补偿的像素点深度分配的问题建模为有约束的优化问题。对于剩余的未进行视差补偿的像素,根据亮度深度一致性原理建立有约束的优化方程,优化问题被建模为当前像素与邻域窗口像素的加权深度值差异最小化问题,约束条件为非关键视点已经进行了视差补偿的代表像素的深度值,求解后求得未视差补偿的像素点的深度值,即获得整个深度图的深度值。亮度深度一致性约束是指如果相邻像素的亮度值相似,那么他们的深度值也保持一致。通过最小化像素r的深度与其相邻像素的加权深度之间的差异建立优化方程。约束条件是在为非关键视点深度图的一些代表像素赋予准确的初始深度值,本发明通过步骤一中的自适应可重叠块视差补偿为代表像素赋予深度值。以此为依据建立有约束的优化方程,公式如下:
min J D ( D ) = &Sigma; r ( D ( r ) - &Sigma; s &Element; N ( r ) &omega; rs D ( s ) ) 2 - - - ( 3 )
约束条件为:
D(ri)=D(ri)AOBDC(4)
公式(3)中D表示最终需要生成的非关键视点深度图,r表示非关键视点深度图中的像素点。N(r)是像素r的邻域窗口,s是r领域窗口中的像素。约束条件公式(4)中,ri表表非关键视点深度图中的代表像素,它们的深度值D(ri)被赋予经自适应可重叠块视差补偿的深度值D(ri)AOBDC。公式(4)中ωrs是一个归一化的加权函数,它的表达式如下:
&omega; rs = e - ( Y ( r ) - Y ( s ) ) 2 2 &sigma; r 2 - - - ( 5 )
公式(5)中,Y(r),Y(s)分别为非关键视点纹理图中像素r与邻域窗口像素s的亮度值,σr是r邻域窗口像素亮度值的方差。该加权函数的核心就是亮度深度一致性,当像素r与邻域亮度差异越小,则加权值越大,为了保持优化方程最小化,深度值则越接近。
(2)采用常用的求解优化问题的最小二乘算法求得本发明中优化方程的最优解。图4(e)是本发明得到的最终的非关键视点的深度图,同理也可获得其他更多非关键视点的深度图。通过与图4(f)解码重建得到的到真实深度图对比观察,可以看出本发明能够生成准确的深度图作为3DV系统解码端的MVD数据格式中的深度数据。

Claims (3)

1.一种3DV系统视点间深度图生成方法,利用深度传播,由一部分视点的深度图获得另一部分视点的深度图,其特征在于:在系统编码端不需要对每一个视点的纹理图和深度图均进行编码并发送,而是仅需要编码并传输纹理图和两个视点的深度图,在系统解码端根据视点间的相关性,获得其它视点的深度图,具体步骤如下:
(1)自适应可重叠块的视差补偿:取3DV系统MVD格式多视点数据中的2个视点作为关键视点,则其他视点为非关键视点,利用非关键视点的纹理图对2个关键视点的纹理图进行双向可重叠块视差估计,然后,根据视差向量对非关键视点的代表像素进行自适应可重叠块的视差补偿,自适应是指对估计出的视差向量按照估计准确程度分为3级,从1到3级估计准确程度越来越小,把前两级视差补偿的像素点作为代表像素并进行不同方式的视差补偿,第1级直接进行视差补偿,第2级根据权值矩阵进行可重叠块的视差补偿,第3级不进行视差补偿;
(2)建立并求解优化方程对未视差补偿的像素点进行深度分配:对于剩余的未进行视差补偿的像素,根据亮度深度一致性原理建立有约束的优化方程,优化问题被建模为当前像素与邻域窗口像素的加权深度值差异最小化问题,约束条件为非关键视点已经进行了视差补偿的代表像素的深度值,求解后求得未视差补偿的像素点的深度值,即获得整个深度图的深度值。
2.根据权利要求1所述的3DV系统视点间深度图生成方法,其特征在于:通过绝对误差和SAD值计算估计出的视差向量的估计准确程度。
3.根据权利要求1所述的3DV系统视点间深度图生成方法,其特征在于:进行双向视差估计时,根据绝对误差和SAD选择前向和后向视差向量。
CN201410158068.2A 2014-04-18 2014-04-18 采用深度传播技术的3dv系统视点间深度图生成方法 Expired - Fee Related CN103916658B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201410158068.2A CN103916658B (zh) 2014-04-18 2014-04-18 采用深度传播技术的3dv系统视点间深度图生成方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201410158068.2A CN103916658B (zh) 2014-04-18 2014-04-18 采用深度传播技术的3dv系统视点间深度图生成方法

Publications (2)

Publication Number Publication Date
CN103916658A true CN103916658A (zh) 2014-07-09
CN103916658B CN103916658B (zh) 2015-08-05

Family

ID=51042004

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201410158068.2A Expired - Fee Related CN103916658B (zh) 2014-04-18 2014-04-18 采用深度传播技术的3dv系统视点间深度图生成方法

Country Status (1)

Country Link
CN (1) CN103916658B (zh)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105530503A (zh) * 2014-09-30 2016-04-27 光宝科技股份有限公司 深度图建立方法与多镜头相机系统
CN106664423A (zh) * 2014-10-08 2017-05-10 Lg电子株式会社 视频编译中的深度图片编译方法和设备
CN106954076A (zh) * 2017-03-13 2017-07-14 济南大学 一种基于视点间关系的多视点视频帧插入方法
CN110493590A (zh) * 2018-05-15 2019-11-22 纬创资通股份有限公司 产生深度图的方法及其影像处理装置与系统
CN112907641A (zh) * 2021-02-03 2021-06-04 杭州电子科技大学 一种基于细节信息保持的多视点视图深度估计方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102254348A (zh) * 2011-07-25 2011-11-23 北京航空航天大学 一种基于块匹配视差估计的中间视图合成方法
CN102695069A (zh) * 2012-05-22 2012-09-26 山东大学 一种二维到三维视频转换中的深度传播方法
CN102722862A (zh) * 2012-05-22 2012-10-10 山东大学 采用优化技术的单张图片半自动二维转三维方法和装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102254348A (zh) * 2011-07-25 2011-11-23 北京航空航天大学 一种基于块匹配视差估计的中间视图合成方法
CN102695069A (zh) * 2012-05-22 2012-09-26 山东大学 一种二维到三维视频转换中的深度传播方法
CN102722862A (zh) * 2012-05-22 2012-10-10 山东大学 采用优化技术的单张图片半自动二维转三维方法和装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
赵映儿等: "基于片间相关性的光线空间插值与视点绘制研究", 《光子学报》 *

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105530503A (zh) * 2014-09-30 2016-04-27 光宝科技股份有限公司 深度图建立方法与多镜头相机系统
CN106664423A (zh) * 2014-10-08 2017-05-10 Lg电子株式会社 视频编译中的深度图片编译方法和设备
CN106664423B (zh) * 2014-10-08 2020-04-07 Lg电子株式会社 视频编译中的深度图片编译方法
US10659814B2 (en) 2014-10-08 2020-05-19 Lg Electronics Inc. Depth picture coding method and device in video coding
CN106954076A (zh) * 2017-03-13 2017-07-14 济南大学 一种基于视点间关系的多视点视频帧插入方法
CN106954076B (zh) * 2017-03-13 2018-01-12 济南大学 一种基于视点间关系的多视点视频帧插入方法
CN110493590A (zh) * 2018-05-15 2019-11-22 纬创资通股份有限公司 产生深度图的方法及其影像处理装置与系统
CN110493590B (zh) * 2018-05-15 2021-07-23 纬创资通股份有限公司 产生深度图的方法及其影像处理装置与系统
CN112907641A (zh) * 2021-02-03 2021-06-04 杭州电子科技大学 一种基于细节信息保持的多视点视图深度估计方法
CN112907641B (zh) * 2021-02-03 2024-04-09 杭州电子科技大学 一种基于细节信息保持的多视点视图深度估计方法

Also Published As

Publication number Publication date
CN103916658B (zh) 2015-08-05

Similar Documents

Publication Publication Date Title
CN103916658B (zh) 采用深度传播技术的3dv系统视点间深度图生成方法
CN101986716B (zh) 一种快速深度视频编码方法
CN101937578B (zh) 一种虚拟视点彩色图像绘制方法
CN102801997B (zh) 基于感兴趣深度的立体图像压缩方法
CN103873867B (zh) 自由视点视频深度图失真预测方法和编码方法
CN103402097A (zh) 一种自由视点视频深度图编码方法及其失真预测方法
CN102438167B (zh) 一种基于深度图像绘制的立体视频编码方法
CN103260032B (zh) 一种立体视频深度图序列的帧率提升方法
CN103581650A (zh) 双目3d视频转多目3d视频的方法
CN102413332B (zh) 基于时域增强的视点合成预测多视点视频编码方法
CN103873876A (zh) 基于显著性的多视点彩色加深度视频编码方法
CN102065296A (zh) 一种三维立体视频编码方法
CN102752616A (zh) 双目立体视频转换多目立体视频的方法
CN101557534B (zh) 一种从视频相近帧中生成视差图的方法
CN104506872A (zh) 一种平面视频转立体视频的方法及装置
CN106791768A (zh) 一种基于图割优化的深度图帧率提升方法
CN103763564A (zh) 基于边缘无损压缩的深度图编码方法
CN104159095A (zh) 一种多视点纹理视频和深度图编码的码率控制方法
EP2391135B1 (en) Method and device for processing depth image sequence
CN104853175A (zh) 一种新的合成虚拟视点客观质量评价方法
Liu et al. Toward a quality predictor for stereoscopic images via analysis of human binocular visual perception
CN103702120B (zh) 一种合成视点主观失真估计方法
CN103997635B (zh) 自由视点视频的合成视点失真预测方法及编码方法
CN103248899A (zh) 多视点视频skip模式的运动矢量预测方法
CN102355582B (zh) 一种三维立体视频编码的率失真模型优化方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20150805

Termination date: 20180418