CN103997635A - 自由视点视频的合成视点失真预测方法及编码方法 - Google Patents

自由视点视频的合成视点失真预测方法及编码方法 Download PDF

Info

Publication number
CN103997635A
CN103997635A CN201410146857.4A CN201410146857A CN103997635A CN 103997635 A CN103997635 A CN 103997635A CN 201410146857 A CN201410146857 A CN 201410146857A CN 103997635 A CN103997635 A CN 103997635A
Authority
CN
China
Prior art keywords
viewpoint
texture
synthetic
depth
segment
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201410146857.4A
Other languages
English (en)
Other versions
CN103997635B (zh
Inventor
金欣
李晨阳
张永兵
戴琼海
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenzhen Graduate School Tsinghua University
Original Assignee
Shenzhen Graduate School Tsinghua University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shenzhen Graduate School Tsinghua University filed Critical Shenzhen Graduate School Tsinghua University
Priority to CN201410146857.4A priority Critical patent/CN103997635B/zh
Publication of CN103997635A publication Critical patent/CN103997635A/zh
Application granted granted Critical
Publication of CN103997635B publication Critical patent/CN103997635B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

本发明公开了自由视点视频的合成视点失真预测方法及编码方法:将原始纹理图块To根据原始深度图块do映射到合成视点的对应位置;将纹理图块Tc根据深度图块dc映射到合成视点的对应位置,其中,纹理图块Tc中的像素点n的纹理Tc,n根据像素点n的深度dc,n被映射到合成视点的位置xc,n,纹理图块Tc中的像素点n+1的纹理Tc,n+1根据像素点n+1的深度dc,n+1被映射到合成视点的位置xc,n+1;分别计算像素点n的第一纹理值预测TVS,c,n和第二纹理值预测TVS,o,n:根据第一纹理值预测TVS,c,n与第二纹理值预测TVS,o,n的差值判断编码深度图块dc的像素点n造成的合成视点失真。本发明可以大幅降低自由视点深度视频编码的计算复杂度。

Description

自由视点视频的合成视点失真预测方法及编码方法
【技术领域】
本发明涉及计算机视觉技术和视频编码领域,特别涉及自由视点视频的合成视点失真预测方法及编码方法。
【背景技术】
自由视点视频可以为用户提供任意视点的场景图像,从而极大地增强用户的视觉体验效果,因而具有广阔的发展前景。3D-HEVC作为MPEG(Moving Pictures Experts Group)和VCEG(Video Coding Experts Group)的联合视频项目HEVC(High Efficiency Video Coding)的拓展项目,已被发展用于3D视频编码。
在3D-HEVC中,3D场景信息用“多视点视频+深度图”进行表示,其中多视点视频即从多个视点采集的纹理视频,而对应视点的深度图视频则表征了场景中物体到相机间的距离。“多视点视频+深度图”数据通过编码压缩、传输、解码,在终端被用于合成任意视点的视频。由于深度图数据表征场景几何信息,在视点合成算法中,被用作将被编码视点的纹理像素映射到合成视点中,因此,解码后的深度图质量对合成视点的图像质量至关重要。在深度图编码过程中,为获得优化的深度图编码性能,用率失真优化的方法来选择编码模式和参数。率失真优化问题是一个拉格朗日优化问题,即选择能够使D+λ·R最小的编码模式或编码参数;D表示不同编码模式或参数下,当前深度图块经编码和解码后,造成的合成视图失真,R表示不同编码模式或参数下编码当前深度图块产生的比特数;λ是拉格朗日乘子。
广泛用于视频编码的传统失真计算方法,例如SSD(Sum of SquaredDifferences)和SAD(Sum of Absolute Differences),最先被用于深度序列编码的失真预测;该方法原理简单,算法复杂性低,易于硬件实现,但未考虑深度图失真对合成视图的影响,因而不能从整体上保证合成视图的质量。因此,SVDC(Synthesized View Distortion Change)等方法被提出来,通过反复执行视点合成算法,计算编码深度图造成的合成视图的失真;该方法可以有效保证合成视图的质量,但其计算量极大,尤其不利于实时系统的应用。为了降低SVDC等方法的计算复杂度,VSD(ViewSynthesis Distortion)等方法被提出来,被用于通过估算编码深度图造成的合成视图的失真,来预测深度图失真;该类方法恰当地平衡了编码复杂度和压缩性能,但现有估计模型的准确性都十分有限,并不能提供很好的合成视图质量。
【发明内容】
为了解决现有技术存在的问题,本发明提供了一种自由视点视频的合成视点失真预测方法,在保证合成视点失真预测准确度的情况下降低计算合成视点失真计算复杂度。
自由视点视频的合成视点失真预测方法,包括如下步骤:
对于多视点立体视频序列中设定视点的设定帧的用作插值合成的原始深度图块do,采用某一模式试编码后的深度图块dc,与所述原始深度图块do对应位置的原始纹理图块To,所述原始纹理图块To经过编码后得到纹理图块Tc
将所述原始纹理图块To根据所述原始深度图块do映射到合成视点的对应位置,其中,原始纹理图块To中的像素点n的纹理To,n根据像素点n的原始深度do,n被映射到合成视点的位置xo,n,原始纹理图块To中的像素点n+1的纹理To,n+1根据像素点n+1的原始深度do,n+1被映射到所述合成视点的位置xo,n+1
将纹理图块Tc根据所述深度图块dc映射到合成视点的对应位置,其中,纹理图块Tc中的像素点n的纹理Tc,n根据像素点n的深度dc,n被映射到合成视点的位置xc,n,纹理图块Tc中的像素点n+1的纹理Tc,n+1根据像素点n+1的深度dc,n+1被映射到所述合成视点的位置xc,n+1
分别计算像素点n的第一纹理值预测TVS,c,n和第二纹理值预测TVS,o,n
T VS , c , n = ( 1 2 T c , n + 1 + 1 2 T c , n ) ;
T VS , o , n = ( 1 2 ( x c , n + 1 + x c , n ) - x o , n x o , n + 1 - x o , n T o , n + 1 + x o , n + 1 - 1 2 ( x c , n + x c , n ) x o , n + 1 - x o , n T o , n ) ;
根据第一纹理值预测TVS,c,n与第二纹理值预测TVS,o,n的差值判断编码深度图块dc的像素点n造成的合成视点失真。
在一个实施例中,还包括如下步骤:
将所述设定视点的左视点的纹理图与设定视点的右视点的纹理图合成所述设定设点的纹理图;
记录左视点的纹理图和右视点的纹理图分别在设定视点的纹理图中所占的权重矩阵;
基于第一纹理值预测TVS,c,n与第二纹理值预测TVS,o,n的差值和合并权重Wn的乘积判断编码原始深度图块do的像素点n造成的合成视点失真,其中,合并权重Wn是从权重矩阵中获取的原始纹理图块To的像素点n纹理的合并权重。
在一个实施例中,还包括如下步骤:
计算编码深度图块dc的像素点n的造成的合成视点失真DVS,n=(TVS,c,n-TVS,o,n)2Wn 2
在一个实施例中,还包括如下步骤:
若合成视点的位置xc,n和合成视点的位置xc,n+1之间含有多个整数位置,则调整后的合成视点失真DVS,n
其中分别为xc,n+1和xc,n的上取整。
在一个实施例中,还包括如下步骤:
将深度图块dc的所有像素点的合成像素点失真求和,得到深度图块dc造成的合成视点失真。
在一个实施例中,其采用所述的任一自由视点视频的合成视点失真预测方法后进行编码。
在一般合成算法中,大部分纹理都是通过插值方法合成,而本发明提出了一种基于插值合成的自由视点深度视频失真预测方法;利用本发明能够更准确地预测自由视点深度视频中基于插值合成的深度图块有损编码造成的合成视图失真,用于编码模式和参数的选择,避免编码过程中反复多次执行合成算法,从而可以大幅降低自由视点深度视频编码的计算复杂度。
【附图说明】
附图是本发明一种实施例的自由视点视频的合成视点失真预测方法的流程图。
【具体实施方式】
以下对发明的较佳实施例作进一步详细说明。
一种实施例的自由视点视频的合成视点失真预测方法,包括如下步骤:
A1:多视点立体视频序列为通过摄像机、照相机采集所得,或者通过计算机工具所得的视频序列,数据格式不限,该序列可用于立体观看。每一个视点视频包括纹理图像帧和与纹理图像帧相对应的深度图帧。
对于多视点立体视频序列设定视点的设定帧的某个深度图中的某个用作插值合成的某一原始深度图块do,与所述原始深度图块do对应位置的原始纹理图块To,所述原始纹理图块To经过编码后得到纹理图块Tc,采用某一模式试编码后的深度图块dc
其中,用作插值合成的某一原始深度图块do,具体指,自由视点纹理及深度图视频经编码、传输、解码后,采用基于插值的合成算法,此时深度图视频中的用作插值合成的图块。
A2:输入该原始深度图块do对应的合并权重矩阵W,其中,合并权重矩阵标记了,将所述设定视点的左视点的纹理图与设定视点的右视点的纹理图合成所述设定设点的纹理图时的合并权重信息,其包含了对应原始纹理图块To的任一个像素点的合并权重。
合并权重矩阵W可通过以下方法获得:预先执行设定的合成算法,分别利用设定视点的左视点的纹理图和右视点的纹理图获得第一合成视点纹理视图Vr和第二合成视点纹理视图Vl,再经过融合合并第一合成视点纹理视图Vr及第二合成视点纹理视图Vl,从而获得合成的中间视点纹理视图,即所述设定设点的纹理视图;在此过程中记录合并权重矩阵W。具体合成算法可采用基于深度图像绘制算法(Depth Based Image Rendering)等,本发明涵盖的范围不限于所例举的方法。该步骤亦可与A1中识别基于插值合成的图块的过程合并。
A3:利用以下算法计算像素点n的第一纹理值预测TVS,c,n和第二纹理值预测TVS,o,n
T VS , c , n = ( 1 2 T c , n + 1 + 1 2 T c , n ) ;
T VS , o , n = ( 1 2 ( x c , n + 1 + x c , n ) - x o , n x o , n + 1 - x o , n T o , n + 1 + x o , n + 1 - 1 2 ( x c , n + x c , n ) x o , n + 1 - x o , n T o , n ) ;
其中,将所述原始纹理图块To根据所述原始深度图块do映射到合成视点的对应位置,原始纹理图块To中的像素点n的纹理To,n根据像素点n的原始深度do,n被映射到合成视点的位置xo,n,原始纹理图块To中的像素点n+1的纹理To,n+1根据像素点n+1的原始深度do,n+1被映射到所述合成视点的位置xo,n+1
将纹理图块Tc根据所述深度图块dc映射到合成视点的对应位置,其中,纹理图块Tc中的像素点n的纹理Tc,n根据像素点n的深度dc,n被映射到合成视点的位置xc,n,纹理图块Tc中的像素点n+1的纹理Tc,n+1根据像素点n+1的深度dc,n+1被映射到所述合成视点的位置xc,n+1
TVS,c,n为利用深度dc,n和相应已编码纹理Tc,n做投影、插值合成得到的纹理值预测,TVS,o,n为利用原始深度do,n和相应原始纹理To,n值做投影、插值合成得到的纹理值。
通过作差计算,预测编码该原始深度图块do的像素点n造成的合成视点失真DVS,n如下:
DVS,n=(TVSc,,n-TVS,o,n)2Wn 2
其中,Wn为原始纹理图块To的像素点n纹理的合并权重。
若合成视点的位置xc,n和位置xc,n+1之间含有多个整数位置,则调整后的合成视点失真DVS,n
其中分别为xc,n+1和xc,n的上取整。
为了保持深度图本身的保真度,采用如下一种加权的失真计算方法:
Dn=wVSDVS,n+wdepthDdepth,n
其中,Ddepth,n为通过传统的失真模型SAD或SSD计算获得的深度图块dc像素点n的失真,wVS和wdepth为权重。
A4:根据以上模型,将深度图块dc各像素点的失真预测值求和,得到编码该图块造成的合成视点总失真预测值。该合成视点总失真预测值作为基于插值合成的深度图块编码的失真预测,基于此失真预测,采用率失真优化选择最佳编码模式和编码参数,从而利用这些来编码原始的深度图视频的指定帧。。
以上内容是结合具体的优选实施方式对本发明所作的进一步详细说明,不能认定本发明的具体实施只局限于这些说明。对于本发明所属技术领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干简单推演或替换,都应当视为属于本发明由所提交的权利要求书确定的专利保护范围。

Claims (6)

1.自由视点视频的合成视点失真预测方法,其特征是,包括如下步骤:
对于多视点立体视频序列中设定视点的设定帧的用作插值合成的原始深度图块do,采用某一模式试编码后的深度图块dc,与所述原始深度图块do对应位置的原始纹理图块To,所述原始纹理图块To经过编码后得到纹理图块Tc
将所述原始纹理图块To根据所述原始深度图块do映射到合成视点的对应位置,其中,原始纹理图块To中的像素点n的纹理To,n根据像素点n的原始深度do,n被映射到合成视点的位置xo,n,原始纹理图块To中的像素点n+1的纹理To,n+1根据像素点n+1的原始深度do,n+1被映射到所述合成视点的位置xo,n+1
将纹理图块Tc根据所述深度图块dc映射到合成视点的对应位置,其中,纹理图块Tc中的像素点n的纹理Tc,n根据像素点n的深度dc,n被映射到合成视点的位置xc,n,纹理图块Tc中的像素点n+1的纹理Tc,n+1根据像素点n+1的深度dc,n+1被映射到所述合成视点的位置xc,n+1
分别计算像素点n的第一纹理值预测TVS,c,n和第二纹理值预测TVS,o,n
T VS , c , n = ( 1 2 T c , n + 1 + 1 2 T c , n ) ;
T VS , o , n = ( 1 2 ( x c , n + 1 + x c , n ) - x o , n x o , n + 1 - x o , n T o , n + 1 + x o , n + 1 - 1 2 ( x c , n + x c , n ) x o , n + 1 - x o , n T o , n ) ;
根据第一纹理值预测TVS,c,n与第二纹理值预测TVS,o,n的差值判断编码深度图块dc的像素点n造成的合成视点失真。
2.如权利要求1所述的自由视点视频的合成视点失真预测方法,其特征是,还包括如下步骤:
将所述设定视点的左视点的纹理图与设定视点的右视点的纹理图合成所述设定设点的纹理图;
记录左视点的纹理图和右视点的纹理图分别在设定视点的纹理图中所占的权重矩阵;
基于第一纹理值预测TVS,c,n与第二纹理值预测TVS,o,n的差值和合并权重Wn的乘积判断编码原始深度图块do的像素点n造成的合成视点失真,其中,合并权重Wn是从权重矩阵中获取的原始纹理图块To的像素点n纹理的合并权重。
3.如权利要求2所述的自由视点视频的合成视点失真预测方法,其特征是,还包括如下步骤:
计算编码深度图块dc的像素点n的造成的合成视点失真DVS,n=(TVS,c,n-TVS,o,n)2Wn 2
4.如权利要求3所述的自由视点视频的合成视点失真预测方法,其特征是,还包括如下步骤:
若合成视点的位置xc,n和合成视点的位置xc,n+1之间含有多个整数位置,则调整后的合成视点失真D′VS,n
其中分别为xc,n+1和xc,n的上取整。
5.如权利要求3或4所述的自由视点视频的合成视点失真预测方法,其特征是,还包括如下步骤:
将深度图块dc的所有像素点的合成像素点失真求和,得到深度图块dc造成的合成视点失真。
6.一种自由视点视频的合成视点编码方法,其特征是,其采用如权利要求1-5所述的任一自由视点视频的合成视点失真预测方法后进行编码。
CN201410146857.4A 2014-04-11 2014-04-11 自由视点视频的合成视点失真预测方法及编码方法 Active CN103997635B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201410146857.4A CN103997635B (zh) 2014-04-11 2014-04-11 自由视点视频的合成视点失真预测方法及编码方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201410146857.4A CN103997635B (zh) 2014-04-11 2014-04-11 自由视点视频的合成视点失真预测方法及编码方法

Publications (2)

Publication Number Publication Date
CN103997635A true CN103997635A (zh) 2014-08-20
CN103997635B CN103997635B (zh) 2015-10-28

Family

ID=51311621

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201410146857.4A Active CN103997635B (zh) 2014-04-11 2014-04-11 自由视点视频的合成视点失真预测方法及编码方法

Country Status (1)

Country Link
CN (1) CN103997635B (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106331728A (zh) * 2016-09-06 2017-01-11 西安电子科技大学 用于多视点深度视频编码的虚拟视点合成失真预测方法
CN112734821A (zh) * 2019-10-28 2021-04-30 阿里巴巴集团控股有限公司 深度图生成方法、计算节点及计算节点集群、存储介质

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101835056A (zh) * 2010-04-29 2010-09-15 西安电子科技大学 基于模型的纹理视频与深度图的最优码率分配方法
EP2230855A2 (en) * 2009-03-17 2010-09-22 Mitsubishi Electric Corporation Synthesizing virtual images from texture and depth images
CN102387368A (zh) * 2011-10-11 2012-03-21 浙江工业大学 一种多视点视频编码视点间预测快速选择方法
CN103402097A (zh) * 2013-08-15 2013-11-20 清华大学深圳研究生院 一种自由视点视频深度图编码方法及其失真预测方法
US20140002594A1 (en) * 2012-06-29 2014-01-02 Hong Kong Applied Science and Technology Research Institute Company Limited Hybrid skip mode for depth map coding and decoding

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2230855A2 (en) * 2009-03-17 2010-09-22 Mitsubishi Electric Corporation Synthesizing virtual images from texture and depth images
CN101835056A (zh) * 2010-04-29 2010-09-15 西安电子科技大学 基于模型的纹理视频与深度图的最优码率分配方法
CN102387368A (zh) * 2011-10-11 2012-03-21 浙江工业大学 一种多视点视频编码视点间预测快速选择方法
US20140002594A1 (en) * 2012-06-29 2014-01-02 Hong Kong Applied Science and Technology Research Institute Company Limited Hybrid skip mode for depth map coding and decoding
CN103402097A (zh) * 2013-08-15 2013-11-20 清华大学深圳研究生院 一种自由视点视频深度图编码方法及其失真预测方法

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106331728A (zh) * 2016-09-06 2017-01-11 西安电子科技大学 用于多视点深度视频编码的虚拟视点合成失真预测方法
CN106331728B (zh) * 2016-09-06 2019-05-07 西安电子科技大学 用于多视点深度视频编码的虚拟视点合成失真预测方法
CN112734821A (zh) * 2019-10-28 2021-04-30 阿里巴巴集团控股有限公司 深度图生成方法、计算节点及计算节点集群、存储介质
CN112734821B (zh) * 2019-10-28 2023-12-22 阿里巴巴集团控股有限公司 深度图生成方法、计算节点及计算节点集群、存储介质

Also Published As

Publication number Publication date
CN103997635B (zh) 2015-10-28

Similar Documents

Publication Publication Date Title
US11509933B2 (en) Method, an apparatus and a computer program product for volumetric video
US10349058B2 (en) Method for predicting depth map coding distortion of two-dimensional free viewpoint video
CN103402097B (zh) 一种自由视点视频深度图编码方法及其失真预测方法
CN101986716B (zh) 一种快速深度视频编码方法
CN108886598A (zh) 全景立体视频系统的压缩方法和装置
CN106105191A (zh) 用于处理多视图视频信号的方法和装置
CN102970529B (zh) 一种基于对象的多视点视频分形编码压缩与解压缩方法
JP5833757B2 (ja) 画像符号化方法、画像復号方法、画像符号化装置、画像復号装置、画像符号化プログラム、画像復号プログラム及び記録媒体
CN103873867B (zh) 自由视点视频深度图失真预测方法和编码方法
CN107027025B (zh) 一种基于宏像素块自适应预测的光场图像压缩方法
CN102291579B (zh) 一种快速的多目立体视频分形压缩与解压缩方法
CN106791768B (zh) 一种基于图割优化的深度图帧率提升方法
CN103428499A (zh) 编码单元的划分方法及使用该方法的多视点视频编码方法
CN102685532A (zh) 自由视点四维空间视频编码系统的编码方法
US20140348242A1 (en) Image coding apparatus, image decoding apparatus, and method and program therefor
KR101598855B1 (ko) 입체영상 부호화 장치 및 방법
CN104768019A (zh) 一种面向多纹理多深度视频的相邻视差矢量获取方法
CN104202612A (zh) 基于四叉树约束的编码单元的划分方法及视频编码方法
CN104159095A (zh) 一种多视点纹理视频和深度图编码的码率控制方法
CN102316323B (zh) 一种快速的双目立体视频分形压缩与解压缩方法
KR102505130B1 (ko) 명시야 컨텐츠를 표현하는 신호를 인코딩하기 위한 방법 및 디바이스
CN103997635B (zh) 自由视点视频的合成视点失真预测方法及编码方法
CN103702120A (zh) 一种合成视点主观失真估计方法
JP2019041341A (ja) 多視点画像符号化装置、多視点画像復号装置及びそれらのプログラム
CN105122808A (zh) 用于三维及多视图视频编码的视差向量推导的方法及装置

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant