CN103402097A - 一种自由视点视频深度图编码方法及其失真预测方法 - Google Patents

一种自由视点视频深度图编码方法及其失真预测方法 Download PDF

Info

Publication number
CN103402097A
CN103402097A CN2013103559431A CN201310355943A CN103402097A CN 103402097 A CN103402097 A CN 103402097A CN 2013103559431 A CN2013103559431 A CN 2013103559431A CN 201310355943 A CN201310355943 A CN 201310355943A CN 103402097 A CN103402097 A CN 103402097A
Authority
CN
China
Prior art keywords
distortion
viewpoint
depth map
depth
point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN2013103559431A
Other languages
English (en)
Other versions
CN103402097B (zh
Inventor
金欣
李晨阳
戴琼海
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenzhen Graduate School Tsinghua University
Original Assignee
Shenzhen Graduate School Tsinghua University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shenzhen Graduate School Tsinghua University filed Critical Shenzhen Graduate School Tsinghua University
Priority to CN201310355943.1A priority Critical patent/CN103402097B/zh
Publication of CN103402097A publication Critical patent/CN103402097A/zh
Application granted granted Critical
Publication of CN103402097B publication Critical patent/CN103402097B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

本发明提供了一种自由视点视频深度图编码方法及其失真预测方法,所述失真预测方法包括如下步骤:A1.获取两个以上视点立体视频纹理图与深度图;A2.采用视点合成算法合成所述当前待编码视点及其相邻待编码视点的中间视点;A3.根据A2步骤的合成结果,记录当前待编码视点深度图中各像素点的合成特征,并生成相应失真预测权重;A4.根据所述各像素点的合成特征和相应失真预测权重,利用失真预测模型对当前深度图的编码块中各像素点的失真求和,得到总失真。本发明能够明显提高自由视点视频深度图编码过程中深度图失真预测的准确性,同时大幅降低自由视点视频深度图编码中失真预测算法的计算复杂度。

Description

一种自由视点视频深度图编码方法及其失真预测方法
技术领域
本发明涉及视频信号的处理,特别涉及一种自由视点视频深度序列编码的失真预测方法。
背景技术
自由视点视频可以极大地增强用户的视觉体验效果,使用户获得更加逼真的3D场景体验,因而在影视制作、文物保护、军事模拟等领域有着广泛的应用前景。作为MPEG(Moving Pictures Experts Group)和VCEG(Video CodingExperts Group)的联合视频项目HEVC(High Efficiency Video Coding)的推广,3D-HEVC将被发展用于3D视频编码。
在3D-HEVC中,3D视频数据采用“多视点视频+深度图”的格式进行编码,其中深度图表征的是场景中物体到相机间的距离。利用解码后的纹理数据和深度数据,任意中间视点的视频可以被合成并显示在立体显示器上。在视点合成算法中,深度数据被用作将被编码视点的纹理像素变换到合成视点中,在此基础上对变换图分别进行插值、空洞填补、覆盖等操作,然后再将分别由左、右待编码视点获得的变换图融合。因此,解码后的深度图质量对合成视点的图像质量至关重要。为获得更好的深度图编码性能,在深度图编码过程中,用率失真优化的方法来选择编码模式和参数。率失真优化问题是一个拉格朗日优化问题,即选择能够使D+λ·R最小的编码模式或参数;D表示不同编码模式或参数下,编码当前块后,采用深度图失真计算方法得到的失真;R表示不同编码模式或参数下编码当前块产生的比特数;λ是拉格朗日乘子。
目前,深度图失真计算方法主要可分为三类:一、广泛用于视频编码的传统失真计算方法,例如SSD(Sum of Squared Differences)和SAD(Sum of AbsoluteDifferences)。二、通过视点合成算法,计算编码深度图造成的合成视图的失真,来计算深度图失真的方法,例如SVDC(Synthesized View Distortion Change)。三、通过估算编码深度图造成的合成视图的失真,来预测深度图失真的方法,例如VSD(View Synthesis Distortion)。传统的失真计算方法原理简单,易于硬件实现,但未考虑深度图失真对合成视图的影响,因而不能从整体上保证合成视图的质量。基于视点合成算法的深度图失真计算方法,可以有效保证合成视图的质量,但其计算量极大,尤其不利于实时系统的应用。基于合成视图失真估计的深度图失真预测方法,恰当地平衡了编码复杂度和压缩性能,但现有估计模型的准确性都十分有限。
发明内容
本发明为克服现有技术的缺陷,提供一种可避免深度图编码过程中反复多次执行合成算法并可提高深度图失真预测的准确性的自由视点视频深度图编码的失真预测方法,其包括如下步骤:
A1获取两个以上视点立体视频纹理图与深度图;
A2利用当前待编码视点及其相邻待编码视点的纹理图和深度图,采用视点合成算法合成所述当前待编码视点及其相邻待编码视点的中间视点;
A3根据A2步骤的合成结果,记录当前待编码视点深度图中各像素点的合成特征,并生成相应失真预测权重;
A4根据所述各像素点的合成特征和相应失真预测权重,利用像素失真预测模型对当前深度图的编码块中各像素点的失真求和,得到总失真。
根据实施例,本发明还可采用以下优选的技术方案:
所述相邻待编码视点取编码次序上的上一视点,若无上一视点,则取编码次序上的下一视点。
所述像素点包括非显露点、前插值点、加权插值点、前双空洞点和混合类型点,其中:
非显露点的合成特征是,对应的纹理图像素点左右间隔在视点合成结果中均不被显露,其失真预测权重为w1,w1=0;
前插值点的合成特征是,对应的纹理图像素点左右间隔在视点合成时,变换后均为插值区,在左右变换图融合时作为前景被显示,其失真预测权重为w2,w2=1;
加权插值点的合成特征是,对应的纹理图像素点左右间隔在视点合成时,变换后均为插值区,在左右变换图融合时被加权求和,其失真预测权重为w3,0≤w3≤1;
前双空洞点的合成特征是,对应的纹理图像素点左右间隔在视点合成时,变换后都为空洞填补区,在左右变换图融合时为前景被显示,其失真预测权重为w4,w4=1;
混合类型点的合成特征是,对应的纹理图像素点左右间隔在视点合成时,合成特征记为所述非显露点、前插值点、加权插值点和前双空洞点中任意两者的特征的混合,两个失真预测权重都被记录。
所述编码像素失真预测模型包括:
非显露点编码像素失真预测模型为
Dsyn=w1
             ;
前插值点和加权插值点编码像素失真预测模型为:
Dsyn=|w2·0.25·(SD-S′D)(S′T,n-1-S′T,n+1)2|和
Dsyn=|w3·0.25·(SD-S′D)(S′T,n-1-S′T,n+1)2|
                                       ;
前双空洞点编码像素失真预测模型为:
Dsyn=|w4·(SD-S′D)(S′T,n-S′T,n+1)2|或者
Dsyn=|w4·(SD-S′D)(S′T,n-S′T,n-1)2|;
混合类型点,根据混合的两种类型,分别按照所述混合的两种类型的模型计算失真,然后再取均值,作为该像素点的失真;
其中,Dsyn为深度图失真预测,w1、w2、w3和w4为失真预测权重,SD为原始深度图像素点值,S′D为编码后重建深度图像素点值,S′T,n表示当前深度图像素点在重建视点纹理图中对应的像素点的值,S′T,n+1和S′T,n-1分别表示当前深度图像素点在重建视点纹理图中对应像素点的相邻左、右像素点的值。
采用如下加权的失真计算方法:
D=wsynDsyn+wdepthDdepth
其中,Ddepth为通过传统的失真模型SAD或SSD计算获得的深度图失真,wsyn和wdepth为相应的权重。
所述视点合成算法为任一基于深度图像绘制的视点合成算法。
所述视点合成算法是3D-HEVC标准采用的DIBR算法(Depth-image BasedRendering,基于深度图像绘制)。
本发明还提供一种自由视点视频深度图编码方法,其采用如前任一所述的自由视点视频深度图编码的失真预测方法获得当前深度图的编码块的总失真,并基于该总失真,选择最佳编码模式和编码参数进行编码。
本发明与现有技术对比的有益效果是:由于有效定义并使用反映深度图有损压缩对视点合成影响的合成特征数据,避免了深度图编码过程中反复多次执行合成算法,本发明能够明显提高自由视点视频深度图编码过程中深度图失真预测的准确性,同时大幅降低自由视点视频深度图编码的计算复杂度。
附图说明
图1是本发明实施例的自由视点视频深度图编码的失真预测方法的流程图。
具体实施方式
本发明的思路主要是利用一次视点预合成(现在通用的做法是在编码时,不断反复进行视点合成算法,而本发明的做法是只用一次合成算法,记录一些信息,然后只要反复进行简化的算法就行了),获取编码深度图像素点合成特征及失真预测权重,进而映射生成深度图编码失真预测模型。由于有效定义并使用反映深度图有损压缩对视点合成影响的合成特征数据,避免了深度图编码过程中反复多次执行合成算法,本发明能够明显提高自由视点视频深度图编码过程中深度图失真预测的准确性,同时大幅降低自由视点视频深度图编码的计算复杂度。
本发明的失真预测方法,在每帧深度图编码前,执行一次视点合成算法,合成当前视点与相邻待编码视点的中间视点,在这个过程中记录当前视点各像素点间隔在合成算法中的使用情况,进而确定待编码深度图中各像素点的失真计算方法及权重。然后执行当前深度图的编码,在编码每一个块时,对于不同像素点,采用不同失真计算模型计算失真,从而获得基于合成视图失真估计的深度图的编码块的失真。该失真计算方法,更大程度地反映了深度图有损压缩后造成的合成视图失真,又避免了在选择不同编码模式和编码参数时反复执行合成视图算法,因而可以在保证压缩性能的同时,极大地降低计算复杂度。
本发明主要包括如图1所示的如下步骤:
首先,获取两个以上视点立体视频纹理图与深度图。
然后,执行视点合成算法。
同时,记录深度图像素点合成特征及失真预测权重。
接着,计算编码块失真。
最后,判断当前帧编码是否完成?如完成,则结束;如未完成,则回到前面计算编码块失真步骤,直到完成为止。
下面结合优选具体实施方式对本发明进行详细的阐述。
一种自由视点视频深度图编码的失真预测方法,包括如下步骤:
A1:输入的多视点立体视频序列为通过摄像机、照相机采集所得,或者通过计算机工具所得的视频序列,数据格式不限,该序列可用于立体观看。
A2:对待编码视点的深度图利用当前及相邻视点的纹理和深度图,执行视点合成算法,合成当前待编码视点与相邻视点的中间视点。相邻待编码视点取编码次序上的上一视点,若无上一视点,则取编码次序上的下一视点。一般上一视点顺序上先编码,所以才可以先获得,但也有时候对于最左边视点,无上一视点,该情况下可采用下一视点。
A3:根据待编码视点纹理像素点间的间隔在A2合成算法的变换、插值、空洞填补、融合模块中的使用情况,确定并记录当前待编码视点深度图中各像素点的合成特征和相应失真预测权重。其中,合成特征和相应失真预测权重确定方式如下:
非显露点的合成特征是,该深度图像素点对应的纹理图像素点左右间隔在视点合成结果中都不被显露。具体情况包括:间隔在变换后被遮挡;间隔在变换后为插值区,在左右变换图融合时被覆盖;间隔在变换后为空洞填补区,在左右变换图融合时被另一变换图中的非空洞区覆盖;间隔在左右变换图中都为空洞填补区,在两变换图融合时为后景被覆盖。非显露点的失真预测权重为w(w=0)。关于纹理图像素点左右间隔的说明:输入的多个纹理图和深度图中,每一个深度图对应一个纹理图,因此每一个深度图像素点也各自对应一个纹理图像素点。对应纹理图像素点与其左右纹理图像素点之间的间隔,就叫做纹理图像素点左右间隔。
前插值点的合成特征是,该深度图像素点对应的纹理图像素点左右间隔在视点合成时,变换后都为插值区,在左右变换图融合时作为前景被显示。失真预测权重为w(w=1)。
加权插值点的合成特征是,该深度图像素点对应的纹理图像素点左右间隔在视点合成时,变换后都为插值区,在左右变换图融合时被加权求和。失真预测权重为加权权值w(0≤w≤1)。
前双空洞点的合成特征是,该深度图像素点对应的纹理图像素点左右间隔在视点合成时,变换后都为空洞填补区,在左右变换图融合时为前景被显示。失真预测权重为w(w=1)。
混合类型点的合成特征是,该深度图像素点对应的纹理图像素点左右间隔在视点合成时,分别做上述不同的处理,合成特征记为上述两种特征的混合,两个失真预测权重都被记录。所谓混合,可理解为:先默认为一种模型,计算失真;再默认为另一种模型,计算失真,然后取两个失真的均值。而两个失真预测权重都被记录,是指每一种模型,需记录一种权重;若是混合模型,则有两个权重,两种模型计算完后取均值。
若该深度图像素点对应的纹理图像素点只有左间隔或右间隔(如像素点在边缘的情况),则只根据此间隔使用情况确定该深度图像素点合成特征及失真预测权重。
A4:在深度图编码过程中,对于当前编码块的一个像素点,利用A3获取的像素点合成特征和失真预测权重,映射为编码像素失真预测模型,计算该像素点失真,多模型求和输出当前深度图的编码块的总失真。各失真预测模型如下:
非显露点,失真计算式为,
Dsyn=w    (1)
其中,Dsyn为深度图失真预测,w为失真预测权重。
前插值点、加权插值点,失真计算式为,
Dsyn=|w·0.25·(SD-S′D)(S′T,n-l-S′T,n+12|    (2)
其中,SD为原始深度图像素点值,S′D为编码后重建深度图像素点值,S′T,n表示当前深度图像素点在重建视点纹理图中对应的像素点的值,S′T,n-1和S′T,n+1分别为当前深度图像素点在重建视点纹理图中对应像素点的相邻左、右像素点的值,w为失真预测权重。其中,下标D表示的是Depth,即深度图;下标T表示的是Texture,即纹理图,n表示的是在当前纹理图中该像素点是第n个。
前双空洞点,若当前编码视点在合成视点的左边,失真计算式为,
Dsyn=|w·(SD-S′D)(S′T,n-S′T,n+1)2|    (3)
其中,其中,S′T,n表示当前深度图像素点在重建视点纹理图中对应的像素点的值,其余符号含义同(2)式。若当前编码视点在合成视点的右边,则失真计算式为,
Dsyn=|w·(SD-S′D)GS′T,n-S′T,n-12|,    (4)
其中,各符号含义同(2)、(4)式。
混合类型点:根据混合的两种类型,分别按照上述模型计算失真,然后再取均值,作为该像素点的失真。
为了保持深度图本身的保真度,采用如下加权的失真计算方法:
D=wsynDsyn+wdepthDdepth    (5)
其中,Dsyn为通过式(1)、(2)、(3)或(4)计算获得的深度图失真预测,Ddepth为通过传统的失真模型SAD或SSD计算获得的深度图失真,wsyn和wdepth为权重。
根据以上模型,求和得到当前编码块的总失真,并基于此失真,选择最佳编码模式和编码参数。具体而言,在深度图编码过程中,用率失真优化的方法来选择编码模式和参数。即选择能够使D+λ·R最小的编码模式或参数;D表示不同编码模式或参数下,编码当前块之后,采用深度图失真计算方法(即前述失真预测方法)得到的失真;R表示不同编码模式或参数下编码当前块产生的比特数;λ是拉格朗日乘子。
以上内容是结合具体的优选实施方式对本发明所作的进一步详细说明,不能认定本发明的具体实施只局限于这些说明。对于本发明所属技术领域的普通技术人员来说,在不脱离本发明构思的前提下,做出若干等同替代或明显变型,而且性能或用途相同,都应当视为属于本发明的保护范围。

Claims (8)

1.一种自由视点视频深度图编码的失真预测方法,其特征在于包括如下步骤:
A1获取两个以上视点立体视频纹理图与深度图;
A2利用当前待编码视点及其相邻待编码视点的纹理图和深度图,采用视点合成算法合成所述当前待编码视点及其相邻待编码视点的中间视点;
A3根据A2步骤的合成结果,记录当前待编码视点深度图中各像素点的合成特征,并生成相应失真预测权重;
A4根据所述各像素点的合成特征和相应失真预测权重,利用像素失真预测模型对当前深度图的编码块中各像素点的失真求和,得到总失真。
2.如权利要求1所述的失真预测方法,其特征在于:所述相邻待编码视点取编码次序上的上一视点,若无上一视点,则取编码次序上的下一视点。
3.如权利要求1所述的失真预测方法,其特征在于:所述像素点包括非显露点、前插值点、加权插值点、前双空洞点和混合类型点,其中:
非显露点的合成特征是,对应的纹理图像素点左右间隔在视点合成结果中均不被显露,其失真预测权重为w1,w1=0;
前插值点的合成特征是,对应的纹理图像素点左右间隔在视点合成时,变换后均为插值区,在左右变换图融合时作为前景被显示,其失真预测权重为w2,w2=1;
加权插值点的合成特征是,对应的纹理图像素点左右间隔在视点合成时,变换后均为插值区,在左右变换图融合时被加权求和,其失真预测权重为w3,0≤w3≤1;
前双空洞点的合成特征是,对应的纹理图像素点左右间隔在视点合成时,变换后都为空洞填补区,在左右变换图融合时为前景被显示,其失真预测权重为w4,w4=1;
混合类型点的合成特征是,对应的纹理图像素点左右间隔在视点合成时,合成特征记为所述非显露点、前插值点、加权插值点和前双空洞点中任意两者的特征的混合,两个失真预测权重都被记录。
4.如权利要求3所述的失真预测方法,其特征在于,所述编码像素失真预测模型包括:
非显露点编码像素失真预测模型为:
Dsyn=w1
             ;
前插值点和加权插值点编码像素失真预测模型为:
Dsyn=|w2·0.25·(SD-S′D)(S′T,n-1-S′T,n+1)2|和
Dsyn=|w3·0.25·(SD-S′D)(S′T,n-1-S′T,n+1)2|
                                        ;
前双空洞点编码像素失真预测模型为:
Dsyn=|w4·(SD-S′D)(S′T,n-S′T,n+1)2|或者
Dsyn=|w4·(SD-S′D)(S′T,n-S′T,n-1)2|;
混合类型点,根据混合的两种类型,分别按照所述混合的两种类型的模型计算失真,然后再取均值,作为该像素点的失真;
其中,Dsyn为深度图失真预测,w1、w2、w3和w4为失真预测权重,SD为原始深度图像素点值,S′D为编码后重建深度图像素点值,S′T,n表示当前深度图像素点在重建视点纹理图中对应的像素点的值,S′T,n+1和S′T,n-1分别表示当前深度图像素点在重建视点纹理图中对应像素点的相邻左、右像素点的值。
5.如权利要求4所述的失真预测方法,其特征在于,采用如下加权的失真计算方法:
D=wsynDsyn+wdepthDdepth
其中,Ddepth为通过传统的失真模型SAD或SSD计算获得的深度图失真,wsyn和wdepth为相应的权重。
6.如权利要求1-5任一项所述的失真预测方法,其特征在于:所述视点合成算法为任一基于深度图像绘制的视点合成算法。
7.如权利要求6所述的失真预测方法,其特征在于:所述视点合成算法是3D-HEVC标准采用的DIBR算法。
8.一种自由视点视频深度图编码方法,其特征在于:采用如权利要求1-7任一所述的自由视点视频深度图编码的失真预测方法获得当前深度图的编码块的总失真,并基于该总失真,选择最佳编码模式和编码参数进行编码。
CN201310355943.1A 2013-08-15 2013-08-15 一种自由视点视频深度图编码方法及其失真预测方法 Active CN103402097B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201310355943.1A CN103402097B (zh) 2013-08-15 2013-08-15 一种自由视点视频深度图编码方法及其失真预测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201310355943.1A CN103402097B (zh) 2013-08-15 2013-08-15 一种自由视点视频深度图编码方法及其失真预测方法

Publications (2)

Publication Number Publication Date
CN103402097A true CN103402097A (zh) 2013-11-20
CN103402097B CN103402097B (zh) 2016-08-10

Family

ID=49565609

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201310355943.1A Active CN103402097B (zh) 2013-08-15 2013-08-15 一种自由视点视频深度图编码方法及其失真预测方法

Country Status (1)

Country Link
CN (1) CN103402097B (zh)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103873867A (zh) * 2014-03-31 2014-06-18 清华大学深圳研究生院 自由视点视频深度图失真预测方法和编码方法
CN103997635A (zh) * 2014-04-11 2014-08-20 清华大学深圳研究生院 自由视点视频的合成视点失真预测方法及编码方法
CN104284195A (zh) * 2014-10-11 2015-01-14 华为技术有限公司 三维视频中的深度图预测方法、装置、编码器和解码器
CN104754359A (zh) * 2015-01-26 2015-07-01 清华大学深圳研究生院 一种二维自由视点视频的深度图编码失真预测方法
CN104754360A (zh) * 2015-03-26 2015-07-01 清华大学深圳研究生院 用于自由视点视频编码过程中的负载预测方法及装置
CN105430397A (zh) * 2015-11-20 2016-03-23 清华大学深圳研究生院 一种3d图像体验质量预测方法及装置
CN105850135A (zh) * 2014-01-03 2016-08-10 高通股份有限公司 用于视频译码的视差向量和/或高级残差预测
CN107211144A (zh) * 2015-01-26 2017-09-26 高通股份有限公司 用于预测残差的增强型多重变换
CN109703461A (zh) * 2017-10-26 2019-05-03 夏普株式会社 车辆驾驶支援装置
US11323748B2 (en) 2018-12-19 2022-05-03 Qualcomm Incorporated Tree-based transform unit (TU) partition for video coding

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101808251A (zh) * 2010-04-06 2010-08-18 浙江大学 立体图像对中遮挡信息的提取方法
CN101835056A (zh) * 2010-04-29 2010-09-15 西安电子科技大学 基于模型的纹理视频与深度图的最优码率分配方法
US20100238160A1 (en) * 2009-03-17 2010-09-23 Sehoon Yea Method for Virtual Image Synthesis
CN102918846A (zh) * 2010-02-24 2013-02-06 日本电信电话株式会社 多视点视频编码方法、多视点视频解码方法、多视点视频编码装置、多视点视频解码装置及程序

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100238160A1 (en) * 2009-03-17 2010-09-23 Sehoon Yea Method for Virtual Image Synthesis
CN102918846A (zh) * 2010-02-24 2013-02-06 日本电信电话株式会社 多视点视频编码方法、多视点视频解码方法、多视点视频编码装置、多视点视频解码装置及程序
CN101808251A (zh) * 2010-04-06 2010-08-18 浙江大学 立体图像对中遮挡信息的提取方法
CN101835056A (zh) * 2010-04-29 2010-09-15 西安电子科技大学 基于模型的纹理视频与深度图的最优码率分配方法

Cited By (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105850135B (zh) * 2014-01-03 2019-04-02 高通股份有限公司 用于视频译码的视差向量和/或高级残差预测
CN105850135A (zh) * 2014-01-03 2016-08-10 高通股份有限公司 用于视频译码的视差向量和/或高级残差预测
CN103873867A (zh) * 2014-03-31 2014-06-18 清华大学深圳研究生院 自由视点视频深度图失真预测方法和编码方法
CN103873867B (zh) * 2014-03-31 2017-01-25 清华大学深圳研究生院 自由视点视频深度图失真预测方法和编码方法
CN103997635B (zh) * 2014-04-11 2015-10-28 清华大学深圳研究生院 自由视点视频的合成视点失真预测方法及编码方法
CN103997635A (zh) * 2014-04-11 2014-08-20 清华大学深圳研究生院 自由视点视频的合成视点失真预测方法及编码方法
CN104284195A (zh) * 2014-10-11 2015-01-14 华为技术有限公司 三维视频中的深度图预测方法、装置、编码器和解码器
CN104284195B (zh) * 2014-10-11 2018-12-25 华为技术有限公司 三维视频中的深度图预测方法、装置、编码器和解码器
US10349058B2 (en) 2015-01-26 2019-07-09 Graduate School At Shenzhen, Tsinghua University Method for predicting depth map coding distortion of two-dimensional free viewpoint video
CN104754359A (zh) * 2015-01-26 2015-07-01 清华大学深圳研究生院 一种二维自由视点视频的深度图编码失真预测方法
CN104754359B (zh) * 2015-01-26 2017-07-21 清华大学深圳研究生院 一种二维自由视点视频的深度图编码失真预测方法
CN107211144A (zh) * 2015-01-26 2017-09-26 高通股份有限公司 用于预测残差的增强型多重变换
WO2016119551A1 (zh) * 2015-01-26 2016-08-04 清华大学深圳研究生院 一种二维自由视点视频的深度图编码失真预测方法
CN107211144B (zh) * 2015-01-26 2020-01-03 高通股份有限公司 用于预测残差的增强型多重变换
CN104754360B (zh) * 2015-03-26 2017-11-17 清华大学深圳研究生院 用于自由视点视频编码过程中的负载预测方法及装置
CN104754360A (zh) * 2015-03-26 2015-07-01 清华大学深圳研究生院 用于自由视点视频编码过程中的负载预测方法及装置
CN105430397B (zh) * 2015-11-20 2018-04-17 清华大学深圳研究生院 一种3d图像体验质量预测方法及装置
CN105430397A (zh) * 2015-11-20 2016-03-23 清华大学深圳研究生院 一种3d图像体验质量预测方法及装置
CN109703461A (zh) * 2017-10-26 2019-05-03 夏普株式会社 车辆驾驶支援装置
CN109703461B (zh) * 2017-10-26 2022-10-21 夏普株式会社 车辆驾驶支援装置
US11323748B2 (en) 2018-12-19 2022-05-03 Qualcomm Incorporated Tree-based transform unit (TU) partition for video coding

Also Published As

Publication number Publication date
CN103402097B (zh) 2016-08-10

Similar Documents

Publication Publication Date Title
CN103402097A (zh) 一种自由视点视频深度图编码方法及其失真预测方法
Merkle et al. Multi-view video plus depth representation and coding
US10349058B2 (en) Method for predicting depth map coding distortion of two-dimensional free viewpoint video
US8488870B2 (en) Multi-resolution, multi-window disparity estimation in 3D video processing
CN108886598A (zh) 全景立体视频系统的压缩方法和装置
CN107257484A (zh) 多视点信号编解码器
Ma et al. Low complexity adaptive view synthesis optimization in HEVC based 3D video coding
CN101312540A (zh) 基于深度和遮挡信息的虚拟视点合成方法
CN102438167B (zh) 一种基于深度图像绘制的立体视频编码方法
CN103873867B (zh) 自由视点视频深度图失真预测方法和编码方法
CN103428499A (zh) 编码单元的划分方法及使用该方法的多视点视频编码方法
CN102413332B (zh) 基于时域增强的视点合成预测多视点视频编码方法
WO2016003340A1 (en) Encoding and decoding of light fields
CN104202612A (zh) 基于四叉树约束的编码单元的划分方法及视频编码方法
US20220217400A1 (en) Method, an apparatus and a computer program product for volumetric video encoding and decoding
CN106791876B (zh) 一种基于3d-hevc的深度图快速帧内预测方法
Zhang et al. Efficient rendering distortion estimation for depth map compression
CN104737539A (zh) 减小含有相互类似的信息的多个图像的数据量的方法、程序及装置
JP6941505B2 (ja) 多視点画像符号化装置及びそのプログラム、並びに、立体画像表示システム
CN103997635B (zh) 自由视点视频的合成视点失真预测方法及编码方法
Deng et al. Structural similarity-based synthesized view distortion estimation for depth map coding
Zhang et al. New distortion model for depth coding in 3DVC
CN103813149B (zh) 一种编解码系统的图像与视频重构方法
CN103139554A (zh) 一种三维视频率失真优化方法及优化装置
Ekmekcioglu et al. A temporal subsampling approach for multiview depth map compression

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant