CN103873867B - 自由视点视频深度图失真预测方法和编码方法 - Google Patents

自由视点视频深度图失真预测方法和编码方法 Download PDF

Info

Publication number
CN103873867B
CN103873867B CN201410128188.8A CN201410128188A CN103873867B CN 103873867 B CN103873867 B CN 103873867B CN 201410128188 A CN201410128188 A CN 201410128188A CN 103873867 B CN103873867 B CN 103873867B
Authority
CN
China
Prior art keywords
viewpoint
synthesis
distortion
texture
depth map
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201410128188.8A
Other languages
English (en)
Other versions
CN103873867A (zh
Inventor
金欣
李晨阳
戴琼海
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenzhen Graduate School Tsinghua University
Original Assignee
Shenzhen Graduate School Tsinghua University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shenzhen Graduate School Tsinghua University filed Critical Shenzhen Graduate School Tsinghua University
Priority to CN201410128188.8A priority Critical patent/CN103873867B/zh
Publication of CN103873867A publication Critical patent/CN103873867A/zh
Application granted granted Critical
Publication of CN103873867B publication Critical patent/CN103873867B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

一种自由视点视频深度图失真预测方法及编码方法,包括:对于多视点立体视频序列给定视点的给定帧的用作空洞填补合成的待编码图块,输入已完成编码的纹理图块、采用预选的编码模式试编码的深度图块、相应原始纹理图块及原始深度图块;输入待编码图块的合并权重矩阵,其标记了利用左右视点纹理图获得合成视点纹理时的合并权重;计算利用深度图块中的像素点完成映射、空洞填补合成后得到的合成纹理的失真,将其作为合成视点失真的预测值;将待编码图块各像素的失真预测值求和,得到编码待编码图块造成的合成视点失真预测值。该方法能够准确预测深度图块的编码失真,同时避免反复执行合成视图算法,极大地降低计算复杂度。

Description

自由视点视频深度图失真预测方法和编码方法
技术领域
本发明涉及计算机视觉技术和视频编码领域,特别是涉及一种自由视点视频深度图失真预测方法和编码方法。
背景技术
传统的3D视频系统只能为用户提供单一视点的左右眼视频,其视觉体验十分有限。而自由视点视频系统,则可以通过采集和传输有限视点的视频信息,在终端利用合成算法为用户提供任意视点的场景视频。因而自由视点视频系统能够极大地增强用户的视觉体验效果,具有广阔的发展前景。为了发展用于自由视点视频编码的技术,MPEG(MovingPictures Experts Group)和VCEG(Video Coding Experts Group)在联合视频项目HEVC(High Efficiency Video Coding)的基础上,提出了拓展项目3D-HEVC。
3D-HEVC中通过采集有限多个视点纹理视频及对应视点的深度图视频(表征场景中物体到相机间的距离)来表示3D场景信息,称为“多视点视频+深度图”格式。“多视点视频+深度图”数据通过编码压缩、传输、解码,在终端通过合成算法可以合成任意视点的视频,并投放给用户观看。在视点合成算法中,深度图数据表征的场景几何信息被用作将被编码视点的纹理像素映射到合成视点中,从而完成合成视点纹理的插值、空洞填补等处理。因此,解码后的深度图质量对合成视点的图像质量至关重要。在深度图编码过程中,采用率失真优化的方法来选择编码模式和参数,从而获得优化的深度图编码压缩性能。率失真优化问题是一个拉格朗日优化问题,即选择能够使D+λ·R最小的编码参数或编码模式;D表示不同编码参数或模式下,待编码深度图块经编码、解码及视点合成后,造成的合成视图失真,R表示不同编码模式或参数下编码当前块产生的比特数;λ是拉格朗日乘子。
传统失真计算方法,例如SSD(Sum of Squared Differences)和SAD(SumofAbsolute Differences),最先被用于深度视频编码的失真预测;该方法原理简单,算法复杂性低,易于硬件实现,广泛用于2D视频编码,但由于只计算深度图块本身的失真,而未考虑其对视点合成的影响,因而不能有效保证合成视图的质量。因此,提出了利用简易合成算法计算编码深度图造成的合成视图失真的方法,例如SVDC(Synthesized ViewDistortion Change)等;该方法可以整体上优化合成视图的质量及压缩性能,但需要在编码过程中反复执行视点合成算法,计算量极大,尤其不利于实时系统的应用。为了进一步降低计算复杂度,基于合成视图失真预测的深度图编码失真预测方法被提了出来,例如VSD(View Synthesis Distortion)等;该类方法通过估算编码深度图造成的合成视图的失真,来预测编码深度图的失真,从而恰当地平衡了编码复杂度、压缩性能和合成视图质量。然而,现有的基于合成视图失真预测的深度图编码失真预测方法的准确性都十分有限,并不能提供很好的合成视图的质量。
发明内容
本发明的主要目的在于克服现有技术的不足,提供一种自由视点视频深度图失真预测方法和编码方法,能够准确地预测自由视点视频中基于空洞填补合成的深度图块有损编码造成的合成视图失真,用于编码模式和参数的选择,可以在保证合成视图质量及编码压缩性能的同时,大幅降低自由视点深度视频编码的计算复杂度。
为实现上述目的,本发明采用以下技术方案:
一种自由视点视频深度图失真预测方法,所述方法包括:
A1:对于多视点立体视频序列给定视点的给定帧的用作空洞填补合成的待编码图块,输入已完成编码的纹理图块Tc、采用预选的编码模式试编码的深度图块dc、相应原始纹理图块To及原始深度图块do
A2:输入所述待编码图块的合并权重矩阵W,合并权重矩阵W标记了分别利用左右视点纹理图获得合成视点纹理时的合并权重;
A3:计算利用深度图块dc中的像素点dc,n完成映射、空洞填补合成后得到的合成纹理的失真Dvs,n,将所述失真Dvs,n作为像素点dc,n造成的合成视点失真的预测值;
A4:将所述待编码图块各像素的失真预测值求和,得到编码所述待编码图块造成的合成视点失真预测值。
优选地:
所述步骤A1中的用作空洞填补合成的待编码图块为自由视点纹理及深度图视频经编码、传输、解码后,用作空洞填补合成的待编码深度图块。
通过以下方法识别所述待编码图块:在编码当前深度图前,利用相邻两视点纹理图和深度图,执行视点合成算法,合成中间视点,即分别利用左、右视点采用变换、插值、空洞填补获得合成视点视图Vr和Vl,再采用融合模块,合并Vr及Vl,从而获得合成的中间视点;在此过程中对待编码深度图中用于空洞填补合成的区域进行标记。
所述步骤A2中的合并权重矩阵W可通过以下方法获得:执行视点合成算法,分别利用左、右视点获得合成视点视图Vr和Vl,再采用融合模块,合并Vr及Vl,从而获得合成的中间视点;在此过程中记录合并权重矩阵W。
所述合成算法可采用基于深度图像绘制算法。
所述步骤A2中获得合并权重矩阵W的过程与所述步骤A1中识别用作空洞填补合成的待编码图块的过程在同一个过程中完成,或是分别处理。
所述步骤A3中,对于步骤A1获取的dc中的像素点dc,n及其相邻像素点dc,n+1,计算利用像素点dc,n及dc,n+1进行空洞填补的合成视点纹理失真预测值Dvs,n,计算方式如下,
Dvs,n=(Dvs,n,bastc+Dvs,n,left+Dvs,n,rtght)Wn2 (4)
其中,Dvs,n,bastc为由于纹理失真造成的空洞填补合成纹理失真,Dvs,n,left为由于do,n编码为dc,n造成的空洞填补合成纹理失真,Dvs,n,left为由于do,n+1编码为dc,n+1造成的空洞填补合成纹理失真,do,n及do,n+1分别为dc,n及dc,n+1在原始深度图块中的对应像素,xo,n及xo,n+1为图块中深度图像素n及相邻像素n+1的对应纹理根据未编码的深度图块do,n映射到合成视点中的位置,xc,n及xc,n+1为待编码视点深度图像素n及相邻像素n+1的对应纹理根据试编码的深度图dc,n映射到合成视点中的位置,To,n及To,n+1为待编码视点深度图像素n及相邻像素n+1对应在To中的纹理值,Tc,n及Tc,n+1为待编码视点深度图像素n及相邻像素n+1对应在Tc中的纹理值,Wn为合并权重,分别为xc,n+1和xc,n的上取整,分别为xo,n+1和xo,n的上取整。
一种自由视点视频深度图编码方法,采用所述的失真预测方法获得当前深度图的编码块的合成视点总失真预测值,并基于该总失真预测值,选择最佳编码模式和编码参数进行编码。
本发明的有益效果:
本发明针对多视点立体视频序列单视点单帧的用作空洞填补合成的某一深度图块,提出的一种编码失真预测方法。对于图块中的像素点,利用合并权重矩阵,计算利用编码后该像素点的值做投影、空洞填补合成得到的纹理值的失真的预测值,作为编码该深度图像素点造成的合成视点失真预测。该方法有效地简化了空洞填补合成的模型,从而能够快速预测基于空洞填补合成的深度图块的编码造成的合成视点失真。该方法能够准确预测基于空洞填补的深度图块的编码失真,从而能够在率失真优化中有效保证合成视点质量和编码压缩性能,同时避免了反复执行合成视图算法,极大地降低计算复杂度。
附图说明
图1为本发明实施例的自由视点视频深度图失真预测方法流程图。
具体实施方式
以下结合附图对本发明的实施例作详细说明。应该强调的是,下述说明仅仅是示例性的,而不是为了限制本发明的范围及其应用。
参阅图1,根据本发明的实施例,一种基于空洞填补合成的自由视点深度视频失真预测方法,包括以下步骤:
A1:对于多视点立体视频序列给定视点的给定帧的用作空洞填补合成的某一图块,输入已完成编码的纹理图块Tc、采用预选的编码模式试编码的深度图块dc、相应原始纹理图块To及原始深度图块do
A2:输入该图块的合并权重矩阵W,合并权重矩阵标记了分别利用左右视点纹理图获得合成视点纹理时的合并权重;
A3:采用基于空洞填补合成的失真预测方法,计算利用dc中像素点dc,n完成映射、空洞填补合成后得到的合成纹理的失真,将此失真Dvs,n,作为像素点dc,n造成的合成视点失真的预测值;
A4:将该图块各像素的失真预测值求和,得到编码该图块造成的合成视点失真预测值。该失真预测值可用作深度图块编码的模式选择。
在一些更具体的实施例中,可按下面方式实施该方法。
A1:多视点立体视频序列为通过摄像机、照相机采集所得,或者通过计算机工具所得的视频序列,数据格式不限,该序列可用于立体观看。对于多视点立体视频中的深度视频给定视点的给定帧的用作空洞填补合成的某一图块,输入已完成编码的纹理图块Tc、采用预选的编码模式试编码的深度图块dc、相应原始纹理图块To及原始深度图块do。A1中的用作空洞填补合成的某一图块,具体指:自由视点视频纹理及深度图序列经编码、传输、解码后,将采用复杂合成算法(如包含插值、空洞填补等),而深度图中的用作空洞填补合成的待编码图块即为目标图块。可通过以下方法识别目标图块:在编码当前深度图前,利用相邻两视点纹理图和深度图,执行一次视点合成算法,合成中间视点,即分别利用左、右视点采用变换、插值、空洞填补获得合成视点视图Vr和Vl,再采用融合模块,合并Vr及vl,从而获得合成的中间视点;在此过程中对待编码深度图中用于空洞填补合成的区域进行标记;具体合成算法可采用基于深度图像绘制算法(Depth Based Image Rendering)等,本发明涵盖的范围不限于所例举的方法。
A2:输入该图块的合并权重矩阵W,合并权重矩阵标记了分别利用左右视点纹理图获得合成视点纹理时的合并权重.A2中的合并权重矩阵W可通过以下方法获得:预先执行合成算法,分别利用左、右视点获得合成视点视图Vr和Vl,再采用融合模块,合并Vr及Vl,从而获得合成的中间视点;在此过程中记录合并权重矩阵W。具体合成算法可采用基于深度图像绘制算法(Depth Based Image Rendering)等,本发明涵盖的范围不限于所例举的方法。该步骤亦可与A1中识别基于空洞填补合成的图块的过程合并。
A3:对于A1获取的dc中像素点dc,n及其相邻像素点dc,n+1,计算利用dc,n及dc,n+1空洞填补时的合成视点纹理失真预测值Dvs,n,计算方式如下,
Dvs,n=(Dvs,n,bastc+Dvs,n,left+Dvs,n,rtght)Wn2 (4)
其中,Dvs,n,bastc为由于纹理失真造成的空洞填补合成纹理失真,Dvs,n,left为由于do,n编码为dc,n造成的空洞填补合成纹理失真,Dvs,n,left为由于do,n+1编码为dc,n+1造成的空洞填补合成纹理失真,do,n及do,n+1分别为dc,n及dc,n+1在原始深度图块中的对应像素,xo,n及xo,n+1为图块中深度图像素n及相邻像素n+1的对应纹理根据未编码的深度图块do,n映射到合成视点中的位置,xc,n及xc,n+1为待编码视点深度图像素n及相邻像素n+1的对应纹理根据试编码的深度图dc,n映射到合成视点中的位置,To,n及To,n+1为待编码视点深度图像素n及相邻像素n+1对应在To中的纹理值,Tc,n及Tc,n+1为待编码视点深度图像素n及相邻像素n+1对应在Tc中的纹理值,Wn为合并权重,分别为xc,n+1和xc,n的上取整,分别为xo,n+1和xo,n的上取整。
为了保持深度图本身的保真度,采用如下一种加权的失真计算方法:
DnwvsDvs,n+wdepDdep,n (5)
其中,Dvs,n为通过(4)或(5)式计算获得的深度图像素失真预测,Ddep,n为通过传统的失真模型SAD或SSD计算获得的深度图像素失真,wVS和wdep为权重。
A4:根据以上模型,将该图块各像素点的失真预测值求和,得到编码该图块造成的合成视点总失真预测值。
该失真预测值可用作基于空洞填补合成的深度图块编码的模式选择,或与基于其它合成方法的失真预测联合用作基于复杂合成算法的深度图块编码的模式选择,来进行自由视点视频深度图编码。
基于此预测,可采用率失真优化选择最佳编码模式和编码参数。
利用本发明能够更准确地预测自由视点深度视频中基于空洞填补合成的深度图块有损编码造成的合成视图失真,避免深度图编码过程中反复多次执行合成算法,大幅降低自由视点深度视频编码的计算复杂度。
以上内容是结合具体的优选实施方式对本发明所作的进一步详细说明,不能认定本发明的具体实施只局限于这些说明。对于本发明所属技术领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干简单推演或替换,都应当视为属于本发明的保护范围。

Claims (7)

1.一种自由视点视频深度图失真预测方法,其特征在于,所述方法包括:
A1:对于多视点立体视频序列给定视点的给定帧的用作空洞填补合成的待编码图块,输入已完成编码的纹理图块Tc、采用预选的编码模式试编码的深度图块dc、相应原始纹理图块To及原始深度图块do
A2:输入所述待编码图块的合并权重矩阵W,合并权重矩阵W标记了分别利用左右视点纹理图获得合成视点纹理时的合并权重;
A3:计算利用深度图块dc中的像素点dc,n完成映射、空洞填补合成后得到的合成纹理的失真Dvs,n,将所述失真Dvs,n作为像素点dc,n造成的合成视点失真的预测值;
A4:将待编码图块各像素的失真预测值求和,得到编码所述待编码图块造成的合成视点失真预测值;
所述步骤A3中,对于步骤A1获取的dc中的像素点dc,n及其相邻像素点dc,n+1,计算利用像素点dc,n及dc,n+1进行空洞填补的合成视点纹理失真预测值Dvs,n,计算方式如下,
Dvs,n=(Dvs,n,basic+Dvs,nleft+Dvs,n,right)Wn 2 (4)
其中,Dvs,n,basic为由于纹理失真造成的空洞填补合成纹理失真,Dvs,n,left为由于do,n编码为dc,n造成的空洞填补合成纹理失真,Dvs,n,left为由于do,n+1编码为dc,n+1造成的空洞填补合成纹理失真,do,n及do,n+1分别为dc,n及dc,n+1在原始深度图块中的对应像素,xo,n及xo,n+1为图块中深度图像素n及相邻像素n+1的对应纹理根据未编码的深度图块do,n映射到合成视点中的位置,xc,n及xc,n+1为待编码视点深度图像素n及相邻像素n+1的对应纹理根据试编码的深度图dc,n映射到合成视点中的位置,To,n及To,n+1为待编码视点深度图像素n及相邻像素n+1对应在To中的纹理值,Tc,n及Tc,n+1为待编码视点深度图像素n及相邻像素n+1对应在Tc中的纹理值,Wn为合并权重,分别为xc,n+1和xc,n的上取整,分别为xo,n+1和xo,n的上取整。
2.如权利要求1所述的方法,其特征在于,所述步骤A1中的用作空洞填补合成的待编码图块为自由视点纹理及深度图视频经编码、传输、解码后,用作空洞填补合成的待编码深度图块。
3.如权利要求2所述的方法,其特征在于,通过以下方法识别所述待编码图块:在编码当前深度图前,利用相邻两视点纹理图和深度图,执行视点合成算法,合成中间视点,即分别利用左、右视点采用变换、插值、空洞填补获得合成视点视图Vr和Vl,再采用融合模块,合并Vr及Vl,从而获得合成的中间视点;在此过程中对待编码深度图中用于空洞填补合成的区域进行标记。
4.如权利要求1所述的方法,其特征在于,所述步骤A2中的合并权重矩阵W可通过以下方法获得:执行视点合成算法,分别利用左、右视点获得合成视点视图Vr和Vl,再采用融合模块,合并Vr及Vl,从而获得合成的中间视点;在此过程中记录合并权重矩阵W。
5.如权利要求3或4所述的方法,其特征在于,所述合成算法可采用基于深度图像绘制算法。
6.如权利要求3或4所述的方法,其特征在于,所述步骤A2中获得合并权重矩阵W的过程与所述步骤A1中识别用作空洞填补合成的待编码图块的过程在同一个过程中完成,或是分别处理。
7.一种自由视点视频深度图编码方法,其特征在于:采用如权利要求1-6任一所述的失真预测方法获得当前深度图的编码块的合成视点总失真预测值,并基于该总失真预测值,选择最佳编码模式和编码参数进行编码。
CN201410128188.8A 2014-03-31 2014-03-31 自由视点视频深度图失真预测方法和编码方法 Active CN103873867B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201410128188.8A CN103873867B (zh) 2014-03-31 2014-03-31 自由视点视频深度图失真预测方法和编码方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201410128188.8A CN103873867B (zh) 2014-03-31 2014-03-31 自由视点视频深度图失真预测方法和编码方法

Publications (2)

Publication Number Publication Date
CN103873867A CN103873867A (zh) 2014-06-18
CN103873867B true CN103873867B (zh) 2017-01-25

Family

ID=50911941

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201410128188.8A Active CN103873867B (zh) 2014-03-31 2014-03-31 自由视点视频深度图失真预测方法和编码方法

Country Status (1)

Country Link
CN (1) CN103873867B (zh)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20160234510A1 (en) * 2014-06-20 2016-08-11 Mediatek Inc. Method of Coding for Depth Based Block Partitioning Mode in Three-Dimensional or Multi-view Video Coding
CN104754359B (zh) 2015-01-26 2017-07-21 清华大学深圳研究生院 一种二维自由视点视频的深度图编码失真预测方法
CN105430397B (zh) * 2015-11-20 2018-04-17 清华大学深圳研究生院 一种3d图像体验质量预测方法及装置
KR102390413B1 (ko) * 2017-03-03 2022-04-25 에스케이텔레콤 주식회사 영상 부호화 또는 복호화하기 위한 장치 및 방법
CN108347611B (zh) * 2018-03-02 2021-02-02 电子科技大学 用于经纬图的编码块级拉格朗日乘子的优化方法
EP4262210A4 (en) * 2020-12-14 2024-03-20 Zhejiang University DECODING METHODS, INTER-VIEW PREDICTION METHODS, DECODERS AND ENCODERS

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101272511A (zh) * 2007-03-19 2008-09-24 华为技术有限公司 图像深度信息和图像像素信息的获取方法及装置
WO2009131287A1 (en) * 2008-04-23 2009-10-29 Lg Electronics Inc. Method for encoding and decoding image of ftv
CN102333230A (zh) * 2011-09-21 2012-01-25 山东大学 一种提高三维视频系统中合成虚拟视图质量的方法
CN102595166A (zh) * 2012-03-05 2012-07-18 山东大学 一种适用于深度图编码的拉格朗日因子计算方法
CN102592275A (zh) * 2011-12-16 2012-07-18 天津大学 虚拟视点绘制方法
CN102625127A (zh) * 2012-03-24 2012-08-01 山东大学 一种适于3d电视虚拟视点生成的优化方法
JP2012185772A (ja) * 2011-03-08 2012-09-27 Kddi Corp 非固定ズームカメラを用いた自由視点映像の合成画質高精度化方法およびプログラム
CN103269438A (zh) * 2013-05-27 2013-08-28 中山大学 基于3d视频和自由视点电视的深度图像绘制的方法
CN103402097A (zh) * 2013-08-15 2013-11-20 清华大学深圳研究生院 一种自由视点视频深度图编码方法及其失真预测方法

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101272511A (zh) * 2007-03-19 2008-09-24 华为技术有限公司 图像深度信息和图像像素信息的获取方法及装置
WO2009131287A1 (en) * 2008-04-23 2009-10-29 Lg Electronics Inc. Method for encoding and decoding image of ftv
JP2012185772A (ja) * 2011-03-08 2012-09-27 Kddi Corp 非固定ズームカメラを用いた自由視点映像の合成画質高精度化方法およびプログラム
CN102333230A (zh) * 2011-09-21 2012-01-25 山东大学 一种提高三维视频系统中合成虚拟视图质量的方法
CN102592275A (zh) * 2011-12-16 2012-07-18 天津大学 虚拟视点绘制方法
CN102595166A (zh) * 2012-03-05 2012-07-18 山东大学 一种适用于深度图编码的拉格朗日因子计算方法
CN102625127A (zh) * 2012-03-24 2012-08-01 山东大学 一种适于3d电视虚拟视点生成的优化方法
CN103269438A (zh) * 2013-05-27 2013-08-28 中山大学 基于3d视频和自由视点电视的深度图像绘制的方法
CN103402097A (zh) * 2013-08-15 2013-11-20 清华大学深圳研究生院 一种自由视点视频深度图编码方法及其失真预测方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
2D视频转3D视频的空洞处理方法研究;刘晓军;《中国优秀硕士学位论文全文数据库(电子期刊)信息科技辑》;20131115(第11期);全文 *
一种基于DIBR的虚拟视点合成算法;陈思利 等;《成都端子机械高等专科学校学报》;20100315;第13卷(第1期);第15-19页 *

Also Published As

Publication number Publication date
CN103873867A (zh) 2014-06-18

Similar Documents

Publication Publication Date Title
CN103873867B (zh) 自由视点视频深度图失真预测方法和编码方法
CN100576934C (zh) 基于深度和遮挡信息的虚拟视点合成方法
US10349058B2 (en) Method for predicting depth map coding distortion of two-dimensional free viewpoint video
US10652577B2 (en) Method and apparatus for encoding and decoding light field based image, and corresponding computer program product
CN103402097B (zh) 一种自由视点视频深度图编码方法及其失真预测方法
CN101986716B (zh) 一种快速深度视频编码方法
CN102970529B (zh) 一种基于对象的多视点视频分形编码压缩与解压缩方法
CN105393541A (zh) 使用基于深度的块分割编解码纹理块的方法和装置
CN103828359A (zh) 使用织锦编码的多视图图像的表现和代码化
Ma et al. Low complexity adaptive view synthesis optimization in HEVC based 3D video coding
CN102291579B (zh) 一种快速的多目立体视频分形压缩与解压缩方法
CN106210722B (zh) 基于hevc的分层深度视频残差层数据的编码方法
US10785502B2 (en) Method and apparatus for encoding and decoding a light field based image, and corresponding computer program product
CN102438167B (zh) 一种基于深度图像绘制的立体视频编码方法
CN105141940B (zh) 一种分区域的3d视频编码方法
KR101598855B1 (ko) 입체영상 부호화 장치 및 방법
CN106791768A (zh) 一种基于图割优化的深度图帧率提升方法
CN104506872A (zh) 一种平面视频转立体视频的方法及装置
CN103763564A (zh) 基于边缘无损压缩的深度图编码方法
CN110557646A (zh) 一种智能视点间的编码方法
CN102316323B (zh) 一种快速的双目立体视频分形压缩与解压缩方法
CN103702120B (zh) 一种合成视点主观失真估计方法
CN103997635B (zh) 自由视点视频的合成视点失真预测方法及编码方法
WO2022126331A1 (zh) 一种解码方法、视点间预测方法、解码器和编码器
Deng et al. Structural similarity-based synthesized view distortion estimation for depth map coding

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant