CN101835056A - 基于模型的纹理视频与深度图的最优码率分配方法 - Google Patents

基于模型的纹理视频与深度图的最优码率分配方法 Download PDF

Info

Publication number
CN101835056A
CN101835056A CN 201010161550 CN201010161550A CN101835056A CN 101835056 A CN101835056 A CN 101835056A CN 201010161550 CN201010161550 CN 201010161550 CN 201010161550 A CN201010161550 A CN 201010161550A CN 101835056 A CN101835056 A CN 101835056A
Authority
CN
China
Prior art keywords
depth map
texture video
quantization step
video
opt
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN 201010161550
Other languages
English (en)
Other versions
CN101835056B (zh
Inventor
元辉
常义林
杨付正
霍俊彦
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Xidian University
Original Assignee
Xidian University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Xidian University filed Critical Xidian University
Priority to CN 201010161550 priority Critical patent/CN101835056B/zh
Publication of CN101835056A publication Critical patent/CN101835056A/zh
Application granted granted Critical
Publication of CN101835056B publication Critical patent/CN101835056B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

本发明公开了一种基于模型的纹理视频与深度图的最优码率分配方法,主要解决三维立体视频编码中的纹理视频与深度图的码率分配问题。其方案是:确定虚拟视图失真与纹理视频的量化步长、深度图的量化步长之间的关系;利用纹理视频的编码码率与纹理视频量化步长的关系、深度图的编码码率与深度图量化步长的关系,计算最优的纹理视频量化步长与最优的深度图的量化步长;并以最优的纹理视频量化步长和最优的深度图量化步长分别对纹理视频与深度图编码,实现纹理视频与深度图的最优码率分配。本发明具有复杂度低,且能使纹理视频与深度图的码率分配达到最优的优点,可用于三维立体视频编码中的纹理视频与深度图码率分配。

Description

基于模型的纹理视频与深度图的最优码率分配方法
技术领域
本发明属于通信标准领域。涉及到三维立体视频中的纹理视频与深度图的联合编码技术。具体的说,是一种在固定码率的条件下,对纹理视频与深度图进行码率分配,使合成虚拟视图的质量达到最优的码率分配。
背景技术
三维视频作为未来主要的视频应用技术,是指用户通过三维视频显示设备可以享受到真实的三维视频内容。三维视频的相关技术,比如,三维视频采集、三维视频编码、三维视频的显示等技术已经得到广泛的关注。为了推动三维视频技术的标准化,2002年,运动图像专家组(Motion Picture Experts Group,MPEG)提出任意视点电视(Free View Television,FTV)的概念。它能够提供生动真实的、交互式的三维视听系统。用户可以从不同的角度观看该角度的三维视频,使得用户有融入视频场景中的真实感受。FTV可广泛应用于广播通信、娱乐、教育、医疗和视频监控等领域。为了使用户可以观看到任意角度的三维视频,FTV系统服务端使用已标定好的摄像机阵列获得一定视点上的视频。并对不同视点上的视频校正,利用校正过的视频信息通过虚拟视图合成技术生成虚拟视点的虚拟视图。目前MPEG建议具体使用基于深度-图像(Depth-Image Based Rendering,DIBR)的虚拟视图合成技术。深度信息一般通过深度图表示。
虚拟视图合成的主要过程如下:
1).确定要虚拟视点在摄像机阵列中的相对位置。
2).确定用于合成虚拟视点的纹理视频
3).确定步骤2)的纹理视频对应的深度图
4).依据步骤2)与3)中的纹理视频和深度图,采用DIBR技术,合成虚拟视图。
FTV的标准化工作分为两个阶段进行[3]。第一阶段是2006年至2008年由JVT制定的H.264/AVC的扩展方案-MVC(Multi-View Video Coding)。MVC可以对多视点纹理视频进行编码。但是要最终实现FTV系统的功能,还必须要对深度信息进行编码。目前FTV的标准化制定工作已经进入第二阶段,即3DVC(Three Dimensional VideoCoding)。3DVC主要关注深度信息的表示与编码,以及纹理视频与深度信息的联合编码。3DVC中,深度信息通过深度图表示。
衡量3DVC性能的主要指标是合成虚拟视图的质量,以及纹理视频、深度图的编码码率。
虚拟视图的质量:
通常采用峰值信噪比(Peak Signal-to-Noise Ratio,PSNR)来衡量视频的质量。PSNR的计算公式如(1)式所示,
PSNR = 10 × log ( 255 2 MSE ) - - - ( 1 )
(1)式中MSE表示原始视图与合成虚拟视图之间的均方误差,用来衡量虚拟视图的失真,以及纹理视频的编码失真、深度图的编码失真。
在实际应用中,虚拟视点的视图是不存在的,也即不存在原始视图。但是由于3DVC主要关注编码性能,因此为衡量3DVC的性能,首先采用未经编码的已有纹理视频及其对应的深度图合成虚拟视图Vorig,然后采用经过编码后的重建的纹理视频以及编码后重建的深度图合成虚拟视图Vrec,最后通过计算Vrec与Vorig之间的的MSE,进而得到PSNR,以衡量3DVC的性能。
纹理视频、深度图的编码码率:
编码码率R是指纹理视频、深度图编码的总比特数(BT,BD)除以视频帧率F(即每秒显示多少幅图像),如(2)式所示。
R = B T + B D F - - - ( 2 )
编码码率R也可以表示为纹理视频的编码码率RT与深度图编码码率RD的和,如(3)式所示,
R=RT+RD                        (3)
其中RT与RD可以分别表示为(4)、(5)式所示的形式,
R T = B T F - - - ( 4 )
R D = B D F - - - ( 5 )
纹理视频与深度图的编码码率RT与RD分别由纹理视频与深度图的编码过程中的量化步长QT与QD决定。
要衡量3DVC的性能,必须要综合考虑虚拟视图的质量与纹理、深度图的编码码率。即考虑在合成虚拟视图的质量相同的条件下,纹理视频、深度图的编码码率大小;或者在纹理、深度图的编码码率相同的条件下,合成虚拟视图的质量高低。
3DVC中,当编码码率相同时,纹理视频与深度图的编码码率可以有多种组合方式。不同的组合方式所得的虚拟视图的质量有很大差异。本发明关注在固定编码码率条件下如何分配纹理视频与深度图的编码码率。
现有的纹理视频与深度图的码率分配方法:
1).固定比例的码率分配方法
该方法在给定的总码率的条件下,将深度图的编码码率固定为纹理视频编码码率的1/5或其它数值,从而确定纹理视频与深度图的编码码率,并确定纹理视频的量化步长QT以及深度图的量化步长QD,继而对纹理视频和深度图进行编码。该方法认为纹理视频的编码码率RT对合成虚拟视图的质量影响最大。但实际上,在总码率固定的条件下,合成虚拟视图的质量受到RT与RD的共同影响。因此该方法并不能保证在码率分配之后合成虚拟视图的质量达到最优。
2).基于搜索的码率分配方法
该方法在给定总码率的条件下,通过搜索的方式寻找使虚拟视图失真达到最小且满足总码率约束条件的纹理视频与深度图的量化步长QT与QD。即采用量化步长的取值范围内所有的QT与QD对纹理视频、深度图进行多次编码,并合成虚拟视图,然后计算虚拟视图的质量,选择能够使虚拟视图质量达到最高且满足总码率约束条件的纹理视频、深度图的量化步长QT opt与QD opt,进而实现纹理视频、深度图的码率分配。基于搜索的码率分配方法虽然可以对纹理视频、深度图进行最优的码率分配,但是其复杂度过高,无实际应用价值。
发明内容
本发明的目的在于克服上述已有技术的缺点,提出一种基于模型的纹理视频与深度图的最优码率分配方法,以在固定编码码率条件下,以较低的复杂度,实现最优的纹理视频与深度图的码率分配,提高实际应用价值。
实现本发明的技术方案是:确定虚拟视图的MSE失真模型,即确定虚拟视图的MSE失真MV与QT、QD之间的模型;最后利用RT与QT、RD与QD之间的关系通过计算得到最优的纹理视频与深度图的码率分配。具体步骤如下:
(1)定义虚拟视图失真MV为:
MV=aT×QT+aD×QD+C                (6)
其中QT表示纹理视频的量化步长,QD表示深度图的量化步长,aT表示QT对MV的影响参数;aD表示QD对MV的影响参数;C表示虚拟视图合成过程中固有的失真;
(2)任意选取两个深度图的量化步长QD,1和QD,2,对深度图进行两次预编码,得到深度图的两个编码码率RD,1与RD,2,并得到编码重建的两个深度图D1与D2
(3)任意选取两个纹理视频的量化步长QT,1和QT,2,对纹理视频进行两次预编码,得到纹理视频的两个编码码率RT,1与RT,2,并得到编码重建的两个纹理视频T1与T2
(4)依据深度图量化步长QD,1和QD,2,以及深度图编码码率RD,1和RD,2,确定深度图的量化步长对深度图编码码率的影响参数mD,以及深度图的固有特征对深度图编码码率的影响参数nD
m D = ( R D , 1 - R D , 2 ) × Q D , 1 × Q D , 2 Q D , 2 - Q D , 1 , - - - ( 7 )
n D = R D , 1 - ( R D , 1 - R D , 2 ) × Q D , 2 Q D , 2 - Q D , 1 ; - - - ( 8 )
(5)依据纹理视频的量化步长QT,1和QT,2,以及纹理视频的编码码率RT,1和RT,2,确定纹理视频的量化步长对纹理视频的编码码率的影响参数mT,以及纹理视频的固有特征对纹理视频编码码率的影响参数nT
m T = ( R T , 1 - R T , 2 ) × Q T , 1 × Q T , 2 Q T , 2 - Q T , 1 - - - ( 9 )
n T = R T , 1 - ( R T , 1 - R T , 2 ) × Q T , 2 Q T , 2 - Q T , 1 ; - - - ( 10 )
(6)依据步骤(2)中编码重建的两个深度图D1和D2,以及步骤(3)中编码重建的两个纹理视频T1和T2,在同一个视点合成三个具有不同质量的虚拟视图,并计算这三个虚拟视图的失真MV,1,MV,2,MV,3
(7)依据虚拟视图的失真MV,1、MV,2和MV,3,纹理视频的量化步长QT,1和QT,2,深度图的量化步长QD,1和QD,2,确定步骤(1)所定义的参数aT与aD
a D = M V , 1 - M V , 2 Q D , 1 - Q D , 2 , - - - ( 11 )
a T = M V , 2 - M V , 3 Q T , 1 - Q T , 2 ; - - - ( 12 )
(8)依据上述参数mD、nD、mT、nT、aT和aD,计算最优的纹理视频量化步长QT opt和最优的深度图的量化步长QD opt
Q D opt = a T a D × m D m T × ( m T + a D × m T × m D a T ) R c - n T - n D , - - - ( 13 )
Q T opt = m T + a D × m T × m D a T R c - n T - n D , - - - ( 14 )
其中,Rc为纹理视频与该纹理视频对应的深度图的总码率;
(9)采用最优的纹理视频量化步长QT opt对纹理视频编码,得到编码码率RT opt,采用最优的深度图的量化步长QD opt对深度图编码,得到编码码率RD opt,完成最优的纹理视频与深度图的码率分配。
本发明与现有技术相比具有以下优点:
1)本发明由于定义了虚拟视图失真MV与纹理视频量化步长QT和深度图量化步长QD之间的关系,因而通过简单计算就可以实现纹理视频与深度图的最优码率分配,使得合成虚拟视图的质量达到最优,与基于搜索的码率分配方法相比极大地降低了计算复杂度。
2)本发明由于对深度图进行了预编码,使计算得到的参数mD和nD比较准确。
3)本发明由于对纹理视频进行了预编码,使计算得到的参数mT和nT比较准确。
4)本发明由于在同一个视点合成了三个具有不同质量的虚拟视图,并计算了这三个不同质量的虚拟视图的失真,使得计算得到的参数aT与aD比较准确。
5)本发明由于仅需要对深度图和纹理视频分别编码两次,因此计算复杂度很低,仅为现有基于搜索的码率分配方法的10%。
附图说明
图1是本发明的流程图;
图2是本发明定义的虚拟视图失真与纹理视频量化步长和深度图量化步长之间的关系图;
图3是采用本发明的方法进行码率分配后,合成的虚拟视图的客观质量比较图;
图4是采用本发明的方法进行码率分配后,合成的虚拟视图的主观效果比较图。
具体实施方式
参照图1,本发明的具体实施包括如下步骤:
步骤1,定义MV与纹理视频量化步长QT、深度图量化步长QD之间的关系。
理论分析与实验验证可得虚拟视图的失真模型,如(15)式所示,
MV=aT×QT+aD×QD+C            (15)
(15)式中aT表示QT对MV的影响参数;aD表示QD对MV的影响参数;C表示虚拟视图合成过程的固有失真;该(15)式所示的虚拟视图失真模型可通过图2验证。图2(a)所示为采用编码后的AKKO&KAYO三维视频序列的纹理视频和深度图合成的虚拟视图的失真与该序列的纹理视频量化步长,和该序列的深度图量化步长的关系,图2(b)所示为采用编码后的Altmoabit三维视频序列的纹理视频和深度图合成的虚拟视图的失真与该序列的纹理视频的量化步长,和该序列的深度图量化步长的关系,图2(c)所示为采用编码后的Ballet三维视频序列的纹理视频和深度图合成的虚拟视图的失真与该序列的纹理视频的量化步长,和该序列的深度图的量化步长之间的关系。
步骤2,对深度图进行两次预编码。
任意选取两个量化步长QD,1、QD,2,对深度图进行两次预编码,得到深度图的两个编码码率RD,1与RD,2,并得到编码重建的两个深度图D1与D2
步骤3,对纹理视频进行两次预编码。
任意选取两个量化步长QT,1、QT,2,对纹理视频进行两次预编码,得到纹理视频的两个编码码率RT,1与RT,2,并得到编码重建的两个纹理视频T1与T2
步骤4,计算深度图的量化步长对深度图编码码率的影响参数mD和深度图的固有特征对深度图编码码率的影响参数nD
依据深度图量化步长QD,1和QD,2,以及深度图编码码率RD,1与RD,2,建立如下方程组:
RD,1=mD/QD,1+nD
                        (16)
RD,2=mD/QD,2+nD
解方程组确定深度图量化步长对深度图编码码率的影响参数mD和深度图的固有特征对深度图编码码率的影响参数nD
m D = ( R D , 1 - R D , 2 ) × Q D , 1 × Q D , 2 Q D , 2 - Q D , 1 - - - ( 17 )
n D = R D , 1 - ( R D , 1 - R D , 2 ) × Q D , 2 Q D , 2 - Q D , 1 . - - - ( 18 )
步骤5,计算纹理视频的量化步长对纹理视频的编码码率的影响参数mT,以及纹理视频的固有特征对纹理视频编码码率的影响参数nT
依据纹理视频的量化步长QT,1、QT,2,以及纹理视频的编码码率RT,1、RT,2,建立如下方程组:
RT,2=mT/QT,1+nT
                        (19)
RT,1=mT/QT,2+nT
解方程组确定纹理视频的量化步长对纹理视频的编码码率的影响参数mT,以及纹理视频的固有特征对纹理视频编码码率的影响参数nT
m T = ( R T , 1 - R T , 2 ) × Q T , 1 × Q T , 2 Q T , 2 - Q T , 1 - - - ( 20 )
n T = R T , 1 - ( R T , 1 - R T , 2 ) × Q T , 2 Q T , 2 - Q T , 1 . - - - ( 21 )
步骤6,合成虚拟视图,并计算虚拟视图的失真。
依据步骤2和步骤3编码后重建的深度图D1、D2以及编码后重建的纹理视频T1、T2,在同一个虚拟视点合成三个具有不同质量的虚拟视图V1、V2和V3;并采用未经过编码的纹理视频和未经过编码的深度图合成的虚拟视图V;计算这三个虚拟视图的失真值MV,1,MV,2,MV,3
M V , 1 = 1 W × H Σ i = 1 W Σ j = 1 H [ V ( i , j ) - V 1 ( i , j ) ] 2 - - - ( 22 )
M V , 2 = 1 W × H Σ i = 1 W Σ j = 1 H [ V ( i , j ) - V 2 ( i , j ) ] 2 - - - ( 23 )
M V , 3 = 1 W × H Σ i = 1 W Σ j = 1 H [ V ( i , j ) - V 3 ( i , j ) ] 2 - - - ( 24 )
在式(22)、(23)、(24)中,W表示虚拟视图的图像宽度;H表示虚拟视图的图像高度;V(i,j)表示虚拟视图V中的第i行,第j列的像素值;V1(i,j)表示虚拟视图V1中的第i行,第j列的像素值;V2(i,j)表示虚拟视图V2中的第i行,第j列的像素值,V3(i,j)表示虚拟视图V3中的第i行,第j列的像素值。
步骤7,确定纹理视频的量化步长对虚拟视图失真的影响参数aT和深度图的量化步长对虚拟视图失真的影响参数aD
依据MV,1,MV,2,MV,3以及纹理视频的量化步长QT,1、QT,2,深度图的量化步长QD,1、QD,2,以及步骤1中的定义,建立如下方程组:
MV,1=aT×QT,1+aD×QD,1+C
MV,2=aT×QT,1+aD×QD,2+C    (25)
MV,3=aT×QT,2+aD×QD,2+C
求解该方程组,确定式(15)中纹理视频的量化步长对虚拟视图失真的影响参数aT和深度图的量化步长对虚拟视图失真的影响参数aD
a D = M V , 1 - M V , 2 Q D , 1 - Q D , 2 - - - ( 26 )
a T = M V , 2 - M V , 3 Q T , 1 - Q T , 2 . - - - ( 27 )
步骤8,计算纹理视频的最优的量化步长以及深度图的最优量化步长。
依据信道带宽以及存储设备缓冲区大小,得到纹理视频以及该纹理视频对应的深度图的总码率Rc;并依据所述参数mD、nD、mT、nT、aT和aD,通过下式计算出最优的纹理视频量化步长QT opt以及深度图的量化步长QD opt
Q D opt = a T a D × m D m T × ( m T + a D × m T × m D a T ) R c - n T - n D - - - ( 28 )
Q T opt = m T + a D × m T × m D a T R c - n T - n D . - - - ( 29 )
步骤9,实现最优的纹理视频与深度图的码率分配。
将量化步长QT opt设为编码器的量化步长,对纹理视频编码,得到纹理视频编码比特数BT;再用BT除以视频帧率F,得到
Figure GSA00000086767400095
将量化步长QD opt设为编码器的量化步长,对深度图编码,得到深度图的编码比特数BD,再用BD除以视频帧率F,得到
本发明的效果可以通过实验进一步说明。
实验测试了在不同的总码率条件下,采用本发明进行纹理视频、深度图码率分配之后,合成虚拟视图的质量。图3比较了采用本发明、固定比例的码率分配方法和基于搜索的码率分配方法进行码率分配后,合成虚拟视图的客观质量PSNR。其中图3(a)是对三维视频序列AKKO&KAYO的纹理视频和深度图进行码率分配的实验结果,图3(b)是对三维视频序列Altmoabit的纹理视频和深度图进行码率分配的实验结果,图3(c)是对三维视频序列Ballet的纹理视频和深度图进行码率分配的实验结果。由图3可见,采用本发明进行码率分配后,合成的虚拟视图的客观质量与采用基于搜索的码率分配方法后,合成的虚拟视图的客观质量相当,说明本发明可以实现最优的码率分配。此外,由图3(c)还可以看出,相比固定比例的码率分配方法,采用本发明进行码率分配后,合成虚拟视图的客观质量PNSR最高可提高1.1dB。
本发明与固定比例的码率分配方法相比,合成虚拟视图的主观质量如图4所示,其中图4(a)为采用固定比例的码率分配方法为Ballet三维视频序列的纹理视频和深度图进行码率分配后合成的虚拟视图的主观效果,图4(b)为采用本发明为Ballet三维视频序列的纹理视频和深度图进行码率分配后合成的虚拟视图的主观效果,由图4可见,采用本发明进行码率分配后,合成的虚拟视图的主观质量有明显提高,
相比基于搜索的码率分配方法,本发明仅需要分别为纹理视频及其对应的深度图任意选取两个量化步长QT,1、QT,2与QD,1、QD,2,对纹理视频与深度图分别进行两次预编码,然后通过计算即可实现最优的纹理视频与深度图的码率分配。而基于搜索的码率分配方法需要选取量化步长取值范围内的所有量化步长对纹理视频与其对应的深度图进行编码,并且至少需要对纹理视频和该纹理视频对应的深度图分别编码20次。可见本发明的复杂度仅为现有基于搜索的码率分配算法的10%。

Claims (3)

1.一种基于模型的纹理视频与深度图的最优码率分配方法,包括如下步骤:
(1)定义虚拟视图失真MV为:
MV=aT×QT+aD×QD+C
其中QT表示纹理视频的量化步长,QD表示深度图的量化步长,aT表示QT对MV的影响参数;aD表示QD对MV的影响参数;C表示虚拟视图合成过程中固有的失真;
(2)任意选取两个深度图的量化步长QD,1和QD,2,对深度图进行两次预编码,得到深度图的两个编码码率RD,1与RD,2,并得到编码重建的两个深度图D1与D2
(3)任意选取两个纹理视频的量化步长QT,1和QT,2,对纹理视频进行两次预编码,得到纹理视频的两个编码码率RT,1与RT,2,并得到编码重建的两个纹理视频T1与T2
(4)依据深度图量化步长QD,1和QD,2,以及深度图编码码率RD,1和RD,2,确定深度图的量化步长对深度图编码码率的影响参数mD,以及深度图的固有特征对深度图编码码率的影响参数nD
m D = ( R D , 1 - R D , 2 ) × Q D , 1 × Q D , 2 Q D , 2 - Q D , 1 ,
n D = R D , 1 - ( R D , 1 - R D , 2 ) × Q D , 2 Q D , 2 - Q D , 1 ;
(5)依据纹理视频的量化步长QT,1和QT,2,以及纹理视频的编码码率RT,1和RT,2,确定纹理视频的量化步长对纹理视频的编码码率的影响参数mT,以及纹理视频的固有特征对纹理视频编码码率的影响参数nT
m T = ( R T , 1 - R T , 2 ) × Q T , 1 × Q T , 2 Q T , 2 - Q T , 1 ,
n T = R T , 1 - ( R T , 1 - R T , 2 ) × Q T , 2 Q T , 2 - Q T , 1 ;
(6)依据步骤(2)中编码重建的两个深度图D1和D2,以及步骤(3)中编码重建的两个纹理视频T1和T2,在同一个视点合成三个具有不同质量的虚拟视图,并计算这三个虚拟视图的失真MV,1,MV,2,MV,3
(7)依据虚拟视图的失真MV,1、MV,2和MV,3,纹理视频的量化步长QT,1和QT,2,深度图的量化步长QD,1和QD,2,确定步骤(1)所定义的参数aT与aD
a D = M V , 1 - M V , 2 Q D , 1 - Q D , 2 ,
a T = M V , 2 - M V , 3 Q T , 1 - Q T , 2 ;
(8)依据上述参数mD、nD、mT、nT、aT和aD,计算最优的纹理视频量化步长QT opt和最优的深度图的量化步长QD opt
Q D opt = a T a D × m D m T × ( m T + a D × m T × m D a T ) R c - n T - n D ,
Q T opt = m T + a D × m T × m D a T R c - n T - n D ,
其中,Rc为纹理视频与该纹理视频对应的深度图的总码率;
(9)采用最优的纹理视频量化步长QT opt对纹理视频编码,得到编码码率RT opt,采用最优的深度图的量化步长QD opt对深度图编码,得到编码码率RD opt,完成最优的纹理视频与深度图的码率分配。
2.根据权利要求1所述的最优码率分配方法,其中步骤(9)所述的采用最优的纹理视频量化步长QT opt对纹理视频编码,得到编码码率RT opt,是将量化步长QT opt设为编码器的量化步长,对纹理视频编码,得到纹理视频编码比特数BT;再用BT除以帧率F,得到
3.根据权利要求1所述的最优码率分配方法,其中步骤(9)所述的采用最优的深度图量化步长QD opt对深度图编码,得到编码码率RD opt,是将量化步长QD opt设为编码器的量化步长,对深度图编码,得到深度图的编码比特数BD;再用BD除以帧率F,得到
Figure FSA00000086767300032
CN 201010161550 2010-04-29 2010-04-29 基于模型的纹理视频与深度图的最优码率分配方法 Expired - Fee Related CN101835056B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN 201010161550 CN101835056B (zh) 2010-04-29 2010-04-29 基于模型的纹理视频与深度图的最优码率分配方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN 201010161550 CN101835056B (zh) 2010-04-29 2010-04-29 基于模型的纹理视频与深度图的最优码率分配方法

Publications (2)

Publication Number Publication Date
CN101835056A true CN101835056A (zh) 2010-09-15
CN101835056B CN101835056B (zh) 2011-12-07

Family

ID=42718956

Family Applications (1)

Application Number Title Priority Date Filing Date
CN 201010161550 Expired - Fee Related CN101835056B (zh) 2010-04-29 2010-04-29 基于模型的纹理视频与深度图的最优码率分配方法

Country Status (1)

Country Link
CN (1) CN101835056B (zh)

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102413353A (zh) * 2011-12-28 2012-04-11 清华大学 立体视频编码过程的多视点视频和深度图的码率分配方法
CN103139554A (zh) * 2011-11-22 2013-06-05 浙江大学 一种三维视频率失真优化方法及优化装置
CN103402097A (zh) * 2013-08-15 2013-11-20 清华大学深圳研究生院 一种自由视点视频深度图编码方法及其失真预测方法
CN103826135A (zh) * 2013-12-24 2014-05-28 浙江大学 基于恰可识别视差错误估计的三维视频深度图编码方法
CN103997635A (zh) * 2014-04-11 2014-08-20 清华大学深圳研究生院 自由视点视频的合成视点失真预测方法及编码方法
WO2014166426A1 (en) * 2013-04-12 2014-10-16 Mediatek Inc. Method and apparatus of compatible depth dependent coding
WO2015000339A1 (en) * 2013-07-01 2015-01-08 Mediatek Singapore Pte. Ltd. Method of texture merging candidate derivation in 3d video coding
CN104284196A (zh) * 2014-10-28 2015-01-14 天津大学 彩色与深度视频联合编码的比特分配及码率控制算法
CN104519365A (zh) * 2015-01-14 2015-04-15 山东大学 一种应用于3个视点视频编码的视点间比特分配方法
CN104539971A (zh) * 2015-01-14 2015-04-22 山东大学 一种应用于2个视点视频编码的视点间比特分配方法
CN104717515A (zh) * 2015-03-24 2015-06-17 上海大学 基于3d-hevc的纹理视频和深度图码率分配方法
CN106162198A (zh) * 2016-08-31 2016-11-23 重庆邮电大学 基于不规则匀质块分割的三维视频深度图编码及解码方法
CN106331728A (zh) * 2016-09-06 2017-01-11 西安电子科技大学 用于多视点深度视频编码的虚拟视点合成失真预测方法
CN103763633B (zh) * 2014-02-20 2017-05-03 中国科学院声学研究所 基于OpenFlow的3D视频传输方法
WO2020244296A1 (zh) * 2019-06-04 2020-12-10 万维数码有限公司 用于帧内编码深度图多层表示的系统和方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101521829A (zh) * 2009-01-23 2009-09-02 浙江大学 一种深度图像序列处理的方法及装置
CN101600108A (zh) * 2009-06-26 2009-12-09 北京工业大学 一种多视点视频编码中的运动和视差联合估计方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101521829A (zh) * 2009-01-23 2009-09-02 浙江大学 一种深度图像序列处理的方法及装置
CN101600108A (zh) * 2009-06-26 2009-12-09 北京工业大学 一种多视点视频编码中的运动和视差联合估计方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
《西安交通大学学报》 20100228 刘晓仙,常义林,杨海涛,元辉 任意视点电视系统中深度数据的自适应非均匀量化方法 82-87 1-3 第44卷, 第2期 2 *

Cited By (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103139554A (zh) * 2011-11-22 2013-06-05 浙江大学 一种三维视频率失真优化方法及优化装置
CN103139554B (zh) * 2011-11-22 2016-12-21 浙江大学 一种三维视频率失真优化方法及优化装置
CN102413353B (zh) * 2011-12-28 2014-02-19 清华大学 立体视频编码过程的多视点视频和深度图的码率分配方法
CN102413353A (zh) * 2011-12-28 2012-04-11 清华大学 立体视频编码过程的多视点视频和深度图的码率分配方法
WO2014166426A1 (en) * 2013-04-12 2014-10-16 Mediatek Inc. Method and apparatus of compatible depth dependent coding
US10306225B2 (en) 2013-07-01 2019-05-28 Hfi Innovation Inc. Method of texture merging candidate derivation in 3D video coding
WO2015000339A1 (en) * 2013-07-01 2015-01-08 Mediatek Singapore Pte. Ltd. Method of texture merging candidate derivation in 3d video coding
CN103402097B (zh) * 2013-08-15 2016-08-10 清华大学深圳研究生院 一种自由视点视频深度图编码方法及其失真预测方法
CN103402097A (zh) * 2013-08-15 2013-11-20 清华大学深圳研究生院 一种自由视点视频深度图编码方法及其失真预测方法
CN103826135A (zh) * 2013-12-24 2014-05-28 浙江大学 基于恰可识别视差错误估计的三维视频深度图编码方法
CN103826135B (zh) * 2013-12-24 2017-02-08 浙江大学 基于恰可识别视差错误估计的三维视频深度图编码方法
CN103763633B (zh) * 2014-02-20 2017-05-03 中国科学院声学研究所 基于OpenFlow的3D视频传输方法
CN103997635A (zh) * 2014-04-11 2014-08-20 清华大学深圳研究生院 自由视点视频的合成视点失真预测方法及编码方法
CN103997635B (zh) * 2014-04-11 2015-10-28 清华大学深圳研究生院 自由视点视频的合成视点失真预测方法及编码方法
CN104284196A (zh) * 2014-10-28 2015-01-14 天津大学 彩色与深度视频联合编码的比特分配及码率控制算法
CN104284196B (zh) * 2014-10-28 2017-06-30 天津大学 彩色与深度视频联合编码的比特分配及码率控制算法
CN104539971A (zh) * 2015-01-14 2015-04-22 山东大学 一种应用于2个视点视频编码的视点间比特分配方法
CN104519365A (zh) * 2015-01-14 2015-04-15 山东大学 一种应用于3个视点视频编码的视点间比特分配方法
CN104539971B (zh) * 2015-01-14 2017-06-30 山东大学 一种应用于2个视点视频编码的视点间比特分配方法
CN104519365B (zh) * 2015-01-14 2017-07-28 山东大学 一种应用于3个视点视频编码的视点间比特分配方法
CN104717515A (zh) * 2015-03-24 2015-06-17 上海大学 基于3d-hevc的纹理视频和深度图码率分配方法
CN106162198A (zh) * 2016-08-31 2016-11-23 重庆邮电大学 基于不规则匀质块分割的三维视频深度图编码及解码方法
CN106162198B (zh) * 2016-08-31 2019-02-15 重庆邮电大学 基于不规则匀质块分割的三维视频深度图编码及解码方法
CN106331728A (zh) * 2016-09-06 2017-01-11 西安电子科技大学 用于多视点深度视频编码的虚拟视点合成失真预测方法
CN106331728B (zh) * 2016-09-06 2019-05-07 西安电子科技大学 用于多视点深度视频编码的虚拟视点合成失真预测方法
WO2020244296A1 (zh) * 2019-06-04 2020-12-10 万维数码有限公司 用于帧内编码深度图多层表示的系统和方法

Also Published As

Publication number Publication date
CN101835056B (zh) 2011-12-07

Similar Documents

Publication Publication Date Title
CN101835056B (zh) 基于模型的纹理视频与深度图的最优码率分配方法
CN101888566B (zh) 立体视频编码率失真性能估计方法
US10931956B2 (en) Methods for MR-DIBR disparity map merging and disparity threshold determination
CN102413353B (zh) 立体视频编码过程的多视点视频和深度图的码率分配方法
CN102281446B (zh) 一种分布式视频编码中基于视觉感知特性的量化方法
CN102137258B (zh) 一种立体视频码率控制方法
CN103828359A (zh) 使用织锦编码的多视图图像的表现和代码化
CN103347188B (zh) 一种分布式视频编码非关键帧压缩感知编解码方法
CN101674472A (zh) 多视点视频编码的多级码率控制方法
CN108347611A (zh) 用于经纬图的编码块级拉格朗日乘子的优化方法
CN104159095A (zh) 一种多视点纹理视频和深度图编码的码率控制方法
CN103402097A (zh) 一种自由视点视频深度图编码方法及其失真预测方法
Liu et al. Coarse to fine rate control for region-based 3D point cloud compression
CN103096048A (zh) 一种可伸缩视频编码量化参数确定方法及装置
CN102740081B (zh) 一种基于分布式编码技术的多视点视频传输差错控制方法
CN101888561B (zh) 一种率失真优化动态调整的多视点视频传输差错控制方法
CN103096076B (zh) 视频编码方法
CN102158710B (zh) 一种面向虚拟视图质量的深度图编码率失真判断方法
CN102595166B (zh) 一种适用于深度图编码的拉格朗日因子计算方法
CN102333230A (zh) 一种提高三维视频系统中合成虚拟视图质量的方法
CN103414889A (zh) 一种基于双目恰可察觉失真的立体视频码率控制方法
CN103379349B (zh) 一种视点合成预测编码方法、解码方法、对应的装置及码流
CN102724524B (zh) 一种基于h.264 的立体视频码率控制方法
CN102355582B (zh) 一种三维立体视频编码的率失真模型优化方法
CN103702120A (zh) 一种合成视点主观失真估计方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20111207

Termination date: 20170429