CN102523468B - 一种三维立体视频编码的最佳码率比重确立方法 - Google Patents

一种三维立体视频编码的最佳码率比重确立方法 Download PDF

Info

Publication number
CN102523468B
CN102523468B CN201110422409.9A CN201110422409A CN102523468B CN 102523468 B CN102523468 B CN 102523468B CN 201110422409 A CN201110422409 A CN 201110422409A CN 102523468 B CN102523468 B CN 102523468B
Authority
CN
China
Prior art keywords
video
original
color video
viewpoint
right viewpoint
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
CN201110422409.9A
Other languages
English (en)
Other versions
CN102523468A (zh
Inventor
邵枫
蒋刚毅
郁梅
李福翠
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ningbo University
Original Assignee
Ningbo University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ningbo University filed Critical Ningbo University
Priority to CN201110422409.9A priority Critical patent/CN102523468B/zh
Publication of CN102523468A publication Critical patent/CN102523468A/zh
Application granted granted Critical
Publication of CN102523468B publication Critical patent/CN102523468B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

本发明公开了一种三维立体视频编码的最佳码率比重确立方法,其通过建立对原始左视点彩色视频、原始右视点彩色视频与原始左视点深度视频、原始右视点深度视频进行编码的码率分配模型,并通过幂指数拟合方法建立编码码率与绘制失真的关系模型,然后对码率分配模型进行优化,建立对原始左视点彩色视频、原始右视点彩色视频和原始左视点深度视频、原始右视点深度视频进行编码的总码率与最佳码率比重的关系模型,本发明方法在保证较高的虚拟视点图像质量的前提下,避免了在编码过程中进行复杂的码率分配操作,大大简化了编码过程。

Description

一种三维立体视频编码的最佳码率比重确立方法
技术领域
本发明涉及一种视频信号的编码压缩方法,尤其是涉及一种三维立体视频编码的最佳码率比重确立方法。
背景技术
进入本世纪以来,随着数字2D(二维)视频技术日趋成熟,以及计算机、通信及网络技术的快速发展,引发了人们对新一代视频系统的强烈需求。现行的二维视频系统在表现自然场景时,难以满足用户的立体感和视点交互等的需求。三维视频系统由于能够提供立体感、视点交互性的全新视觉体验而越来越受到人们的欢迎,在无线视频通信、影视娱乐、数字动漫、虚拟战场、旅游观光、远程教学等领域有着广泛的应用前景。通常,三维视频系统如图1所示,其主要包括采集、视频编码、视频传输、视频解码和3D(三维)显示等模块。
多视点视频加深度(multi-view video plus depth,MVD)是目前ISO/MPEG推荐采用的3D场景信息表示方式。MVD数据在多视点彩色图像基础上增加了对应视点的深度信息,通过利用参考视点的彩色图像及该参考视点的彩色图像中的每个像素对应的深度信息,采用基于深度图像的绘制技术来合成三维场景的虚拟视点图像。然而,现有的三维立体视频编码的研究并没有充分考虑彩色视频与深度视频的最优码率比重问题,这是因为:一方面,不同测试序列的彩色视频的编码失真和深度视频的编码失真对虚拟视点绘制的影响是各不相同的,应当采用合适的码率比重对不同的测试序列进行码率分配;另一方面,在不同的总码率下彩色视频的编码失真和深度视频的编码失真对虚拟视点绘制的影响也是各不相同的,因此,如何通过最佳的曲线逼近来建立码率比重与总码率的关系模型,是对MVD数据的编码过程中需要研究解决的问题。
发明内容
本发明所要解决的技术问题是提供一种三维立体视频编码的最佳码率比重确立方法,其能够有效地提高虚拟视点图像的质量,并简化码率分配操作和编码过程。
本发明解决上述技术问题所采用的技术方案为:一种三维立体视频编码的最佳码率比重确立方法,其特征在于包括以下步骤:
①将外部立体视频捕获工具捕获得到的未经处理的且颜色空间为YUV的彩色立体视频及其对应的深度立体视频定义为原始三维立体视频,在空域上该原始三维立体视频包括原始左视点三维视频和原始右视点三维视频,原始左视点三维视频包括原始左视点彩色视频和原始左视点深度视频,原始左视点彩色视频主要由若干个帧组的原始左视点彩色图像组成,原始左视点深度视频主要由若干个帧组的原始左视点深度图像组成,原始右视点三维视频包括原始右视点彩色视频和原始右视点深度视频,原始右视点彩色视频主要由若干个帧组的原始右视点彩色图像组成,原始右视点深度视频主要由若干个帧组的原始右视点深度图像组成,其中,YUV颜色空间的三个颜色分量的第1个分量为亮度分量并记为Y、第2个分量为第一色度分量并记为U及第3个分量为第二色度分量并记为V;
将介于左视点与右视点之间的视点作为虚拟视点;
②建立对原始左视点彩色视频、原始右视点彩色视频与原始左视点深度视频、原始右视点深度视频进行编码的码率分配模型,记为
Figure BDA0000121033260000021
以保证获得最优的绘制质量,其中,min[]为取最小值函数,Rc表示预先设定的对原始左视点彩色视频、原始右视点彩色视频与原始左视点深度视频、原始右视点深度视频进行编码的总码率,Rt表示对原始左视点彩色视频、原始右视点彩色视频进行编码的码率,Rd表示对原始左视点深度视频、原始右视点深度视频进行编码的码率,Dv(Rt,Rd)表示对以码率Rt分别对原始左视点彩色视频、原始右视点彩色视频进行编码得到的解码左视点彩色视频、解码右视点彩色视频和以码率Rd分别对对应的原始左视点深度视频、原始右视点深度视频进行编码得到的解码左视点深度视频、解码右视点深度视频进行虚拟视点图像绘制的绘制失真;
③将Dv(Rt,Rd)近似表示为: D v ( R t , R d ) ≅ D t ( R t ) + D d ( R d ) , 其中,Dt(Rt)表示对以码率Rt分别对原始左视点彩色视频、原始右视点彩色视频进行编码得到的解码左视点彩色视频、解码右视点彩色视频和对应的原始左视点深度视频、原始右视点深度视频进行虚拟视点图像绘制的绘制失真,Dd(Rd)表示对原始左视点彩色视频、原始右视点彩色视频和以码率Rd分别对对应的原始左视点深度视频、原始右视点深度视频进行编码得到的解码左视点深度视频、解码右视点深度视频进行虚拟视点图像绘制的绘制失真;
④通过幂指数拟合方法建立对原始左视点彩色视频、原始右视点彩色视频进行编码的码率Rt与Dt(Rt)的关系模型,记为 D t ( R t ) ≅ α t × ( R t ) β t , 通过幂指数拟合方法建立对原始左视点深度视频、原始右视点深度视频进行编码的码率Rd与Dd(Rd)的关系模型,记为 D d ( R d ) ≅ α d × ( R d ) β d , 其中,αt和βt均为 D t ( R t ) ≅ α t × ( R t ) β t 中的模型参数,αd和βd均为 D d ( R d ) ≅ α d × ( R d ) β d 中的模型参数;
⑤根据Rt与Dt(Rt)的关系模型 D t ( R t ) ≅ α t × ( R t ) β t 及Rd与Dd(Rd)的关系模型 D d ( R d ) ≅ α d × ( R d ) β d , 对码率分配模型 min [ D v ( R t , R d ) ] s . t . R t + R d ≤ R c 进行优化,将优化后的码率分配模型表示为: min [ α t × ( R t ) β t + α d × ( R d ) β d ] s . t . R t + R d ≤ R c ;
⑥根据优化后的码率分配模型 min [ α t × ( R t ) β t + α d × ( R d ) β d ] s . t . R t + R d ≤ R c , 通过全搜索方法获取在不同的总码率Rc下对原始左视点彩色视频、原始右视点彩色视频与原始左视点深度视频、原始右视点深度视频进行编码的最佳码率比重,将其记为α,α=f(Rc), f ( R c ) = α c × ( R c ) β c , 其中,f()为函数表示形式,α=f(Rc)表示α为Rc的函数,αc和βc均为 f ( R c ) = α c × ( R c ) β c 中的模型参数。
所述的步骤③的具体过程为:
③-1、假定Sv表示由原始左视点彩色图像、原始右视点彩色图像和对应的原始左视点深度图像、原始右视点深度图像进行虚拟视点图像绘制得到的虚拟视点图像,
Figure BDA00001210332600000312
表示由以码率Rt分别对原始左视点彩色图像、原始右视点彩色图像进行编码得到的解码左视点彩色图像、解码右视点彩色图像和以码率Rd分别对对应的原始左视点深度图像、原始右视点深度图像进行编码得到的解码左视点深度图像、解码右视点深度图像进行虚拟视点图像绘制得到的虚拟视点图像,
Figure BDA00001210332600000313
表示由以码率Rt分别对原始左视点彩色图像、原始右视点彩色图像进行编码得到的解码左视点彩色图像、解码右视点彩色图像和对应的原始左视点深度图像、原始右视点深度图像进行虚拟视点图像绘制得到的虚拟视点图像,
Figure BDA00001210332600000314
表示由原始左视点彩色图像、原始右视点彩色图像和以码率Rd分别对对应的原始左视点深度图像、原始右视点深度图像进行编码得到的解码左视点深度图像、解码右视点深度图像进行虚拟视点图像绘制得到的虚拟视点图像,则将Dv(Rt,Rd)表示为: D v ( R t , R d ) = E { ( S v - S ^ v ) 2 } = E { ( S v - S ‾ v + S ‾ v - S ^ v ) 2 } , 其中,表示求的数学期望值;
③-2通过多项式分解将
Figure BDA0000121033260000044
表示为: E { ( S v - S ^ v ) 2 } = E { ( S v - S ‾ v ) 2 } + E { ( S ‾ v - S ^ v ) 2 } + 2 × E { ( S v - S ‾ v ) ( S ‾ v - S ^ v ) } , 其中,
Figure BDA0000121033260000046
表示求
Figure BDA0000121033260000047
的数学期望值,
Figure BDA0000121033260000048
表示求
Figure BDA0000121033260000049
的数学期望值,
Figure BDA00001210332600000410
表示求
Figure BDA00001210332600000411
的数学期望值;
③-3、根据 E { ( S v - S ‾ v ) ( S ‾ v - S ^ v ) } ≅ 0 E { ( S ‾ v - S ^ v ) 2 } ≅ E { ( S v - S ~ v ) 2 } , 将Dv(Rt,Rd)近似表示为: D v ( R t , R d ) ≅ E { ( S v - S ‾ v ) 2 } + E { ( S v - S ~ v ) 2 } , 其中,
Figure BDA00001210332600000415
表示求
Figure BDA00001210332600000416
的数学期望值;
③-4、将
Figure BDA00001210332600000417
表示为对以码率Rt分别对原始左视点彩色视频、原始右视点彩色视频进行编码得到的解码左视点彩色视频、解码右视点彩色视频和对应的原始左视点深度视频、原始右视点深度视频进行虚拟视点图像绘制的绘制失真,记为Dt(Rt),将
Figure BDA00001210332600000418
表示为对原始左视点彩色视频、原始右视点彩色视频和以码率Rd分别对对应的原始左视点深度视频、原始右视点深度视频进行编码得到的解码左视点深度视频、解码右视点深度视频进行虚拟视点图像绘制的绘制失真,记为Dd(Rd),根据 E { ( S v - S ~ v ) 2 } = D t ( R t ) E { ( S v - S - v ) 2 } = D d ( R d ) , 将Dv(Rt,Rd)近似表示为: D v ( R t , R d ) ≅ D t ( R t ) + D d ( R d ) .
所述的步骤④的具体过程为:
④-1、任取一个不大于44的编码量化参数作为原始左视点彩色视频、原始右视点彩色视频的编码量化参数,记为QPt0,得到以该编码量化参数QPt0对原始左视点彩色视频、原始右视点彩色视频进行编码的平均码率,记为Rt0,将由原始左视点彩色视频、原始右视点彩色视频和对应的原始左视点深度视频、原始右视点深度视频进行虚拟视点图像绘制得到的虚拟视点视频记为将由以编码量化参数QPt0分别对原始左视点彩色视频、原始右视点彩色视频进行编码得到的解码左视点彩色视频、解码右视点彩色视频和对应的原始左视点深度视频、原始右视点深度视频进行虚拟视点图像绘制得到的虚拟视点视频记为Iv(QPt0),计算
Figure BDA0000121033260000052
与Iv(QPt0)的均方差,作为对以编码量化参数QPt0分别对原始左视点彩色视频、原始右视点彩色视频进行编码得到的解码左视点彩色视频、解码右视点彩色视频和对应的原始左视点深度视频、原始右视点深度视频进行虚拟视点图像绘制的绘制失真,记为Dt0
④-2、选取N个大于QPt0且各不相同的编码量化参数,分别记为QPt1,…,QPti,…,QPtN,采用该N个不同的编码量化参数QPt1,…,QPti,…,QPtN分别对原始左视点彩色视频、原始右视点彩色视频进行编码,分别得到以该N个不同的编码量化参数对原始左视点彩色视频、原始右视点彩色视频进行编码的平均码率,对应的分别记为Rt1,…,Rti,…,RtN,计算得到由以该N个不同的编码量化参数分别对原始左视点彩色视频、原始右视点彩色视频进行编码得到的解码左视点彩色视频、解码右视点彩色视频和对应的原始左视点深视频、原始右视点深度视频进行虚拟视点图像绘制的绘制失真,对应的分别记为Dt1,…,Dti,…,DtN,其中,1≤i≤N,QPti=QPt0+i;
④-3、根据由Rt0和Rt1,…,Rti,…,RtN组成的对原始左视点彩色视频、原始右视点彩色视频进行编码的平均码率集合{Rtj|0≤j≤N}及由Dt0和Dt1,…,Dti,…,DtN组成的绘制失真集合{Dtj|0≤j≤N},通过幂指数拟合方法建立对原始左视点彩色视频、原始右视点彩色视频进行编码的码率Rt与对以采用{QPtj|0≤j≤N}中的各个编码量化参数分别对原始左视点彩色视频、原始右视点彩色视频进行编码得到的解码左视点彩色视频、解码右视点彩色视频与对应的原始左视点深度视频、原始右视点深度视频进行虚拟视点图像绘制的绘制失真集合{Dtj|0≤j≤N}中的任意一个绘制失真Dt的关系模型,记为 D t ( R t ) ≅ α t × ( R t ) β t , 其中,Rt表示{Rtj|0≤j≤N}中的任意一个平均码率,αt和βt均为 D t ( R t ) ≅ α t × ( R t ) β t 中的模型参数;
④-4、任取一个不大于44的编码量化参数作为原始左视点深度视频、原始右视点深度视频的编码量化参数,记为QPd0,得到以该编码量化参数QPd0对原始左视点深度视频、原始右视点深度视频进行编码的平均码率,记为Rd0,将由原始左视点彩色视频、原始右视点彩色视频和以编码量化参数QPd0分别对对应的原始左视点深度视频、原始右视点深度视频进行编码得到的解码左视点深度视频、解码右视点深度视频进行虚拟视点图像绘制得到的虚拟视点视频记为Iv(QPd0),计算
Figure BDA0000121033260000061
与Iv(QPd0)的均方差,作为对原始左视点彩色视频、原始右视点彩色视频和以编码量化参数QPd0分别对对应的原始左视点深度视频、原始右视点深度视频进行编码得到的解码左视点深度视频、解码右视点深度视频进行虚拟视点图像绘制的绘制失真,记为Dd0
④-5、选取N个大于QPd0且各不相同的编码量化参数,分别记为QPd1,…,QPdi,…,QPdN,采用该N个不同的编码量化参数QPd1,…,QPdi,…,QPdN分别对原始左视点深度视频、原始右视点深度视频进行编码,分别得到以该N个不同的编码量化参数对原始左视点深度视频、原始右视点深度视频进行编码的平均码率,对应的分别记为Rd1,…,Rdi,…,RdN,计算得到由原始左视点彩色视频、原始右视点彩色视频和以该N个不同的编码量化参数分别对对应的原始左视点深度视频、原始右视点深度视频进行编码得到的解码左视点深度视频、解码右视点深度视频进行虚拟视点图像绘制的绘制失真,对应的分别记为Dd1,…,Ddi,…,DdN,其中,1≤i≤N,QPdi=QPd0+i;
④-6、根据由Rd0和Rd1,…,Rdi,…,RdN组成的对原始左视点深度视频、原始右视点深度视频进行编码的平均码率集合{Rdj|0≤j≤N}及由Dd0和Dd1,…,Ddi,…,DdN组成的绘制失真集合{Ddj|0≤j≤N},通过幂指数拟合方法建立对原始左视点深度视频、原始右视点深度视频进行编码的码率Rd与对原始左视点彩色视频、原始右视点彩色视频与以采用{QPdj|0≤j≤N}中的各个编码量化参数分别对对应的原始左视点深度视频、原始右视点深度视频进行编码得到的解码左视点深度视频、解码右视点深度视频进行虚拟视点图像绘制的绘制失真集合{Ddj|0≤j≤N}中的任意一个绘制失真Dd的关系模型,记为 D d ( R d ) ≅ α d × ( R d ) β d , 其中,Rd表示{Rdj|0≤j≤N}中的任意一个平均码率,αd和βd均为 D d ( R d ) ≅ α d × ( R d ) β d 中的模型参数。
所述的步骤⑥的具体过程为:
⑥-1、选取M个大于100且各不相同的码率,分别记为Rc1,…,Rcj,…,RcM,将由Rc1,…,Rcj,…,RcM组成的对原始左视点彩色视频、原始右视点彩色视频与原始左视点深度视频、原始右视点深度视频进行编码的总码率集合记为Ψ,Ψ={Rcj|1≤j≤M},其中,M≥1;
⑥-2、选取总码率集合Ψ={Rcj|1≤j≤M}中的第1个总码率Rc1作为对原始左视点彩色视频、原始右视点彩色视频与原始左视点深度视频、原始右视点深度视频进行编码的总码率,假定对原始左视点彩色视频、原始右视点彩色视频进行编码的码率占总码率Rc1的最小码率比重为0.1,假定对原始左视点彩色视频、原始右视点彩色视频进行编码的码率占总码率Rc1的最大码率比重为0.9,则根据对原始左视点彩色视频、原始右视点彩色视频与原始左视点深度视频、原始右视点深度视频进行编码的总码率Rc1,计算对原始左视点彩色视频、原始右视点彩色视频进行编码的最小码率和最大码率,分别记为Rtmin和Rtmax,Rtmin=0.1×Rc1,Rtmax=0.9×Rc1
⑥-3、将对原始左视点彩色视频、原始右视点彩色视频进行编码的码率集合记为Ω,Ω={Rt|Rtmin≤Rt≤Rtmax},然后从对原始左视点彩色视频、原始右视点彩色视频进行编码的码率集合Ω中任取一个码率,记为Rt′,Rt′∈Ω,再计算对原始左视点深度视频、原始右视点深度视频进行编码的码率,记为Rd′,Rd′=Rc1-Rt′;
⑥-4、计算对以码率Rt′分别对原始左视点彩色视频、原始右视点彩色视频进行编码得到的解码左视点彩色视频、解码右视点彩色视频和以码率Rd′分别对原始左视点深度视频、原始右视点深度视频进行编码得到的解码左视点深度视频、解码右视点深度视频进行虚拟视点图像绘制的绘制失真,记为COST′, COST ′ = α t × ( R t ′ ) β t + α d × ( R d ′ ) β d , 其中,αt和βt均为 D t ( R t ) ≅ α t × ( R t ) β t 中的模型参数,αd和βd均为 D d ( R d ) ≅ α d × ( R d ) β d 中的模型参数;
⑥-5、从对原始左视点彩色视频、原始右视点彩色视频进行编码的码率集合Ω中任取n个值不等于Rt′且各不相同的码率,分别记任取的n个码率为R″t1,…,R″ti,…,R″tn;然后从任取的n个码率中的第1个码率R″t1开始,按照步骤⑥-4的操作处理,直至获得任取的n个码率对应的绘制失真,分别记为COST″1,…,COST″i,…,COST″n,其中,2≤n≤Rtmax-Rtmin-1,1≤i≤n,R″t1表示任取的n个码率中的第1个码率,R″ti表示任取的n个码率中的第i个码率,R″tn表示任取的n个码率中的第n个码率,COST″1表示R″t1对应的绘制失真,COST″i表示R″ti对应的绘制失真,COST″n表示R″tn对应的绘制失真;
⑥-6、从COST′和{COST″1,…,COST″i,…,COST″n}中找出值最小的绘制失真,记为COSTmin,再将COSTmin对应的对原始左视点彩色视频、原始右视点彩色视频进行编码的码率作为对原始左视点彩色视频、原始右视点彩色视频进行编码的最佳码率,记为
Figure BDA0000121033260000081
将COSTmin对应的对原始左视点深度视频、原始右视点深度视频进行编码的码率作为对原始左视点深度视频、原始右视点深度视频进行编码的最佳码率,记为
Figure BDA0000121033260000082
得到在总码率Rc1下对原始左视点彩色视频、原始右视点彩色视频与原始左视点深度视频、原始右视点深度视频进行编码的最佳码率比重,记为α1
Figure BDA0000121033260000083
⑥-7、按照步骤⑥-2至步骤⑥-6计算在总码率Rc1下对原始左视点彩色视频、原始右视点彩色视频与原始左视点深度视频、原始右视点深度视频进行编码的最佳码率比重α1的操作,分别获取在Ψ={Rcj|1≤j≤M}中任取M-1个值不等于Rc1且各不相同的码率下对原始左视点彩色视频、原始右视点彩色视频与原始左视点深度视频、原始右视点深度视频进行编码的最佳码率比重,分别记为α2,…,αj,…,αM,由α1及α2,…,αj,…,αM构成最佳码率比重集合,记为Θ={αj|1≤j≤M},通过幂指数拟合方法建立对原始左视点彩色视频、原始右视点彩色视频与原始左视点深度视频、原始右视点深度视频进行编码的总码率Rc与最佳码率比重集合Θ={αj|1≤j≤M}中的任意一个码率比重α的关系模型,记为α,α=f(Rc), f ( R c ) = α c × ( R c ) β c , 其中,αc和βc均为 f ( R c ) = α c × ( R c ) β c 中的模型参数。
与现有技术相比,本发明的优点在于:
1)本发明方法根据彩色视频的编码失真和深度视频的编码失真对虚拟视点图像绘制的影响,建立对原始左视点彩色视频、原始右视点彩色视频与原始左视点深度视频、原始右视点深度视频进行编码的码率分配模型,并对码率分配模型进行了优化,避免了在编码过程中进行复杂的虚拟视点绘制操作,大大提高了码率分配模型的有效性。
2)本发明方法通过建立对原始左视点彩色视频、原始右视点彩色视频与原始左视点深度视频、原始右视点深度视频进行编码的码率分配模型,并通过幂指数拟合方法建立编码码率与绘制失真的关系模型,然后对码率分配模型进行优化,建立对原始左视点彩色视频、原始右视点彩色视频与原始左视点深度视频、原始右视点深度视频进行编码的总码率与最佳码率比重的关系模型,本发明方法在保证较高的虚拟视点图像的质量的前提下,避免了在编码过程中进行复杂的码率分配操作,大大简化了编码过程。
附图说明
图1为典型的三维视频系统的组成示意图;
图2a为“Bookarrival”三维视频测试序列的第8个参考视点的一幅彩色图像;
图2b为“Bookarrival”三维视频测试序列的第10个参考视点的一幅彩色图像;
图2c为图2a所示的彩色图像对应的深度图像;
图2d为图2b所示的彩色图像对应的深度图像;
图3a为“Newspaper”三维视频测试序列的第4个参考视点的一幅彩色图像;
图3b为“Newspaper”三维视频测试序列的第6个参考视点的一幅彩色图像;
图3c为图3a所示的彩色图像对应的深度图像;
图3d为图3b所示的彩色图像对应的深度图像;
图4a为“Champagne”三维视频测试序列的第40个参考视点的一幅彩色图像;
图4b为“Champagne”三维视频测试序列的第42个参考视点的一幅彩色图像;
图4c为图4a所示的彩色图像对应的深度图像;
图4d为图4b所示的彩色图像对应的深度图像;
图5a为“Dog”三维视频测试序列的第40个参考视点的一幅彩色图像;
图5b为“Dog”三维视频测试序列的第42个参考视点的一幅彩色图像;
图5c为图5a所示的彩色图像对应的深度图像;
图5d为图5b所示的彩色图像对应的深度图像;
图6为对“Bookarrival”三维视频测试序列的原始左右视点彩色视频与原始左右视点深度视频的编码码率与绘制失真的关系模型进行幂指数拟合的曲线示意图;
图7为对“Newspaper”三维视频测试序列的原始左右视点彩色视频与原始左右视点深度视频的编码码率与绘制失真的关系模型进行幂指数拟合的曲线示意图;
图8为对“Champagne”三维视频测试序列的原始左右视点彩色视频与原始左右视点深度视频的编码码率与绘制失真的关系模型进行幂指数拟合的曲线示意图;
图9为对“Dog”三维视频测试序列的原始左右视点彩色视频与原始左右视点深度视频的编码码率与绘制失真的关系模型进行幂指数拟合的曲线示意图;
图10为对原始左右视点彩色视频与原始左右视点深度视频的编码总码率与最佳码率比重的关系模型进行幂指数拟合的曲线示意图。
具体实施方式
以下结合附图实施例对本发明作进一步详细描述。
本发明提出的一种三维立体视频编码的最佳码率比重确立方法,其主要包括以下步骤:
①将外部立体视频捕获工具捕获得到的未经处理的且颜色空间为YUV的彩色立体视频及其对应的深度立体视频定义为原始三维立体视频,在空域上该原始三维立体视频包括原始左视点三维视频和原始右视点三维视频,原始左视点三维视频包括原始左视点彩色视频和原始左视点深度视频,原始左视点彩色视频主要由若干个帧组的原始左视点彩色图像组成,原始左视点深度视频主要由若干个帧组的原始左视点深度图像组成,原始右视点三维视频包括原始右视点彩色视频和原始右视点深度视频,原始右视点彩色视频主要由若干个帧组的原始右视点彩色图像组成,原始右视点深度视频主要由若干个帧组的原始右视点深度图像组成,其中,YUV颜色空间的三个颜色分量的第1个分量为亮度分量并记为Y、第2个分量为第一色度分量并记为U及第3个分量为第二色度分量并记为V。将介于左视点与右视点之间的视点作为虚拟视点。
在本实施中,采用三维视频测试序列“Bookarrival”、“Newspaper”、“Champagne”和“Dog”作为原始三维立体视频,“Bookarrival”和“Newspaper”这两个三维视频测试序列的各幅彩色图像和各幅深度图像的分辨率均为1024×768,“Champagne”和“Dog”这两个三维视频测试序列的各幅彩色图像和各幅深度图像的分辨率均为1280×960。对于“Bookarrival”三维立体视频,将第8个参考视点作为原始三维立体视频的左视点,将第10个参考视点作为原始三维立体视频的右视点,将第9个视点作为原始三维立体视频的虚拟视点;对于“Newspaper”原始三维立体视频,将第4个参考视点作为原始三维立体视频的左视点,将第6个参考视点作为原始三维立体视频的右视点,将第5个视点作为原始三维立体视频的虚拟视点;对于“Champagne”和“Dog”原始三维立体视频,将第40个参考视点作为原始三维立体视频的左视点,将第42个参考视点作为原始三维立体视频的右视点,将第41个视点作为原始三维立体视频的虚拟视点。图2a和图2b分别给出了“Bookarrival”的第8个和第10个参考视点的彩色图像;图2c和图2d分别给出了“Bookarrival”的第8个和第10个参考视点的深度图像;图3a和图3b分别给出了“Newspaper”的第4个和第6个参考视点的彩色图像;图3c和图3d分别给出了“Newspaper”的第4个和第6个参考视点的深度图像;图4a和图4b分别给出了“Champagne”的第40个和第42个参考视点的彩色图像;图4c和图4d分别给出了“Champagne”的第40个和第42个参考视点的深度图像;图5a和图5b分别给出了“Dog”的第40个和第42个参考视点的彩色图像;图5c和图5d分别给出了“Dog”的第40个和第42个参考视点的深度图像。
②由于原始左视点彩色视频、原始右视点彩色视频的编码失真和原始左视点深度视频、原始右视点深度视频的编码失真都会对虚拟视点图像绘制产生影响,但影响是各不相同的,深度视频图像的编码失真会导致绘制图像出现几何偏移现象,而彩色视频图像的编码失真会直接传播到绘制图像中,因此本发明建立对原始左视点彩色视频、原始右视点彩色视频与原始左视点深度视频、原始右视点深度视频进行编码的码率分配模型,记为
Figure BDA0000121033260000111
以保证获得最优的绘制质量,其中,min[]为取最小值函数,Rc表示预先设定的对原始左视点彩色视频、原始右视点彩色视频与原始左视点深度视频、原始右视点深度视频进行编码的总码率,Rt表示对原始左视点彩色视频、原始右视点彩色视频进行编码的码率,Rd表示对原始左视点深度视频、原始右视点深度视频进行编码的码率,Dv(Rt,Rd)表示对以码率Rt分别对原始左视点彩色视频、原始右视点彩色视频进行编码得到的解码左视点彩色视频、解码右视点彩色视频和以码率Rd分别对对应的原始左视点深度视频、原始右视点深度视频进行编码得到的解码左视点深度视频、解码右视点深度视频进行虚拟视点图像绘制的绘制失真。
③由于原始左视点彩色视频、原始右视点彩色视频的编码失真和原始左视点深度视频、原始右视点深度视频的编码失真对虚拟视点图像绘制的影响既是相互独立又是相互影响的,为简单起见,本发明忽略彩色视频和深度视频之间的相互影响,于是将Dv(Rt,Rd)近似表示为: D v ( R t , R d ) ≅ D t ( R t ) + D d ( R d ) , 其中,Dt(Rt)表示对以码率Rt分别对原始左视点彩色视频、原始右视点彩色视频进行编码得到的解码左视点彩色视频、解码右视点彩色视频和对应的原始左视点深度视频、原始右视点深度视频进行虚拟视点图像绘制的绘制失真,Dd(Rd)表示对原始左视点彩色视频、原始右视点彩色视频和以码率Rd分别对对应的原始左视点深度视频、原始右视点深度视频进行编码得到的解码左视点深度视频、解码右视点深度视频进行虚拟视点图像绘制的绘制失真。
在此具体实施例中,步骤③的具体过程为:
③-1、假定Sv表示由原始左视点彩色图像、原始右视点彩色图像和对应的原始左视点深度图像、原始右视点深度图像进行虚拟视点图像绘制得到的虚拟视点图像,
Figure BDA0000121033260000121
表示由以码率Rt分别对原始左视点彩色图像、原始右视点彩色图像进行编码得到的解码左视点彩色图像、解码右视点彩色图像和以码率Rd分别对对应的原始左视点深度图像、原始右视点深度图像进行编码得到的解码左视点深度图像、解码右视点深度图像进行虚拟视点图像绘制得到的虚拟视点图像,表示由以码率Rt分别对原始左视点彩色图像、原始右视点彩色图像进行编码得到的解码左视点彩色图像、解码右视点彩色图像和对应的原始左视点深度图像、原始右视点深度图像进行虚拟视点图像绘制得到的虚拟视点图像,
Figure BDA0000121033260000123
表示由原始左视点彩色图像、原始右视点彩色图像和以码率Rd分别对对应的原始左视点深度图像、原始右视点深度图像进行编码得到的解码左视点深度图像、解码右视点深度图像进行虚拟视点图像绘制得到的虚拟视点图像,则将Dv(Rt,Rd)表示为: D v ( R t , R d ) = E { ( S v - S ^ v ) 2 } = E { ( S v - S ‾ v + S ‾ v - S ^ v ) 2 } , 其中,
Figure BDA0000121033260000125
表示求
Figure BDA0000121033260000126
的数学期望值。
③-2通过多项式分解将
Figure BDA0000121033260000127
表示为: E { ( S v - S ^ v ) 2 } = E { ( S v - S ‾ v ) 2 } + E { ( S ‾ v - S ^ v ) 2 } + 2 × E { ( S v - S ‾ v ) ( S ‾ v - S ^ v ) } , 其中,
Figure BDA0000121033260000129
表示求
Figure BDA00001210332600001210
的数学期望值,
Figure BDA00001210332600001211
表示求
Figure BDA00001210332600001212
的数学期望值,
Figure BDA00001210332600001213
表示求
Figure BDA00001210332600001214
的数学期望值。
③-3、经大量实验结果表明
Figure BDA00001210332600001215
近似等于0,
Figure BDA00001210332600001216
近似等于
Figure BDA00001210332600001217
因此本发明根据 E { ( S v - S ‾ v ) ( S ‾ v - S ^ v ) } ≅ 0 E { ( S ‾ v - S ^ v ) 2 } ≅ E { ( S v - S ~ v ) 2 } , 将Dv(Rt,Rd)近似表示为: D v ( R t , R d ) ≅ E { ( S v - S ‾ v ) 2 } + E { ( S v - S ~ v ) 2 } , 其中,
Figure BDA00001210332600001221
表示求
Figure BDA0000121033260000131
的数学期望值。
③-4、将
Figure BDA0000121033260000132
表示为对以码率Rt分别对原始左视点彩色视频、原始右视点彩色视频进行编码得到的解码左视点彩色视频、解码右视点彩色视频和对应的原始左视点深度视频、原始右视点深度视频进行虚拟视点图像绘制的绘制失真,记为Dt(Rt),将
Figure BDA0000121033260000133
表示为对原始左视点彩色视频、原始右视点彩色视频和以码率Rd分别对对应的原始左视点深度视频、原始右视点深度视频进行编码得到的解码左视点深度视频、解码右视点深度视频进行虚拟视点图像绘制的绘制失真,记为Dd(Rd),根据 E { ( S v - S ~ v ) 2 } = D t ( R t ) E { ( S v - S - v ) 2 } = D d ( R d ) , 将Dv(Rt,Rd)近似表示为: D v ( R t , R d ) ≅ D t ( R t ) + D d ( R d ) .
④由于对原始左右视点彩色视频和原始左右视点深度视频进行编码的码率的大小直接影响绘制失真的大小,因此本发明通过幂指数拟合方法建立对原始左视点彩色视频、原始右视点彩色视频进行编码的码率Rt与Dt(Rt)的关系模型,记为 D t ( R t ) ≅ α t × ( R t ) β t , 通过幂指数拟合方法建立对原始左视点深度视频、原始右视点深度视频进行编码的码率Rd与Dd(Rd)的关系模型,记为 D d ( R d ) ≅ α d × ( R d ) β d , 其中,αt和βt均为 D t ( R t ) ≅ α t × ( R t ) β t 中的模型参数,αd和βd均为 D d ( R d ) ≅ α d × ( R d ) β d 中的模型参数。
在此具体实施例中,步骤④的具体过程为:
④-1、任取一个不大于44的编码量化参数作为原始左视点彩色视频、原始右视点彩色视频的编码量化参数,记为QPt0,得到以该编码量化参数QPt0对原始左视点彩色视频、原始右视点彩色视频进行编码的平均码率,记为Rt0,将由原始左视点彩色视频、原始右视点彩色视频和对应的原始左视点深度视频、原始右视点深度视频进行虚拟视点图像绘制得到的虚拟视点视频记为
Figure BDA00001210332600001311
将由以编码量化参数QPt0分别对原始左视点彩色视频、原始右视点彩色视频进行编码得到的解码左视点彩色视频、解码右视点彩色视频和对应的原始左视点深度视频、原始右视点深度视频进行虚拟视点图像绘制得到的虚拟视点视频记为Iv(QPt0),计算
Figure BDA00001210332600001312
与Iv(QPt0)的均方差,作为对以编码量化参数QPt0分别对原始左视点彩色视频、原始右视点彩色视频进行编码得到的解码左视点彩色视频、解码右视点彩色视频和对应的原始左视点深度视频、原始右视点深度视频进行虚拟视点图像绘制的绘制失真,记为Dt0
④-2、选取N个大于QPt0且各不相同的编码量化参数,分别记为QPt1,…,QPti,…,QPtN,采用该N个不同的编码量化参数QPt1,…,QPti,…,QPtN分别对原始左视点彩色视频、原始右视点彩色视频进行编码,分别得到以该N个不同的编码量化参数对原始左视点彩色视频、原始右视点彩色视频进行编码的平均码率,对应的分别记为Rt1,…,Rti,…,RtN,计算得到由以该N个不同的编码量化参数分别对原始左视点彩色视频、原始右视点彩色视频进行编码得到的解码左视点彩色视频、解码右视点彩色视频和对应的原始左视点深度视频、原始右视点深度视频进行虚拟视点图像绘制的绘制失真,对应的分别记为Dt1,…,Dti,…,DtN,其中,1≤i≤N,QPti=QPt0+i。在本实施例中,取N=8。
④-3、根据由Rt0和Rt1,…,Rti,…,RtN组成的对原始左视点彩色视频、原始右视点彩色视频进行编码的平均码率集合{Rtj|0≤j≤N}及由Dt0和Dt1,…,Dti,…,DtN组成的绘制失真集合{Dtj|0≤j≤N},通过幂指数拟合方法建立对原始左视点彩色视频、原始右视点彩色视频进行编码的码率Rt与对以采用{QPtj|0≤j≤N}中的各个编码量化参数分别对原始左视点彩色视频、原始右视点彩色视频进行编码得到的解码左视点彩色视频、解码右视点彩色视频与对应的原始左视点深度视频、原始右视点深度视频进行虚拟视点图像绘制的绘制失真集合{Dtj|0≤j≤N}中的任意一个绘制失真Dt的关系模型,记为 D t ( R t ) ≅ α t × ( R t ) β t , 其中,Rt表示{Rtj|0≤j≤N}中的任意一个平均码率,αt和βt均为 D t ( R t ) ≅ α t × ( R t ) β t 中的模型参数。
④-4、任取一个不大于44的编码量化参数作为原始左视点深度视频、原始右视点深度视频的编码量化参数,记为QPd0,得到以该编码量化参数QPd0对原始左视点深度视频、原始右视点深度视频进行编码的平均码率,记为Rd0,将由原始左视点彩色视频、原始右视点彩色视频和以编码量化参数QPd0分别对对应的原始左视点深度视频、原始右视点深度视频进行编码得到的解码左视点深度视频、解码右视点深度视频进行虚拟视点图像绘制得到的虚拟视点视频记为Iv(QPd0),计算与Iv(QPd0)的均方差,作为对原始左视点彩色视频、原始右视点彩色视频和以编码量化参数QPd0分别对对应的原始左视点深度视频、原始右视点深度视频进行编码得到的解码左视点深度视频、解码右视点深度视频进行虚拟视点图像绘制的绘制失真,记为Dd0
④-5、选取N个大于QPd0且各不相同的编码量化参数,分别记为QPd1,…,QPdi,…,QPdN,采用该N个不同的编码量化参数QPd1,…,QPti,…,QPdN分别对原始左视点深度视频、原始右视点深度视频进行编码,分别得到以该N个不同的编码量化参数对原始左视点深度视频、原始右视点深度视频进行编码的平均码率,对应的分别记为Rd1,…,Rdi,…,RdN,计算得到由原始左视点彩色视频、原始右视点彩色视频和以该N个不同的编码量化参数分别对对应的原始左视点深度视频、原始右视点深度视频进行编码得到的解码左视点深度视频、解码右视点深度视频进行虚拟视点图像绘制的绘制失真,对应的分别记为Dd1,…,Ddi,…,DdN,其中,1≤i≤N,QPdi=QPd0+i。在本实施例中,取N=8。
④-6、根据由Rd0和Rd1,…,Rdi,…,RdN组成的对原始左视点深度视频、原始右视点深度视频进行编码的平均码率集合{Rdj|0≤j≤N}及由Dd0和Dd1,…,Ddi,…,DdN组成的绘制失真集合{Ddj|0≤j≤N},通过幂指数拟合方法建立对原始左视点深度视频、原始右视点深度视频进行编码的码率Rd与对原始左视点彩色视频、原始右视点彩色视频与以采用{QPdj|0≤j≤N}中的各个编码量化参数分别对对应的原始左视点深度视频、原始右视点深度视频进行编码得到的解码左视点深度视频、解码右视点深度视频进行虚拟视点图像绘制的绘制失真集合{Ddj|0≤j≤N}中的任意一个绘制失真Dd的关系模型,记为 D d ( R d ) ≅ α d × ( R d ) β d , 其中,Rd表示{Rdj|0≤j≤N}中的任意一个平均码率,αd和βd均为 D d ( R d ) ≅ α d × ( R d ) β d 中的模型参数。
图6给出了对“Bookarrival”的原始左右视点彩色视频与原始左右视点的编码码率与绘制失真的关系模型进行幂指数拟合的曲线示意图,图7给出了对“Newspaper”的原始左右视点彩色视频与原始左右视点的编码码率与绘制失真的关系模型进行幂指数拟合的曲线示意图,图8给出了对“Champagne”的原始左右视点彩色视频与原始左右视点的编码码率与绘制失真的关系模型进行幂指数拟合的曲线示意图,图9给出了对“Dog”的原始左右视点彩色视频与原始左右视点的编码码率与绘制失真的关系模型进行幂指数拟合的曲线示意图,从图6至图9可以看出幂指数拟合能很好地反映编码码率与绘制失真之间的关系。
⑤根据Rt与Dt(Rt)的关系模型 D t ( R t ) ≅ α t × ( R t ) β t 及Rd与Dd(Rd)的关系模型 D d ( R d ) ≅ α d × ( R d ) β d , 对码率分配模型 min [ D v ( R t , R d ) ] s . t . R t + R d ≤ R c 进行优化,将优化后的码率分配模型表示为: min [ α t × ( R t ) β t + α d × ( R d ) β d ] s . t . R t + R d ≤ R c .
⑥根据优化后的码率分配模型 min [ α t × ( R t ) β t + α d × ( R d ) β d ] s . t . R t + R d ≤ R c , 通过全搜索方法获取在不同的总码率Rc下对原始左视点彩色视频、原始右视点彩色视频与原始左视点深度视频、原始右视点深度视频进行编码的最佳码率比重,将其记为α,α=f(Rc), f ( R c ) = α c × ( R c ) β c , 其中,f()为函数表示形式,α=f(Rc)表示α为Rc的函数,αc和βc均为 f ( R c ) = α c × ( R c ) β c 中的模型参数。
在此具体实施例中,步骤⑥的具体过程即获取在不同的总码率Rc下对原始左视点彩色视频、原始右视点彩色视频与原始左视点深度视频、原始右视点深度视频进行编码的最佳码率比重α所采用的全搜索方法的具体过程为:
⑥-1、选取M个大于100且各不相同的码率,分别记为Rc1,…,Rcj,…,RcM,将由Rc1,…,Rcj,…,RcM组成的对原始左视点彩色视频、原始右视点彩色视频与原始左视点深度视频、原始右视点深度视频进行编码的总码率集合记为Ψ,Ψ={Rcj|1≤j≤M},其中,M≥1。在本实施例中,取M=15。
⑥-2、选取总码率集合Ψ={Rcj|1≤j≤M}中的第1个总码率Rc1作为对原始左视点彩色视频、原始右视点彩色视频与原始左视点深度视频、原始右视点深度视频进行编码的总码率,假定对原始左视点彩色视频、原始右视点彩色视频进行编码的码率占总码率Rc1的最小码率比重为0.1,假定对原始左视点彩色视频、原始右视点彩色视频进行编码的码率占总码率Rc1的最大码率比重为0.9,则根据对原始左视点彩色视频、原始右视点彩色视频与原始左视点深度视频、原始右视点深度视频进行编码的总码率Rc1,计算对原始左视点彩色视频、原始右视点彩色视频进行编码的最小码率和最大码率,分别记为Rt min和Rt max,Rt min=0.1×Rc1,Rt max=0.9×Rc1
⑥-3、将对原始左视点彩色视频、原始右视点彩色视频进行编码的码率集合记为Ω,Ω={Rt|Rt min≤Rt≤Rt max},然后从对原始左视点彩色视频、原始右视点彩色视频进行编码的码率集合Ω中任取一个码率,记为Rt′,Rt′∈Ω,再计算对原始左视点深度视频、原始右视点深度视频进行编码的码率,记为Rd′,Rd′=Rc1-Rt′。
⑥-4、计算对以码率Rt′分别对原始左视点彩色视频、原始右视点彩色视频进行编码得到的解码左视点彩色视频、解码右视点彩色视频和以码率Rd′分别对原始左视点深度视频、原始右视点深度视频进行编码得到的解码左视点深度视频、解码右视点深度视频进行虚拟视点图像绘制的绘制失真,记为COST′, COST ′ = α t × ( R t ′ ) β t + α d × ( R d ′ ) β d , 其中,αt和βt均为 D t ( R t ) ≅ α t × ( R t ) β t 中的模型参数,αd和βd均为 D d ( R d ) ≅ α d × ( R d ) β d 中的模型参数。
⑥-5、从对原始左视点彩色视频、原始右视点彩色视频进行编码的码率集合Ω中任取n个值不等于Rt′且各不相同的码率,分别记任取的n个码率为R″t1,…,R″ti,…,R″tn;然后从任取的n个码率中的第1个码率R″t1开始,按照步骤⑥-4的操作处理,直至获得任取的n个码率对应的绘制失真,分别记为COST″1,…,COST″i,…,COST″n,其中,2≤n≤Rt max-Rt min-1,1≤i≤n,R″t1表示任取的n个码率中的第1个码率,R″ti表示任取的n个码率中的第i个码率,R″tn表示任取的n个码率中的第n个码率,COST″1表示R″t1对应的绘制失真,COST″i表示R″ti对应的绘制失真,COST″n表示R″tn对应的绘制失真。
⑥-6、从COST′和{COST″1,…,COST″i,…,COST″n}中找出值最小的绘制失真,记为COSTmin,再将COSTmin对应的对原始左视点彩色视频、原始右视点彩色视频进行编码的码率作为对原始左视点彩色视频、原始右视点彩色视频进行编码的最佳码率,记为
Figure BDA0000121033260000174
将COSTmin对应的对原始左视点深度视频、原始右视点深度视频进行编码的码率作为对原始左视点深度视频、原始右视点深度视频进行编码的最佳码率,记为
Figure BDA0000121033260000181
得到在总码率Rc1下对原始左视点彩色视频、原始右视点彩色视频与原始左视点深度视频、原始右视点深度视频进行编码的最佳码率比重,记为α1
Figure BDA0000121033260000182
⑥-7、按照步骤⑥-2至步骤⑥-6计算在总码率Rc1下对原始左视点彩色视频、原始右视点彩色视频与原始左视点深度视频、原始右视点深度视频进行编码的最佳码率比重α1的操作,分别获取在Ψ={Rcj|1≤j≤M}中任取M-1个值不等于Rc1且各不相同的码率下对原始左视点彩色视频、原始右视点彩色视频与原始左视点深度视频、原始右视点深度视频进行编码的最佳码率比重,分别记为α2,…,αj,…,αM,由α1及α2,…,αj,…,αM构成最佳码率比重集合,记为Θ={αj|1≤j≤M},通过幂指数拟合方法建立对原始左视点彩色视频、原始右视点彩色视频与原始左视点深度视频、原始右视点深度视频进行编码的总码率Rc与最佳码率比重集合Θ={αj|1≤j≤M}中的任意一个码率比重α的关系模型,记为α,α=f(Rc), f ( R c ) = α c × ( R c ) β c , 其中,αc和βc均为 f ( R c ) = α c × ( R c ) β c 中的模型参数。
利用本发明方法确立的最佳码率比重,采用基于深度图像的绘制获取各个时刻的虚拟视点视频的过程如下:
A、根据α=f(Rc)和预先设定的目标码率Rc′,分别计算对原始左视点彩色视频、原始右视点彩色视频进行编码的目标码率和对原始左视点深度视频、原始右视点深度视频进行编码的目标码率,分别记为
Figure BDA0000121033260000185
其中,Rc′表示预先设定的对原始左视点彩色视频、原始右视点彩色视频与原始左视点深度视频、原始右视点深度视频进行编码的目标码率。
B、根据设定的立体视频编码预测结构,在目标码率
Figure BDA0000121033260000189
下对原始左视点彩色视频、原始右视点彩色视频进行编码,得到彩色视频的编码码流;在目标码率
Figure BDA00001210332600001810
下对原始左视点深度视频、原始右视点深度进行编码,得到深度视频的编码码流。在本实施例中,立体视频编码预测结构采用公知的HBP编码预测结构。
C、用户端分别对服务端发送来的彩色视频的编码码流和深度视频的编码码流进行解码,得到左视点的彩色视频数据、右视点的彩色视频数据、左视点的深度视频数据和右视点的深度视频数据信息,然后采用基于深度图像的绘制得到各个时刻的虚拟视点视频。
以下就利用本发明方法对“Bookarrival”、“Newspaper”、“Champagne”和“Dog”三维立体视频测试序列的码率分配性能进行比较。
表1给出了本发明方法采用幂指数拟合得到的彩色视频与深度视频的编码码率与绘制失真的关系模型的模型参数,表2给出了本发明方法采用幂指数拟合得到的彩色视频与深度视频的编码总码率与最佳码率比重的关系模型的模型参数,从表1和表2中可以看出,采用本发明方法拟合得到的曲线与真实曲线的相关系数(Correlation Coefficient,CC)非常高,说明本发明方法提出的码率分配模型具有较高的精度,幂指数拟合能很好地反映总码率与最佳码率比重之间的关系。
图10给出了对“Bookarrival”、“Newspaper”、“Champagne”和“Dog”的原始左右视点彩色视频与原始左右视点深度视频的编码总码率与最佳码率比重的关系模型进行幂指数拟合的曲线示意图,从图10中可以看出,在低码率端,由于解码后的彩色视频与深度视频的质量都比较差,为了保证能得到相对较高的绘制质量,对彩色视频分配较高的码率,而在高码率端,彩色视频与深度视频的最佳码率比重趋向于稳定,也就是说,当总码率达到一定程度时,即使再增加彩色视频或深度视频的码率比重,绘制质量也不会明显地提高,这与实际的统计结果是一致的,说明本发明方法是有效可行的。
表1彩色视频与深度视频的编码码率与绘制失真的关系模型的模型参数
表2彩色视频与深度视频的编码总码率与最佳码率比重的关系模型的模型参数
  三维立体视频测试序列   αc   βc   CC
  Bookarrival   15.88   -0.2237   0.9998
  Newspaper   49.33   -0.5996   0.9985
  Champagne   157.10   -0.7071   0.9982
  Dog   62.92   -0.4262   0.9987

Claims (4)

1.一种三维立体视频编码的最佳码率比重确立方法,其特征在于包括以下步骤:
①将外部立体视频捕获工具捕获得到的未经处理的且颜色空间为YUV的彩色立体视频及其对应的深度立体视频定义为原始三维立体视频,在空域上该原始三维立体视频包括原始左视点三维视频和原始右视点三维视频,原始左视点三维视频包括原始左视点彩色视频和原始左视点深度视频,原始左视点彩色视频主要由若干个帧组的原始左视点彩色图像组成,原始左视点深度视频主要由若干个帧组的原始左视点深度图像组成,原始右视点三维视频包括原始右视点彩色视频和原始右视点深度视频,原始右视点彩色视频主要由若干个帧组的原始右视点彩色图像组成,原始右视点深度视频主要由若干个帧组的原始右视点深度图像组成,其中,YUV颜色空间的三个颜色分量的第1个分量为亮度分量并记为Y、第2个分量为第一色度分量并记为U及第3个分量为第二色度分量并记为V;
将介于左视点与右视点之间的视点作为虚拟视点;
②建立对原始左视点彩色视频、原始右视点彩色视频与原始左视点深度视频、原始右视点深度视频进行编码的码率分配模型,记为
Figure FDA0000397914940000011
以保证获得最优的绘制质量,其中,min[]为取最小值函数,Rc表示预先设定的对原始左视点彩色视频、原始右视点彩色视频与原始左视点深度视频、原始右视点深度视频进行编码的总码率,Rt表示对原始左视点彩色视频、原始右视点彩色视频进行编码的码率,Rd表示对原始左视点深度视频、原始右视点深度视频进行编码的码率,Dv(Rt,Rd)表示对以码率Rt分别对原始左视点彩色视频、原始右视点彩色视频进行编码然后进行解码得到的解码左视点彩色视频、解码右视点彩色视频和以码率Rd分别对对应的原始左视点深度视频、原始右视点深度视频进行编码然后进行解码得到的解码左视点深度视频、解码右视点深度视频进行虚拟视点图像绘制的绘制失真;
③将Dv(Rt,Rd)近似表示为:
Figure FDA0000397914940000012
其中,Dt(Rt)表示对以码率Rt分别对原始左视点彩色视频、原始右视点彩色视频进行编码然后进行解码得到的解码左视点彩色视频、解码右视点彩色视频和对应的原始左视点深度视频、原始右视点深度视频进行虚拟视点图像绘制的绘制失真,Dd(Rd)表示对原始左视点彩色视频、原始右视点彩色视频和以码率Rd分别对对应的原始左视点深度视频、原始右视点深度视频进行编码然后进行解码得到的解码左视点深度视频、解码右视点深度视频进行虚拟视点图像绘制的绘制失真;
④通过幂指数拟合方法建立对原始左视点彩色视频、原始右视点彩色视频进行编码的码率Rt与Dt(Rt)的关系模型,记为
Figure FDA00003979149400000215
通过幂指数拟合方法建立对原始左视点深度视频、原始右视点深度视频进行编码的码率Rd与Dd(Rd)的关系模型,记为 D d ( R d ) ≅ α d × ( R d ) β d , 其中,αt和βt均为 D t ( R t ) ≅ α t × ( R t ) β t 中的模型参数,αd和βd均为 D d ( R d ) ≅ α d × ( R d ) β d 中的模型参数;
⑤根据Rt与Dt(Rt)的关系模型及Rd与Dd(Rd)的关系模型
Figure FDA0000397914940000026
对码率分配模型
Figure FDA0000397914940000027
进行优化,将优化后的码率分配模型表示为: min [ α t × ( R t ) β t + α d × ( R d ) β d ] s . t . R t + R d ≤ R c ;
⑥根据优化后的码率分配模型
Figure FDA0000397914940000029
通过全搜索方法获取在不同的总码率Rc下对原始左视点彩色视频、原始右视点彩色视频与原始左视点深度视频、原始右视点深度视频进行编码的最佳码率比重,将其记为α,α=f(Rc),
Figure FDA00003979149400000210
其中,f()为函数表示形式,α=f(Rc)表示α为Rc的函数,αc和βc均为
Figure FDA00003979149400000211
中的模型参数。
2.根据权利要求1所述的一种三维立体视频编码的最佳码率比重确立方法,其特征在于所述的步骤③的具体过程为:
③-1、假定Sv表示由原始左视点彩色图像、原始右视点彩色图像和对应的原始左视点深度图像、原始右视点深度图像进行虚拟视点图像绘制得到的虚拟视点图像,
Figure FDA00003979149400000212
表示由以码率Rt分别对原始左视点彩色图像、原始右视点彩色图像进行编码然后进行解码得到的解码左视点彩色图像、解码右视点彩色图像和以码率Rd分别对对应的原始左视点深度图像、原始右视点深度图像进行编码然后进行解码得到的解码左视点深度图像、解码右视点深度图像进行虚拟视点图像绘制得到的虚拟视点图像,表示由以码率Rt分别对原始左视点彩色图像、原始右视点彩色图像进行编码然后进行解码得到的解码左视点彩色图像、解码右视点彩色图像和对应的原始左视点深度图像、原始右视点深度图像进行虚拟视点图像绘制得到的虚拟视点图像,
Figure FDA0000397914940000031
表示由原始左视点彩色图像、原始右视点彩色图像和以码率Rd分别对对应的原始左视点深度图像、原始右视点深度图像进行编码然后进行解码得到的解码左视点深度图像、解码右视点深度图像进行虚拟视点图像绘制得到的虚拟视点图像,则将Dv(Rt,Rd)表示为: D v ( R t , R d ) = E { ( S v - S ^ v ) 2 } = E { ( S v - S ‾ v + S ‾ v - S ^ v ) 2 } , 其中,
Figure FDA0000397914940000033
表示求
Figure FDA0000397914940000034
的数学期望值;
③-2通过多项式分解将
Figure FDA0000397914940000035
表示为: E { ( S v - S ^ v ) 2 } = E { ( S v - S ‾ v ) 2 } + E { ( S ‾ v - S ^ v ) 2 } + 2 × E { ( S v - S ‾ v ) ( S ‾ v - S ^ v ) } , 其中,
Figure FDA0000397914940000037
表示求
Figure FDA0000397914940000038
的数学期望值,
Figure FDA0000397914940000039
表示求
Figure FDA00003979149400000310
的数学期望值,表示求
Figure FDA00003979149400000324
的数学期望值;
③-3、根据 E { ( S v - S ‾ v ) ( S ‾ v - S ^ v ) } ≅ 0 E { ( S ‾ v - S ^ v ) 2 } ≅ E { ( S v - S ~ v ) 2 } , 将Dv(Rt,Rd)近似表示为: D v ( R t , R d ) ≅ E { ( S v - S ‾ v ) 2 } + E { ( S v - S ~ v ) 2 } , 其中,
Figure FDA00003979149400000316
表示求的数学期望值;
③-4、将
Figure FDA00003979149400000318
表示为对以码率Rt分别对原始左视点彩色视频、原始右视点彩色视频进行编码然后进行解码得到的解码左视点彩色视频、解码右视点彩色视频和对应的原始左视点深度视频、原始右视点深度视频进行虚拟视点图像绘制的绘制失真,记为Dt(Rt),将
Figure FDA00003979149400000319
表示为对原始左视点彩色视频、原始右视点彩色视频和以码率Rd分别对对应的原始左视点深度视频、原始右视点深度视频进行编码然后进行解码得到的解码左视点深度视频、解码右视点深度视频进行虚拟视点图像绘制的绘制失真,记为Dd(Rd),根据 E { ( S v - S ~ v ) 2 } = D t ( R t ) E { ( S v - S ‾ v ) 2 } = D d ( R d ) , 将Dv(Rt,Rd)近似表示为: D v ( R t , R d ) ≅ D t ( R t ) + D d ( R d ) .
3.根据权利要求1或2所述的一种三维立体视频编码的最佳码率比重确立方法,其特征在于所述的步骤④的具体过程为:
④-1、任取一个不大于44的编码量化参数作为原始左视点彩色视频、原始右视点彩色视频的编码量化参数,记为QPt0,得到以该编码量化参数QPt0对原始左视点彩色视频、原始右视点彩色视频进行编码的平均码率,记为Rt0,将由原始左视点彩色视频、原始右视点彩色视频和对应的原始左视点深度视频、原始右视点深度视频进行虚拟视点图像绘制得到的虚拟视点视频记为
Figure FDA0000397914940000041
将由以编码量化参数QPt0分别对原始左视点彩色视频、原始右视点彩色视频进行编码然后进行解码得到的解码左视点彩色视频、解码右视点彩色视频和对应的原始左视点深度视频、原始右视点深度视频进行虚拟视点图像绘制得到的虚拟视点视频记为Iv(QPt0),计算
Figure FDA0000397914940000042
与Iv(QPt0)的均方差,作为对以编码量化参数QPt0分别对原始左视点彩色视频、原始右视点彩色视频进行编码然后进行解码得到的解码左视点彩色视频、解码右视点彩色视频和对应的原始左视点深度视频、原始右视点深度视频进行虚拟视点图像绘制的绘制失真,记为Dt0
④-2、选取N个大于QPt0且各不相同的编码量化参数,分别记为QPt1,…,QPti,…,QPtN,采用该N个不同的编码量化参数QPt1,…,QPti,…,QPtN分别对原始左视点彩色视频、原始右视点彩色视频进行编码,分别得到以该N个不同的编码量化参数对原始左视点彩色视频、原始右视点彩色视频进行编码的平均码率,对应的分别记为Rt1,…,Rti,…,RtN,计算得到由以该N个不同的编码量化参数分别对原始左视点彩色视频、原始右视点彩色视频进行编码然后进行解码得到的解码左视点彩色视频、解码右视点彩色视频和对应的原始左视点深度视频、原始右视点深度视频进行虚拟视点图像绘制的绘制失真,对应的分别记为Dt1,…,Dti,…,DtN,其中,1≤i≤N,QPti=QPt0+i;
④-3、根据由Rt0和Rt1,…,Rti,…,RtN组成的对原始左视点彩色视频、原始右视点彩色视频进行编码的平均码率集合{Rtj|0≤j≤N}及由Dt0和Dt1,…,Dti,…,DtN组成的绘制失真集合{Dtj|0≤j≤N},通过幂指数拟合方法建立对原始左视点彩色视频、原始右视点彩色视频进行编码的码率Rt与对以采用{QPtj|0≤j≤N}中的各个编码量化参数分别对原始左视点彩色视频、原始右视点彩色视频进行编码然后进行解码得到的解码左视点彩色视频、解码右视点彩色视频与对应的原始左视点深度视频、原始右视点深度视频进行虚拟视点图像绘制的绘制失真集合{Dtj|0≤j≤N}中的任意一个绘制失真Dt的关系模型,记为
Figure FDA0000397914940000052
其中,Rt表示{Rtj|0≤j≤N}中的任意一个平均码率,αt和βt均为 D t ( R t ) ≅ α t × ( R t ) β t 中的模型参数;
④-4、任取一个不大于44的编码量化参数作为原始左视点深度视频、原始右视点深度视频的编码量化参数,记为QPd0,得到以该编码量化参数QPd0对原始左视点深度视频、原始右视点深度视频进行编码的平均码率,记为Rd0,将由原始左视点彩色视频、原始右视点彩色视频和以编码量化参数QPd0分别对对应的原始左视点深度视频、原始右视点深度视频进行编码然后进行解码得到的解码左视点深度视频、解码右视点深度视频进行虚拟视点图像绘制得到的虚拟视点视频记为Iv(QPd0),计算与Iv(QPd0)的均方差,作为对原始左视点彩色视频、原始右视点彩色视频和以编码量化参数QPd0分别对对应的原始左视点深度视频、原始右视点深度视频进行编码然后进行解码得到的解码左视点深度视频、解码右视点深度视频进行虚拟视点图像绘制的绘制失真,记为Dd0
④-5、选取N个大于QPd0且各不相同的编码量化参数,分别记为QPd1,…,QPdi,…,QPdN,采用该N个不同的编码量化参数QPd1,…,QPdi,…,QPdN分别对原始左视点深度视频、原始右视点深度视频进行编码,分别得到以该N个不同的编码量化参数对原始左视点深度视频、原始右视点深度视频进行编码的平均码率,对应的分别记为Rd1,…,Rdi,…,RdN,计算得到由原始左视点彩色视频、原始右视点彩色视频和以该N个不同的编码量化参数分别对对应的原始左视点深度视频、原始右视点深度视频进行编码然后进行解码得到的解码左视点深度视频、解码右视点深度视频进行虚拟视点图像绘制的绘制失真,对应的分别记为Dd1,…,Ddi,…,DdN,其中,1≤i≤N,QPdi=QPd0+i;
④-6、根据由Rd0和Rd1,…,Rdi,…,RdN组成的对原始左视点深度视频、原始右视点深度视频进行编码的平均码率集合{Rdj|0≤j≤N}及由Dd0和Dd1,…,Ddi,…,DdN组成的绘制失真集合{Ddj|0≤j≤N},通过幂指数拟合方法建立对原始左视点深度视频、原始右视点深度视频进行编码的码率Rd与对原始左视点彩色视频、原始右视点彩色视频与以采用{QPdj|0≤j≤N}中的各个编码量化参数分别对对应的原始左视点深度视频、原始右视点深度视频进行编码然后进行解码得到的解码左视点深度视频、解码右视点深度视频进行虚拟视点图像绘制的绘制失真集合{Ddj|0≤j≤N}中的任意一个绘制失真Dd的关系模型,记为
Figure FDA0000397914940000061
其中,Rd表示{Rdj|0≤j≤N}中的任意一个平均码率,αd和βd均为 D d ( R d ) ≅ α d × ( R d ) β d 中的模型参数。
4.根据权利要求3所述的一种三维立体视频编码的最佳码率比重确立方法,其特征在于所述的步骤⑥的具体过程为:
⑥-1、选取M个大于100且各不相同的码率,分别记为Rc1,…,Rcj,…,RcM,将由Rc1,…,Rcj,…,RcM组成的对原始左视点彩色视频、原始右视点彩色视频与原始左视点深度视频、原始右视点深度视频进行编码的总码率集合记为Ψ,Ψ={Rcj|1≤j≤M},其中,M≥1;
⑥-2、选取总码率集合Ψ={Rcj|1≤j≤M}中的第1个总码率Rc1作为对原始左视点彩色视频、原始右视点彩色视频与原始左视点深度视频、原始右视点深度视频进行编码的总码率,假定对原始左视点彩色视频、原始右视点彩色视频进行编码的码率占总码率Rc1的最小码率比重为0.1,假定对原始左视点彩色视频、原始右视点彩色视频进行编码的码率占总码率Rc1的最大码率比重为0.9,则根据对原始左视点彩色视频、原始右视点彩色视频与原始左视点深度视频、原始右视点深度视频进行编码的总码率Rc1,计算对原始左视点彩色视频、原始右视点彩色视频进行编码的最小码率和最大码率,分别记为Rtmin和Rtmax,Rtmin=0.1×Rc1,Rtmax=0.9×Rc1
⑥-3、将对原始左视点彩色视频、原始右视点彩色视频进行编码的码率集合记为Ω,Ω={Rt|Rtmin≤Rt≤Rtmax},然后从对原始左视点彩色视频、原始右视点彩色视频进行编码的码率集合Ω中任取一个码率,记为Rt',Rt'∈Ω,再计算对原始左视点深度视频、原始右视点深度视频进行编码的码率,记为Rd',Rd'=Rc1-Rt';
⑥-4、计算对以码率Rt'分别对原始左视点彩色视频、原始右视点彩色视频进行编码然后进行解码得到的解码左视点彩色视频、解码右视点彩色视频和以码率Rd'分别对原始左视点深度视频、原始右视点深度视频进行编码然后进行解码得到的解码左视点深度视频、解码右视点深度视频进行虚拟视点图像绘制的绘制失真,记为COST', COST ′ = α t × ( R t ′ ) β t + α d × ( R d ′ ) β d , 其中,αt和βt均为 D t ( R t ) ≅ α t × ( R t ) β t 中的模型参数,αd和βd均为 D d ( R d ) ≅ α d × ( R d ) β d 中的模型参数;
⑥-5、从对原始左视点彩色视频、原始右视点彩色视频进行编码的码率集合Ω中任取n个值不等于Rt'且各不相同的码率,分别记任取的n个码率为R''t1,…,R''ti,…,R''tn;然后从任取的n个码率中的第1个码率R''t1开始,按照步骤⑥-4的操作处理,直至获得任取的n个码率对应的绘制失真,分别记为COST''1,…,COST''i,…,COST''n,其中,2≤n≤Rtmax-Rtmin-1,1≤i≤n,R''t1表示任取的n个码率中的第1个码率,R''ti表示任取的n个码率中的第i个码率,R''tn表示任取的n个码率中的第n个码率,COST''1表示R''t1对应的绘制失真,COST''i表示R''ti对应的绘制失真,COST''n表示R''tn对应的绘制失真;
⑥-6、从COST'和{COST''1,…,COST''i,…,COST''n}中找出值最小的绘制失真,记为COSTmin,再将COSTmin对应的对原始左视点彩色视频、原始右视点彩色视频进行编码的码率作为对原始左视点彩色视频、原始右视点彩色视频进行编码的最佳码率,记为
Figure FDA0000397914940000073
,将COSTmin对应的对原始左视点深度视频、原始右视点深度视频进行编码的码率作为对原始左视点深度视频、原始右视点深度视频进行编码的最佳码率,记为,得到在总码率Rc1下对原始左视点彩色视频、原始右视点彩色视频与原始左视点深度视频、原始右视点深度视频进行编码的最佳码率比重,记为α1
Figure FDA0000397914940000075
⑥-7、按照步骤⑥-2至步骤⑥-6计算在总码率Rc1下对原始左视点彩色视频、原始右视点彩色视频与原始左视点深度视频、原始右视点深度视频进行编码的最佳码率比重α1的操作,分别获取在Ψ={Rcj|1≤j≤M}中任取M-1个值不等于Rc1且各不相同的码率下对原始左视点彩色视频、原始右视点彩色视频与原始左视点深度视频、原始右视点深度视频进行编码的最佳码率比重,分别记为α2,…,αj,…,αM,由α1及α2,…,αj,…,αM构成最佳码率比重集合,记为Θ={αj|1≤j≤M},通过幂指数拟合方法建立对原始左视点彩色视频、原始右视点彩色视频与原始左视点深度视频、原始右视点深度视频进行编码的总码率Rc与最佳码率比重集合Θ={αj|1≤j≤M}中的任意一个码率比重α的关系模型,记为α,α=f(Rc),
Figure FDA0000397914940000083
,其中,αc和βc均为
Figure FDA0000397914940000082
中的模型参数。
CN201110422409.9A 2011-12-16 2011-12-16 一种三维立体视频编码的最佳码率比重确立方法 Expired - Fee Related CN102523468B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201110422409.9A CN102523468B (zh) 2011-12-16 2011-12-16 一种三维立体视频编码的最佳码率比重确立方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201110422409.9A CN102523468B (zh) 2011-12-16 2011-12-16 一种三维立体视频编码的最佳码率比重确立方法

Publications (2)

Publication Number Publication Date
CN102523468A CN102523468A (zh) 2012-06-27
CN102523468B true CN102523468B (zh) 2014-02-05

Family

ID=46294245

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201110422409.9A Expired - Fee Related CN102523468B (zh) 2011-12-16 2011-12-16 一种三维立体视频编码的最佳码率比重确立方法

Country Status (1)

Country Link
CN (1) CN102523468B (zh)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102769749B (zh) * 2012-06-29 2015-03-18 宁波大学 一种深度图像的后处理方法
CN108076344A (zh) * 2017-11-27 2018-05-25 上海交通大学 一种基于权重图模型的vr视频码率控制比特分配方法
CN110572631A (zh) * 2019-09-10 2019-12-13 重庆邮电大学 一种基于功率失真的三维视频纹理和深度联合功率分配方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6167162A (en) * 1998-10-23 2000-12-26 Lucent Technologies Inc. Rate-distortion optimized coding mode selection for video coders
CN1778117A (zh) * 2003-04-18 2006-05-24 皇家飞利浦电子股份有限公司 使用参变速率失真模型对视频编码进行数率失真优化数据划分的系统和方法
CN101094411A (zh) * 2007-07-03 2007-12-26 芯瀚电子技术(上海)有限公司 一种视频编码的码率控制方法
CN101986716A (zh) * 2010-11-05 2011-03-16 宁波大学 一种快速深度视频编码方法
CN102065296A (zh) * 2011-01-06 2011-05-18 宁波大学 一种三维立体视频编码方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6167162A (en) * 1998-10-23 2000-12-26 Lucent Technologies Inc. Rate-distortion optimized coding mode selection for video coders
CN1778117A (zh) * 2003-04-18 2006-05-24 皇家飞利浦电子股份有限公司 使用参变速率失真模型对视频编码进行数率失真优化数据划分的系统和方法
CN101094411A (zh) * 2007-07-03 2007-12-26 芯瀚电子技术(上海)有限公司 一种视频编码的码率控制方法
CN101986716A (zh) * 2010-11-05 2011-03-16 宁波大学 一种快速深度视频编码方法
CN102065296A (zh) * 2011-01-06 2011-05-18 宁波大学 一种三维立体视频编码方法

Non-Patent Citations (6)

* Cited by examiner, † Cited by third party
Title
周武杰.立体图像质量评价方法研究.《2010年中国通信国际会议》.2010,
基于统计分析的多视点彩色和深度编码的码率控制算法;朱高锋;《2011年亚太地区信息论学术会议》;20110807;全文 *
朱高锋.基于统计分析的多视点彩色和深度编码的码率控制算法.《2011年亚太地区信息论学术会议》.2011,
皮师华.面向多视点视频编码的视觉感知率失真模型.《2010年亚太地区信息论学术会议》.2010,
立体图像质量评价方法研究;周武杰;《2010年中国通信国际会议》;20101001;全文 *
面向多视点视频编码的视觉感知率失真模型;皮师华;《2010年亚太地区信息论学术会议》;20101112;全文 *

Also Published As

Publication number Publication date
CN102523468A (zh) 2012-06-27

Similar Documents

Publication Publication Date Title
CN102065296B (zh) 一种三维立体视频编码方法
CN101729892B (zh) 一种非对称立体视频编码方法
CN102438167B (zh) 一种基于深度图像绘制的立体视频编码方法
CN101888566B (zh) 立体视频编码率失真性能估计方法
CN101986716B (zh) 一种快速深度视频编码方法
CN103002306B (zh) 一种深度图像编码方法
CN102413353B (zh) 立体视频编码过程的多视点视频和深度图的码率分配方法
CN103067705B (zh) 一种多视点深度视频预处理方法
CN102137258B (zh) 一种立体视频码率控制方法
CN103338370B (zh) 一种多视点深度视频快速编码方法
CN103873876A (zh) 基于显著性的多视点彩色加深度视频编码方法
CN102523468B (zh) 一种三维立体视频编码的最佳码率比重确立方法
CN104717515A (zh) 基于3d-hevc的纹理视频和深度图码率分配方法
CN102710949B (zh) 一种基于视觉感知的立体视频编码方法
CN102137259B (zh) 双路立体视频的编码方法及装置
CN103873867A (zh) 自由视点视频深度图失真预测方法和编码方法
CN104159095A (zh) 一种多视点纹理视频和深度图编码的码率控制方法
CN102355582B (zh) 一种三维立体视频编码的率失真模型优化方法
CN103391439A (zh) 一种基于主动宏块隐藏的h.264/avc码率控制方法
CN102685531B (zh) 一种三维视频编码的深度和彩色码率分配方法
CN104244008A (zh) 一种深度视频编码方法
CN102227133B (zh) 一种立体视频传输方法
CN102790881B (zh) 基于帧级编码端速率控制的变换域分布式视频编解码器
CN103179423B (zh) 一种交互式三维视频系统中的信号处理方法
CN103813149B (zh) 一种编解码系统的图像与视频重构方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20140205

Termination date: 20171216