CN102355582B - 一种三维立体视频编码的率失真模型优化方法 - Google Patents

一种三维立体视频编码的率失真模型优化方法 Download PDF

Info

Publication number
CN102355582B
CN102355582B CN 201110285331 CN201110285331A CN102355582B CN 102355582 B CN102355582 B CN 102355582B CN 201110285331 CN201110285331 CN 201110285331 CN 201110285331 A CN201110285331 A CN 201110285331A CN 102355582 B CN102355582 B CN 102355582B
Authority
CN
China
Prior art keywords
video
original
right viewpoint
viewpoint
left viewpoint
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
CN 201110285331
Other languages
English (en)
Other versions
CN102355582A (zh
Inventor
邵枫
蒋刚毅
郁梅
李福翠
彭宗举
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nantong Ouke Nc Equipment Co ltd
Original Assignee
Ningbo University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ningbo University filed Critical Ningbo University
Priority to CN 201110285331 priority Critical patent/CN102355582B/zh
Publication of CN102355582A publication Critical patent/CN102355582A/zh
Application granted granted Critical
Publication of CN102355582B publication Critical patent/CN102355582B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

本发明公开了一种三维立体视频编码的率失真模型优化方法,其通过建立对原始左视点彩色视频、原始右视点彩色视频与原始左视点深度视频、原始右视点深度视频进行编码的率失真模型,并通过二次拟合方法建立编码量化步长与绘制失真的关系模型及编码量化步长与码率的关系模型,然后对率模型进行优化,分别获得在一定码率下对原始左视点彩色视频、原始右视点彩色视频和原始左视点深度视频、原始右视点深度视频进行编码的最佳初始编码量化参数,最后采用最佳初始编码量化参数分别对原始左视点彩色视频、原始右视点彩色视频与原始左视点深度视频、原始右视点深度视频进行编码,本方法在保证立体图像的整体质量的前提下,大大提高了虚拟视点图像的质量。

Description

一种三维立体视频编码的率失真模型优化方法
技术领域
本发明涉及一种视频信号的编码压缩方法,尤其是涉及一种三维立体视频编码的率失真模型优化方法。
背景技术
进入本世纪以来,随着数字2D(二维)视频技术日趋成熟,以及计算机、通信及网络技术的快速发展,引发了人们对新一代视频系统的强烈需求。现行的二维视频系统在表现自然场景时,难以满足用户的立体感和视点交互等的需求。三维视频系统由于能够提供立体感、视点交互性的全新视觉体验而越来越受到人们的欢迎,在无线视频通信、影视娱乐、数字动漫、虚拟战场、旅游观光、远程教学等领域有着广泛的应用前景。通常,三维视频系统如图1所示,其主要包括采集、视频编码、视频传输、视频解码和3D(三维)显示等模块。
多视点视频加深度(multi-view video plus depth,MVD)是目前ISO/MPEG推荐采用的3D场景信息表示方式。MVD数据在多视点彩色图像基础上增加了对应视点的深度信息,通过利用参考视点的彩色图像及该参考视点的彩色图像中的每个像素对应的深度信息,采用基于深度图像的绘制(Depth Image Based Rendering,DIBR)技术来合成三维场景的虚拟视点图像。针对深度视频图像编码,目前已有基于小波分解(waveletdecomposition)的方法、基于平板分解(platelet decomposition)的方法对深度视频图像进行编码,也可以直接采用立体/多视点视频编码技术对深度视频序列进行编码。
然而,现有的立体/多视点视频编码的研究更多地考虑如何提升编码效率,而对MVD数据的编码应当有别于现有的视频编码方法,这是因为:一方面,由于彩色视频的编码失真和深度视频的编码失真都会对虚拟视点绘制产生影响,如何在彩色视频与深度视频之间进行合理的码率分配,以保证获得最优的编码性能和绘制质量是一个亟需解决的问题;另一方面,由于绘制的虚拟视点图像没有原始视点图像作为参考,如何通过最佳的曲线逼近来建立绘制失真与编码量化步长的关系模型,以及如何在总码率给定的情况下通过关系模型来确立对彩色视频和深度视频进行编码的编码量化参数,都是对MVD数据的编码过程中需要研究解决的问题。
发明内容
本发明所要解决的技术问题是提供一种能够有效地提高虚拟视点图像质量的三维立体视频编码的率失真模型优化方法。
本发明解决上述技术问题所采用的技术方案为:一种三维立体视频编码的率失真模型优化方法,其特征在于包括以下步骤:
①将外部立体视频捕获工具捕获得到的未经处理的且颜色空间为YUV的彩色立体视频及其对应的深度立体视频定义为原始三维立体视频,在空域上该原始三维立体视频包括原始左视点三维视频和原始右视点三维视频,原始左视点三维视频包括原始左视点彩色视频和原始左视点深度视频,原始左视点彩色视频主要由若干个帧组的原始左视点彩色图像组成,原始左视点深度视频主要由若干个帧组的原始左视点深度图像组成,原始右视点三维视频包括原始右视点彩色视频和原始右视点深度视频,原始右视点彩色视频主要由若干个帧组的原始右视点彩色图像组成,原始右视点深度视频主要由若干个帧组的原始右视点深度图像组成,其中,YUV颜色空间的三个颜色分量的第1个分量为亮度分量并记为Y、第2个分量为第一色度分量并记为U及第3个分量为第二色度分量并记为V;
将介于左视点与右视点之间的视点作为虚拟视点;
②建立对原始左视点彩色视频、原始右视点彩色视频与原始左视点深度视频、原始右视点深度视频进行编码的率失真模型,记为以保证获得最优的编码性能和绘制质量,其中,min[ ]为取最小值函数,Rc表示预先设定的对原始左视点彩色视频、原始右视点彩色视频与原始左视点深度视频、原始右视点深度视频进行编码的总码率,Rt表示对原始左视点彩色视频、原始右视点彩色视频进行编码的码率,Rd表示对原始左视点深度视频、原始右视点深度视频进行编码的码率,Dv(Rt,Rd)表示对以码率Rt分别对原始左视点彩色视频、原始右视点彩色视频进行编码得到的解码左视点彩色视频、解码右视点彩色视频和以码率Rd分别对对应的原始左视点深度视频、原始右视点深度视频进行编码得到的解码左视点深度视频、解码右视点深度视频进行虚拟视点图像绘制的绘制失真;
③将Dv(Rt,Rd)近似表示为: D v ( R t , R d ) ≅ D t ( R t ) + D d ( R d ) , 其中,Dt(Rt)表示对以码率Rt分别对原始左视点彩色视频、原始右视点彩色视频进行编码得到的解码左视点彩色视频、解码右视点彩色视频和对应的原始左视点深度视频、原始右视点深度视频进行虚拟视点图像绘制的绘制失真,Dd(Rd)表示对原始左视点彩色视频、原始右视点彩色视频和以码率Rd分别对对应的原始左视点深度视频、原始右视点深度视频进行编码得到的解码左视点深度视频、解码右视点深度视频进行虚拟视点图像绘制的绘制失真;
④通过二次拟合方法建立对原始左视点彩色视频、原始右视点彩色视频进行编码的编码量化步长TQstep与Dt(Rt)的关系模型,记为 D t ( R t ) ≅ α t × ( TQ step ) 2 + β t × ( TQ step ) + γ t , 通过二次拟合方法建立对原始左视点深度视频、原始右视点深度视频进行编码的编码量化步长DQstep与Dd(Rd)的关系模型,记为 D d ( R d ) ≅ α d × ( DQ step ) 2 + β d × ( DQ step ) + γ d , 其中,αt、βt和γt均为 D t ( R t ) ≅ α t × ( TQ step ) 2 + β t × ( TQ step ) + γ t 中的模型参数,αd、βd和γd均为 D d ( R d ) ≅ α d × ( DQ step ) 2 + β d × ( DQ step ) + γ d 中的模型参数;
⑤通过二次拟合方法建立对原始左视点彩色视频、原始右视点彩色视频进行编码的编码量化步长TQstep与Rt的关系模型,记为 R t ≅ a t × ( 1 / TQ step ) 2 + b t × ( 1 / TQ step ) + c t , 通过二次拟合方法建立对原始左视点深度视频、原始右视点深度视频进行编码的编码量化步长DQstep与Rd的关系模型,记为 R d ≅ a d × ( 1 / DQ step ) 2 + b d × ( 1 / DQ step ) + c d , 其中,at、bt和ct均为 R t ≅ a t × ( 1 / TQ step ) 2 + b t × ( 1 / TQ step ) + c t 中的模型参数,ad、bd和cd均为 R d ≅ a d × ( 1 / DQ step ) 2 + b d × ( 1 / DQ step ) + c d 中的模型参数;
⑥根据TQstep与Dt(Rt)的关系模型、DQstep与Dd(Rd)的关系模型、TQstep与Rt的关系模型及DQstep与Rd的关系模型,对率失真模型
Figure BDA0000093732860000039
进行优化,将优化后的率失真模型表示为: min [ α t × ( TQ step ) 2 + β t × ( TQ step ) + γ t + α d × ( DQ step ) 2 + β d × ( DQ step ) + γ d ] s . t . a t × ( 1 / T Q step ) 2 + b t × ( 1 / TQ step ) + c t + a d × ( 1 / DQ step ) 2 + b d × ( 1 / DQ step ) + c d ≤ R c ;
⑦根据优化后的率失真模型 min [ α t × ( TQ step ) 2 + β t × ( TQ step ) + γ t + α d × ( DQ step ) 2 + β d × ( DQ step ) + γ d ] s . t . a t × ( 1 / T Q step ) 2 + b t × ( 1 / TQ step ) + c t + a d × ( 1 / DQ step ) 2 + b d × ( 1 / DQ step ) + c d ≤ R c , 通过全搜索方法获取对原始左视点彩色视频、原始右视点彩色视频与原始左视点深度视频、原始右视点深度视频进行编码的最佳初始编码量化步长,将对原始左视点彩色视频、原始右视点彩色视频进行编码的最佳初始编码量化步长记为
Figure BDA0000093732860000041
将对原始左视点深度视频、原始右视点深度视频进行编码的编码量化步长记为
Figure BDA0000093732860000042
⑧根据对原始左视点彩色视频、原始右视点彩色视频进行编码的最佳初始编码量化步长计算对原始左视点彩色视频、原始右视点彩色视频进行编码的最佳初始编码量化参数,记为
Figure BDA0000093732860000044
QP t opt = 6 × log 2 TQ step opt + 4 ; 根据设定的立体视频编码预测结构,采用最佳初始编码量化参数
Figure BDA0000093732860000046
分别对原始左视点彩色视频的各个帧组中的各个原始左视点彩色图像及原始右视点彩色视频的各个帧组中的各个原始右视点彩色图像的亮度分量Y、第一色度分量U和第二色度分量V进行编码,得到左视点彩色视频的编码码流和右视点彩色视频的编码码流,然后服务端通过网络将左视点彩色视频的编码码流和右视点彩色视频的编码码流传输给用户端;
⑨根据对原始左视点深度视频、原始右视点深度视频进行编码的最佳初始编码量化步长
Figure BDA0000093732860000047
计算对原始左视点深度视频、原始右视点深度视频进行编码的最佳初始编码量化参数,记为
Figure BDA0000093732860000048
QP d opt = 6 × log 2 DQ step opt + 4 ; 根据设定的立体视频编码预测结构,采用最佳初始编码量化参数
Figure BDA00000937328600000410
分别对原始左视点深度视频的各个帧组中的各个原始左视点深度图像及原始右视点深度视频的各个帧组中的各个原始右视点深度图像进行编码,得到左视点深度视频的编码码流和右视点深度视频的编码码流,然后服务端通过网络将左视点深度视频的编码码流和右视点深度视频的编码码流传输给用户端;
⑩用户端分别对服务端发送来的左视点彩色视频的编码码流、右视点彩色视频的编码码流、左视点深度视频的编码码流和右视点深度视频的编码码流进行解码,得到左视点的彩色视频数据、右视点的彩色视频数据、左视点的深度视频数据和右视点的深度视频数据信息,然后采用基于深度图像的绘制得到各个时刻的虚拟视点视频。
所述的步骤③的具体过程为:
③-1、假定Sv表示由原始左视点彩色图像、原始右视点彩色图像和对应的原始左视点深度图像、原始右视点深度图像进行虚拟视点图像绘制得到的虚拟视点图像,
Figure BDA00000937328600000411
表示由以码率Rt分别对原始左视点彩色图像、原始右视点彩色图像进行编码得到的解码左视点彩色图像、解码右视点彩色图像和以码率Rd分别对对应的原始左视点深度图像、原始右视点深度图像进行编码得到的解码左视点深度图像、解码右视点深度图像进行虚拟视点图像绘制得到的虚拟视点图像,
Figure BDA0000093732860000051
表示由以码率Rt分别对原始左视点彩色图像、原始右视点彩色图像进行编码得到的解码左视点彩色图像、解码右视点彩色图像和对应的原始左视点深度图像、原始右视点深度图像进行虚拟视点图像绘制得到的虚拟视点图像,
Figure BDA0000093732860000052
表示由原始左视点彩色图像、原始右视点彩色图像和以码率Rd分别对对应的原始左视点深度图像、原始右视点深度图像进行编码得到的解码左视点深度图像、解码右视点深度图像进行虚拟视点图像绘制得到的虚拟视点图像,则将Dv(Rt,Rd)表示为: D v ( R t , R d ) = E { ( S v - S ^ v ) 2 } = E { ( S v - S ‾ v + S ‾ v - S ^ v ) 2 } , 其中,表示求
Figure BDA0000093732860000055
的数学期望值;
③-2通过多项式分解将
Figure BDA0000093732860000056
表示为: E { ( S v - S ^ v ) 2 } = E { ( S v - S ‾ v ) 2 } + E { ( S ‾ v - S ^ v ) 2 } + 2 × E { ( S v - S ‾ v ) ( S ‾ v - S ^ v ) } , 其中,
Figure BDA0000093732860000058
表示求
Figure BDA0000093732860000059
的数学期望值,表示求
Figure BDA00000937328600000511
的数学期望值,
Figure BDA00000937328600000512
表示求
Figure BDA00000937328600000513
的数学期望值;
③-3、根据 E { ( S v - S ‾ v ) ( S ‾ v - S ^ v ) } ≅ 0 E { ( S ‾ v - S ^ v ) 2 } ≅ E { ( S v - S ~ v ) 2 } , 将Dv(Rt,Rd)近似表示为: D v ( R t , R d ) ≅ E { ( S v - S ‾ v ) 2 } + E { ( S v - S ~ v ) 2 } , 其中,
Figure BDA00000937328600000517
表示求
Figure BDA00000937328600000518
的数学期望值;
③-4、将
Figure BDA00000937328600000519
表示为对以码率Rt分别对原始左视点彩色视频、原始右视点彩色视频进行编码得到的解码左视点彩色视频、解码右视点彩色视频和对应的原始左视点深度视频、原始右视点深度视频进行虚拟视点图像绘制的绘制失真,记为Dt(Rt),将
Figure BDA00000937328600000520
表示为对原始左视点彩色视频、原始右视点彩色视频和以码率Rd分别对对应的原始左视点深度视频、原始右视点深度视频进行编码得到的解码左视点深度视频、解码右视点深度视频进行虚拟视点图像绘制的绘制失真,记为Dd(Rd),根据 E { ( S v - S ~ v ) 2 } = D t ( R t ) E { ( S v - S ‾ v ) 2 } = D d ( R d ) , 将Dv(Rt,Rd)近似表示为: D v ( R t , R d ) ≅ D t ( R t ) + D d ( R d ) .
所述的步骤④的具体过程为:
④-1、任取一个不大于44的编码量化参数作为原始左视点彩色视频、原始右视点彩色视频的编码量化参数,记为QPt0,得到以该编码量化参数QPt0对原始左视点彩色视频、原始右视点彩色视频进行编码的平均码率,记为Rt0,将由原始左视点彩色视频、原始右视点彩色视频和对应的原始左视点深度视频、原始右视点深度视频进行虚拟视点图像绘制得到的虚拟视点视频记为
Figure BDA0000093732860000061
将由以编码量化参数QPt0分别对原始左视点彩色视频、原始右视点彩色视频进行编码得到的解码左视点彩色视频、解码右视点彩色视频和对应的原始左视点深度视频、原始右视点深度视频进行虚拟视点图像绘制得到的虚拟视点视频记为Iv(QPt0),计算
Figure BDA0000093732860000062
与Iv(QPt0)的均方差,作为对以编码量化参数QPt0分别对原始左视点彩色视频、原始右视点彩色视频进行编码得到的解码左视点彩色视频、解码右视点彩色视频和对应的原始左视点深度视频、原始右视点深度视频进行虚拟视点图像绘制的绘制失真,记为Dt0
④-2、选取N个大于QPt0且各不相同的编码量化参数,分别记为QPt1,…,QPti,…,QPtN,采用该N个不同的编码量化参数QPt1,…,QPti,…,QPtN分别对原始左视点彩色视频、原始右视点彩色视频进行编码,分别得到以该N个不同的编码量化参数对原始左视点彩色视频、原始右视点彩色视频进行编码的平均码率,对应的分别记为Rt1,…,Rti,…,RtN,计算得到由以该N个不同的编码量化参数分别对原始左视点彩色视频、原始右视点彩色视频进行编码得到的解码左视点彩色视频、解码右视点彩色视频和对应的原始左视点深度视频、原始右视点深度视频进行虚拟视点图像绘制的绘制失真,对应的分别记为Dt1,…,Dti,…,DtN,其中,1≤i≤N,QPti=QPt0+i;
④-3、将由Rt0和Rt1,…,Rti,…,RtN组成的对原始左视点彩色视频、原始右视点彩色视频进行编码的平均码率集合记为{Rtj|0≤j≤N},根据由QPt0和QPt1,…,QPti,…,QPtN组成的对原始左视点彩色视频、原始右视点彩色视频进行编码的编码量化参数集合{QPtj|0≤j≤N}及由Dt0和Dt1,…,Dti,…,DtN组成的绘制失真集合{Dtj|0≤j≤N},通过二次拟合方法建立对原始左视点彩色视频、原始右视点彩色视频进行编码的编码量化步长TQstep与对以采用{QPtj|0≤j≤N}中的各个编码量化参数分别对原始左视点彩色视频、原始右视点彩色视频进行编码得到的解码左视点彩色视频、解码右视点彩色视频与对应的原始左视点深度视频、原始右视点深度视频进行虚拟视点图像绘制的绘制失真集合{Dtj|0≤j≤N}中的任意一个绘制失真Dt的关系模型,记为 D t ( R t ) ≅ α t × ( TQ step ) 2 + β t × ( TQ step ) + γ t , 其中, TQ step = 2 ( Q P t - 4 ) / 6 , Rt表示{Rtj|0≤j≤N}中的任意一个平均码率,QPt表示{QPtj|0≤j≤N}中的任意一个编码量化参数,αt、βt和γt均为模型参数;
④-4、任取一个不大于44的编码量化参数作为原始左视点深度视频、原始右视点深度视频的编码量化参数,记为QPd0,得到以该编码量化参数QPt0对原始左视点深度视频、原始右视点深度视频进行编码的平均码率,记为Rd0,将由原始左视点彩色视频、原始右视点彩色视频和以编码量化参数QPd0分别对对应的原始左视点深度视频、原始右视点深度视频进行编码得到的解码左视点深度视频、解码右视点深度视频进行虚拟视点图像绘制得到的虚拟视点视频记为Iv(QPd0),计算
Figure BDA0000093732860000073
与Iv(QPd0)的均方差,作为对原始左视点彩色视频、原始右视点彩色视频和以编码量化参数QPd0分别对对应的原始左视点深度视频、原始右视点深度视频进行编码得到的解码左视点深度视频、解码右视点深度视频进行虚拟视点图像绘制的绘制失真,记为Dd0
④-5、选取N个大于QPd0且各不相同的编码量化参数,分别记为QPd1,…,QPdi,…,QPdN,采用该N个不同的编码量化参数QPd1,…,QPdi,…,QPdN分别对原始左视点深度视频、原始右视点深度视频进行编码,分别得到以该N个不同的编码量化参数对原始左视点深度视频、原始右视点深度视频进行编码的平均码率,对应的分别记为Rd1,…,Rdi,…,RdN,计算得到由原始左视点彩色视频、原始右视点彩色视频和以该N个不同的编码量化参数分别对对应的原始左视点深度视频、原始右视点深度视频进行编码得到的解码左视点深度视频、解码右视点深度视频进行虚拟视点图像绘制的绘制失真,对应的分别记为Dd1,…,Ddi,…,DdN,其中,1≤i≤N,QPdi=QPd0+i;
④-6、将由Rd0和Rd1,…,Rdi,…,RdN组成的对原始左视点深度视频、原始右视点深度视频进行编码的平均码率集合记为{Rdj|0≤j≤N},根据由QPd0和QPd1,…,QPdi,…,QPdN组成的对原始左视点深度视频、原始右视点深度视频进行编码的编码量化参数集合{QPdi|0≤j≤N}及由Dd0和Dd1,…,Ddi,…,DdN组成的绘制失真集合{Ddj|0≤j≤N},通过二次拟合方法建立对原始左视点深度视频、原始右视点深度视频进行编码的编码量化步长DQstep与对原始左视点彩色视频、原始右视点彩色视频与以采用{QPdj|0≤j≤N}中的各个编码量化参数分别对对应的原始左视点深度视频、原始右视点深度视频进行编码得到的解码左视点深度视频、解码右视点深度视频进行虚拟视点图像绘制的绘制失真集合{Ddj|0≤j≤N}中的任意一个绘制失真Dd的关系模型,记为 D d ( R d ) ≅ α d × ( DQ step ) 2 + β d × ( DQ step ) + γ d , 其中, DQ step = 2 ( Q P d - 4 ) / 6 , Rd表示{Rdj|0≤j≤N}中的任意一个平均码率,QPd表示{QPdj|0≤j≤N}中的任意一个编码量化参数,αd、βd和γd均为模型参数。
所述的步骤⑤的具体过程为:
⑤-1、根据对原始左视点彩色视频、原始右视点彩色视频进行编码的平均码率集合{Rtj|0≤j≤N}和对原始左视点彩色视频、原始右视点彩色视频进行编码的编码量化参数集合{QPtj|0≤j≤N},采用二次拟合方法建立对原始左视点彩色视频、原始右视点彩色视频进行编码的编码量化步长TQstep与对原始左视点彩色视频、原始右视点彩色视频进行编码的平均码率集合{Rtj|0≤j≤N}中的任意一个码率Rt的关系模型,记为 R t ≅ α t × ( 1 / TQ step ) 2 + b t × ( 1 / TQ step ) + c t , 其中, TQ step = 2 ( Q P t - 4 ) / 6 , QPt表示{QPtj|0≤j≤N}中的任意一个编码量化参数,at、bt和ct均为模型参数;
⑤-2、根据对原始左视点深度视频、原始右视点深度视频进行编码的平均码率集合{Rdj|0≤j≤N}和对原始左视点深度视频、原始右视点深度视频进行编码的编码量化参数集合{QPdj|0≤j≤N},采用二次拟合方法建立对原始左视点深度视频、原始右视点深度视频进行编码的编码量化步长DQstep与对原始左视点深度视频、原始右视点深度视频进行编码的平均码率集合{Rdj|0≤j≤N}中的任意一个码率Rd的关系模型,记为 R d ≅ α d × ( 1 / DQ step ) 2 + b d × ( 1 / DQ step ) + c d , 其中, DQ step = 2 ( Q P d - 4 ) / 6 , QPd表示{QPdj|0≤j≤N}中的任意一个编码量化参数,ad、bd和cd均为模型参数。
所述的步骤⑦的具体过程为:
⑦-1、假定对原始左视点彩色视频、原始右视点彩色视频进行编码的码率占总码率Rc的最小比重为0.2,假定对原始左视点深度视频、原始右视点深度视频进行编码的码率占总码率Rc的最大比重为0.8,则根据对原始左视点彩色视频、原始右视点彩色视频与原始左视点深度视频、原始右视点深度视频进行编码的总码率Rc,计算对原始左视点深度视频、原始右视点深度视频进行编码的最小编码量化参数和最大编码量化参数,分别记为QPd min和QPd max QP d min = 6 × log 2 DQ step min + 4 , QP d max = 6 × log 2 DQ step max + 4 ,
DQ step min = 2 × a d - b d + ( b d ) 2 - 4 × a d × ( c d - 0.8 × R c ) ,
DQ step max = 2 × a d - b d + ( b d ) 2 - 4 × a d × ( c d - 0.2 × R c ) , 其中,ad、bd和cd均为
R d ≅ a d × ( 1 / DQ step ) 2 + b d × ( 1 / DQ step ) + c d 中的模型参数;
⑦-2、将对原始左视点深度视频、原始右视点深度视频进行编码的编码量化参数集合记为Ω,Ω={QPd|QPd min≤QPd≤QPd max},QPd∈Ω,然后从对原始左视点深度视频、原始右视点深度视频进行编码的编码量化参数集合Ω中任取一个编码量化参数,记为QPd′,QPd′∈Ω;
⑦-3、根据任取的编码量化参数QPd′计算对原始左视点深度视频、原始右视点深度视频进行编码的平均码率,记为Rd′,Rd′=ad×(1/DQstep′)2+bd×(1/DQstep′)+cd DQ step ′ = 2 ( QP d ′ - 4 ) / 6 ;
⑦-4、根据对原始左视点深度视频、原始右视点深度视频进行编码的平均码率Rd′,计算对原始左视点彩色视频、原始右视点彩色视频进行编码的编码量化步长,记为TQstep′, TQ step ′ = 2 × a t - b t + ( b t ) 2 - 4 × a t × ( c t - R c + R d ′ ) ;
⑦-5、计算对以编码量化步长TQstep′分别对原始左视点彩色视频、原始右视点彩色视频进行编码得到的解码左视点彩色视频、解码右视点彩色视频和以编码量化步长DQstep′分别对原始左视点深度视频、原始右视点深度视频进行编码得到的解码左视点深度视频、解码右视点深度视频进行虚拟视点图像绘制的绘制失真,记为COST′,COST′=αt×(TQstep′)2t×(TQstep′)+γtd×(DQstep′)2d×(DQstep′)+γd,其中,αt、βt和γt均为 D t ( R t ) ≅ α t × ( TQ step ) 2 + β t × ( TQ step ) + γ t 中的模型参数,αd、βd和γd均为 D d ( R d ) ≅ α d × ( DQ step ) 2 + β d × ( DQ step ) + γ d 中的模型参数;
⑦-6、从对原始左视点深度视频、原始右视点深度视频进行编码的编码量化参数集合Ω中任取n个值不等于QPd′且各不相同的编码量化参数,分别记任取的n个编码量化参数为QP″d1,…,QP″di,…,QP″dn;然后从任取的n个编码量化参数中的第1个编码量化参数QP″d1开始,重复采用与步骤⑦-3至⑦-5相同的操作处理,直至获得任取的n个编码量化参数对应的绘制失真,分别记为COST″1,…,COST″i,…,COST″n,其中,2≤n≤QPd max-QPd min-1,1≤i≤n,QP″d1表示任取的n个编码量化参数中的第1个编码量化参数,QP″di表示任取的n个编码量化参数中的第i个编码量化参数,QP″dn表示任取的n个编码量化参数中的第n个编码量化参数,COST″1表示QP″d1对应的绘制失真,COST″i表示QP″di对应的绘制失真,COST″n表示QP″dn对应的绘制失真;
⑦-7、从COST′和{COST″1,…,COST″i,…,COST″n}中找出值最小的绘制失真,记为COSTmin,再将COSTmin对应的对原始左视点彩色视频、原始右视点彩色视频进行编码的编码量化步长作为对原始左视点彩色视频、原始右视点彩色视频进行编码的最佳初始编码量化步长,记为
Figure BDA0000093732860000103
将COSTmin对应的对原始左视点深度视频、原始右视点深度视频进行编码的编码量化步长作为对原始左视点深度视频、原始右视点深度视频进行编码的最佳初始编码量化步长,记为
Figure BDA0000093732860000104
与现有技术相比,本发明的优点在于:
1)本发明方法根据彩色视频的编码失真和深度视频的编码失真对虚拟视点图像绘制的影响,建立对原始左视点彩色视频、原始右视点彩色视频与原始左视点深度视频、原始右视点深度视频进行编码的率失真模型,并对率失真模型进行了优化,避免了在编码过程中进行复杂的虚拟视点绘制操作,大大提高了率失真模型的有效性。
2)本发明方法通过建立对原始左视点彩色视频、原始右视点彩色视频与原始左视点深度视频、原始右视点深度视频进行编码的率失真模型,分别获得在一定码率下对原始左视点彩色视频、原始右视点彩色视频与原始左视点深度视频、原始右视点深度视频进行编码的初始编码量化参数,这一编码流程有别于传统的立体视频编码方法,在保证立体视频的整体质量的前提下,大大提高了虚拟视点图像的质量。
附图说明
图1为典型的三维视频系统的组成示意图;
图2a为“Altmoabit”三维视频测试序列的第8个参考视点的一幅彩色图像;
图2b为“Altmoabit”三维视频测试序列的第10个参考视点的一幅彩色图像;
图2c为图2a所示的彩色图像对应的深度图像;
图2d为图2b所示的彩色图像对应的深度图像;
图3a为“Bookarrival”三维视频测试序列的第9个参考视点的一幅彩色图像;
图3b为“Bookarrival”三维视频测试序列的第11个参考视点的一幅彩色图像;
图3c为图3a所示的彩色图像对应的深度图像;
图3d为图3b所示的彩色图像对应的深度图像;
图4a为“Doorflowers”三维视频测试序列的第8个参考视点的一幅彩色图像;
图4b为“Doorflowers”三维视频测试序列的第10个参考视点的一幅彩色图像;
图4c为图4a所示的彩色图像对应的深度图像;
图4d为图4b所示的彩色图像对应的深度图像;
图5a为“Leavelaptop”三维视频测试序列的第9个参考视点的一幅彩色图像;
图5b为“Leavelaptop”三维视频测试序列的第11个参考视点的一幅彩色图像;
图5c为图5a所示的彩色图像对应的深度图像;
图5d为图5b所示的彩色图像对应的深度图像;
图6为对原始左右视点彩色视频的编码量化步长与绘制失真的关系模型进行二次拟合的曲线示意图;
图7为对原始左右视点深度视频的编码量化步长与绘制失真的关系模型进行二次拟合的曲线示意图;
图8为对原始左右视点彩色视频的编码量化步长与码率的关系模型进行二次拟合的曲线示意图;
图9为对原始左右视点深度视频的编码量化步长与码率的关系模型进行二次拟合的曲线示意图;
图10为“Altmoabit”三维视频测试序列采用本发明方法与采用原始固定码率比重方法得到的虚拟视点彩色图像的亮度分量Y的率失真性能曲线比较示意图;
图11为“Bookarrival”三维视频测试序列采用本发明方法与采用原始固定码率比重方法得到的虚拟视点彩色图像的亮度分量Y的率失真性能曲线比较示意图;
图12为“Doorflowers”三维视频测试序列采用本发明方法与采用原始固定码率比重方法得到的虚拟视点彩色图像的亮度分量Y的率失真性能曲线比较示意图;
图13为“Leavelaptop”三维视频测试序列采用本发明方法与采用原始固定码率比重方法得到的虚拟视点彩色图像的亮度分量Y的率失真性能曲线比较示意图。
具体实施方式
以下结合附图实施例对本发明作进一步详细描述。
本发明提出的一种三维立体视频编码的率失真模型优化方法,其主要包括以下步骤:
①将外部立体视频捕获工具捕获得到的未经处理的且颜色空间为YUV的彩色立体视频及其对应的深度立体视频定义为原始三维立体视频,在空域上该原始三维立体视频包括原始左视点三维视频和原始右视点三维视频,原始左视点三维视频包括原始左视点彩色视频和原始左视点深度视频,原始左视点彩色视频主要由若干个帧组的原始左视点彩色图像组成,原始左视点深度视频主要由若干个帧组的原始左视点深度图像组成,原始右视点三维视频包括原始右视点彩色视频和原始右视点深度视频,原始右视点彩色视频主要由若干个帧组的原始右视点彩色图像组成,原始右视点深度视频主要由若干个帧组的原始右视点深度图像组成,其中,YUV颜色空间的三个颜色分量的第1个分量为亮度分量并记为Y、第2个分量为第一色度分量并记为U及第3个分量为第二色度分量并记为V;将介于左视点与右视点之间的视点作为虚拟视点。
在本实施中,采用德国HHI实验室提供的三维视频测试序列“Altmoabit”、“Bookarrival”、“Doorflowers”和“Leavelaptop”作为原始三维立体视频,这四个三维视频测试序列的各幅彩色图像和各幅深度图像的分辨率均为1024×768。对于“Altmoabit”和“Doorflowers”三维立体视频,将第8个参考视点作为原始三维立体视频的左视点,将第10个参考视点作为原始三维立体视频的右视点,将第9个视点作为原始三维立体视频的虚拟视点;对于“Bookarrival”和“Leavelaptop”原始三维立体视频,将第9个参考视点作为原始三维立体视频的左视点,将第11个参考视点作为原始三维立体视频的右视点,将第10个视点作为原始三维立体视频的虚拟视点。图2a和图2b分别给出了“Altmoabit”的第8个和第10个参考视点的彩色图像;图2c和图2d分别给出了“Altmoabit”的第8个和第10个参考视点的深度图像;图3a和图3b分别给出了“Bookarrival”的第9个和第11个参考视点的彩色图像;图3c和图3d分别给出了“Bookarrival”的第9个和第11个参考视点的深度图像;图4a和图4b分别给出了“Doorflowers”的第8个和第10个参考视点的彩色图像;图4c和图4d分别给出了“Doorflowers”的第8个和第10个参考视点的深度图像;图5a和图5b分别给出了“Leavelaptop”的第9个和第11个参考视点的彩色图像;图5c和图5d分别给出了“Leavelaptop”的第9个和第11个参考视点的深度图像。
②由于深度是用来表征场景几何的负载信息,因此深度信息的编码质量会对后期虚拟视点图像的绘制产生影响,并且由于人眼感知是对彩色视频图像进行的,因此彩色视频图像的编码质量也会直接对后期虚拟视点图像的绘制质量产生影响。由于原始左右视点彩色视频的编码失真和原始左右视点深度视频的编码失真都会对虚拟视点图像绘制产生影响,因此本发明建立对原始左视点彩色视频、原始右视点彩色视频与原始左视点深度视频、原始右视点深度视频进行编码的率失真模型,记为以保证获得最优的编码性能和绘制质量,其中,min[]为取最小值函数,Rc表示预先设定的对原始左视点彩色视频、原始右视点彩色视频与原始左视点深度视频、原始右视点深度视频进行编码的总码率,Rt表示对原始左视点彩色视频、原始右视点彩色视频进行编码的码率,Rd表示对原始左视点深度视频、原始右视点深度视频进行编码的码率,Dv(Rt,Rd)表示对以码率Rt分别对原始左视点彩色视频、原始右视点彩色视频进行编码得到的解码左视点彩色视频、解码右视点彩色视频和以码率Rd分别对对应的原始左视点深度视频、原始右视点深度视频进行编码得到的解码左视点深度视频、解码右视点深度视频进行虚拟视点图像绘制的绘制失真。
③由于原始左视点彩色视频、原始右视点彩色视频的编码失真和原始左视点深度视频、原始右视点深度视频的编码失真对虚拟视点图像绘制的影响既是相互独立又是相互影响的,为简单起见,本发明忽略彩色视频和深度视频之间的相互影响,于是将Dv(Rt,Rd)近似表示为: D v ( R t , R d ) ≅ D t ( R t ) + D d ( R d ) , 其中,Dt(Rt)表示对以码率Rt分别对原始左视点彩色视频、原始右视点彩色视频进行编码得到的解码左视点彩色视频、解码右视点彩色视频和对应的原始左视点深度视频、原始右视点深度视频进行虚拟视点图像绘制的绘制失真,Dd(Rd)表示对原始左视点彩色视频、原始右视点彩色视频和以码率Rd分别对对应的原始左视点深度视频、原始右视点深度视频进行编码得到的解码左视点深度视频、解码右视点深度视频进行虚拟视点图像绘制的绘制失真。
在此具体实施例中,步骤③的具体过程为:
③-1、假定Sv表示由原始左视点彩色图像、原始右视点彩色图像和对应的原始左视点深度图像、原始右视点深度图像进行虚拟视点图像绘制得到的虚拟视点图像,
Figure BDA0000093732860000141
表示由以码率Rt分别对原始左视点彩色图像、原始右视点彩色图像进行编码得到的解码左视点彩色图像、解码右视点彩色图像和以码率Rd分别对对应的原始左视点深度图像、原始右视点深度图像进行编码得到的解码左视点深度图像、解码右视点深度图像进行虚拟视点图像绘制得到的虚拟视点图像,
Figure BDA0000093732860000142
表示由以码率Rt分别对原始左视点彩色图像、原始右视点彩色图像进行编码得到的解码左视点彩色图像、解码右视点彩色图像和对应的原始左视点深度图像、原始右视点深度图像进行虚拟视点图像绘制得到的虚拟视点图像,
Figure BDA0000093732860000143
表示由原始左视点彩色图像、原始右视点彩色图像和以码率Rd分别对对应的原始左视点深度图像、原始右视点深度图像进行编码得到的解码左视点深度图像、解码右视点深度图像进行虚拟视点图像绘制得到的虚拟视点图像,则将Dv(Rt,Rd)表示为: D v ( R t , R d ) = E { ( S v - S ^ v ) 2 } = E { ( S v - S ‾ v + S ‾ v - S ^ v ) 2 } , 其中,
Figure BDA0000093732860000145
表示求
Figure BDA0000093732860000146
的数学期望值。
③-2通过多项式分解将
Figure BDA0000093732860000147
表示为: E { ( S v - S ^ v ) 2 } = E { ( S v - S ‾ v ) 2 } + E { ( S ‾ v - S ^ v ) 2 } + 2 × E { ( S v - S ‾ v ) ( S ‾ v - S ^ v ) } , 其中,
Figure BDA0000093732860000149
表示求
Figure BDA00000937328600001410
的数学期望值,
Figure BDA00000937328600001411
表示求
Figure BDA00000937328600001412
的数学期望值,表示求的数学期望值。
③-3、经大量实验结果表明
Figure BDA00000937328600001415
近似等于0,
Figure BDA00000937328600001416
近似等于
Figure BDA00000937328600001417
因此本发明根据 E { ( S v - S ‾ v ) ( S ‾ v - S ^ v ) } ≅ 0 E { ( S ‾ v - S ^ v ) 2 } ≅ E { ( S v - S ~ v ) 2 } , 将Dv(Rt,Rd)近似表示为: D v ( R t , R d ) ≅ E { ( S v - S ‾ v ) 2 } + E { ( S v - S ~ v ) 2 } , 其中,表示求
Figure BDA0000093732860000151
的数学期望值。
③-4、将
Figure BDA0000093732860000152
表示为对以码率Rt分别对原始左视点彩色视频、原始右视点彩色视频进行编码得到的解码左视点彩色视频、解码右视点彩色视频和对应的原始左视点深度视频、原始右视点深度视频进行虚拟视点图像绘制的绘制失真,记为Dt(Rt),将
Figure BDA0000093732860000153
表示为对原始左视点彩色视频、原始右视点彩色视频和以码率Rd分别对对应的原始左视点深度视频、原始右视点深度视频进行编码得到的解码左视点深度视频、解码右视点深度视频进行虚拟视点图像绘制的绘制失真,记为Dd(Rd),根据 E { ( S v - S ~ v ) 2 } = D t ( R t ) E { ( S v - S ‾ v ) 2 } = D d ( R d ) , 将Dv(Rt,Rd)近似表示为: D v ( R t , R d ) ≅ D t ( R t ) + D d ( R d ) .
④由于原始左右视点彩色视频和原始左右视点深度视频的编码失真的大小直接影响绘制失真的大小,而编码失真又与编码量化步长有关,因此本发明通过二次拟合方法建立对原始左视点彩色视频、原始右视点彩色视频进行编码的编码量化步长TQstep与Dt(Rt)的关系模型,记为 D t ( R t ) ≅ α t × ( TQ step ) 2 + β t × ( TQ step ) + γ t , 通过二次拟合方法建立对原始左视点深度视频、原始右视点深度视频进行编码的编码量化步长DQstep与Dd(Rd)的关系模型,记为 D d ( R d ) ≅ α d × ( DQ step ) 2 + β d × ( DQ step ) + γ d , 其中,αt、βt和γt均为 D t ( R t ) ≅ α t × ( TQ step ) 2 + β t × ( TQ step ) + γ t 中的模型参数,αd、βd和γd均为 D d ( R d ) ≅ α d × ( DQ step ) 2 + β d × ( DQ step ) + γ d 中的模型参数。
在此具体实施例中,步骤④的具体过程为:
④-1、任取一个不大于44的编码量化参数作为原始左视点彩色视频、原始右视点彩色视频的编码量化参数,记为QPt0,得到以该编码量化参数QPt0对原始左视点彩色视频、原始右视点彩色视频进行编码的平均码率,记为Rt0,将由原始左视点彩色视频、原始右视点彩色视频和对应的原始左视点深度视频、原始右视点深度视频进行虚拟视点图像绘制得到的虚拟视点视频记为
Figure BDA00000937328600001511
将由以编码量化参数QPt0分别对原始左视点彩色视频、原始右视点彩色视频进行编码得到的解码左视点彩色视频、解码右视点彩色视频和对应的原始左视点深度视频、原始右视点深度视频进行虚拟视点图像绘制得到的虚拟视点视频记为Iv(QPt0),计算与Iv(QPt0)的均方差,作为对以编码量化参数QPt0分别对原始左视点彩色视频、原始右视点彩色视频进行编码得到的解码左视点彩色视频、解码右视点彩色视频和对应的原始左视点深度视频、原始右视点深度视频进行虚拟视点图像绘制的绘制失真,记为Dt0
④-2、选取N个大于QPt0且各不相同的编码量化参数,分别记为QPt1,…,QPti,…,QPtN,采用该N个不同的编码量化参数QPt1,…,QPti,…,QPtN分别对原始左视点彩色视频、原始右视点彩色视频进行编码,分别得到以该N个不同的编码量化参数对原始左视点彩色视频、原始右视点彩色视频进行编码的平均码率,对应的分别记为Rt1,…,Rti,…,RtN,计算得到由以该N个不同的编码量化参数分别对原始左视点彩色视频、原始右视点彩色视频进行编码得到的解码左视点彩色视频、解码右视点彩色视频和对应的原始左视点深度视频、原始右视点深度视频进行虚拟视点图像绘制的绘制失真,对应的分别记为Dt1,…,Dti,…,DtN,其中,1≤i≤N,QPti=QPt0+i。在本实施例中,取N=12。
④-3、将由Rt0和Rt1,…,Rti,…,RtN组成的对原始左视点彩色视频、原始右视点彩色视频进行编码的平均码率集合记为{Rtj|0≤j≤N},根据由QPt0和QPt1,…,QPti,…,QPtN组成的对原始左视点彩色视频、原始右视点彩色视频进行编码的编码量化参数集合{QPtj|0≤j≤N}及由Dt0和Dt1,…,Dti,…,DtN组成的绘制失真集合{Dtj|0≤j≤N},通过二次拟合方法建立对原始左视点彩色视频、原始右视点彩色视频进行编码的编码量化步长TQstep与对以采用{QPtj|0≤j≤N}中的各个编码量化参数分别对原始左视点彩色视频、原始右视点彩色视频进行编码得到的解码左视点彩色视频、解码右视点彩色视频与对应的原始左视点深度视频、原始右视点深度视频进行虚拟视点图像绘制的绘制失真集合{Dtj|0≤j≤N}中的任意一个绘制失真Dt的关系模型,记为 D t ( R t ) ≅ α t × ( TQ step ) 2 + β t × ( TQ step ) + γ t , 其中, TQ step = 2 ( Q P t - 4 ) / 6 , Rt表示{Rtj|0≤j≤N}中的任意一个平均码率,QPt表示{QPtj|0≤j≤N}中的任意一个编码量化参数,αt、βt和γt均为模型参数。
④-4、任取一个不大于44的编码量化参数作为原始左视点深度视频、原始右视点深度视频的编码量化参数,记为QPd0,得到以该编码量化参数QPt0对原始左视点深度视频、原始右视点深度视频进行编码的平均码率,记为Rd0,将由原始左视点彩色视频、原始右视点彩色视频和以编码量化参数QPd0分别对对应的原始左视点深度视频、原始右视点深度视频进行编码得到的解码左视点深度视频、解码右视点深度视频进行虚拟视点图像绘制得到的虚拟视点视频记为Iv(QPd0),计算
Figure BDA0000093732860000171
与Iv(QPd0)的均方差,作为对原始左视点彩色视频、原始右视点彩色视频和以编码量化参数QPd0分别对对应的原始左视点深度视频、原始右视点深度视频进行编码得到的解码左视点深度视频、解码右视点深度视频进行虚拟视点图像绘制的绘制失真,记为Dd0
④-5、选取N个大于QPd0且各不相同的编码量化参数,分别记为QPd1,…,QPdi,…,QPdN,采用该N个不同的编码量化参数QPd1,…,QPdi,…,QPdN分别对原始左视点深度视频、原始右视点深度视频进行编码,分别得到以该N个不同的编码量化参数对原始左视点深度视频、原始右视点深度视频进行编码的平均码率,对应的分别记为Rd1,…,Rdi,…,RdN,计算得到由原始左视点彩色视频、原始右视点彩色视频和以该N个不同的编码量化参数分别对对应的原始左视点深度视频、原始右视点深度视频进行编码得到的解码左视点深度视频、解码右视点深度视频进行虚拟视点图像绘制的绘制失真,对应的分别记为Dd1,…,Ddi,…,DdN,其中,1≤i≤N,QPdi=QPd0+i。在本实施例中,取N=12。
④-6、将由Rd0和Rd1,…,Rdi,…,RdN组成的对原始左视点深度视频、原始右视点深度视频进行编码的平均码率集合记为{Rdj|0≤j≤N},根据由QPd0和QPd1,…,QPdi,…,QPdN组成的对原始左视点深度视频、原始右视点深度视频进行编码的编码量化参数集合{QPdj|0≤j≤N}及由Dd0和Dd1,…,Ddi,…,DdN组成的绘制失真集合{Ddj|0≤j≤N},通过二次拟合方法建立对原始左视点深度视频、原始右视点深度视频进行编码的编码量化步长DQstep与对原始左视点彩色视频、原始右视点彩色视频与以采用{QPdj|0≤j≤N}中的各个编码量化参数分别对对应的原始左视点深度视频、原始右视点深度视频进行编码得到的解码左视点深度视频、解码右视点深度视频进行虚拟视点图像绘制的绘制失真集合{Ddj|0≤j≤N}中的任意一个绘制失真Dd的关系模型,记为 D d ( R d ) ≅ α d × ( DQ step ) 2 + β d × ( DQ step ) + γ d , 其中, DQ step = 2 ( Q P d - 4 ) / 6 , Rd表示{Rdj|0≤j≤N}中的任意一个平均码率,QPd表示{QPdj|0≤j≤N}中的任意一个编码量化参数,αd、βd和γd均为模型参数。
图6给出了对“Altmoabit”、“Bookarrival”、“Doorflowers”和“Leavelaptop”的原始左右视点彩色视频的编码量化步长TQstep与绘制失真Dt(Rt)的关系模型进行二次拟合的曲线示意图,图7给出了对“Altmoabit”、“Bookarrival”、“Doorflowers”和“Leavelaptop”的原始左右视点深度视频的编码量化步长DQstep与绘制失真Dd(Rd)的关系模型进行二次拟合的曲线示意图,从图6和图7中可以看出二次拟合能很好地反映编码量化步长与绘制失真之间的关系。
⑤在总码率限制下,需要合理地控制对原始左视点彩色视频、原始右视点彩色视频与原始左视点深度视频、原始右视点深度视频进行编码的编码量化步长,使得彩色视频和深度视频输出的码率满足目标总码率要求,因此本发明通过二次拟合方法建立对原始左视点彩色视频、原始右视点彩色视频进行编码的编码量化步长TQstep与Rt的关系模型,记为 R t ≅ α t × ( 1 / TQ step ) 2 + b t × ( 1 / TQ step ) + c t , 通过二次拟合方法建立对原始左视点深度视频、原始右视点深度视频进行编码的编码量化步长DQstep与Rd的关系模型,记为 R d ≅ α d × ( 1 / DQ step ) 2 + b d × ( 1 / DQ step ) + c d , 其中,at、bt和ct均为 R t ≅ α t × ( 1 / TQ step ) 2 + b t × ( 1 / TQ step ) + c t 中的模型参数,ad、bd和cd均为 R d ≅ α d × ( 1 / DQ step ) 2 + b d × ( 1 / DQ step ) + c d 中的模型参数。
在此具体实施例中,步骤⑤的具体过程为:
⑤-1、根据对原始左视点彩色视频、原始右视点彩色视频进行编码的平均码率集合{Rtj|0≤j≤N}和对原始左视点彩色视频、原始右视点彩色视频进行编码的编码量化参数集合{QPtj|0≤j≤N},采用二次拟合方法建立对原始左视点彩色视频、原始右视点彩色视频进行编码的编码量化步长TQstep与对原始左视点彩色视频、原始右视点彩色视频进行编码的平均码率集合{Rtj|0≤j≤N}中的任意一个码率Rt的关系模型,记为 R t ≅ α t × ( 1 / TQ step ) 2 + b t × ( 1 / TQ step ) + c t , 其中, TQ step = 2 ( Q P t - 4 ) / 6 , QPt表示{QPtj|0≤j≤N}中的任意一个编码量化参数,at、bt和ct均为模型参数。
⑤-2、根据对原始左视点深度视频、原始右视点深度视频进行编码的平均码率集合{Rdj|0≤j≤N}和对原始左视点深度视频、原始右视点深度视频进行编码的编码量化参数集合{QPdj|0≤j≤N},采用二次拟合方法建立对原始左视点深度视频、原始右视点深度视频进行编码的编码量化步长DQstep与对原始左视点深度视频、原始右视点深度视频进行编码的平均码率集合{Rdj|0≤j≤N}中的任意一个码率Rd的关系模型,记为 R d ≅ α d × ( 1 / DQ step ) 2 + b d × ( 1 / DQ step ) + c d , 其中, DQ step = 2 ( Q P d - 4 ) / 6 , QPd表示{QPdj|0≤j≤N}中的任意一个编码量化参数,ad、bd和cd均为模型参数。
图8给出了对“Altmoabit”、“Bookarrival”、“Doorflowers”和“Leavelaptop”的原始左右视点彩色视频的编码量化步长TQstep与码率Rt的关系模型进行二次拟合的曲线示意图,图9给出了对“Altmoabit”、“Bookarrival”、“Doorflowers”和“Leavelaptop”的原始左右视点深度视频的编码量化步长TQstep与码率Rt的关系模型进行二次拟合的曲线示意图,从图8和图9中可以看出二次拟合能很好地反映编码量化步长与码率之间的关系。
⑥根据TQstep与Dt(Rt)的关系模型、DQstep与Dd(Rd)的关系模型、TQstep与Rt的关系模型及DQstep与Rd的关系模型,对率失真模型进行优化,将优化后的率失真模型表示为: min [ α t × ( TQ step ) 2 + β t × ( TQ step ) + γ t + α d × ( DQ step ) 2 + β d × ( DQ step ) + γ d ] s . t . a t × ( 1 / T Q step ) 2 + b t × ( 1 / TQ step ) + c t + a d × ( 1 / DQ step ) 2 + b d × ( 1 / DQ step ) + c d ≤ R c .
⑦根据优化后的率失真模型 min [ α t × ( TQ step ) 2 + β t × ( TQ step ) + γ t + α d × ( DQ step ) 2 + β d × ( DQ step ) + γ d ] s . t . a t × ( 1 / T Q step ) 2 + b t × ( 1 / TQ step ) + c t + a d × ( 1 / DQ step ) 2 + b d × ( 1 / DQ step ) + c d ≤ R c , 通过全搜索方法获取对原始左视点彩色视频、原始右视点彩色视频与原始左视点深度视频、原始右视点深度视频进行编码的最佳初始编码量化步长,将对原始左视点彩色视频、原始右视点彩色视频进行编码的最佳初始编码量化步长记为
Figure BDA0000093732860000198
将对原始左视点深度视频、原始右视点深度视频进行编码的编码量化步长记为
Figure BDA0000093732860000201
在此具体实施例中,步骤⑦的具体过程为:
⑦-1、假定对原始左视点彩色视频、原始右视点彩色视频进行编码的码率占总码率Rc的最小比重为0.2,假定对原始左视点深度视频、原始右视点深度视频进行编码的码率占总码率Rc的最大比重为0.8,则根据对原始左视点彩色视频、原始右视点彩色视频与原始左视点深度视频、原始右视点深度视频进行编码的总码率Rc,计算对原始左视点深度视频、原始右视点深度视频进行编码的最小编码量化参数和最大编码量化参数,分别记为QPd min和QPd max QP d min = 6 × log 2 DQ step min + 4 , QP d max = 6 × log 2 DQ step max + 4 , DQ step min = 2 × a d - b d + ( b d ) 2 - 4 × a d × ( c d - 0.8 × R c ) , DQ step max = 2 × a d - b d + ( b d ) 2 - 4 × a d × ( c d - 0.2 × R c ) , 其中,ad、bd和cd均为 R d ≅ a d × ( 1 / DQ step ) 2 + b d × ( 1 / DQ step ) + c d 中的模型参数。
⑦-2、将对原始左视点深度视频、原始右视点深度视频进行编码的编码量化参数集合记为Ω,Ω={QPd|QPd min≤QPd≤QPd max},QPd∈Ω,然后从对原始左视点深度视频、原始右视点深度视频进行编码的编码量化参数集合Ω中任取一个编码量化参数,记为QPd′,QPd′∈Ω。
⑦-3、根据任取的编码量化参数QPd′计算对原始左视点深度视频、原始右视点深度视频进行编码的平均码率,记为Rd′,Rd′=ad×(1/DQstep′)2+bd×(1/DQstep′)+cd DQ step ′ = 2 ( QP d ′ - 4 ) / 6 .
⑦-4、根据对原始左视点深度视频、原始右视点深度视频进行编码的平均码率Rd′,计算对原始左视点彩色视频、原始右视点彩色视频进行编码的编码量化步长,记为TQstep′, TQ step ′ = 2 × a t - b t + ( b t ) 2 - 4 × a t × ( c t - R c + R d ′ ) .
⑦-5、计算对以编码量化步长TQstep′分别对原始左视点彩色视频、原始右视点彩色视频进行编码得到的解码左视点彩色视频、解码右视点彩色视频和以编码量化步长DQstep′分别对原始左视点深度视频、原始右视点深度视频进行编码得到的解码左视点深度视频、解码右视点深度视频进行虚拟视点图像绘制的绘制失真,记为COST′,COST′=αt×(TQstep′)2t×(TQstep′)+γtd×(DQstep′)2d×(DQstep′)+γd,其中,αt、βt和γt均为 D t ( R t ) ≅ α t × ( TQ step ) 2 + β t × ( TQ step ) + γ t 中的模型参数,αd、βd和γd均为 D d ( R d ) ≅ α d × ( DQ step ) 2 + β d × ( DQ step ) + γ d 中的模型参数。
⑦-6、从对原始左视点深度视频、原始右视点深度视频进行编码的编码量化参数集合Ω中任取n个值不等于QPd′且各不相同的编码量化参数,分别记任取的n个编码量化参数为QP″d1,…,QP″di,…,QP″dn;然后从任取的n个编码量化参数中的第1个编码量化参数QP″d1开始,重复采用与步骤⑦-3至⑦-5相同的操作处理,直至获得任取的n个编码量化参数对应的绘制失真,分别记为COST″1,…,COST″i,…,COST″n,其中,2≤n≤QPd max-QPd min-1,1≤i≤n,QP″d1表示任取的n个编码量化参数中的第1个编码量化参数,QP″di表示任取的n个编码量化参数中的第i个编码量化参数,QP″dn表示任取的n个编码量化参数中的第n个编码量化参数,COST″1表示QP″d1对应的绘制失真,COST″i表示QP″di对应的绘制失真,COST″n表示QP″dn对应的绘制失真。
⑦-7、从COST′和{COST″1,…,COST″i,…,COST″n}中找出值最小的绘制失真,记为COSTmin,再将COSTmin对应的对原始左视点彩色视频、原始右视点彩色视频进行编码的编码量化步长作为对原始左视点彩色视频、原始右视点彩色视频进行编码的最佳初始编码量化步长,记为
Figure BDA0000093732860000213
将COSTmin对应的对原始左视点深度视频、原始右视点深度视频进行编码的编码量化步长作为对原始左视点深度视频、原始右视点深度视频进行编码的最佳初始编码量化步长,记为
Figure BDA0000093732860000215
⑧根据对原始左视点彩色视频、原始右视点彩色视频进行编码的最佳初始编码量化步长
Figure BDA0000093732860000216
计算对原始左视点彩色视频、原始右视点彩色视频进行编码的最佳初始编码量化参数,记为
Figure BDA0000093732860000221
QP t opt = 6 × log 2 TQ step opt + 4 ; 根据设定的立体视频编码预测结构,采用最佳初始编码量化参数
Figure BDA0000093732860000223
分别对原始左视点彩色视频的各个帧组中的各个原始左视点彩色图像及原始右视点彩色视频的各个帧组中的各个原始右视点彩色图像的亮度分量Y、第一色度分量U和第二色度分量V进行编码,得到左视点彩色视频的编码码流和右视点彩色视频的编码码流,然后服务端通过网络将左视点彩色视频的编码码流和右视点彩色视频的编码码流传输给用户端。
⑨根据对原始左视点深度视频、原始右视点深度视频进行编码的最佳初始编码量化步长
Figure BDA0000093732860000224
计算对原始左视点深度视频、原始右视点深度视频进行编码的最佳初始编码量化参数,记为
Figure BDA0000093732860000225
QP d opt = 6 × log 2 DQ step opt + 4 ; 根据设定的立体视频编码预测结构,采用最佳初始编码量化参数分别对原始左视点深度视频的各个帧组中的各个原始左视点深度图像及原始右视点深度视频的各个帧组中的各个原始右视点深度图像进行编码,得到左视点深度视频的编码码流和右视点深度视频的编码码流,然后服务端通过网络将左视点深度视频的编码码流和右视点深度视频的编码码流传输给用户端。
⑩用户端分别对服务端发送来的左视点彩色视频的编码码流、右视点彩色视频的编码码流、左视点深度视频的编码码流和右视点深度视频的编码码流进行解码,得到左视点的彩色视频数据、右视点的彩色视频数据、左视点的深度视频数据和右视点的深度视频数据信息,然后采用基于深度图像的绘制得到各个时刻的虚拟视点视频。
在本实施例中,立体视频编码预测结构采用公知的HBP编码预测结构。
以下就利用本发明方法对“Altmoabit”、“Bookarrival”、“Doorflowers”和“Leavelaptop”三维立体视频测试序列的编码性能进行比较。
表1给出了本发明方法采用二次拟合得到的彩色视频与深度视频的编码量化步长与绘制失真的关系模型的模型参数,表2给出了本发明方法采用二次拟合得到的彩色视频与深度视频的编码量化步长与码率的关系模型的模型参数,从表1和表2中可以看出,采用本发明方法拟合得到的曲线与真实曲线的相关系数(Correlation Coefficient,CC)基本能达到0.99,说明本发明方法提出的率失真模型具有较高的精度。
采用本发明方法来确立对彩色视频和深度视频编码的最佳初始编码量化参数,采用四组不同的总码率Rc进行编码实验,Rc∈{10000kbps,5000kbps,2000kbps,500kbps},结果如表3所示。采用本发明方法确立的最佳初始编码量化参数与采用穷尽搜索方法确立的最佳初始编码量化参数非常相近,但计算复杂度却远远小于全搜索方法,足以说明本发明方法提出的率失真模型是有效的。
将采用本发明方法的虚拟视点绘制性能,与采用原始固定码率比重方法的虚拟视点绘制性能进行比较,图10给出了“Altmoabit”经本发明方法绘制与经原始固定码率比重方法绘制的虚拟视点彩色视频图像的亮度分量Y的率失真性能曲线比较示意图,图11给出了“Bookarrival”经本发明方法绘制与经原始固定码率比重方法绘制的虚拟视点彩色视频图像的亮度分量Y的率失真性能曲线比较示意图,图12给出了“Doorflowers”经本发明方法绘制与经原始固定码率比重方法绘制的虚拟视点彩色视频图像的亮度分量Y的率失真性能曲线比较示意图,图13给出了“Leavelaptop”经本发明方法绘制与经原始固定码率比重方法绘制的虚拟视点彩色视频图像的亮度分量Y的率失真性能曲线比较示意图,从图10至图13可以看出,采用本发明方法处理后,大大提高了虚拟视点图像的绘制性能,说明本发明方法中建立的率失真模型是有效的。
表1 彩色视频与深度视频的编码量化步长与绘制失真的关系模型的模型参数
表2 彩色视频与深度视频的编码量化步长与码率的关系模型的模型参数
Figure BDA0000093732860000232
表3 本发明方法确立的对彩色视频和深度视频进行编码的最佳初始编码量化参数
Figure BDA0000093732860000241

Claims (5)

1.一种三维立体视频编码的率失真模型优化方法,其特征在于包括以下步骤:
①将外部立体视频捕获工具捕获得到的未经处理的且颜色空间为YUV的彩色立体视频及其对应的深度立体视频定义为原始三维立体视频,在空域上该原始三维立体视频包括原始左视点三维视频和原始右视点三维视频,原始左视点三维视频包括原始左视点彩色视频和原始左视点深度视频,原始左视点彩色视频主要由若干个帧组的原始左视点彩色图像组成,原始左视点深度视频主要由若干个帧组的原始左视点深度图像组成,原始右视点三维视频包括原始右视点彩色视频和原始右视点深度视频,原始右视点彩色视频主要由若干个帧组的原始右视点彩色图像组成,原始右视点深度视频主要由若干个帧组的原始右视点深度图像组成,其中,YUV颜色空间的三个颜色分量的第1个分量为亮度分量并记为Y、第2个分量为第一色度分量并记为U及第3个分量为第二色度分量并记为V;
将介于左视点与右视点之间的视点作为虚拟视点;
②建立对原始左视点彩色视频、原始右视点彩色视频与原始左视点深度视频、原始右视点深度视频进行编码的率失真模型,记为
Figure FDA0000093732850000011
以保证获得最优的编码性能和绘制质量,其中,min[ ]为取最小值函数,Rc表示预先设定的对原始左视点彩色视频、原始右视点彩色视频与原始左视点深度视频、原始右视点深度视频进行编码的总码率,Rt表示对原始左视点彩色视频、原始右视点彩色视频进行编码的码率,Rd表示对原始左视点深度视频、原始右视点深度视频进行编码的码率,Dv(Rt,Rd)表示对以码率Rt分别对原始左视点彩色视频、原始右视点彩色视频进行编码得到的解码左视点彩色视频、解码右视点彩色视频和以码率Rd分别对对应的原始左视点深度视频、原始右视点深度视频进行编码得到的解码左视点深度视频、解码右视点深度视频进行虚拟视点图像绘制的绘制失真;
③将Dv(Rt,Rd)近似表示为: D v ( R t , R d ) ≅ D t ( R t ) + D d ( R d ) , 其中,Dt(Rt)表示对以码率Rt分别对原始左视点彩色视频、原始右视点彩色视频进行编码得到的解码左视点彩色视频、解码右视点彩色视频和对应的原始左视点深度视频、原始右视点深度视频进行虚拟视点图像绘制的绘制失真,Dd(Rd)表示对原始左视点彩色视频、原始右视点彩色视频和以码率Rd分别对对应的原始左视点深度视频、原始右视点深度视频进行编码得到的解码左视点深度视频、解码右视点深度视频进行虚拟视点图像绘制的绘制失真;
④通过二次拟合方法建立对原始左视点彩色视频、原始右视点彩色视频进行编码的编码量化步长TQstep与Dt(Rt)的关系模型,记为 D t ( R t ) ≅ α t × ( TQ step ) 2 + β t × ( TQ step ) + γ t , 通过二次拟合方法建立对原始左视点深度视频、原始右视点深度视频进行编码的编码量化步长DQstep与Dd(Rd)的关系模型,记为 D d ( R d ) ≅ α d × ( DQ step ) 2 + β d × ( DQ step ) + γ d , 其中,αt、βt和γt均为 D t ( R t ) ≅ α t × ( TQ step ) 2 + β t × ( TQ step ) + γ t 中的模型参数,αd、βd和γd均为 D d ( R d ) ≅ α d × ( DQ step ) 2 + β d × ( DQ step ) + γ d 中的模型参数;
⑤通过二次拟合方法建立对原始左视点彩色视频、原始右视点彩色视频进行编码的编码量化步长TQstep与Rt的关系模型,记为 R t ≅ a t × ( 1 / TQ step ) 2 + b t × ( 1 / TQ step ) + c t , 通过二次拟合方法建立对原始左视点深度视频、原始右视点深度视频进行编码的编码量化步长DQstep与Rd的关系模型,记为 R d ≅ a d × ( 1 / DQ step ) 2 + b d × ( 1 / DQ step ) + c d , 其中,at、bt和ct均为 R t ≅ a t × ( 1 / TQ step ) 2 + b t × ( 1 / TQ step ) + c t 中的模型参数,ad、bd和cd均为 R d ≅ a d × ( 1 / DQ step ) 2 + b d × ( 1 / DQ step ) + c d 中的模型参数;
⑥根据TQstep与Dt(Rt)的关系模型、DQstep与Dd(Rd)的关系模型、TQstep与Rt的关系模型及DQstep与Rd的关系模型,对率失真模型
Figure FDA0000093732850000029
进行优化,将优化后的率失真模型表示为: min [ α t × ( TQ step ) 2 + β t × ( TQ step ) + γ t + α d × ( DQ step ) 2 + β d × ( DQ step ) + γ d ] s . t . a t × ( 1 / T Q step ) 2 + b t × ( 1 / TQ step ) + c t + a d × ( 1 / DQ step ) 2 + b d × ( 1 / DQ step ) + c d ≤ R c ;
⑦根据优化后的率失真模型 min [ α t × ( TQ step ) 2 + β t × ( TQ step ) + γ t + α d × ( DQ step ) 2 + β d × ( DQ step ) + γ d ] s . t . a t × ( 1 / T Q step ) 2 + b t × ( 1 / TQ step ) + c t + a d × ( 1 / DQ step ) 2 + b d × ( 1 / DQ step ) + c d ≤ R c , 通过全搜索方法获取对原始左视点彩色视频、原始右视点彩色视频与原始左视点深度视频、原始右视点深度视频进行编码的最佳初始编码量化步长,将对原始左视点彩色视频、原始右视点彩色视频进行编码的最佳初始编码量化步长记为
Figure FDA00000937328500000212
将对原始左视点深度视频、原始右视点深度视频进行编码的编码量化步长记为
Figure FDA00000937328500000213
⑧根据对原始左视点彩色视频、原始右视点彩色视频进行编码的最佳初始编码量化步长
Figure FDA0000093732850000031
计算对原始左视点彩色视频、原始右视点彩色视频进行编码的最佳初始编码量化参数,记为 QP t opt = 6 × log 2 TQ step opt + 4 ; 根据设定的立体视频编码预测结构,采用最佳初始编码量化参数分别对原始左视点彩色视频的各个帧组中的各个原始左视点彩色图像及原始右视点彩色视频的各个帧组中的各个原始右视点彩色图像的亮度分量Y、第一色度分量U和第二色度分量V进行编码,得到左视点彩色视频的编码码流和右视点彩色视频的编码码流,然后服务端通过网络将左视点彩色视频的编码码流和右视点彩色视频的编码码流传输给用户端;
⑨根据对原始左视点深度视频、原始右视点深度视频进行编码的最佳初始编码量化步长
Figure FDA0000093732850000035
计算对原始左视点深度视频、原始右视点深度视频进行编码的最佳初始编码量化参数,记为
Figure FDA0000093732850000036
QP d opt = 6 × log 2 DQ step opt + 4 ; 根据设定的立体视频编码预测结构,采用最佳初始编码量化参数
Figure FDA0000093732850000038
分别对原始左视点深度视频的各个帧组中的各个原始左视点深度图像及原始右视点深度视频的各个帧组中的各个原始右视点深度图像进行编码,得到左视点深度视频的编码码流和右视点深度视频的编码码流,然后服务端通过网络将左视点深度视频的编码码流和右视点深度视频的编码码流传输给用户端;
⑩用户端分别对服务端发送来的左视点彩色视频的编码码流、右视点彩色视频的编码码流、左视点深度视频的编码码流和右视点深度视频的编码码流进行解码,得到左视点的彩色视频数据、右视点的彩色视频数据、左视点的深度视频数据和右视点的深度视频数据信息,然后采用基于深度图像的绘制得到各个时刻的虚拟视点视频。
2.根据权利要求1所述的一种三维立体视频编码的率失真模型优化方法,其特征在于所述的步骤③的具体过程为:
③-1、假定Sv表示由原始左视点彩色图像、原始右视点彩色图像和对应的原始左视点深度图像、原始右视点深度图像进行虚拟视点图像绘制得到的虚拟视点图像,表示由以码率Rt分别对原始左视点彩色图像、原始右视点彩色图像进行编码得到的解码左视点彩色图像、解码右视点彩色图像和以码率Rd分别对对应的原始左视点深度图像、原始右视点深度图像进行编码得到的解码左视点深度图像、解码右视点深度图像进行虚拟视点图像绘制得到的虚拟视点图像,
Figure FDA00000937328500000310
表示由以码率Rt分别对原始左视点彩色图像、原始右视点彩色图像进行编码得到的解码左视点彩色图像、解码右视点彩色图像和对应的原始左视点深度图像、原始右视点深度图像进行虚拟视点图像绘制得到的虚拟视点图像,
Figure FDA0000093732850000041
表示由原始左视点彩色图像、原始右视点彩色图像和以码率Rd分别对对应的原始左视点深度图像、原始右视点深度图像进行编码得到的解码左视点深度图像、解码右视点深度图像进行虚拟视点图像绘制得到的虚拟视点图像,则将Dv(Rt,Rd)表示为: D v ( R t , R d ) = E { ( S v - S ^ v ) 2 } = E { ( S v - S ‾ v + S ‾ v - S ^ v ) 2 } , 其中,
Figure FDA0000093732850000043
表示求
Figure FDA0000093732850000044
的数学期望值;
③-2通过多项式分解将表示为: E { ( S v - S ^ v ) 2 } = E { ( S v - S ‾ v ) 2 } + E { ( S ‾ v - S ^ v ) 2 } + 2 × E { ( S v - S ‾ v ) ( S ‾ v - S ^ v ) } , 其中,
Figure FDA0000093732850000047
表示求
Figure FDA0000093732850000048
的数学期望值,
Figure FDA0000093732850000049
表示求
Figure FDA00000937328500000410
的数学期望值,表示求
Figure FDA00000937328500000412
的数学期望值;
③-3、根据 E { ( S v - S ‾ v ) ( S ‾ v - S ^ v ) } ≅ 0 E { ( S ‾ v - S ^ v ) 2 } ≅ E { ( S v - S ~ v ) 2 } , 将Dv(Rt,Rd)近似表示为: D v ( R t , R d ) ≅ E { ( S v - S ‾ v ) 2 } + E { ( S v - S ~ v ) 2 } , 其中,
Figure FDA00000937328500000416
表示求
Figure FDA00000937328500000417
的数学期望值;
③-4、将表示为对以码率Rt分别对原始左视点彩色视频、原始右视点彩色视频进行编码得到的解码左视点彩色视频、解码右视点彩色视频和对应的原始左视点深度视频、原始右视点深度视频进行虚拟视点图像绘制的绘制失真,记为Dt(Rt),将
Figure FDA00000937328500000419
表示为对原始左视点彩色视频、原始右视点彩色视频和以码率Rd分别对对应的原始左视点深度视频、原始右视点深度视频进行编码得到的解码左视点深度视频、解码右视点深度视频进行虚拟视点图像绘制的绘制失真,记为Dd(Rd),根据 E { ( S v - S ~ v ) 2 } = D t ( R t ) E { ( S v - S ‾ v ) 2 } = D d ( R d ) , 将Dv(Rt,Rd)近似表示为: D v ( R t , R d ) ≅ D t ( R t ) + D d ( R d ) .
3.根据权利要求1或2所述的一种三维立体视频编码的率失真模型优化方法,其特征在于所述的步骤④的具体过程为:
④-1、任取一个不大于44的编码量化参数作为原始左视点彩色视频、原始右视点彩色视频的编码量化参数,记为QPt0,得到以该编码量化参数QPt0对原始左视点彩色视频、原始右视点彩色视频进行编码的平均码率,记为Rt0,将由原始左视点彩色视频、原始右视点彩色视频和对应的原始左视点深度视频、原始右视点深度视频进行虚拟视点图像绘制得到的虚拟视点视频记为
Figure FDA0000093732850000051
将由以编码量化参数QPt0分别对原始左视点彩色视频、原始右视点彩色视频进行编码得到的解码左视点彩色视频、解码右视点彩色视频和对应的原始左视点深度视频、原始右视点深度视频进行虚拟视点图像绘制得到的虚拟视点视频记为Iv(QPt0),计算
Figure FDA0000093732850000052
与IV(QPt0)的均方差,作为对以编码量化参数QPt0分别对原始左视点彩色视频、原始右视点彩色视频进行编码得到的解码左视点彩色视频、解码右视点彩色视频和对应的原始左视点深度视频、原始右视点深度视频进行虚拟视点图像绘制的绘制失真,记为Dt0
④-2、选取N个大于QPt0且各不相同的编码量化参数,分别记为QPt1,…,QPti,…,QPtN,采用该N个不同的编码量化参数QPt1,…,QPti,…,QPtN分别对原始左视点彩色视频、原始右视点彩色视频进行编码,分别得到以该N个不同的编码量化参数对原始左视点彩色视频、原始右视点彩色视频进行编码的平均码率,对应的分别记为Rt1,…,Rti,…,RtN,计算得到由以该N个不同的编码量化参数分别对原始左视点彩色视频、原始右视点彩色视频进行编码得到的解码左视点彩色视频、解码右视点彩色视频和对应的原始左视点深度视频、原始右视点深度视频进行虚拟视点图像绘制的绘制失真,对应的分别记为Dt1,…,Dti,…,DtN,其中,1≤i≤N,QPti=QPt0+i;
④-3、将由Rt0和Rt1,…,Rti,…,RtN组成的对原始左视点彩色视频、原始右视点彩色视频进行编码的平均码率集合记为{Rtj|0≤j≤N},根据由QPt0和QPt1,…,QPti,…,QPtN组成的对原始左视点彩色视频、原始右视点彩色视频进行编码的编码量化参数集合{QPtj|0≤j≤N}及由Dt0和Dt1,…,Dti,…,DtN组成的绘制失真集合{Dtj|0≤j≤N},通过二次拟合方法建立对原始左视点彩色视频、原始右视点彩色视频进行编码的编码量化步长TQstep与对以采用{QPtj|0≤j≤N}中的各个编码量化参数分别对原始左视点彩色视频、原始右视点彩色视频进行编码得到的解码左视点彩色视频、解码右视点彩色视频与对应的原始左视点深度视频、原始右视点深度视频进行虚拟视点图像绘制的绘制失真集合{Dtj|0≤j≤N}中的任意一个绘制失真Dt的关系模型,记为 D t ( R t ) ≅ α t × ( TQ step ) 2 + β t × ( TQ step ) + γ t , 其中, TQ step = 2 ( Q P t - 4 ) / 6 , Rt表示{Rtj|0≤j≤N}中的任意一个平均码率,QPt表示{QPtj|0≤j≤N}中的任意一个编码量化参数,αt、βt和γt均为模型参数;
④-4、任取一个不大于44的编码量化参数作为原始左视点深度视频、原始右视点深度视频的编码量化参数,记为QPd0,得到以该编码量化参数QPt0对原始左视点深度视频、原始右视点深度视频进行编码的平均码率,记为Rd0,将由原始左视点彩色视频、原始右视点彩色视频和以编码量化参数QPd0分别对对应的原始左视点深度视频、原始右视点深度视频进行编码得到的解码左视点深度视频、解码右视点深度视频进行虚拟视点图像绘制得到的虚拟视点视频记为Iv(QPd0),计算
Figure FDA0000093732850000063
与Iv(QPd0)的均方差,作为对原始左视点彩色视频、原始右视点彩色视频和以编码量化参数QPd0分别对对应的原始左视点深度视频、原始右视点深度视频进行编码得到的解码左视点深度视频、解码右视点深度视频进行虚拟视点图像绘制的绘制失真,记为Dd0
④-5、选取N个大于QPd0且各不相同的编码量化参数,分别记为QPd1,…,QPdi,…,QPdN,采用该N个不同的编码量化参数QPd1,…,QPdi,…,QPdN分别对原始左视点深度视频、原始右视点深度视频进行编码,分别得到以该N个不同的编码量化参数对原始左视点深度视频、原始右视点深度视频进行编码的平均码率,对应的分别记为Rd1,…,Rdi,…,RdN,计算得到由原始左视点彩色视频、原始右视点彩色视频和以该N个不同的编码量化参数分别对对应的原始左视点深度视频、原始右视点深度视频进行编码得到的解码左视点深度视频、解码右视点深度视频进行虚拟视点图像绘制的绘制失真,对应的分别记为Dd1,…,Ddi,…,DdN,其中,1≤i≤N,QPdi=QPd0+i;
④-6、将由Rd0和Rd1,…,Rdi,…,RdN组成的对原始左视点深度视频、原始右视点深度视频进行编码的平均码率集合记为{Rdj|0≤j≤N},根据由QPd0和QPd1,…,QPdi,…,QPdN组成的对原始左视点深度视频、原始右视点深度视频进行编码的编码量化参数集合{QPdj|0≤j≤N}及由Dd0和Dd1,…,Ddi,…,DdN组成的绘制失真集合{Ddj|0≤j≤N},通过二次拟合方法建立对原始左视点深度视频、原始右视点深度视频进行编码的编码量化步长DQstep与对原始左视点彩色视频、原始右视点彩色视频与以采用{QPdj|0≤j≤N}中的各个编码量化参数分别对对应的原始左视点深度视频、原始右视点深度视频进行编码得到的解码左视点深度视频、解码右视点深度视频进行虚拟视点图像绘制的绘制失真集合{Ddj|0≤j≤N}中的任意一个绘制失真Dd的关系模型,记为 D d ( R d ) ≅ α d × ( DQ step ) 2 + β d × ( DQ step ) + γ d , 其中, DQ step = 2 ( Q P d - 4 ) / 6 , Rd表示{Rdj|0≤j≤N}中的任意一个平均码率,QPd表示{QPdj|0≤j≤N}中的任意一个编码量化参数,αd、βd和γd均为模型参数。
4.根据权利要求3所述的一种三维立体视频编码的率失真模型优化方法,其特征在于所述的步骤⑤的具体过程为:
⑤-1、根据对原始左视点彩色视频、原始右视点彩色视频进行编码的平均码率集合{Rtj|0≤j≤N}和对原始左视点彩色视频、原始右视点彩色视频进行编码的编码量化参数集合{QPtj|0≤j≤N},采用二次拟合方法建立对原始左视点彩色视频、原始右视点彩色视频进行编码的编码量化步长TQstep与对原始左视点彩色视频、原始右视点彩色视频进行编码的平均码率集合{Rtj|0≤j≤N}中的任意一个码率Rt的关系模型,记为 R t ≅ α t × ( 1 / TQ step ) 2 + b t × ( 1 / TQ step ) + c t , 其中, TQ step = 2 ( Q P t - 4 ) / 6 , QPt表示{QPtj|0≤j≤N}中的任意一个编码量化参数,at、bt和ct均为模型参数;
⑤-2、根据对原始左视点深度视频、原始右视点深度视频进行编码的平均码率集合{Rdj|0≤j≤N}和对原始左视点深度视频、原始右视点深度视频进行编码的编码量化参数集合{QPdj|0≤j≤N},采用二次拟合方法建立对原始左视点深度视频、原始右视点深度视频进行编码的编码量化步长DQstep与对原始左视点深度视频、原始右视点深度视频进行编码的平均码率集合{Rdj|0≤j≤N}中的任意一个码率Rd的关系模型,记为 R d ≅ α d × ( 1 / DQ step ) 2 + b d × ( 1 / DQ step ) + c d , 其中, DQ step = 2 ( Q P d - 4 ) / 6 , QPd表示{QPdj|0≤j≤N}中的任意一个编码量化参数,ad、bd和cd均为模型参数。
5.根据权利要求4所述的一种三维立体视频编码的率失真模型优化方法,其特征在于所述的步骤⑦的具体过程为:
⑦-1、假定对原始左视点彩色视频、原始右视点彩色视频进行编码的码率占总码率Rc的最小比重为0.2,假定对原始左视点深度视频、原始右视点深度视频进行编码的码率占总码率Rc的最大比重为0.8,则根据对原始左视点彩色视频、原始右视点彩色视频与原始左视点深度视频、原始右视点深度视频进行编码的总码率Rc,计算对原始左视点深度视频、原始右视点深度视频进行编码的最小编码量化参数和最大编码量化参数,分别记为QPd min和QPd max QP d min = 6 × log 2 DQ step min + 4 , QP d max = 6 × log 2 DQ step max + 4 , DQ step min = 2 × a d - b d + ( b d ) 2 - 4 × a d × ( c d - 0.8 × R c ) , DQ step max = 2 × a d - b d + ( b d ) 2 - 4 × a d × ( c d - 0.2 × R c ) , 其中,ad、bd和cd均为 R d ≅ a d × ( 1 / DQ step ) 2 + b d × ( 1 / DQ step ) + c d 中的模型参数;
⑦-2、将对原始左视点深度视频、原始右视点深度视频进行编码的编码量化参数集合记为Ω,Ω={QPd|QPd min≤QPd≤QPd max},QPd∈Ω,然后从对原始左视点深度视频、原始右视点深度视频进行编码的编码量化参数集合Ω中任取一个编码量化参数,记为QPd′,QPd′∈Ω;
⑦-3、根据任取的编码量化参数QPd′计算对原始左视点深度视频、原始右视点深度视频进行编码的平均码率,记为Rd′,Rd′=ad×(1/DQstep′)2+bd×(1/DQstep′)+cd DQ step ′ = 2 ( QP d ′ - 4 ) / 6 ;
⑦-4、根据对原始左视点深度视频、原始右视点深度视频进行编码的平均码率Rd′,计算对原始左视点彩色视频、原始右视点彩色视频进行编码的编码量化步长,记为TQstep′, TQ step ′ = 2 × a t - b t + ( b t ) 2 - 4 × a t × ( c t - R c + R d ′ ) ;
⑦-5、计算对以编码量化步长TQstep′分别对原始左视点彩色视频、原始右视点彩色视频进行编码得到的解码左视点彩色视频、解码右视点彩色视频和以编码量化步长DQstep′分别对原始左视点深度视频、原始右视点深度视频进行编码得到的解码左视点深度视频、解码右视点深度视频进行虚拟视点图像绘制的绘制失真,记为COST′,COST′=αt×(TQstep′)2t×(TQstep′)+γtd×(DQstep′)2d×(DQstep′)+γd,其中,αt、βt和γt均为 D t ( R t ) ≅ α t × ( TQ step ) 2 + β t × ( TQ step ) + γ t 中的模型参数,αd、βd和γd均为 D d ( R d ) ≅ α d × ( DQ step ) 2 + β d × ( DQ step ) + γ d 中的模型参数;
⑦-6、从对原始左视点深度视频、原始右视点深度视频进行编码的编码量化参数集合Ω中任取n个值不等于QPd′且各不相同的编码量化参数,分别记任取的n个编码量化参数为QP″d1,…,QP″di,…,QP″dn;然后从任取的n个编码量化参数中的第1个编码量化参数QP″d1开始,重复采用与步骤⑦-3至⑦-5相同的操作处理,直至获得任取的n个编码量化参数对应的绘制失真,分别记为COST″1,…,COST″i,…,COST″n,其中,2≤n≤QPd max-QPd min-1,1≤i≤n,QP″d1表示任取的n个编码量化参数中的第1个编码量化参数,QP″di表示任取的n个编码量化参数中的第i个编码量化参数,QP″dn表示任取的n个编码量化参数中的第n个编码量化参数,COST″1表示QP″d1对应的绘制失真,COST″i表示QP″di对应的绘制失真,COST″n表示QP″dn对应的绘制失真;
⑦-7、从COST′和{COST″1,…,COST″i,…,COST″n}中找出值最小的绘制失真,记为COSTmin,再将COSTmin对应的对原始左视点彩色视频、原始右视点彩色视频进行编码的编码量化步长作为对原始左视点彩色视频、原始右视点彩色视频进行编码的最佳初始编码量化步长,记为
Figure FDA0000093732850000093
将COSTmin对应的对原始左视点深度视频、原始右视点深度视频进行编码的编码量化步长作为对原始左视点深度视频、原始右视点深度视频进行编码的最佳初始编码量化步长,记为
CN 201110285331 2011-09-23 2011-09-23 一种三维立体视频编码的率失真模型优化方法 Expired - Fee Related CN102355582B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN 201110285331 CN102355582B (zh) 2011-09-23 2011-09-23 一种三维立体视频编码的率失真模型优化方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN 201110285331 CN102355582B (zh) 2011-09-23 2011-09-23 一种三维立体视频编码的率失真模型优化方法

Publications (2)

Publication Number Publication Date
CN102355582A CN102355582A (zh) 2012-02-15
CN102355582B true CN102355582B (zh) 2013-06-05

Family

ID=45579070

Family Applications (1)

Application Number Title Priority Date Filing Date
CN 201110285331 Expired - Fee Related CN102355582B (zh) 2011-09-23 2011-09-23 一种三维立体视频编码的率失真模型优化方法

Country Status (1)

Country Link
CN (1) CN102355582B (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105657399B (zh) * 2016-01-04 2017-11-17 浙江万里学院 一种无线网络环境下的3d医疗视频传输方法
CN106331706B (zh) * 2016-05-03 2019-04-30 上海兆芯集成电路有限公司 基于曲线拟合的率失真优化方法以及使用该方法的装置

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2004093460A1 (en) * 2003-04-18 2004-10-28 Koninklijke Philips Electronics N.V. System and method for rate-distortion optimized data partitioning for video coding using parametric rate-distortion model
CN101094411A (zh) * 2007-07-03 2007-12-26 芯瀚电子技术(上海)有限公司 一种视频编码的码率控制方法
CN101986716A (zh) * 2010-11-05 2011-03-16 宁波大学 一种快速深度视频编码方法
CN102065296A (zh) * 2011-01-06 2011-05-18 宁波大学 一种三维立体视频编码方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6167162A (en) * 1998-10-23 2000-12-26 Lucent Technologies Inc. Rate-distortion optimized coding mode selection for video coders

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2004093460A1 (en) * 2003-04-18 2004-10-28 Koninklijke Philips Electronics N.V. System and method for rate-distortion optimized data partitioning for video coding using parametric rate-distortion model
CN101094411A (zh) * 2007-07-03 2007-12-26 芯瀚电子技术(上海)有限公司 一种视频编码的码率控制方法
CN101986716A (zh) * 2010-11-05 2011-03-16 宁波大学 一种快速深度视频编码方法
CN102065296A (zh) * 2011-01-06 2011-05-18 宁波大学 一种三维立体视频编码方法

Also Published As

Publication number Publication date
CN102355582A (zh) 2012-02-15

Similar Documents

Publication Publication Date Title
CN102065296B (zh) 一种三维立体视频编码方法
CN101986716B (zh) 一种快速深度视频编码方法
CN101888566B (zh) 立体视频编码率失真性能估计方法
CN102438167B (zh) 一种基于深度图像绘制的立体视频编码方法
CN102137258B (zh) 一种立体视频码率控制方法
CN102413353B (zh) 立体视频编码过程的多视点视频和深度图的码率分配方法
CN101835056A (zh) 基于模型的纹理视频与深度图的最优码率分配方法
CN103002306B (zh) 一种深度图像编码方法
CN103067705B (zh) 一种多视点深度视频预处理方法
CN104754359A (zh) 一种二维自由视点视频的深度图编码失真预测方法
CN103402097A (zh) 一种自由视点视频深度图编码方法及其失真预测方法
CN104717515A (zh) 基于3d-hevc的纹理视频和深度图码率分配方法
CN101621683A (zh) 一种基于avs的快速立体视频编码方法
CN103873876A (zh) 基于显著性的多视点彩色加深度视频编码方法
CN104159095B (zh) 一种多视点纹理视频和深度图编码的码率控制方法
CN102710949B (zh) 一种基于视觉感知的立体视频编码方法
CN101557534A (zh) 一种从视频相近帧中生成视差图的方法
CN103873867A (zh) 自由视点视频深度图失真预测方法和编码方法
CN105898331A (zh) 一种深度视频编码的比特分配和码率控制方法
CN102523468B (zh) 一种三维立体视频编码的最佳码率比重确立方法
CN102355582B (zh) 一种三维立体视频编码的率失真模型优化方法
CN104243974B (zh) 一种基于三维离散余弦变换的立体视频质量客观评价方法
CN102685531B (zh) 一种三维视频编码的深度和彩色码率分配方法
CN104244008A (zh) 一种深度视频编码方法
CN103179423B (zh) 一种交互式三维视频系统中的信号处理方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
TR01 Transfer of patent right
TR01 Transfer of patent right

Effective date of registration: 20191213

Address after: Room 1,020, Nanxun Science and Technology Pioneering Park, No. 666 Chaoyang Road, Nanxun District, Huzhou City, Zhejiang Province, 313000

Patentee after: Huzhou You Yan Intellectual Property Service Co.,Ltd.

Address before: 315211 Zhejiang Province, Ningbo Jiangbei District Fenghua Road No. 818

Patentee before: Ningbo University

TR01 Transfer of patent right
TR01 Transfer of patent right

Effective date of registration: 20201202

Address after: 226500 Jiangsu city of Nantong province Rugao City Lin Zi Zhen Hong Wei River Road No. 8

Patentee after: NANTONG OUKE NC EQUIPMENT Co.,Ltd.

Address before: Room 1,020, Nanxun Science and Technology Pioneering Park, No. 666 Chaoyang Road, Nanxun District, Huzhou City, Zhejiang Province, 313000

Patentee before: Huzhou You Yan Intellectual Property Service Co.,Ltd.

CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20130605