CN101986713B - 基于视点合成的多视点容错编码框架 - Google Patents

基于视点合成的多视点容错编码框架 Download PDF

Info

Publication number
CN101986713B
CN101986713B CN 200910059509 CN200910059509A CN101986713B CN 101986713 B CN101986713 B CN 101986713B CN 200910059509 CN200910059509 CN 200910059509 CN 200910059509 A CN200910059509 A CN 200910059509A CN 101986713 B CN101986713 B CN 101986713B
Authority
CN
China
Prior art keywords
frame
viewpoint
encoded
coding
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN 200910059509
Other languages
English (en)
Other versions
CN101986713A (zh
Inventor
夏旭
彭强
张蕾
朱策
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
New Yingshun Information Technology Co ltd
Original Assignee
Southwest Jiaotong University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Southwest Jiaotong University filed Critical Southwest Jiaotong University
Priority to CN 200910059509 priority Critical patent/CN101986713B/zh
Publication of CN101986713A publication Critical patent/CN101986713A/zh
Application granted granted Critical
Publication of CN101986713B publication Critical patent/CN101986713B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

本发明公开了一种基于视点合成的多视点容错编码框架,对一个以上视点信息进行视频流传输编码,选择其中一个视点编码为基本视点,其余视点编码为增强视点;增强视点采用视点合成预测方式编码,利用基本视点的深度图,获取增强视点的视点合成预测图像,编码框架中引入基于分布式视频编码理论的差错控制帧。本发明充分利用分布式视频编码的传输鲁棒性特性,减小视点间合成预测引起的视点间差错扩散对多视点视频图像质量的影响,增强多视点视频流的传输鲁棒性,使其更好的适应于有损网络环境下的视频传输。

Description

基于视点合成的多视点容错编码框架
技术领域
本发明属于视频编码和处理领域,具体涉及多视点视频压缩编码过程中差错控制算法的研究。
背景技术
多视点视频是由摄像机阵列从不同角度拍摄同一场景得到的一组视频信号,与单视点视频相比,多视点视频能够获取场景的三维信息,从而更加生动地再现立体场景。在现有的多视点编码方案中,基于视点合成的多视点编码方案充分利用了多视点视频数据的相关性以及隐含的关于场景的三维信息,提供了一种高效灵活、视点伸缩性强的多视点编码思想,受到了国内学者越来越广泛的关注。
现有的基于视点合成的多视点编码框架,主要以研究如何提高编码效率、同时提供随机访问性强的多视点视频流为主,如图1所示。此编码框架结构将多个视点分为了一个基本视点、多个增强视点,以及基本视点的深度图像。基本视点图像和基本视点深度图像均采用标准的单视点编码方法独立编码,如图1中的基本视点V1和基本视点深度图D。增强视点采用视点合成预测方式编码,编码实际内容为增强层原始图像与视点合成预测图像的残差,残差使用标准的编码方式编码。其中视点合成预测图像是由基本视点同时刻重建图像和深度图像通过投影变换获得,如图1中的增强视点V0和V2。
此编码结构通过视点合成预测技术很好的利用了多视点隐含的深度信息,极大的提高了增强视点的编码性能,同时提供了增强视点的随机访问能力。但是视点合成预测技术的使用在一定程度上牺牲了多视点视频流的传输鲁棒性。在有损的网络传输环境中,一旦基本视点出现传输差错,差错会通过视点合成预测编码扩散到每个增强视点中,而从降低整个多视点图像质量。
鉴于现有技术的以上缺点,本发明的目的是提出一种基于视点合成的多视点容错编码框架,使之克服现有技术的以上缺点,增强多视点视频流的传输鲁棒性,使其更好的适应于有损网络环境下的视频传输。本发明的目的是通过以下的手段实现的。
基于视点合成的多视点容错编码框架,对一个以上视点信息进行视频流传输编码,选择其中一个视点编码为基本视点,其余视点编码为增强视点;增强视点采用视点合成预测方式编码,利用基本视点的深度图,获取增强视点的视点合成预测图像,编码框架中引入基于分布式视频编码的差错控制帧,具体编码方法如下:
(帧内编码帧,记为I帧;帧间编码帧,记为P帧;双向帧间预测帧,记为B帧;差错控制帧,记为E帧)
对于基本视点编码
1)基本视点视频序列第1帧图像编码为I帧;
2)确定基本视点其余待编码帧是否编码为E帧;
3)基本视点的待编码帧若为E帧,则采用基于分布式视频编码的帧内编码方式,其边信息是以前一帧重建图像为参考进行运动补偿获取的帧间预测图像;
4)基本视点的待编码帧若不为E帧,则使用标准的编码方式编码,可以编码为I帧、P帧或者B帧;
对于深度图编码
采用标准的编码方式独立编码,可以编码为I帧、P帧和B帧;对于增强视点编码
1)确定增强视点待编码帧是否编码为E帧。如果基本视点同时刻帧为E帧,增强视点当前帧编码为E帧,否则使用标准的编码方式编码;待编码帧原始图像与视点合成预测图像的残差,残差可以编码为I帧、P帧或者B帧;
2)增强视点的待编码帧若为E帧,则采用基于分布式视频编码理论的帧内编码方式,其边信息图像由预测图像叠加而成;
3)增强视点的待编码帧若不为E帧,则使用视点合成预测方式编码:首先使用基本视点同时刻重建图像和深度图像通过投影变换获取当前增强视点的视点合成预测图像;然后使用标准的编码方式编码待编码帧原始图像与视点合成预测图像的残差,残差可编码为I帧、P帧或者B帧。
所述具体的分布式视频编码方式有多种方法,可以采用基于SW理论的无损编码,也可以采用基于WZ理论的有损编码。
采用本发明基于视点合成的多视点容错编码框架,通过在基于视点合成的多视点视频编码框架中引入基于分布式视频编码理论的差错控制帧,比标准的帧内编码具有更好的编码效率;同时抗差错性能强,即使边信息(与标准视频编码中的参考信息类似)出现传输差错,它仍然能够正确解码,从而增强了多视点视频流的传输鲁棒性,充分利用分布式视频编码的传输鲁棒性特性,减小视点间合成预测引起的视点间差错扩散对多视点视频图像质量的影响,增强多视点视频流的传输鲁棒性,使其更好的适应于有损网络环境下的视频传输。
附图说明如下:
图1是现有技术基于视点合成的多视点编码框架图。
图2是本发明基于视点合成的多视点容错编码框架图。
图3是本发明基于视点合成的多视点容错编码框架中增强层差错控制帧的编码示意图。
图4是本发明基于视点合成的多视点容错编码框架中增强层差错控制帧的解码示意图。
具体实施方式
下面结合附图和具体的实施方式对本发明作进一步的详细说明。
图1所示是现有的一种基于视点合成的多视点编码框架,包括三个部分的编码:基本视点图像编码、基本视点深度图像编码和增强视点图像编码。基本视点图像采用标准编码方式编码,如图1基本视点V1所示;基本视点深度图像采用标准编码方式独立编码,如图1基本视点深度图D所示;增强视点采用标准编码方式编码原始图像与视点合成预测图像的残差,其中,视点合成预测图像是由基本视点同时刻图像与深度图像通过投影变换获取,如图1增强视点V0、V2所示。
例如t+2时刻,基本视点V1的待编码帧编码为P帧,记为V1-P(t+2),是以前一帧重建图像V1-P(t+1)为参考帧,采用基于运动估计的帧间预测方式编码;基本视点深度图D的待编码帧编码为P帧,记为D-P(t+2),是以前一帧重建图像D-P(t+1)为参考帧,采用基于运动估计的帧间预测方式编码;增强视点V0的待编码帧编码为P帧,记为V0-P(t+2),实际编码内容是V0-P(t+2)原始图像与视点合成预测图像的残差,以V0-P(t+1)重建图像为参考帧,采用基于运动估计的帧间预测方式编码。其中V0-P(t+2)的视点合成预测图像由基本视点重建图像V1-P(t+2)与基本视点深度图像D-P(t+2)通过投影变换获得。
这种编码框架,在增强层的编码过程中,使用了视点合成预测技术,充分利用了多视点视频隐藏的深度信息,有效提高了多视点的编码效率。但是另一方面,由于视点合成预测技术的使用,使得基本视点的传输差错很容易扩散到所有的增强视点中,从而降低多视点图像质量。例如t+2时刻,基本视点V1-P(t+2)传输出错,那么差错会扩散到以它为参考帧编码的V1-P(t+3)中;使用V1-P(t+2)视点合成预测编码的V0-P(t+2)和V2-P(t+2)中。同理差错还会继续向各个视点的后续编码帧中扩散,使得整个多视点视频图像质量降低,直到t+6时刻基本视点关键编码为I帧。
图2是本发明提出的基于视点合成的多视点容错编码框架,通过插入基于分布式视频编码理论的差错控制帧,降低了视点合成引起的视点间差错扩散对多视点视频质量的影响,提供了一种传输鲁棒性强的多视点视频流。
此编码框架,在各个视点编码中增加了基于分布式视频编码理论的差错控制帧。差错控制帧借助分布式视频编码理论自身的抗传输差错性能,能有效阻止传输差错在视点内和视点间的扩散。例如t+2时刻,基本视点V1-P(t+2)传输出错,那么差错会扩散到使用它进行视点合成预测编码的V0-P(t+2)和V2-P(t+2)中。在t+3时刻,基本视点编码为差错控制帧V1-E(t+3),以V1-P(t+2)重建图像为参考,进行运动补偿获取的帧间预测图像作为解码边信息。根据分布式视频编码的抗差错特性,即使以V1-P(t+2)为参考获取的边信息存在传输差错,V1-E(t+3)仍能正确解码,从而阻止了基本视点内的传输差错扩散。同理增强层V0-E(t+3)和V2-E(t+3)也能正确解码,有效阻止了视点间和视点内的差错扩散。
确定基本视点其余待编码帧是否编码为E帧的方法可采用每隔固定间隔插入差错控制帧,也可以根据率失真优化模型动态选择差错控制帧。
图3是本发明提出的基于视点合成的多视点容错编码框架中增强层差错控制帧的编码示意图。差错控制帧采用基于分布式视频编码理论的帧内编码方式编码,包括四个步骤:首先,由差错控制帧原始图像减视点合成图像获取残差图像;然后,由残差图像和参考图像进行运动补偿得到帧间残差预测图像;第三,将帧间残差预测图像与视点合成图像的叠加图像作为差错控制帧的边信息;最后,结合边信息和传输信道参数对差错控制帧原始图像采用分布式视频编码理论编码,得到编码后的差错控制帧视频流。
图4是本发明提出的基于视点合成的多视点容错编码框架中增强层差错控制帧的解码示意图,包括三个步骤:首先,由差错控制帧视频流中的运动向量和参考图像进行运动补偿得到帧间残差预测图像;然后,将帧间残差预测图像与视点合成图像的叠加图像做为差错控制帧的边信息;最后,结合边信息对差错控制帧视频流采用分布式视频编码理论解码,得到解码后的差错控制帧图像。根据分布式视频编码的传输鲁棒性特征,即使参考图像存在传输差错,差错控制帧仍能被正确解码。
实施例
本编码框架可以适用于多个视点,现以3个视点为例,记为V0-V2。3个视点分为一个基本视点(V1),2个增强视点(V0、V2)。假定以每隔6帧固定使用一个差错控制帧、每隔6帧固定使用一个I帧。
假定在t时刻为第1帧
1)基本视点第1帧图像使用帧内编码方式编码,记为V1-I(t);
2)基本视点深度图第1帧图像使用帧内编码方式编码,记为D-I(t);
3)增强视点V0第1帧采用视点合成预测编码:首先使用V1-I(t)和D-I(t)的重建图像,通过投影变换获取增强视点V0待编码帧的视点合成预测图像;然后使用帧内编码方式编码原始图像与视点合成预测图像的残差,记为V0-P(t);
4)增强视点V2编码方式与V0类似:首先使用V1-I(t)和D-I(t)的重建图像,通过投影变换获取增强视点V2待编码帧的视点合成预测图像;然后使用帧内编码方式编码原始图像与视点合成预测图像的残差,记为V2-P(t)。
t+1时刻
1)基本视点待编码帧以V1-I(t)重建图像为参考,进行帧间预测编码,记为V1-P(t+1);
2)基本视点深度图待编码帧以D-I(t)重建图像为参考,进行帧间预测编码,记为D-P(t+1);
3)增强视点V0待编码帧使用视点合成预测编码:首先使用V1-P(t+1)和D-P(t+1)的重建图像,通过投影变换获取增强视点V0待编码帧的视点合成预测图像;然后以V0-P(t)重建图像为参考,进行帧间预测编码方式编码原始图像与视点合成预测图像的残差,记为V0-P(t+1);
4)增强视点V2编码方式与V0类似:首先使用V1-P(t+1)和D-P(t+1)的重建图像,通过投影变换获取增强视点V2待编码帧的视点合成预测图像;然后以V2-P(t)重建图像为参考,进行帧间预测编码方式编码原始图像与视点合成预测图像的残差,记为V2-P(t+1)。
t+2时刻编码方式与t+1时刻相同
t+3时刻
1)基本视点待编码帧为差错控制帧,使用分布式视频编码技术进行编码,记为V1-E(t+3)。其解码边信息是以V1-P(t+2)的重建图像为参考进行运动补偿获取的帧间预测图像;该帧具有很强的差错纠正能力,即使参考帧V1-P(t+2)出现传输差错,它仍然能够正确解码;
2)基本视点深度图待编码帧以D-P(t+2)重建图像为参考,进行帧间预测编码,记为D-P(t+3);
3)增强视点V0待编码帧为差错控制帧,使用分布式视频编码技术进行编码,记为V0-E(t+3)。其解码边信息是由两个预测图像叠加而来:一是以V1-P(t+3)和D-P(t+3)的重建图像通过投影变换获取的视点合成预测图像;二是以V0-P(t+2)的重建图像为参考进行运动补偿获取的帧间预测图像;
4)增强视点V2待编码帧为差错控制帧,编码方式与V0类似:使用分布式视频编码技术进行编码,记为V2-E(t+3)。其解码边信息是由两个预测图像叠加而来:一是以V1-P(t+3)和D-P(t+3)的重建图像通过投影变换获取的视点合成预测图像;二是以V2-P(t+2)的重建图像为参考进行运动补偿获取的帧间预测图像。
t+4时刻编码方式与t+1时刻相同
t+5时刻编码方式与t+1时刻相同
t+6时刻编码方式与t时刻相同。

Claims (3)

1.基于视点合成的多视点容错编码方法,对一个以上视点信息进行视频流传输编码,选择其中一个视点编码为基本视点,其余视点编码为增强视点;增强视点采用视点合成预测方式编码,利用基本视点的深度图,获取增强视点的视点合成预测图像,其特征在于,编码框架中引入基于分布式视频编码的差错控制帧,具体编码方法如下:
对于基本视点编码
1)基本视点视频序列第1帧图像编码为I帧;
2)确定基本视点除上述第1帧以外的图像是否编码为差错控制帧,即E帧;
3)基本视点的待编码帧若为E帧,则采用基于分布式视频编码的帧内编码方式,其边信息是以前一帧重建图像为参考进行运动补偿获取的帧间预测图像;
4)基本视点的待编码帧若不为E帧,则使用标准的编码方式编码,可以编码为I帧、P帧或者B帧;
对于深度图编码
采用标准的编码方式独立编码,可以编码为I帧、P帧和B帧;
对于增强视点编码
1)确定增强视点待编码帧是否编码为E帧,如果基本视点同时刻帧为E帧,增强视点当前帧编码为E帧,否则使用标准的编码方式;编码原始图像与视点合成预测图像的残差,残差可以编码为I帧、P帧或者B帧;
2)增强视点的待编码帧若为E帧,则采用基于分布式视频编码理论的帧内编码方式,其边信息图像由预测图像叠加而成;
3)增强视点的待编码帧若不为E帧,则使用视点合成预测方式编码:首先使用基本视点同时刻重建图像和深度图像通过投影变换获取当前增强视点的视点合成预测图像;然后使用标准的编码方式编码待编码帧原始图像与视点合成预测图像的残差,残差可编码为I帧、P帧或者B帧。
2.根据权利要求1所述之基于视点合成的多视点容错编码方法,其特征在于,对于增强视点编码,增强视点的待编码帧若为E帧,采用基于分布式视频编码的帧内编码方式,即采用以下四步,
1)由差错控制帧原始图像减视点合成图像获取残差图像;
2)由残差图像和参考图像进行运动补偿得到帧间残差预测图像;
3)将帧间残差预测图像与视点合成图像的叠加图像作为差错控制帧的边信息;
4)结合边信息和传输信道参数对差错控制帧原始图像采用分布式视频编码,得到编码后的差错控制帧视频流。
3.根据权利要求1所述之基于视点合成的多视点容错编码方法,其特征在于,所述确定基本视点其余待编码帧是否编码为E帧的方法可采用每隔固定间隔插入差错控制帧,也可以根据率失真优化模型动态选择差错控制帧。
CN 200910059509 2009-06-04 2009-06-04 基于视点合成的多视点容错编码框架 Active CN101986713B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN 200910059509 CN101986713B (zh) 2009-06-04 2009-06-04 基于视点合成的多视点容错编码框架

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN 200910059509 CN101986713B (zh) 2009-06-04 2009-06-04 基于视点合成的多视点容错编码框架

Publications (2)

Publication Number Publication Date
CN101986713A CN101986713A (zh) 2011-03-16
CN101986713B true CN101986713B (zh) 2013-05-08

Family

ID=43711011

Family Applications (1)

Application Number Title Priority Date Filing Date
CN 200910059509 Active CN101986713B (zh) 2009-06-04 2009-06-04 基于视点合成的多视点容错编码框架

Country Status (1)

Country Link
CN (1) CN101986713B (zh)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103875249B (zh) * 2011-08-09 2018-05-04 三星电子株式会社 用于多视点视频预测编码的方法和装置以及用于多视点视频预测解码的方法和装置
US10075689B2 (en) 2012-07-04 2018-09-11 Intel Corporation Region-of-interest based 3D video coding
CN102790895B (zh) * 2012-07-30 2015-03-25 武汉大学 一种基于最小二乘的多视点视频编码视点合成预测方法
CN113949873A (zh) * 2021-10-15 2022-01-18 北京奇艺世纪科技有限公司 一种视频编码方法、装置及电子设备

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101355707A (zh) * 2008-06-10 2009-01-28 西南交通大学 一种立体视频分层编码差错控制方法
CN101355698A (zh) * 2008-06-10 2009-01-28 西南交通大学 一种立体视频分层编码框架

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101355707A (zh) * 2008-06-10 2009-01-28 西南交通大学 一种立体视频分层编码差错控制方法
CN101355698A (zh) * 2008-06-10 2009-01-28 西南交通大学 一种立体视频分层编码框架

Also Published As

Publication number Publication date
CN101986713A (zh) 2011-03-16

Similar Documents

Publication Publication Date Title
CN106134191B (zh) 用于低延迟亮度补偿处理以及基于深度查找表的编码的方法
CA2724872C (en) Image signal decoding apparatus, image signal decoding method, image signal encoding apparatus, image signal encoding method, and program
CN102209241B (zh) 一种基于多子图的视频编解码方法及其装置
CN101867813B (zh) 面向交互式应用的多视点视频编码方法
CN101404766B (zh) 一种多视点视频信号的编码方法
CN103096091A (zh) 用于过渡效果的多媒体编码技术
CN101355707B (zh) 一种立体视频分层编码差错控制方法
CN101390396A (zh) 编码和解码多视角视频以提供均匀画面质量的方法和装置
CN101355698A (zh) 一种立体视频分层编码框架
US20130301730A1 (en) Spatial domain prediction encoding method, decoding method, apparatus, and system
CN104995916A (zh) 视频数据解码方法和视频数据解码设备
CN100581265C (zh) 一种多视点视频的处理方法
CN101568038B (zh) 基于视差/运动联合估计的多视点容错编码框架
CN104602016A (zh) 一种基于帧内预测模式差值的hevc视频的信息隐藏方法
CN103338370A (zh) 一种多视点深度视频快速编码方法
CN101584220B (zh) 对视频信号进行编码的方法和系统、编码的视频信号、对视频信号进行解码的方法和系统
CN100539670C (zh) 已编码a/v序列的编辑
CN101986713B (zh) 基于视点合成的多视点容错编码框架
CN102740081B (zh) 一种基于分布式编码技术的多视点视频传输差错控制方法
CN101888561B (zh) 一种率失真优化动态调整的多视点视频传输差错控制方法
CN103024381A (zh) 一种基于恰可察觉失真的宏块模式快速选择方法
Xiang et al. A novel error concealment method for stereoscopic video coding
CN102625104A (zh) 一种视频编码方法
CN100571401C (zh) 确定参考帧的方法及其装置
CN103260090B (zh) 一种用于p2p三维流媒体系统中的视频段调度及传输方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
C41 Transfer of patent application or patent right or utility model
TR01 Transfer of patent right

Effective date of registration: 20160302

Address after: 6, building 1, 4, wing Tak International Plaza, No. 610041, air way, 6, Chengdu, Sichuan, Wuhou District

Patentee after: Sichuan Xin Ying Shun Information Technology Co.,Ltd.

Address before: 610031 Chengdu City, Sichuan Province, No. two North Ring Road, Southwest Jiao Tong University,

Patentee before: Southwest Jiaotong University

C56 Change in the name or address of the patentee
CP03 Change of name, title or address

Address after: 610041, No. 2, building 18F, No. 88, No. five, Tai Tay Road, hi tech Zone, Chengdu, Sichuan

Patentee after: SICHUAN XINYINGSHUN INFORMATION TECHNOLOGY CO.,LTD.

Address before: 6, building 1, 4, wing Tak International Plaza, No. 610041, air way, 6, Chengdu, Sichuan, Wuhou District

Patentee before: Sichuan Xin Ying Shun Information Technology Co.,Ltd.

CP01 Change in the name or title of a patent holder

Address after: Room 18F, building 2, Xiangnian Plaza, No.88, Jitai fifth road, high tech Zone, Chengdu, Sichuan 610041

Patentee after: New Yingshun Information Technology Co.,Ltd.

Address before: Room 18F, building 2, Xiangnian Plaza, No.88, Jitai fifth road, high tech Zone, Chengdu, Sichuan 610041

Patentee before: SICHUAN XINYINGSHUN INFORMATION TECHNOLOGY CO.,LTD.

CP01 Change in the name or title of a patent holder