CN102790895A - 一种基于最小二乘的多视点视频编码视点合成预测方法 - Google Patents

一种基于最小二乘的多视点视频编码视点合成预测方法 Download PDF

Info

Publication number
CN102790895A
CN102790895A CN2012102669459A CN201210266945A CN102790895A CN 102790895 A CN102790895 A CN 102790895A CN 2012102669459 A CN2012102669459 A CN 2012102669459A CN 201210266945 A CN201210266945 A CN 201210266945A CN 102790895 A CN102790895 A CN 102790895A
Authority
CN
China
Prior art keywords
pixel
frame
viewpoint
virtual view
view frame
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN2012102669459A
Other languages
English (en)
Other versions
CN102790895B (zh
Inventor
胡瑞敏
胡金晖
段漭
龚燕
王中元
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kean electric Polytron Technologies Inc
Original Assignee
Wuhan University WHU
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Wuhan University WHU filed Critical Wuhan University WHU
Priority to CN201210266945.9A priority Critical patent/CN102790895B/zh
Publication of CN102790895A publication Critical patent/CN102790895A/zh
Application granted granted Critical
Publication of CN102790895B publication Critical patent/CN102790895B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

本发明涉及一种基于最小二乘的多视点视频编码视点合成预测方法。本发明首先通过三维变换找到虚拟视点帧的当前像素点在参考视点帧中的对应像素;然后,将得到的参考视点帧中的对应像素,作为虚拟视点帧的当前像素的预测像素;其次,利用先前已解码的帧及其虚拟视点帧,采用最小二乘法训练求得预测系数;再次,根据得到预测系数,将预测像素的像素值通过线性估计来得到当前像素的像素值,对于每个像素执行相同的操作,最终得到虚拟视点帧;最后,将生成的虚拟视点帧,加入到参考帧列表,编码器根据参考帧列表对当前视点待编码帧进行编码。本发明同时利用视点内和视点间的信息来增强合成视点的质量,提高了基于视点合成预测的多视点视频编码效率。

Description

一种基于最小二乘的多视点视频编码视点合成预测方法
技术领域
本发明涉及一种多视点视频编码视点合成预测方法,尤其是涉及一种基于最小二乘的多视点视频编码视点合成预测方法。
背景技术
第一代3D显示终端是基于左右格式的,它只提供两路视频流,分别用于左右眼。这意味着基于这种立体终端要求观看者佩戴特殊眼镜坐在一个较为狭窄的范围内观看。虽然,当前的立体显示系统能够提供高质量的3D视频,但在观看上的这些限制影响了观看时的舒适与自然。近来,深度图研究的进步带动了一种新的3D显示终端的发展,即自由视点电视。
自由视点电视在不同方向显示不同的立体视频流,它可以为用户提供对于场景的自由视点选择,而且用户不需要配戴眼镜。为了提供一个宽阔的观赏视角和视点过渡,这种显示需要使用更多数目的视频流。深度图信息将有助于合成中间视点以到达视点无缝过渡的目的。然而,多台摄像机的拍摄导致了数据量的显著增加,需要对多路视频流进行压缩,一个直接的方法是利用最新的多视点视频编码国际标准(MVC)来压缩不同的纹理视点。然而,一方面,在MVC中使用的平移运动模型不足以消除由于不同摄像机拍出的物体的位置不同产生的视点间冗余。另一方面,这种方法忽略了纹理图和对应的深度图之间的关系。
因此,在2006年,Martinian等人,首次提出深度辅助的视间预测方法,称为基于视点合成预测(VSP)的多视点视频编码,以提高视间预测效率[1]。这种方法的基本思想是通过三维变换来创建当前视点的一个虚拟视点,在预测的过程中可以作为附加的参考视点。与视差预测相比,VSP可很好地补偿不同视点间的几何差异。2008年,Oh等利用VSP的技术来压缩多视深度数据[2]。此外,在2009年,Sehoon等提出了基于VSP的率失真优化模型[3]。为改变视差矢量的预测,在2010年,Iyer等通过基于VSP的后向变换,提出了一种基于三维变换的视差矢量预测方法[4]。在2011年,Shinya等利用VSP来完成后向运动估计和视差估计[5]。
然而,现有的VSP技术仅仅使用了相邻的视点间信息去合成虚拟视点,由于深度信息的不准确,不同相机的异质性,和对象的非朗伯反射,虚拟视点的质量和预测能力是有限的。因此,现有的VSP技术很难大幅度降低码率,而在VSP技术中,虚拟视点不是被用于显示的,而只是用于预测。
发明内容
本发明主要是解决现有技术所存在的技术问题;提供了一种基于最小二乘的多视点视频编码视点合成预测方法。
本发明的上述技术问题主要是通过下述技术方案得以解决的:
一种基于最小二乘的多视点视频编码视点合成预测方法,其特征在于,包括以下步骤:
步骤1,通过三维变换找到虚拟视点帧的当前像素点在参考视点帧中的对应像素;
步骤2,将步骤1得到的参考视点帧中的对应像素及其邻域的八个像素,作为虚拟视点帧的当前像素的预测像素;
步骤3,利用编码器中当前帧之前的重建帧及其虚拟视点帧,采用最小二乘法训练求得预测系数;
步骤4,根据步骤3得到预测系数,将预测像素的像素值通过线性估计来得到当前像素的像素值,
步骤5,对于每个像素重复执行步骤1至步骤4,最终得到虚拟视点帧;
步骤6,将步骤5生成的虚拟视点帧,加入到参考帧列表,编码器根据参考帧列表对当前视点待编码帧进行编码。
在上述的一种基于最小二乘的多视点视频编码视点合成预测方法,步骤1中,找到虚拟视点帧中的当前像素在参考视点帧中的对应像素的步骤采用以下步骤实现,
对于虚拟视点帧中的当前像素
Figure BDA00001950040000031
其在参考视点帧中的对应像素通过式一和式二来获取:
[u,v,w]=R(c)·A-1(c)·[x,y,1]·D[c,t,x,y]+T(c)式一
[x',y',z']=A(c')·R-1(c')·{[u,v,w]-T(c′)}式二
式一和式二中,A,R和T分别表示内参矩阵,旋转矩阵和相机的平移矢量;c和t分别表示参考视点标号与视点内时域上的序号;D为深度值;[x,y,1]是虚拟视点帧中的像素坐标,[x′,y',z']是参考视点帧中的像素坐标,[u,v,w]指的是世界坐标。
在上述的一种基于最小二乘的多视点视频编码视点合成预测方法,步骤2中,将步骤1得到的参考视点帧中的对应像素及其周围像素,作为虚拟视点帧的当前像素的预测像素,选取方式如下:
虚拟视点帧的当前像素的预测像素为步骤1中获得的
Figure BDA00001950040000033
与其邻域的N个像素。
在上述的一种基于最小二乘的多视点视频编码视点合成预测方法,所述步骤3中,利用先前已解码的帧及其虚拟视点帧,采用最小二乘法训练求得预测系数,具体采用以下步骤实现,
步骤3.1:将先前已解码的帧作为训练样本,训练窗口的选择如下:
W(T1,T1)=[-T1,T1]×[-T1,T1]式三
其中T1是空间窗口的大小;W(T1,T1)表示训练窗口;
步骤3.2:设在训练窗口中有M个样本,将窗口中的所有样本写成M×1向量
Figure BDA00001950040000034
定义训练样本在其虚拟视点帧中的对应像素和它的N个相邻像素为1×(N+1)的向量,则训练样本产生一个大小为M×(N+1)的协方差矩阵C,于是,预测系数
Figure BDA00001950040000041
由式四和五获得:
α → = arg min α → MSE = arg min α → | | y → M × 1 - C M × ( N + 1 ) α → ( N + 1 ) × 1 | | 2 式四
α → = ( C T C ) - 1 C T y → 式五
其中CM×(N+1)表示所有训练样本及其预测像素所组成的矩阵;
Figure BDA00001950040000044
Figure BDA00001950040000045
表示训练样本像素;CT表示CM×(N+1)的转置。
在上述的一种基于最小二乘的多视点视频编码视点合成预测方法,所述步骤4中,根据步骤3得到预测系数,将预测像素的像素值通过线性估计来得到当前像素的像素值,对于每个像素执行相同的操作,最终得到虚拟视点帧,采用以下步骤实现:
在得到预测系数后,对于虚拟视点帧中的当前像素,它的像素值利用其在参考视点帧中的对应像素及该像素的邻域像素线性估计得来,如式六所示:
P syn ( n → 1 ) = Σ k = 1 N + 1 α k P ref ( m → k ) 式六
其中
Figure BDA00001950040000047
为虚拟视点帧中的像素坐标[x,y,1],
Figure BDA00001950040000048
表示对应像素及该像素的邻域像素的坐标。
在上述的一种基于最小二乘的多视点视频编码视点合成预测方法,将步骤5生成的虚拟视点帧,加入到参考帧列表采用如下方式实现:
对于P视点锚定帧,只使用LIST_0用于预测,直接在列表末尾增加虚拟视点帧,对于P视点锚定帧,只使用LIST_0预测,直接将虚拟视点帧放至参考帧列表末尾;对于P视点非锚定帧,LIST_0和LIST_1都用于层次B帧预测,因此用虚拟视点帧替换LIST_0中的第一个后向时域参考帧,以及LIST_1中的第一个前向时域参考帧,对于B视点的锚定帧,直接将虚拟视点帧加至LIST_0和LIST_1的末尾;对于B视点的非锚定帧,参考帧列表的管理方式和P视点的相同。
因此,本发明具有如下优点:1、在合成虚拟视点进行预测时不仅利用了视间信息,还利用了时域信息,使得合成的视点对视点间光照的差异、深度信息的误差更加鲁棒;2、合成的视点更接近于当前视点,使得VSP技术能大幅度降低多视点视频编码码率。
附图说明
图1是本发明的方法流程示意图。
具体实施方式
下面通过实施例,并结合附图,对本发明的技术方案作进一步具体的说明。
实施例:
本发明技术方案可采用如下步骤进行。为便于实施参考起见,结合附图和实施例详细说明发明技术方案。本发明实施例提供基于最小二乘的视点合成预测多视点视频编码方法,采用MVC参考软件JMVC6.0作为编码器,选取分辨率为1024×768大小的多视点标准测试序列“ballet”和“breakdancers”的第0、1、2视点进行本算法的测试,GOP(图像组)设置为8,QP(量化步长)分别为22,27,32,37,以编码第2视点中的第3帧为例,说明编码当前视点待编码帧时的步骤,流程图见图1:
步骤1,通过三维变换找到第3帧的虚拟视点帧的当前像素在参考视点0的第3帧中的对应像素
Figure BDA00001950040000052
[u,v,w]=R(c)·A-1(c)·[x,y,1]·D[c,t,x,y]+T(c)
(1)
[x',y',z']=A(c')·R-1(c')·{[u,v,w]-T(c′)}
(2)
公式1和公式2中,A,R和T分别表示内参矩阵,旋转矩阵和相机的平移矢量;c和t分别表示参考视点标号与视点内时域上的序号;D为深度值;[x,y,1]是虚拟视点帧中的像素
Figure BDA00001950040000061
的坐标,[x′,y',z']是参考视点帧中的像素
Figure BDA00001950040000062
的坐标,[u,v,w]指的是世界坐标。
步骤2,将步骤1得到的参考视点帧中的对应像素及其周围像素,作为虚拟视点帧的当前像素的预测像素;实施例将步骤1得到的参考视点0的第3帧中的对应像素及其周围像素,作为虚拟视点帧的当前像素的预测像素。
步骤3,利用先前已解码的帧及其虚拟视点帧,采用最小二乘法训练求得预测系数。为便于实施参考起见,提供具体步骤如下:
步骤3.1:将先前已解码的帧作为训练样本,训练窗口的选择如下:
W(T1,T1)=[-T1,T1]×[-T1,T1](3)
其中T1是空间窗口的大小,在本申请中,T1设为3。那么训练窗口的大小为7×7。另外,由于先前已解码帧的虚拟视点帧已经被获取,对于一个训练样本,它的预测像素为虚拟帧中对应位置像素及其周围像素;
步骤3.2:设在训练窗口中有M个样本,将窗口中的所有样本写成M×1向量
Figure BDA00001950040000063
把训练样本在其虚拟视点帧中的对应像素和它的N个相邻像素写成1×(N+1)的向量,这样所有的训练样本就可以产生一个大小为M×(N+1)的协方差矩阵C,此处,M=49,N=9,于是,预测系数
Figure BDA00001950040000064
可以由公式4和公式5求得:
α → = arg min α → MSE = arg min α → | | y → M × 1 - C M × ( N + 1 ) α → ( N + 1 ) × 1 | | 2 - - - ( 4 )
α → = ( C T C ) - 1 C T y → - - - ( 5 )
步骤4,根据步骤3得到预测系数,将预测像素的像素值通过线性估计来得到当前像素的像素值,对于每个像素执行相同的操作,最终得到虚拟视点帧。为便于实施参考起见,提供具体步骤如下:
步骤4.1:在得到预测系数后,对于虚拟视点帧中的当前像素,它的像素值利用其在参考视点帧中的对应像素及该像素的邻域像素线性估计得来,如公式6所示。
P syn ( n → 1 ) = Σ k = 1 N + 1 α k P ref ( m → k ) - - - ( 6 )
其中
Figure BDA00001950040000072
为虚拟视点帧中的像素坐标[x,y,1],
Figure BDA00001950040000073
表示对应像素及该像素的邻域像素的坐标;
步骤5,将步骤4生成的虚拟视点帧,加入到参考帧列表。为便于实施参考起见,提供步骤具体如下:
步骤5.1:对于第2视点中的第3帧,LIST_0和LIST_1都用于层次B帧编码,因此用虚拟视点帧替换LIST_0中的第一个后向时域参考帧,以及LIST_1中的第一个前向时域参考帧,根据参考帧列表对当前视点待编码帧进行编码。
为说明本发明所取得的技术效果起见,对分辨率为1024×768大小的“ballet”和“breakdancers”多视点序列的第0、1、2视点进行编码测试,测试平台为JMVC6.0,每个视点的编码帧数为49帧,GOP(图像组)设置为8,QP(量化步长)分别为22,27,32,37,分别将本发明提出的方法、传统的基于视点合成预测的多视点视频编码方法[4]与MVC标准编码方法进行了比较,编码的码率节省结果下表所示,从中可以看出本发明具有更佳的压缩效率。
Figure BDA00001950040000074
本文中所描述的具体实施例仅仅是对本发明精神作举例说明。本发明所属技术领域的技术人员可以对所描述的具体实施例做各种各样的修改或补充或采用类似的方式替代,但并不会偏离本发明的精神或者超越所附权利要求书所定义的范围。

Claims (6)

1.一种基于最小二乘的多视点视频编码视点合成预测方法,其特征在于,包括以下步骤:
步骤1,通过三维变换找到虚拟视点帧的当前像素点在参考视点帧中的对应像素;
步骤2,将步骤1得到的参考视点帧中的对应像素及其邻域的八个像素,作为虚拟视点帧的当前像素的预测像素;
步骤3,利用编码器中当前帧之前的重建帧及其虚拟视点帧,采用最小二乘法训练求得预测系数;
步骤4,根据步骤3得到预测系数,将预测像素的像素值通过线性估计来得到当前像素的像素值,
步骤5,对于每个像素重复执行步骤1至步骤4,最终得到虚拟视点帧;
步骤6,将步骤5生成的虚拟视点帧,加入到参考帧列表,编码器根据参考帧列表对当前视点待编码帧进行编码。
2.根据权利要求1所述的一种基于最小二乘的多视点视频编码视点合成预测方法,其特征在于,步骤1中,找到虚拟视点帧中的当前像素在参考视点帧中的对应像素的步骤采用以下步骤实现,
对于虚拟视点帧中的当前像素
Figure FDA00001950039900011
其在参考视点帧中的对应像素通过式一和式二来获取:
[u,v,w]=R(c)·A-1(c)·[x,y,1]·D[c,t,x,y]+T(c)
[x′,y′,z']=A(c′)·R-1(c')·{[u,v,w]-T(c′)}式二
式一和式二中,A,R和T分别表示内参矩阵,旋转矩阵和相机的平移矢量;c和t分别表示参考视点标号与视点内时域上的序号;D为深度值;[x,y,1]是虚拟视点帧中的像素坐标,[x′,y',z']是参考视点帧中的像素坐标,[u,v,w]指的是世界坐标。
3.根据权利要求1所述的一种基于最小二乘的多视点视频编码合成预测方法,其特征在于,步骤2中,将步骤1得到的参考视点帧中的对应像素及其周围像素,作为虚拟视点帧的当前像素的预测像素,选取方式如下:
虚拟视点帧的当前像素的预测像素为步骤1中获得的
Figure FDA00001950039900021
与其邻域的N个像素。
4.根据权利要求1所述的一种基于最小二乘的多视点视频编码视点合成预测方法,其特征在于,所述步骤3中,利用先前已解码的帧及其虚拟视点帧,采用最小二乘法训练求得预测系数,具体采用以下步骤实现,
步骤3.1:将先前已解码的帧作为训练样本,训练窗口的选择如下:
W(T1,T1)=[-T1,T1]×[-T1,T1]式三
其中T1是空间窗口的大小;W(T1,T1)表示训练窗口;
步骤3.2:设在训练窗口中有M个样本,将窗口中的所有样本写成M×1向量
Figure FDA00001950039900022
定义训练样本在其虚拟视点帧中的对应像素和它的N个相邻像素为1×(N+1)的向量,则训练样本产生一个大小为M×(N+1)的协方差矩阵C,于是,预测系数
Figure FDA00001950039900023
由式四和五获得:
α → = arg min α → MSE = arg min α → | | y → M × 1 - C M × ( N + 1 ) α → ( N + 1 ) × 1 | | 2 式四
α → = ( C T C ) - 1 C T y → 式五
其中CM×(N+1)表示所有训练样本及其预测像素所组成的矩阵;
Figure FDA00001950039900032
Figure FDA00001950039900033
表示训练样本像素;CT表示CM×(N+1)的转置。
5.根据权利要求1所述的一种基于最小二乘的多视点视频编码视点合成预测方法,其特征在于,所述步骤4中,根据步骤3得到预测系数,将预测像素的像素值通过线性估计来得到当前像素的像素值,对于每个像素执行相同的操作,最终得到虚拟视点帧,采用以下步骤实现:
在得到预测系数后,对于虚拟视点帧中的当前像素,它的像素值利用其在参考视点帧中的对应像素及该像素的邻域像素线性估计得来,如式六所示:
P syn ( n → 1 ) = Σ k = 1 N + 1 α k P ref ( m → k )
式六
其中
Figure FDA00001950039900035
为虚拟视点帧中的像素坐标[x,y,1],
Figure FDA00001950039900036
表示对应像素及该像素的邻域像素的坐标。
6.根据权利要求1所述的一种基于最小二乘的多视点视频编码视点合成预测方法,其特征在于,将步骤5生成的虚拟视点帧,加入到参考帧列表采用如下方式实现:
对于P视点锚定帧,只使用LIST_0用于预测,直接在列表末尾增加虚拟视点帧,对于P视点锚定帧,只使用LIST_0预测,直接将虚拟视点帧放至参考帧列表末尾;对于P视点非锚定帧,LIST_0和LIST_1都用于层次B帧预测,因此用虚拟视点帧替换LIST_0中的第一个后向时域参考帧,以及LIST_1中的第一个前向时域参考帧,对于B视点的锚定帧,直接将虚拟视点帧加至LIST_0和LIST_1的末尾;对于B视点的非锚定帧,参考帧列表的管理方式和P视点的相同。
CN201210266945.9A 2012-07-30 2012-07-30 一种基于最小二乘的多视点视频编码视点合成预测方法 Active CN102790895B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201210266945.9A CN102790895B (zh) 2012-07-30 2012-07-30 一种基于最小二乘的多视点视频编码视点合成预测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201210266945.9A CN102790895B (zh) 2012-07-30 2012-07-30 一种基于最小二乘的多视点视频编码视点合成预测方法

Publications (2)

Publication Number Publication Date
CN102790895A true CN102790895A (zh) 2012-11-21
CN102790895B CN102790895B (zh) 2015-03-25

Family

ID=47156183

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201210266945.9A Active CN102790895B (zh) 2012-07-30 2012-07-30 一种基于最小二乘的多视点视频编码视点合成预测方法

Country Status (1)

Country Link
CN (1) CN102790895B (zh)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015006984A1 (en) * 2013-07-19 2015-01-22 Mediatek Singapore Pte. Ltd. Reference view selection for 3d video coding
CN104969556A (zh) * 2013-01-08 2015-10-07 Lg电子株式会社 处理视频信号的方法和设备
CN104767987B (zh) * 2015-02-04 2017-04-12 浙江工商大学 一种基于深度图的全搜索视点预测方法
CN106791829A (zh) * 2016-11-18 2017-05-31 华为技术有限公司 虚拟参考帧的建立方法及设备
CN111464804A (zh) * 2020-04-08 2020-07-28 北京小米松果电子有限公司 一种全向视差视图合成方法、装置及存储介质
CN112929629A (zh) * 2021-02-03 2021-06-08 天津大学 一种智能虚拟参考帧生成方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101783956A (zh) * 2010-02-03 2010-07-21 武汉大学 基于时空邻居信息的后向预测方法
CN101986713A (zh) * 2009-06-04 2011-03-16 西南交通大学 基于视点合成的多视点容错编码框架
CN102413332A (zh) * 2011-12-01 2012-04-11 武汉大学 基于时域增强的视点合成预测多视点视频编码方法
WO2012099438A2 (en) * 2011-01-20 2012-07-26 Samsung Electronics Co., Ltd Method of adaptive frame prediction for multiview video sequence coding

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101986713A (zh) * 2009-06-04 2011-03-16 西南交通大学 基于视点合成的多视点容错编码框架
CN101783956A (zh) * 2010-02-03 2010-07-21 武汉大学 基于时空邻居信息的后向预测方法
WO2012099438A2 (en) * 2011-01-20 2012-07-26 Samsung Electronics Co., Ltd Method of adaptive frame prediction for multiview video sequence coding
CN102413332A (zh) * 2011-12-01 2012-04-11 武汉大学 基于时域增强的视点合成预测多视点视频编码方法

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104969556A (zh) * 2013-01-08 2015-10-07 Lg电子株式会社 处理视频信号的方法和设备
US10123007B2 (en) 2013-01-08 2018-11-06 Lg Electronics Inc. Method and apparatus for processing video signal
WO2015006984A1 (en) * 2013-07-19 2015-01-22 Mediatek Singapore Pte. Ltd. Reference view selection for 3d video coding
CN104767987B (zh) * 2015-02-04 2017-04-12 浙江工商大学 一种基于深度图的全搜索视点预测方法
CN106791829A (zh) * 2016-11-18 2017-05-31 华为技术有限公司 虚拟参考帧的建立方法及设备
CN106791829B (zh) * 2016-11-18 2020-01-21 华为技术有限公司 虚拟参考帧的建立方法及设备
CN111464804A (zh) * 2020-04-08 2020-07-28 北京小米松果电子有限公司 一种全向视差视图合成方法、装置及存储介质
US11245886B2 (en) 2020-04-08 2022-02-08 Beijing Xiaomi Pinecone Electronics Co., Ltd. Method and apparatus for synthesizing omni-directional parallax view, and storage medium
CN112929629A (zh) * 2021-02-03 2021-06-08 天津大学 一种智能虚拟参考帧生成方法
CN112929629B (zh) * 2021-02-03 2021-12-07 天津大学 一种智能虚拟参考帧生成方法

Also Published As

Publication number Publication date
CN102790895B (zh) 2015-03-25

Similar Documents

Publication Publication Date Title
CN100576934C (zh) 基于深度和遮挡信息的虚拟视点合成方法
CN100563340C (zh) 基于深度图像渲染的多通道视频流编码器和解码器
EP2594077B1 (en) Hybrid video coding supporting intermediate view synthesis
CN102790895B (zh) 一种基于最小二乘的多视点视频编码视点合成预测方法
Martinian et al. Extensions of H. 264/AVC for multiview video compression
CN101374243B (zh) 一种应用于3dtv与ftv系统的深度图编码压缩方法
CN102685532B (zh) 自由视点四维空间视频编码系统的编码方法
CN102413332B (zh) 基于时域增强的视点合成预测多视点视频编码方法
JP2013509104A (ja) 2dビデオデータの3dビデオデータへの変換のための深度マップ生成技法
CN102801996B (zh) 基于jndd模型的快速深度图编码模式选择方法
CN106507116B (zh) 一种基于3d显著性信息和视点合成预测的3d-hevc编码方法
CN101986716A (zh) 一种快速深度视频编码方法
CN101404766B (zh) 一种多视点视频信号的编码方法
CN102438167B (zh) 一种基于深度图像绘制的立体视频编码方法
CN106210722A (zh) 基于hevc的分层深度视频残差层数据的编码方法
CN101867816A (zh) 一种基于人眼视觉特性的立体视频非对称压缩编码方法
CN102438147B (zh) 帧内同步立体视频多参考帧模式视间预测编码及解码方法
KR20060108952A (ko) 다시점 동영상 부호화/복호화 시스템의 부호화 방법 및시점간 보정 변이 추정 방법
CN103475884B (zh) 面向hbp编码格式的立体视频b帧整帧丢失错误隐藏方法
CN103002306A (zh) 一种深度图像编码方法
CN104768019A (zh) 一种面向多纹理多深度视频的相邻视差矢量获取方法
CN102724525A (zh) 一种基于中心凹恰可觉察失真模型的深度视频编码方法
CN104159095B (zh) 一种多视点纹理视频和深度图编码的码率控制方法
CN104506871B (zh) 一种基于hevc的3d视频快速编码方法
CN102710949B (zh) 一种基于视觉感知的立体视频编码方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
C41 Transfer of patent application or patent right or utility model
TR01 Transfer of patent right

Effective date of registration: 20160120

Address after: 100102 Beijing city Chaoyang District Guangshun North Street Hospital No. 33, No. 1 Building 1 unit 7 room 808

Patentee after: Kean electric (Beijing) Technology Co., Ltd.

Address before: 430072 Hubei Province, Wuhan city Wuchang District of Wuhan University Luojiashan

Patentee before: Wuhan University

CP03 Change of name, title or address

Address after: 100102 Beijing city Chaoyang District Guangshun North Street Hospital No. 33 Building 1 unit 7 room 808

Patentee after: Kean electric (Beijing) Polytron Technologies Inc

Address before: 100102 Beijing city Chaoyang District Guangshun North Street Hospital No. 33, No. 1 Building 1 unit 7 room 808

Patentee before: Kean electric (Beijing) Technology Co., Ltd.

CP01 Change in the name or title of a patent holder

Address after: 100102 Beijing city Chaoyang District Guangshun North Street Hospital No. 33 Building 1 unit 7 room 808

Patentee after: Kean electric Polytron Technologies Inc

Address before: 100102 Beijing city Chaoyang District Guangshun North Street Hospital No. 33 Building 1 unit 7 room 808

Patentee before: Kean electric (Beijing) Polytron Technologies Inc

CP01 Change in the name or title of a patent holder