CN106060511A - 基于深度图的立体视频补全方法及系统 - Google Patents

基于深度图的立体视频补全方法及系统 Download PDF

Info

Publication number
CN106060511A
CN106060511A CN201610437916.2A CN201610437916A CN106060511A CN 106060511 A CN106060511 A CN 106060511A CN 201610437916 A CN201610437916 A CN 201610437916A CN 106060511 A CN106060511 A CN 106060511A
Authority
CN
China
Prior art keywords
video
source
filled
target video
target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201610437916.2A
Other languages
English (en)
Other versions
CN106060511B (zh
Inventor
朱云芳
王慧燕
王勋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhejiang Gongshang University
Original Assignee
Zhejiang Gongshang University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhejiang Gongshang University filed Critical Zhejiang Gongshang University
Priority to CN201610437916.2A priority Critical patent/CN106060511B/zh
Publication of CN106060511A publication Critical patent/CN106060511A/zh
Application granted granted Critical
Publication of CN106060511B publication Critical patent/CN106060511B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/156Mixing image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/128Adjusting depth or disparity

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

本发明提供了一种基于深度图的立体视频补全方法及系统,其中,方法包括:获取源视频、与源视频对应的源视频深度图视频序列以及预设的目标视频的参数,源视频与目标视频之间存在水平位移;根据源视频、源视频深度图视频序列以及目标视频的参数,合成目标视频序列;计算目标视频序列中的每帧图像之间的相对运动参数,并根据相对运动参数将当前帧内的空洞区域投影到相邻帧,利用相邻帧内已有的信息对当前帧内的空洞区域进行填充。本发明在能够对在合成目标视频的过程中产生的空洞自动进行填充,避免了人工补全操作,大大降低了立体视频的制作成本,填充精度高,方法简单,便于实现。

Description

基于深度图的立体视频补全方法及系统
技术领域
本发明涉及图像处理技术领域,特别涉及一种基于深度图的立体视频补全方法及系统。
背景技术
随着3D影视业的迅速发展,人们对立体视频需求越来越旺盛。近些年,机器学习技术的发展飞快,使得通过单视角图像恢复图像深度的技术变得越来越成熟,通过一段视频来获取其对应深度图视频也因此变得可行。
目前,通过源视频及其对应的深度图,可以合成另一视角的视频序列,从而可以将以前拍摄的传统2D电影电视转换成立体电影电视。在转换过程中,根据已知的视频序列及其对应的深度图、以及给出的同水平线上的另一个视角参数,可以合成目标视角的视频,但是因为遮挡等原因,合成的视频中会出现比较多的空洞,需要后期人工进行填充。由于人工操作复杂,工作量较大,所以导致了后期人工制作成本较高,而且视频填充的质量也无法保证。
发明内容
为解决上述技术问题,克服现有技术水平的缺点和不足,本发明提供一种基于深度图的立体视频补全方法及系统,在提供的源视频序列及源视频对应的深度图序列的基础上,根据设置的目标视频参数,合成对应的目标视图序列,并对在合成目标视频的过程中产生的空洞自动进行填充,使合成的视频每帧保证完整。
本发明提供的一种基于深度图的立体视频补全方法,包括以下步骤:
获取源视频、与所述源视频对应的源视频深度图视频序列以及预设的目标视频的参数,所述源视频与所述目标视频之间存在水平位移;
根据所述源视频、源视频深度图视频序列以及目标视频的参数,合成目标视频序列;
计算所述目标视频序列中的每帧图像之间的相对运动参数,并根据所述相对运动参数将当前帧内的空洞区域投影到相邻帧,利用所述相邻帧内已有的信息对当前帧内的空洞区域进行填充。
作为一种可实施方式,所述根据源视频、源视频深度图视频序列以及目标视频的参数,合成目标视频序列,包括以下步骤:
根据所述源视频深度图视频序列和所述目标视频的参数,生成所述源视频的视差图;
根据所述源视频的视差图获得所述源视频中的每帧图像的视差图,并将所述源视频中的每帧图像的视差图在所述目标视频中进行映射,生成目标视差图;
对所述目标视差图进行行扫描,并采用两侧边缘信息中视差较小的点对所述目标视差图中的空洞进行填充;
根据填充后的所述目标视差图,计算所述目标视频在所述源视频中的对应点,并将所述对应点的信息填充到所述目标视频中,得到所述目标视频序列。
作为一种可实施方式,若所述源视频的视差图中有多点映射到所述目标视频中的同一点,选择视差最大的值作为所述目标视差图的值。
作为一种可实施方式,所述计算目标视频序列中的每帧图像之间的相对运动参数,并根据所述相对运动参数将当前帧内的空洞区域投影到相邻帧,利用所述相邻帧内已有的信息对当前帧内的空洞区域进行填充,包括以下步骤:
提取所述源视频中每帧图像中的特征点并进行匹配,得到所述源视频中任意两帧之间的仿射变换矩阵;
采用数据项和置信项的乘积进行排序,计算所述目标视频序列中待填充的空洞区域的填充顺序;
根据所述仿射变换矩阵,将所述空洞区域中的当前待填充块的中心点的坐标投影到相邻的帧中,并以投影点所在的位置为中心,在预设区域内根据所述当前待填充块中已知点的信息,查找与所述当前待填充块距离最小的样本块及其对应的样本距离;
对查找到的不同帧中的样本块及其对应的样本距离进行加权处理,得到最小距离值;其中,权重与所述样本块所在的帧与当前待填充块所在的帧之间的距离成正比;
比较所述最小距离值,如果所述最小距离值小于设定的距离阈值,则将所述最小距离值对应的样本块中的信息填充到所述当前待填充块中。
作为一种可实施方式,在计算所述目标视频序列中的每帧图像之间的相对运动参数,并根据所述相对运动参数将当前帧内的空洞区域投影到相邻帧,利用所述相邻帧内已有的信息对当前帧内的空洞区域进行填充,之后还包括以下步骤:
针对所述目标视频序列中每帧图像中剩余的未知信息,以区块为单位,在所述目标视频序列中寻找与此区块距离最小的块,将其信息复制到该区块中进行填充。
相应地,本发明还提供一种基于深度图的立体视频补全系统,包括获取模块、合成模块以及补全模块;
所述获取模块,用于获取源视频、与所述源视频对应的源视频深度图视频序列以及预设的目标视频的参数,所述源视频与所述目标视频之间存在水平位移;
所述合成模块,用于根据所述源视频、源视频深度图视频序列以及目标视频的参数,合成目标视频序列;
所述补全模块,用于计算所述目标视频序列中的每帧图像之间的相对运动参数,并根据所述相对运动参数将当前帧内的空洞区域投影到相邻帧,利用所述相邻帧内已有的信息对当前帧内的空洞区域进行填充。
作为一种可实施方式,所述合成模块包括第一生成单元、第二生成单元、第一填充单元以及第一计算单元;
所述第一生成单元,用于根据所述源视频深度图视频序列和所述目标视频的参数,生成所述源视频的视差图;
所述第二生成单元,用于根据所述源视频的视差图获得所述源视频中的每帧图像的视差图,并将所述源视频中的每帧图像的视差图在所述目标视频中进行映射,生成目标视差图;
所述第一填充单元,用于对所述目标视差图进行行扫描,并采用两侧边缘信息中视差较小的点对所述目标视差图中的空洞进行填充;
所述第一计算单元,用于根据填充后的所述目标视差图,求出所述目标视频在所述源视频中的对应点,并将所述对应点的信息填充到所述目标视频中,得到所述目标视频序列。
作为一种可实施方式,所述合成模块还包括选取单元;
所述选取单元,用于在所述源视频的视差图中有多点映射到所述目标视频中的同一点时,选择视差最大的值作为所述目标视差图的值。
作为一种可实施方式,所述补全模块包括提取单元、第二计算单元、查找单元、处理单元以及比较单元;
所述提取单元,用于提取所述源视频中每帧图像中的特征点并进行匹配,得到所述源视频中任意两帧之间的仿射变换矩阵;
所述第二计算单元,用于采用数据项和置信项的乘积进行排序,计算所述目标视频序列中待填充的空洞区域的填充顺序;
所述查找单元,用于根据所述仿射变换矩阵,将所述空洞区域中的当前待填充块的中心点的坐标投影到相邻的帧中,并以投影点所在的位置为中心,在预设区域内根据所述当前待填充块中已知点的信息,查找与所述当前待填充块距离最小的样本块及其对应的样本距离;
所述处理单元,用于对查找到的不同帧中的样本块及其对应的样本距离进行加权处理,得到最小距离值;其中,权重与所述样本块所在的帧与当前待填充块所在的帧之间的距离成正比;
所述比较单元,用于比较所述最小距离值,如果所述最小距离值小于设定的距离阈值,则将所述最小距离值对应的样本块中的信息填充到所述当前待填充块中。
作为一种可实施方式,本发明的基于深度图的立体视频补全系统,还包括填充模块;
所述填充模块,用于针对所述目标视频序列中每帧图像中剩余的未知信息,以区块为单位,在所述目标视频序列中寻找与此区块距离最小的块,将其信息复制到该区块中进行填充。
本发明相比于现有技术的有益效果在于:
本发明提供的基于深度图的立体视频补全方法及系统,在提供的源视频序列及源视频对应的深度图序列的基础上,根据设置的目标视频参数,合成对应的目标视频序列,并对在合成目标视频的过程中产生的空洞自动进行填充,使合成的视频每帧保证完整,避免了视频制作后期的人工补全操作,大大降低了立体视频的制作成本,填充精度高,方法简单,便于实现。
附图说明
图1为本发明提供的基于深度图的立体视频补全方法的一实施例的流程示意图;
图2是本发明提供的基于深度图的立体视频补全系统的一实施例的结构示意图。
具体实施方式
以下结合附图,对本发明上述的和另外的技术特征和优点进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明的部分实施例,而不是全部实施例。
参见图1,本发明提供了一种基于深度图的立体视频补全方法,包括以下步骤:
S100、获取源视频、与源视频对应的源视频深度图视频序列以及预设的目标视频的参数,源视频与目标视频之间存在水平位移;
S200、根据源视频、源视频深度图视频序列以及目标视频的参数,合成目标视频序列;
S300、计算目标视频序列中的每帧图像之间的相对运动参数,并根据相对运动参数将当前帧内的空洞区域投影到相邻帧,利用相邻帧内已有的信息对当前帧内的空洞区域进行填充。
从给定的源视频深度图视频序列,可以求出对应的视差图像,其转化公式为:其中B为两摄像机光心的距离,在这里可以用瞳距代替,f表示摄像机的焦距。此处设定在拍摄过程中,两个摄像机的焦距值一致并且在拍摄过程中保持不变,z表示图像点所对应的真实世界坐标系的点的深度。
源视频中的点与其在目标视频中对应的点,其坐标满足关系:
X1-Xr=d (1)
其中d为该点的视差。X1和Xr表示源视频和目标视频中的对应点。视差图中的对应点同样满足该关系:Xdr=Xd1-d,其中Xd1表示X1在视差图中的对应点,Xdr表示Xr在视差图中的对应点,d表示对应视差,由此表达式正向投影得到目标视差图中各点的视差,具体实现步骤为:对于源视频的视差图中的同一行,按照视差值从大到小的顺序进行投影。即先选择视差值大的点,计算出目标视差图中的对应点位置,并赋予该点同样的视差值。然后依次选择其它视差值小的点,如果出现计算得到的点的位置已经在前面视差大的点计算过程中出现,那么这点将忽略不计,因为此点已经被前景点覆盖。对于目标视差图中的空洞,行方向进行扫描,比较空洞两侧边缘信息,用视差较小的点进行填充。
具体地,S200包括以下步骤:
S210、根据源视频深度图视频序列和目标视频的参数,生成源视频的视差图;
S220、根据源视频的视差图获得源视频中的每帧图像的视差图,并将源视频中的每帧图像的视差图在目标视频中进行映射,生成目标视差图;
S230、对目标视差图进行行扫描,并采用两侧边缘信息中视差较小的点对目标视差图中的空洞进行填充;
S240、根据填充后的目标视差图,计算目标视频在源视频中的对应点,并将对应点的信息填充到目标视频中,得到目标视频序列。
需要说明的是,若源视频的视差图中有多点映射到目标视频中的同一点,选择视差最大的值作为目标视差图的值。
根据上述公式(1),及得到的目标视差图,计算目标视频图像中的点Xr在源视频图像中的对应点X1的位置,将X1的灰度值填充到目标视频图像中的点Xr中,得到目标视频序列。
作为一种可实施方式,S300包括以下步骤:
S310、提取源视频中每帧图像中的特征点并进行匹配,得到源视频中任意两帧之间的仿射变换矩阵;
S320、采用数据项和置信项的乘积进行排序,计算目标视频序列中待填充的空洞区域的填充顺序;
S330、根据仿射变换矩阵,将空洞区域中的当前待填充块的中心点的坐标投影到相邻的帧中,并以投影点所在的位置为中心,在预设区域内根据当前待填充块中已知点的信息,查找与当前待填充块距离最小的样本块及其对应的样本距离;
S340、对查找到的不同帧中的样本块及其对应的样本距离进行加权处理,得到最小距离值;其中,权重与样本块所在的帧与当前待填充块所在的帧之间的距离成正比;
S350、比较最小距离值,如果最小距离值小于设定的距离阈值,则将最小距离值对应的样本块中的信息填充到当前待填充块中。
针对目标视频序列中每帧图像中剩余的未知信息,以区块为单位,在目标视频序列中寻找与此区块距离最小的块,将其信息复制到该区块中进行填充。
本实施例对于目标视频图像中的空洞,采用基于样本的方式对空洞进行填充。在填充之前,先计算源输入视频图像中每两帧之间的位置关系,用仿射变换表示。
用Mi,i+1表示相邻帧的仿射变换矩阵,下标i和j均表示帧号,则根据仿射变换的传递性,可以得到任意两帧之间的仿射变换为:
Mi,j=Mi,i+1Mi+1,i+2...Mj-1,j (2)
对于仿射变换矩阵的求取,采用先提取特征点并进行匹配,然后利用匹配结果,结合最小二乘法计算得到仿射变换矩阵。
进一步地,对于目标视频序列中的空洞区域采用数据项和置信项的乘积进行排序确定其填充顺序。其中置信项由当前块中所有非空洞点的置信度之和决定,定义初始图像中,已知点的置信度为1,未知点的置信度为0,在填充的过程中,对填充点的置信度(初始值为0)进行更新,填充点的置信度由填充区域内所有已知点的置信度之和除以区域面积得到,即有较多已知点信息的待填充块将靠前被填充;数据项是由中心点处边缘的法向量值与等照度值的乘积。
具体填充过程可以采用分块填充的方法实施,例如:首先,在目标图像空洞区域选中当前待填充块Pr,根据其中心点坐标Pcr,由上述公式(1)计算出其在对应源视频图像中的对应点Pc1,再根据上述公式(2),将Pc1投影到前N帧图像及后N帧图像中,其对应点记为Pcl,i,其中下标i表示帧号。对此2N帧中的任意帧i,以Pcl,i为中心,选择一个大小为[2*W+1,2*W+1]的窗口区域,W为选择匹配块时定义的搜索区域大小,其值最大可以取到使搜索区域为整个图像。但是为了保证算法的效率,可以适当的缩小搜索范围,取值为块大小的10-20倍。在此窗口区域范围内,寻找距离与当前待填充块Pr距离最小的样本块,其距离计算方法为求Pr中所有已知信息的点与其在第i帧图像中待匹配块中对应点的SAD值之和,对于选取窗口中的所有块,取SAD和最小的样本块为距离最小样本块,记下该样本块的中心坐标Qi和最小距离这样将得到2N个待匹配样本和其对应的最小距离。
考虑到2N个匹配样本块来源于不同帧,在时序上与当前目标视频的图像有差异。因此,对2N个样本块取不同的权重Wi,Wi=|i-N+1|,距离目标帧时序越远的帧,其Wi越大。在2N中,计算选择距离最小的样本块,为待选的匹配样本块。将此样本块对应的最小距离值与预先设定的距离阈值进行比较,如果小于该阈值,则认为此样本块为最后的匹配结果,将此样本块中与Pr未知区域对应的点的信息复制到Pr中,则Pr填充结束,开始填充下一块,直至整幅图像填充结束。如果大于或等于阈值,则对Pr不做任何处理,直接进入下一个填充块。
经过上个步骤的处理,图像中可能还有没有填充的空白区域,此时仍然按照前面的数据项和置信项乘积的方法,确定其填充顺序,按顺序找到待匹配块Pr,然后在图像内部寻找与当前待匹配块距离最小的样本块,将其中对应点的信息填充到Pr中未知的区域,完成整幅图像的填充。
基于同一发明构思,本发明实施例还提供了一种基于深度图的立体视频补全系统,该系统解决问题的原理与上述方法相同,故该系统的实施可参照上述方法的具体流程,重复之处不再冗述。
参见图2,本发明实施例提供的基于深度图的立体视频补全系统,包括获取模块100、合成模块200以及补全模块300;
获取模块100用于获取源视频、与源视频对应的源视频深度图视频序列以及预设的目标视频的参数,源视频与目标视频之间存在水平位移;
合成模块200用于根据源视频、源视频深度图视频序列以及目标视频的参数,合成目标视频序列;
补全模块300用于计算目标视频序列中的每帧图像之间的相对运动参数,并根据相对运动参数将当前帧内的空洞区域投影到相邻帧,利用相邻帧内已有的信息对当前帧内的空洞区域进行填充。
作为一种可实施方式,合成模块200包括第一生成单元、第二生成单元、第一填充单元以及第一计算单元;第一生成单元用于根据源视频深度图视频序列和目标视频的参数,生成源视频的视差图;第二生成单元用于根据源视频的视差图获得源视频中的每帧图像的视差图,并将源视频中的每帧图像的视差图在目标视频中进行映射,生成目标视差图;第一填充单元用于对目标视差图进行行扫描,并采用两侧边缘信息中视差较小的点对目标视差图中的空洞进行填充;第一计算单元用于根据填充后的目标视差图,求出目标视频在源视频中的对应点,并将对应点的信息填充到目标视频中,得到目标视频序列。
作为一种可实施方式,合成模块200还包括选取单元;选取单元用于在源视频的视差图中有多点映射到目标视频中的同一点时,选择视差最大的值作为目标视差图的值。
作为一种可实施方式,补全模块300包括提取单元、第二计算单元、查找单元、处理单元以及比较单元;提取单元用于提取源视频中每帧图像中的特征点并进行匹配,得到源视频中任意两帧之间的仿射变换矩阵;第二计算单元用于采用数据项和置信项的乘积进行排序,计算目标视频序列中待填充的空洞区域的填充顺序;查找单元用于根据仿射变换矩阵,将空洞区域中的当前待填充块的中心点的坐标投影到相邻的帧中,并以投影点所在的位置为中心,在预设区域内根据当前待填充块中已知点的信息,查找与当前待填充块距离最小的样本块及其对应的样本距离;处理单元用于对查找到的不同帧中的样本块及其对应的样本距离进行加权处理,得到最小距离值;其中,权重与样本块所在的帧与当前待填充块所在的帧之间的距离成正比;比较单元用于比较最小距离值,如果最小距离值小于设定的距离阈值,则将最小距离值对应的样本块中的信息填充到当前待填充块中。
本发明另一实施例提供的基于深度图的立体视频补全系统还包括填充模块;填充模块用于针对目标视频序列中每帧图像中剩余的未知信息,以区块为单位,在目标视频序列中寻找与此区块距离最小的块,将其信息复制到该区块中进行填充。
本发明提供的基于深度图的立体视频补全方法及系统,在提供的源视频序列及源视频对应的深度图序列的基础上,根据设置的目标视频参数,合成对应的目标视频序列,并对在合成目标视频序列的过程中产生的空洞自动进行填充,使合成的视频每帧保证完整,避免了视频制作后期的人工补全操作,大大降低了立体视频的制作成本,填充精度高,方法简单,便于实现。
以上所述的具体实施例,对本发明的目的、技术方案和有益效果进行了进一步的详细说明,应当理解,以上所述仅为本发明的具体实施例而已,并不用于限定本发明的保护范围。特别指出,对于本领域技术人员来说,凡在本发明的精神和原则之内,所做的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

Claims (10)

1.一种基于深度图的立体视频补全方法,其特征在于,包括以下步骤:
获取源视频、与所述源视频对应的源视频深度图视频序列以及预设的目标视频的参数,所述源视频与所述目标视频之间存在水平位移;
根据所述源视频、源视频深度图视频序列以及目标视频的参数,合成目标视频序列;
计算所述目标视频序列中的每帧图像之间的相对运动参数,并根据所述相对运动参数将当前帧内的空洞区域投影到相邻帧,利用所述相邻帧内已有的信息对当前帧内的空洞区域进行填充。
2.根据权利要求1所述的基于深度图的立体视频补全方法,其特征在于,所述根据源视频、源视频深度图视频序列以及目标视频的参数,合成目标视频序列,包括以下步骤:
根据所述源视频深度图视频序列和所述目标视频的参数,生成所述源视频的视差图;
根据所述源视频的视差图获得所述源视频中的每帧图像的视差图,并将所述源视频中的每帧图像的视差图在所述目标视频中进行映射,生成目标视差图;
对所述目标视差图进行行扫描,并采用两侧边缘信息中视差较小的点对所述目标视差图中的空洞进行填充;
根据填充后的所述目标视差图,计算所述目标视频在所述源视频中的对应点,并将所述对应点的信息填充到所述目标视频中,得到所述目标视频序列。
3.根据权利要求2所述的基于深度图的立体视频补全方法,其特征在于,若所述源视频的视差图中有多点映射到所述目标视频中的同一点,选择视差最大的值作为所述目标视差图的值。
4.根据权利要求1至3任一项所述的基于深度图的立体视频补全方法,其特征在于,所述计算目标视频序列中的每帧图像之间的相对运动参数,并根据所述相对运动参数将当前帧内的空洞区域投影到相邻帧,利用所述相邻帧内已有的信息对当前帧内的空洞区域进行填充,包括以下步骤:
提取所述源视频中每帧图像中的特征点并进行匹配,得到所述源视频中任意两帧之间的仿射变换矩阵;
采用数据项和置信项的乘积进行排序,计算所述目标视频序列中待填充的空洞区域的填充顺序;
根据所述仿射变换矩阵,将所述空洞区域中的当前待填充块的中心点的坐标投影到相邻的帧中,并以投影点所在的位置为中心,在预设区域内根据所述当前待填充块中已知点的信息,查找与所述当前待填充块距离最小的样本块及其对应的样本距离;
对查找到的不同帧中的样本块及其对应的样本距离进行加权处理,得到最小距离值;其中,权重与所述样本块所在的帧与当前待填充块所在的帧之间的距离成正比;
比较所述最小距离值,如果所述最小距离值小于设定的距离阈值,则将所述最小距离值对应的样本块中的信息填充到所述当前待填充块中。
5.根据权利要求1所述的基于深度图的立体视频补全方法,其特征在于,在计算所述目标视频序列中的每帧图像之间的相对运动参数,并根据所述相对运动参数将当前帧内的空洞区域投影到相邻帧,利用所述相邻帧内已有的信息对当前帧内的空洞区域进行填充,之后还包括以下步骤:
针对所述目标视频序列中每帧图像中剩余的未知信息,以区块为单位,在所述目标视频序列中寻找与此区块距离最小的块,将其信息复制到该区块中进行填充。
6.一种基于深度图的立体视频补全系统,其特征在于,包括获取模块、合成模块以及补全模块;
所述获取模块,用于获取源视频、与所述源视频对应的源视频深度图视频序列以及预设的目标视频的参数,所述源视频与所述目标视频之间存在水平位移;
所述合成模块,用于根据所述源视频、源视频深度图视频序列以及目标视频的参数,合成目标视频序列;
所述补全模块,用于计算所述目标视频序列中的每帧图像之间的相对运动参数,并根据所述相对运动参数将当前帧内的空洞区域投影到相邻帧,利用所述相邻帧内已有的信息对当前帧内的空洞区域进行填充。
7.根据权利要求6所述的基于深度图的立体视频补全系统,其特征在于,所述合成模块包括第一生成单元、第二生成单元、第一填充单元以及第一计算单元;
所述第一生成单元,用于根据所述源视频深度图视频序列和所述目标视频的参数,生成所述源视频的视差图;
所述第二生成单元,用于根据所述源视频的视差图获得所述源视频中的每帧图像的视差图,并将所述源视频中的每帧图像的视差图在所述目标视频中进行映射,生成目标视差图;
所述第一填充单元,用于对所述目标视差图进行行扫描,并采用两侧边缘信息中视差较小的点对所述目标视差图中的空洞进行填充;
所述第一计算单元,用于根据填充后的所述目标视差图,求出所述目标视频在所述源视频中的对应点,并将所述对应点的信息填充到所述目标视频中,得到所述目标视频序列。
8.根据权利要求7所述的基于深度图的立体视频补全系统,其特征在于,所述合成模块还包括选取单元;
所述选取单元,用于在所述源视频的视差图中有多点映射到所述目标视频中的同一点时,选择视差最大的值作为所述目标视差图的值。
9.根据权利要求6至8任一项所述的基于深度图的立体视频补全系统,其特征在于,所述补全模块包括提取单元、第二计算单元、查找单元、处理单元以及比较单元;
所述提取单元,用于提取所述源视频中每帧图像中的特征点并进行匹配,得到所述源视频中任意两帧之间的仿射变换矩阵;
所述第二计算单元,用于采用数据项和置信项的乘积进行排序,计算所述目标视频序列中待填充的空洞区域的填充顺序;
所述查找单元,用于根据所述仿射变换矩阵,将所述空洞区域中的当前待填充块的中心点的坐标投影到相邻的帧中,并以投影点所在的位置为中心,在预设区域内根据所述当前待填充块中已知点的信息,查找与所述当前待填充块距离最小的样本块及其对应的样本距离;
所述处理单元,用于对查找到的不同帧中的样本块及其对应的样本距离进行加权处理,得到最小距离值;其中,权重与所述样本块所在的帧与当前待填充块所在的帧之间的距离成正比;
所述比较单元,用于比较所述最小距离值,如果所述最小距离值小于设定的距离阈值,则将所述最小距离值对应的样本块中的信息填充到所述当前待填充块中。
10.根据权利要求6所述的基于深度图的立体视频补全系统,其特征在于,还包括填充模块;
所述填充模块,用于针对所述目标视频序列中每帧图像中剩余的未知信息,以区块为单位,在所述目标视频序列中寻找与此区块距离最小的块,将其信息复制到该区块中进行填充。
CN201610437916.2A 2016-06-17 2016-06-17 基于深度图的立体视频补全方法及系统 Expired - Fee Related CN106060511B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201610437916.2A CN106060511B (zh) 2016-06-17 2016-06-17 基于深度图的立体视频补全方法及系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201610437916.2A CN106060511B (zh) 2016-06-17 2016-06-17 基于深度图的立体视频补全方法及系统

Publications (2)

Publication Number Publication Date
CN106060511A true CN106060511A (zh) 2016-10-26
CN106060511B CN106060511B (zh) 2018-11-16

Family

ID=57167624

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201610437916.2A Expired - Fee Related CN106060511B (zh) 2016-06-17 2016-06-17 基于深度图的立体视频补全方法及系统

Country Status (1)

Country Link
CN (1) CN106060511B (zh)

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070086645A1 (en) * 2005-10-18 2007-04-19 Korea Electronics Technology Institute Method for synthesizing intermediate image using mesh based on multi-view square camera structure and device using the same and computer-readable medium having thereon program performing function embodying the same
CN102547338A (zh) * 2011-12-05 2012-07-04 四川虹微技术有限公司 一种适用于3d电视的dibr系统
CN102724529A (zh) * 2012-05-28 2012-10-10 清华大学 虚拟视点视频序列的生成方法及生成装置
CN102985949A (zh) * 2011-01-13 2013-03-20 三星电子株式会社 使用背景像素扩大和背景优先块匹配的多视图绘制设备和方法
CN103248909A (zh) * 2013-05-21 2013-08-14 清华大学 平面视频转化为立体视频的方法及系统
CN103269435A (zh) * 2013-04-19 2013-08-28 四川长虹电器股份有限公司 双目转多目虚拟视点合成方法
CN103369342A (zh) * 2013-08-05 2013-10-23 重庆大学 一种dibr目标图像空洞填充修复处理方法
CN104376535A (zh) * 2014-11-04 2015-02-25 徐州工程学院 一种基于样本的快速图像修复方法

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070086645A1 (en) * 2005-10-18 2007-04-19 Korea Electronics Technology Institute Method for synthesizing intermediate image using mesh based on multi-view square camera structure and device using the same and computer-readable medium having thereon program performing function embodying the same
CN102985949A (zh) * 2011-01-13 2013-03-20 三星电子株式会社 使用背景像素扩大和背景优先块匹配的多视图绘制设备和方法
CN102547338A (zh) * 2011-12-05 2012-07-04 四川虹微技术有限公司 一种适用于3d电视的dibr系统
CN102724529A (zh) * 2012-05-28 2012-10-10 清华大学 虚拟视点视频序列的生成方法及生成装置
CN103269435A (zh) * 2013-04-19 2013-08-28 四川长虹电器股份有限公司 双目转多目虚拟视点合成方法
CN103248909A (zh) * 2013-05-21 2013-08-14 清华大学 平面视频转化为立体视频的方法及系统
CN103369342A (zh) * 2013-08-05 2013-10-23 重庆大学 一种dibr目标图像空洞填充修复处理方法
CN104376535A (zh) * 2014-11-04 2015-02-25 徐州工程学院 一种基于样本的快速图像修复方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
胡泉: "2D转3D视频的关键技术及系统设计", 《中国优秀硕士学位论文全文数据库 信息科技辑》 *

Also Published As

Publication number Publication date
CN106060511B (zh) 2018-11-16

Similar Documents

Publication Publication Date Title
US9438878B2 (en) Method of converting 2D video to 3D video using 3D object models
JP4065488B2 (ja) 3次元画像生成装置、3次元画像生成方法及び記憶媒体
CN102254348B (zh) 一种基于自适应视差估计的虚拟视点绘制方法
JP7105246B2 (ja) 再構成方法および再構成装置
US20130064453A1 (en) Interpolation image generation apparatus, reconstructed image generation apparatus, method of generating interpolation image, and computer-readable recording medium storing program
JP5197683B2 (ja) 奥行き信号生成装置及び方法
US20140118482A1 (en) Method and apparatus for 2d to 3d conversion using panorama image
CN103702103B (zh) 基于双目相机的光栅立体印刷图像合成方法
CN110853151A (zh) 一种基于视频的三维立体点集恢复方法
CN102075779A (zh) 一种基于块匹配视差估计的中间视图合成方法
CN103945207B (zh) 一种基于视点合成的立体图像垂直视差消除方法
CN111047709B (zh) 一种双目视觉裸眼3d图像生成方法
JP2009116532A (ja) 仮想視点画像生成方法および仮想視点画像生成装置
KR100668073B1 (ko) 다시점 영상의 왜곡 보정처리 방법
CN107147894B (zh) 一种自由立体显示中的虚拟视点图像生成方法
CN103269435A (zh) 双目转多目虚拟视点合成方法
JPWO2019050038A1 (ja) 画像生成方法および画像生成装置
CN116527863A (zh) 基于虚拟现实的视频生成方法、装置、设备及介质
CN103634584B (zh) 一种多视点3d视频合成方法
CN103945206A (zh) 一种基于相似帧比较的立体图像合成系统
CN106060511B (zh) 基于深度图的立体视频补全方法及系统
CN112200852B (zh) 一种时空混合调制的立体匹配方法及系统
CN114935316A (zh) 基于光学跟踪与单目视觉的标准深度图像生成方法
CN113450274B (zh) 一种基于深度学习的自适应视点融合方法及系统
JP6595878B2 (ja) 要素画像群生成装置及びそのプログラム

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20181116

Termination date: 20200617

CF01 Termination of patent right due to non-payment of annual fee