CN104601972B - 一种利用图像修补的自由视点合成方法 - Google Patents

一种利用图像修补的自由视点合成方法 Download PDF

Info

Publication number
CN104601972B
CN104601972B CN201410785491.5A CN201410785491A CN104601972B CN 104601972 B CN104601972 B CN 104601972B CN 201410785491 A CN201410785491 A CN 201410785491A CN 104601972 B CN104601972 B CN 104601972B
Authority
CN
China
Prior art keywords
depth
block
value
image
priority
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201410785491.5A
Other languages
English (en)
Other versions
CN104601972A (zh
Inventor
袁春
伍云
陈龙
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenzhen International Graduate School of Tsinghua University
Original Assignee
Shenzhen Graduate School Tsinghua University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shenzhen Graduate School Tsinghua University filed Critical Shenzhen Graduate School Tsinghua University
Priority to CN201410785491.5A priority Critical patent/CN104601972B/zh
Publication of CN104601972A publication Critical patent/CN104601972A/zh
Application granted granted Critical
Publication of CN104601972B publication Critical patent/CN104601972B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

本发明涉及一种利用图像修补的自由视点合成方法,包括步骤:1).利用三维扭曲将已有的图像投影到合成视点中,出现前景遮挡导致的一定空洞;2).采用以空洞的一边来计算优先级的改进Criminisi算法自动修补空洞区域;根据视点合成的遮挡区域主要来自于背景的先验知识,通过OSTU最大类间距聚类法来提取修补边缘的背景部分,并将对应的深度信息集成到优先级计算中,进一步提高强结构点的优先级;并且利用块的深度信息计算自适应阈值来限制搜索区域,使得匹配块尽量来自于背景区域,通过这些策略提升了最后的合成质量。本方法与常见算法的实验结果比较,在芭蕾的主观合成效果和客观指标方面均有明显提升。

Description

一种利用图像修补的自由视点合成方法
技术领域
本发明涉及自由视点合成技术,具体是一种利用基于样例的图像补全来修补缺失区域的自由视点合成算法。
背景技术
3D视频技术最近越来越受到关注,给人们带来了更加真实的3D观看体验。传统的立体成像设备分别给左右眼提供不同的视频流以此来产生深度的感觉,这要求观看者在固定的视点上观看。但是实际情况是,越来越多的观看者想从不同的视点上观看视频,这使得自由视点合成技术越来越被人所重视。这种技术中场景信号是通过一系列不同视点的摄像机同步获得的即视频信号,是由一系列序列不同摄像机拍摄视频序列组成的。这种技术被广泛的用在自由视点视频中,在应用中用户可以自由的选择视点而不受视频视角的限制。目前商业广播系统还不能支持多视频信号的处理和传输,而且在接受端计算合成虚拟视频也是非常低效的。为了解决这一问题研究者提出了不同的编码方法和虚拟视频合成方法并被证明是有效的。
一种最直接的自由视点合成技术是用多个视点的图像来合成,但是这需要很大的传输带宽,很多应用采用这种技术会很不现实。另一种可选方案是采用单张图像以及对应的深度图像来合成,这种技术可以大大减少传输带宽以及摄像机的个数,极大的减少成本。随着性能良好又便宜的深度摄像机例如微软的KINECT的出现,使得单张图片的视点合成成为可能。
发明内容
为了避免现有技术存在的上述不足,本发明提供一种利用图像修补的自由视点合成方法,其在视点合成过程中利用基于样例的图像修补技术来修补缺失区域,以提升合成图像的质量,满足观看者从不同的视点上观看视频的需求。
本发明提供的利用图像修补的自由视点合成方法,包括以下步骤:
1)、利用三维扭曲(3D wrap)将已有的纹理图像和深度图像投影到合成视点中,出现前景遮挡导致的一定空洞;
2)、采用以空洞的一边来计算优先级的改进Criminisi算法自动修补空洞区域,该算法包含:
(21).提取待修复空洞(修复区域)的修补边缘,利用OSTU最大类间距方法将深度图像边界的深度值分为两类,取深度低的一类当做靠近背景的修补边缘;
(22).计算以修补边缘上的每一点为中心的各图像块的优先级,取优先级最大的图像块作为待修复块,设P点为修补边缘上的点,优先级公式为:P(p)=C(p)×D(p)·T(p)其中,C(p)是置信项,D(p)是数据项,T(p)是深度块平滑程度项;
(23).将深度图像运用OSTU最大类间距的方法聚成大于深度阈值Dth的高深度值A类和不大于深度阈值Dth的低深度值B类,从图像已知区域中减去超出深度阈值Dth的区域得到的搜索区域;然后,在该搜索区域内搜索与待修复块最近似的图像块作为最佳匹配块;
(24).以搜索到的最佳匹配块作为模板对待修复空洞进行修复;并更新置信度值;
重复执行步骤(21)至步骤(24),直至待修复空洞均完成修复。
上述步骤(22)中,所述深度块平滑程度项T(p)以下式表示:
T ( p ) = Σ q ∈ Ψ p ∩ Φ | z q - q m | | Z p | + Σ q ∈ Ψ p ∩ Φ | z q - z m |
其中,|Zp|表示以p点为中心的块的面积,也就是块内像素数目;zm为块内深度的均值。
上述步骤(23)中,所述深度阈值Dth如下式定义:
D th = min ( avg ( Z q ( p ) | q ∈ Ψ p ∩ Φ , M A ) , if | Z q ( p ) > M A | q ∈ Ψ p ∩ Φ | | Z ( p ) | > R th M A , otherwise .
其中,Ψp是优先级最高的块;|Z(p)|为Ψp的像素数目;Zq(p)为块Ψp内在像素q上的深度值,|Zq(p)>MA|q∈Ψp∩Φ|为块内深度值大于MA的数目;Rth为设定比例阈值,取值范围0到1;Dth取值范围Rth到1。
深度阈值Dth根据块内像素高于MA的比例有两种不同的值,如果块内像素高于MA的比例超过了设定比例阈值Rth,选择深度平均值或者MA的较小值来作为深度阈值Dth;而当块内高深度值高于MA的比例低,也就是可能属于连续的背景区域的时候,此时用MA来作为深度阈值Dth
本发明自由视点合成方法,在视点合成过程中利用基于样例的图像修补技术(改进Criminisi算法)来修补遮挡区域。在提取修补边缘的时候,不是将所有的边缘都拿过来,而是考虑到遮挡区域主要需要用背景来修补的先验知识,利用OSTU最大类间距的方法将边缘的深度分为两类,然后只是提取深度低那一类(也就是背景区域)来作为修补边缘。在计算修补优先级的过程中,在经典的Criminisi算法的两项基础之上,又加了深度块平滑程度项,将块内深度信息集成到优先级计算之中,深度波动越强结构越强,因此利用深度进一步有限修补结构强的区域,有利于最后修补的全局结构完整性。在搜最佳匹配块的时候,先用搜索块的深度信息计算自适应阈值来限定搜索区域,保证最佳匹配块尽量来自于背景,进一步提升修补质量。
附图说明
图1为本发明提取边缘示意图,图1中(a)为三维扭曲后的深度图,(b)为缺失区域(空洞)的映射图,白色部分表示缺失信息,(c)为提取边缘的示意图,白色边缘为最后需要计算优先级的边缘;
图2为在优先级计算中增加深度平滑项前后的结果对比图,图2中(a)表示没有添加深度平滑项的结果,(b)表示增加了深度平滑项之后的结果;
图3为限定搜索区域的结果对比图,图3中(a)表示没有限定搜索区域的结果,(b)表示Ahn方法中的限定搜索区域的方法得到的结果,(c)表示本发明方法中限定搜索区域后得到的结果。
图4为采用本发明方法在芭蕾上的主观合成效果图,图4中(a)、(b)为视点5三维扭曲到视点4和视点2的结果图(白色区域表示遮挡),(c)、(d)为本发明方法的结果,视点5三维扭曲到视点4和视点2的结果图;
图5为本发明利用图像补全的自由视点合成流程图。
具体实施方式
以下结合流程图5、效果对比图等对本发明进一步说明。
1)、首先利用三维扭曲(3D wrap)将已有的纹理图像和深度图像投影到合成视点中,由于前景遮挡造成一定的遮挡空洞。然而,由三维扭曲造成的空洞是有方向性的,比如向左扭曲的空洞就会出现在前景的左边,右边也是如此。而考虑到三维扭曲的特性,空洞的出现是由于有前景遮挡,我们用背景来修复空洞,因此只需要用空洞的一边来计算优先级修补缺失区域即可。
2)、采用下述以空洞的一边来计算优先级的改进Criminisi算法自动修补空洞区域。
(21)提取待修复空洞(修复区域)的修补边缘,将深度图像边界的深度值利用OSTU最大类间距方法将深度图像边界的深度值分为两类,取深度低的一类当做靠近背景的修补边缘。
提取边缘如示意图1所示,图1中(a)为三维扭曲后的深度图,(b)为缺失区域(空洞)的映射图,白色部分表示缺失信息;(c)为提取边缘的示意图,白色边缘为最后需要计算优先级的边缘。
(22)提取边缘之后,就开始利用基于样例的图像补全算法来修补空洞。计算以修补边缘上的每一点为中心的各图像块的优先级,取优先级最大的图像块作为待修复块;考虑到目标图像的对应的深度图像,设P点为修补边缘上的点,在优先级模型P(p)计算中,除了传统Criminisi算法的置信项C(p)和数据项D(p)之外,还增加了一个深度块平滑程度的项T(p),最终的优先级计算公式(1)如下所示:
P(p)=C(p)×D(p)·T(p) (1)
式(1)中深度块平滑程度项T(p)如下式(2):
T ( p ) = Σ q ∈ Ψ p ∩ Φ | z q - q m | | Z p | + Σ q ∈ Ψ p ∩ Φ | z q - z m | - - - ( 2 )
其中,|Zp|表示以p点为中心的块的面积,也就是块内像素数目,zm为块内深度的均值,由公式(2)可知,当块内深度波动大的时候,T(p)的值更大,因此我们给予变化剧烈的部分更高的优先级,也符合结构强烈的部分先修补的原则,保持了结构的完整性。
参考在优先级计算中增加深度平滑项前后的结果对比图2,图2中(a)表示没有添加深度平滑项T(p)的结果图,(b)表示增加了深度平滑项T(p)之后的结果图。如图2中方框所示,增加了深度平滑项之后,主要结构的修补有了一定的改进。
(23)一旦拥有最高优先级的点被选择出来之后,就需要在背景区域找到最匹配的块将其内容复制到空洞中。这一步中,深度信息再次被使用,用来分割前景以及背景区域。首先将深度图像运用OSTU最大类间距的方法聚成高深度值A和低深度值B两类,A类的深度值大于深度阈值Dth,B类的深度值不大于深度阈值Dth,通过已知区域减去超出深度阈值Dth的区域得到最后的搜索区域,然后,在该搜索区域内搜索与待修复块最近似的图像块作为最佳匹配块。
其中,深度阈值Dth根据块内像素高于MA的比例有两种不同的值,如果块内像素高于MA的比例超过了比例阈值Rth,表明这个块可能含有不需要的前景区域的值,这时候用选择平均值或者MA的较小值来作为深度阈值Dth,而当块内高深度值高于MA的比例低,也就是可能属于连续的背景区域的时候,此时用MA来作为阈值Dth。因此深度阈值Dth如下式(3)定义:
D th = min ( avg ( Z q ( p ) | q ∈ Ψ p ∩ Φ , M A ) , if | Z q ( p ) > M A | q ∈ Ψ p ∩ Φ | | Z ( p ) | > R th M A , otherwise . - - - ( 3 )
Ψp是优先级最高的块,|Z(p)|为Ψp的像素数目,Zq(p)为块Ψp内在像素q上的深度值,|Zq(p)>MA|q∈Ψp∩Φ|为块内深度值大于MA的数目;Rth为设定比例阈值,Rth取值0到1之间;Dth取值范围Rth到1。
(24)以搜索到的最佳匹配块作为模板对待修复空洞进行修复;并更新置信度值。
重复执行步骤(21)至步骤(24),直至待修复空洞均完成修复。
图3显示了限定搜索区域前后的的结果对比变化,图3中(a)表示没有限定搜索区域的结果,(b)表示Ahn方法中的限定搜索区域的方法得到的结果,(c)表示本发明方法中限定搜索区域后得到的结果,显然限定了搜索区域之后,明显修补的合理性大大增加。
本发明实验结果从主观和客观两方面和现有方法进行了对比。我们使用来源于微软的多视点视频加深度图像序列(MVD)“芭蕾”和“街舞者”的部分帧来作为测试的图片,分别表示为BA和BR,BAX2Y表示芭蕾从X视点到Y视点合成。我们比较了几种常见算法的实验结果,所有试验结果都按流程图5中的框图得到,在处理前和处理后都经过了滤波处理去噪。有一些重要的参数在合成中需要自定义的,比如λ取0.5到1之间,我们一般取0.75;Rth取0.2。为了测量算法的客观性能,我们采用标峰值性噪比(PSNR)和结构相似性(SSIM)来做评价指标。表1显示了在客观指标上的实验结果。
表1在PSNR和SSIM上的效果
测试序列 标峰值性噪比PSNR 结构相似性SSIM
BA524 31.62 0.9237
BA522 25.83 0.7858
BR524 29.76 0.9142
BR522 27.47 0.8549
图4为采用本发明方法在芭蕾上的主观合成效果图,图4中(a)、(b)为视点5三维扭曲到视点4和视点2的结果图(白色区域表示遮挡),(c)、(d)为本发明方法的结果,视点5三维扭曲到视点4和视点2的结果图。实验结果也证明了本方法的优越性。本方法在视点合成过程中,利用基于样例的图像修补技术(改进Criminisi算法)来修补遮挡区域。根据视点合成的遮挡区域主要来自于背景的先验知识,通过OSTU最大类间距聚类方法来提取修补边缘的背景部分,并将对应的深度信息集成到修补过程的优先级计算中,进一步提高强结构点的优先级;并且利用块的深度信息计算自适应阈值来限制搜索区域,使得匹配块尽量来自于背景区域,通过这些策略实现了最后合成质量的提升。

Claims (3)

1.一种利用图像修补的自由视点合成方法,包括以下步骤:
1). 利用三维扭曲将已有的纹理图像和深度图像投影到合成视点中,出现前景遮挡导致的一定空洞;
2). 采用以空洞的一边来计算优先级的改进Criminisi算法自动修补空洞区域,该算法包括:
(21). 提取待修复空洞的修补边缘,利用OSTU最大类间距方法将深度图像边界的深度
值分为两类,取深度低那一类当做靠近背景的修补边缘;
(22). 计算以修补边缘上的每一点为中心的各图像块的优先级,取优先级最大的图像块作为待修复块,设P点为修补边缘上的点,优先级公式如下:P(p) = C(p)×D(p)×T(p) ,其中,C(p)是置信项,D(p)是数据项,T(p)是深度块平滑程度的项;
(23). 将深度图像运用OSTU最大类间距的方法聚成大于深度阈值Dth的高深度值A类和不大于深度阈值Dth的低深度值B类,从图像已知区域中减去超出深度阈值D th的区域得到的搜索区域;然后,在该搜索区域内搜索与待修复块最近似的图像块作为最佳匹配块;
(24). 以搜索到的最佳匹配块作为模板对待修复空洞进行修复;并更新置信度值;重复执行步骤(21)至步骤(24),直至待修复空洞均完成修复;
步骤(22)中所述深度块平滑程度的项T(p)以下式表示:
该式中,|Zp| 表示以p点为中心的块的面积,也就是块内像素数目;zm为块内深度的均值,Ψp表示以P点为中心的图像块,Ф是图像中的所有已知像素点的全集,q是Ψp与Ф的交集的任意一个点,Zq就是q点的像素值;
步骤(23)中所述深度阈值Dth如下式定义:
该式中,Ψp是优先级最高的块,|Z(p)|为Ψp的像素数目,Zq(p)为块Ψp内在像素q上的深度值,|Zq(p)>MA|q ∈ Ψp∩ Φ| 为块内深度值大于MA的数目,Rth为设定比例阈值;
深度阈值Dth根据块内像素的深度值高于MA的比例有两种不同的值,如果块内像素的深度值高于MA的比例超过了设定比例阈值Rth,选择深度平均值或者MA的较小值来作为深度阈值Dth;而当块内高深度值高于MA的比例低,用MA来作为深度阈值Dth。
2.如权利要求1所述的方法,其特征是,其中所述的Dth取值范围Rth到1,所述设定比例阈值Rth取值范围0到1。
3.如权利要求2所述的方法,其特征是,所述的设定比例阈值Rth为 0.2。
CN201410785491.5A 2014-12-17 2014-12-17 一种利用图像修补的自由视点合成方法 Active CN104601972B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201410785491.5A CN104601972B (zh) 2014-12-17 2014-12-17 一种利用图像修补的自由视点合成方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201410785491.5A CN104601972B (zh) 2014-12-17 2014-12-17 一种利用图像修补的自由视点合成方法

Publications (2)

Publication Number Publication Date
CN104601972A CN104601972A (zh) 2015-05-06
CN104601972B true CN104601972B (zh) 2016-09-21

Family

ID=53127431

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201410785491.5A Active CN104601972B (zh) 2014-12-17 2014-12-17 一种利用图像修补的自由视点合成方法

Country Status (1)

Country Link
CN (1) CN104601972B (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106485672A (zh) * 2016-09-12 2017-03-08 西安电子科技大学 改进的块匹配修复和联合三边导向滤波图像增强方法
CN108648221B (zh) * 2018-05-10 2021-09-17 重庆大学 一种基于混合滤波的深度图空洞修复方法

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101980285A (zh) * 2010-11-09 2011-02-23 西安电子科技大学 结合gmrf先验的非局部图像修复方法
CN102142132A (zh) * 2011-03-31 2011-08-03 北京交通大学 基于模块的图像修复方法
CN102760285A (zh) * 2012-05-31 2012-10-31 河海大学 一种图像修复方法
CN103024421A (zh) * 2013-01-18 2013-04-03 山东大学 自由视点电视中的虚拟视点合成方法
CN103581648A (zh) * 2013-10-18 2014-02-12 清华大学深圳研究生院 绘制新视点中的空洞填补方法
CN103700093A (zh) * 2013-12-03 2014-04-02 杭州电子科技大学 一种基于纹理和边缘特征的Criminisi图像修复方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101980285A (zh) * 2010-11-09 2011-02-23 西安电子科技大学 结合gmrf先验的非局部图像修复方法
CN102142132A (zh) * 2011-03-31 2011-08-03 北京交通大学 基于模块的图像修复方法
CN102760285A (zh) * 2012-05-31 2012-10-31 河海大学 一种图像修复方法
CN103024421A (zh) * 2013-01-18 2013-04-03 山东大学 自由视点电视中的虚拟视点合成方法
CN103581648A (zh) * 2013-10-18 2014-02-12 清华大学深圳研究生院 绘制新视点中的空洞填补方法
CN103700093A (zh) * 2013-12-03 2014-04-02 杭州电子科技大学 一种基于纹理和边缘特征的Criminisi图像修复方法

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
基于图像修复的虚拟视点合成算法研究;邬华阳;《中国优秀硕士学位论文全文数据库-信息科技辑》;20131215;I138-217 *
基于深度图像绘制中的空洞填补方法研究;王丹;《中国优秀硕士学位论文全文数据库-信息科技辑》;20140915;I138-1096 *
基于深度图像绘制的视图合成研究;谢辉;《中国优秀硕士学位论文全文数据库-信息科技辑》;20140215;I138-520 *
用于立体视频的虚拟视点合成方法研究;成聪;《中国优秀硕士学位论文全文数据库-信息科技辑》;20141015;I138-1050 *

Also Published As

Publication number Publication date
CN104601972A (zh) 2015-05-06

Similar Documents

Publication Publication Date Title
US10198623B2 (en) Three-dimensional facial recognition method and system
Concha et al. Using superpixels in monocular SLAM
CN103248906B (zh) 一种双目立体视频序列的深度图获取方法与系统
CN104616286B (zh) 快速的半自动多视图深度修复方法
CN103248911B (zh) 多视点视频中基于空时结合的虚拟视点绘制方法
CN101610425B (zh) 一种评测立体图像质量的方法和装置
CN104574375A (zh) 结合彩色和深度信息的图像显著性检测方法
CN102609950B (zh) 一种二维视频深度图的生成方法
CN106341676B (zh) 基于超像素的深度图像预处理和深度空洞填充方法
CN110827312B (zh) 一种基于协同视觉注意力神经网络的学习方法
CN104954780A (zh) 一种适用于高清2d/3d转换的dibr虚拟图像修复方法
CN101287143A (zh) 基于实时人机对话的平面视频转立体视频的方法
CN103702103B (zh) 基于双目相机的光栅立体印刷图像合成方法
CN107423689B (zh) 智能交互式人脸关键点标注方法
CN107909079A (zh) 一种协同显著性检测方法
CN110070574A (zh) 一种基于改进PSMNet的双目视觉立体匹配算法
CN104065946A (zh) 基于图像序列的空洞填充方法
KR20100091864A (ko) 비디오 동영상의 움직이는 다중 객체 자동 분할 장치 및 방법
CN103700082B (zh) 基于对偶四元数相对定向的图像拼接方法
CN104601972B (zh) 一种利用图像修补的自由视点合成方法
CN104243970A (zh) 基于立体视觉注意力机制和结构相似度的3d绘制图像的客观质量评价方法
CN108848365B (zh) 一种重定位立体图像质量评价方法
CN104301706A (zh) 一种增强裸眼立体显示效果的合成方法
CN104143203A (zh) 一种图像编辑传播方法
CN106254850A (zh) 双视点立体视频的图像匹配方法及装置

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
CP01 Change in the name or title of a patent holder

Address after: Shenzhen Graduate School of Guangdong Province, Shenzhen City Xili 518055 Nanshan District University City Tsinghua University

Patentee after: Tsinghua Shenzhen International Graduate School

Address before: Shenzhen Graduate School of Guangdong Province, Shenzhen City Xili 518055 Nanshan District University City Tsinghua University

Patentee before: GRADUATE SCHOOL AT SHENZHEN, TSINGHUA University

CP01 Change in the name or title of a patent holder