CN104378618B - 一种基于深度图的并行视点合成负载均衡方法 - Google Patents

一种基于深度图的并行视点合成负载均衡方法 Download PDF

Info

Publication number
CN104378618B
CN104378618B CN201410632543.5A CN201410632543A CN104378618B CN 104378618 B CN104378618 B CN 104378618B CN 201410632543 A CN201410632543 A CN 201410632543A CN 104378618 B CN104378618 B CN 104378618B
Authority
CN
China
Prior art keywords
image
centerdot
load
viewpoint
holes
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201410632543.5A
Other languages
English (en)
Other versions
CN104378618A (zh
Inventor
金欣
刘站奇
戴琼海
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenzhen Graduate School Tsinghua University
Original Assignee
Shenzhen Graduate School Tsinghua University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shenzhen Graduate School Tsinghua University filed Critical Shenzhen Graduate School Tsinghua University
Priority to CN201410632543.5A priority Critical patent/CN104378618B/zh
Publication of CN104378618A publication Critical patent/CN104378618A/zh
Application granted granted Critical
Publication of CN104378618B publication Critical patent/CN104378618B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Analysis (AREA)

Abstract

本发明公开了一种基于深度图的并行视点合成负载均衡方法,包括:对参考视点图像进行分割得到不同图像块,各个线程分别对所述不同图像块进行并行的视点合成,然后将各个线程产生的虚拟视点图像进行拼接,完成整个虚拟视点图像的输出;所述对参考视点图像进行分割为:将所述参考视点图像按线程个数均分为不同图像块,根据每个线程负载与平均线程负载之差计算每个图像块应调整的负载值,然后以行为单位补偿所述负载值进而计算出每个图像块的分割高度,实现负载均衡。本发明公开的负载均衡方法进一步提高虚拟视点的并行合成速度。

Description

一种基于深度图的并行视点合成负载均衡方法
技术领域
本发明涉及计算机视觉与数字图像处理领域,特别涉及一种基于深度图面向并行虚拟视点合成负载均衡方法。
背景技术
自由视点视频(FTV)允许用户从任何视点观看3D视频,随着人们对视频视觉体验的要求越来越高,FTV提供的这种沉浸式的观看体验,必然成为未来视频发展的方向。在当前移动互联网时代,用户把娱乐活动渐渐转移到手机,平板等移动终端上,所以在手机上实现FTV的急迫性越来越紧。
为了重建高质量的任意视点图像应用于FTV,MPEG组织开发了VSRS(ViewSynthesisReferenceSoftware)参考软件,此软件用两个参考视点纹理图和相应的深度图作为输入来生成一个合成的虚拟视点。VSRS由于其复杂性特征,其视点合成的速度远远不能满足现实应用下的实时合成要求。随着手机和平板等移动终端内置多个核心越来越普遍,利用此特性可以大大提高其视点合成速度。基于多核特性的并行视点合成技术已经被提出,但是怎么分割图像使每个核上的工作负载相等还是一个亟待解决的问题。
发明内容
本发明目的在于提出一种基于深度图的并行视点合成负载均衡方法,以解决上述现有技术存在的各核上负载不均衡的技术问题。
为此,本发明提出一种基于深度图的并行视点合成负载均衡方法,包括:
对参考视点图像进行分割得到不同图像块,各个线程分别对所述不同图像块进行并行的视点合成,然后将各个线程产生的虚拟视点图像进行拼接,完成整个虚拟视点图像的输出;
所述对参考视点图像进行分割包括:将所述参考视点图像按线程个数均分为不同图像块,根据每个线程负载与平均线程负载之差计算每个图像块应调整的负载值,然后以行为单位补偿所述负载值计算每个图像块的分割高度,实现负载均衡。
优选地,所述每个图像块应调整的负载值为:
Δw k = Σ i = ( k - 1 ) · H N + 1 k · H N w i - Σ i = 1 H w i N
其中,Δwk为第k个图像块应调整的负载值,wi为图像各行总负载,H为图像总行数,N为线程个数;
所述计算每个图像块的分割高度为:第k个图像块的分割高度hk相应的调整的负载值为通过下式确定:
h k n e w = h k + H Σ i = 1 H w i · Σ j = 1 k Δw j ,
其中第一帧的hk初始化为均分图像。
优选地,所述图像各行总负载wi通过下式确定:
w i = n h o l e i · w h o l e + n n o n _ h o l e i · w n o n _ h o l e
其中,分别是每行总的空洞和非空洞数目,wholes和wnon_holes分别是处理单个空洞和非空洞的负载;
定义处理所述单个空洞和非空洞的负载之比:
α = w h o l e w n o n _ h o l e
得到:
w i = n h o l e i · α · w n o n _ h o l e + n n o n _ h o l e i · w n o n _ h o l e = ( n h o l e i · α + n n o n _ h o l e i ) · w n o n _ h o l e = ( n h o l e i · α + n r e f s · w i d t h - n h o l e i ) · w n o n _ h o l e = [ n r e f s · w i d t h + ( α - 1 ) · n h o l e i ] · w n o n _ h o l e
其中,α由训练得到,width为图像块的宽度,nrefs为所述参考视点图像的个数。
优选地,所述每行总的空洞数目通过以下方式确定:
对所述参考视点图像进行边缘检测,标记上升边缘和下降边缘;
参考视点像素在虚拟视点图像中移动的距离d通过下式确定:
d=fu·(tv-tr)/z+duv-dur,其中 z = 1 v 255 · ( 1 z n e a r - 1 z f a r ) + 1 z f a r
z是计算出的此像素点深度,znear和zfar分别是在原始三维空间中的最近和最远剪切平面,v是深度图所记录的此像素点的强度值,fu是在水平方向上的焦距,tv和tr分别是虚拟视点和参考视点的相机位置,duv和dur分别是虚拟视点和参考视点图像中与光轴相交的位置;
对于所述下降边缘,所述下降边缘像素和其右边像素的移动距离分别为dL和dR,则在合成视点图像上该行空洞数目为n=dL-dR,对于所述上升边缘,所述上升边缘像素和其左边像素的移动距离分别为dR和dL,则在合成视点图像上该行空洞数目为n=dR-dL;将各个参考视点图像在合成视点图像中形成的该行空洞数目累加起来,得到合成视点图像上该行总的空洞数目记为i∈(1,2,…,H),其中H为图像的总行数。
优选地,如果分割高度hk是奇数,则hk=hk+1。
本发明提供了一种简明高效的算法,且在并行虚拟视点合成时取得良好的均衡效果。
附图说明
图1是本发明具体实施方式的基于深度图的负载均衡方法流程图;
图2是本发明具体实施方式的左图中某一个下降边缘及其映射后形成的空洞图;
图3是本发明具体实施方式的右图中某一个上升边缘及其映射后形成的空洞;
图4是本发明具体实施方式的一种实施例四个线程的参数说明。
具体实施方式
良好的负载均衡是提高并行绘制系统性能的必要条件,也是并行绘制系统一直没有得到很好解决的一大难题。本发明提出一种基于深度图的并行视点合成负载均衡方法,包括以下步骤:
对参考视点图像进行分割得到不同图像块,各个线程分别对不同图像块进行并行的视点合成,然后将各个线程产生的虚拟视点图像进行拼接,完成整个虚拟视点图像的输出。
对参考视点图像进行分割为:将参考视点图像按线程个数均分为不同图像块,根据每个线程负载与平均线程负载之差计算每个图像块应调整的负载值,然后以行为单位补偿所述负载值进而计算出每个图像块的分割高度,实现负载均衡。
下面结合具体实施方式并对照附图对本发明作进一步详细说明。应该强调的是,下述说明仅仅是示例性的,而不是为了限制本发明的范围及其应用。本具体实施方式有左、右两个参考视点图像,并行处理的线程个数为4,参见附图1为本发明具体实施方式的基于深度图的负载均衡方法流程图,具体如下:
S1、对深度图进行边缘检测标记上升边缘和下降边缘:
对于左视点的深度图检测其下降边界像素点,此像素点和其右边的像素点因深度值的差异向右边映射时会在两者之间产生空洞。对于右视点的深度图检测其上升边缘,此像素点和其左边的空洞点因深度值的差异向左边映射时会在两者之间产生空洞。当此像素点与其左右像素点深度值之差的绝对值大于一个预先设定的阈值(βThreshold)时,可判断标记其是上升边界或下降边界。
具体地,对于左视点深度图的每个像素,当此像素点的深度值(DL)与右边像素的深度值(DR)满足DL-DRThreshold时,标记其为下降边缘。对于右视点深度图的每个像素,当此像素点的深度值(DR)与左边像素的深度值(DL)满足DR-DLThreshold时,标记其为上升边缘。
S2、预测空洞数量:
根据forwardwarping算法,参考视点像素在虚拟视点图中移动的距离d可以按如下公式计算:
d=fu·(tv-tr)/z+duv-dur,其中 z = 1 v 255 · ( 1 z n e a r - 1 z f a r ) + 1 z f a r .
在上述公式中,z是计算出的此像素点深度,Znear和Zfar分别是在原始三维空间中的最近和最远剪切平面,v是深度图所记录的此像素点的强度值,fu是在水平方向上的焦距,tv和tr分别是虚拟视点和参考视点的相机位置,duv和dur分别是虚拟视点和参考视点图像中与光轴相交的位置。
参见图2是本发明具体实施方式的左图中某一个下降边缘及其映射后形成的空洞图,图3是本发明具体实施方式的右图中某一个上升边缘及其映射后形成的空洞。对于左视点图像,计算得到下降边缘像素点和其右边的像素点的位置移动分别dL和dR,因为下降边缘像素点的深度值大,所以dL>dR,所以下降边缘像素点在合成图像上向左移动的幅度大,由此形成空洞,其数目是:n=dL-dR。对于右视点图像,计算得到上升边缘和其左边的像素的位置移动分别为dR和dL,因为上升边缘像素点的深度值大,所以上升边缘像素点在合成图像上向右移动的幅度比较大,由此形成空洞,其数目是:n=dR-dL。最后加在一起得到图像中每行所包含的空洞数目,记为:i∈(1,2,...,H)。
S3、归一化每行的空洞和非空洞视点合成负载:
视点合成的每行总负载是所有空洞负载和非空洞负载之和,即: w i = n h o l e i · w h o l e + n n o n _ h o l e i · w n o n _ h o l e . 其中wi是每行的总负载,分别是每行中的空洞和非空洞数目,whole和wnon_hole分别是处理单个空洞和非空洞的负载。
定义处理单个空洞和非空洞的负载之比:
α = w h o l e w n o n _ h o l e
根据非空洞和空洞的负载比把每行的空洞负载转换为非空洞负载,最后可以得到:
w i = n h o l e i · α · w n o n _ h o l e + n n o n _ h o l e i · w n o n _ h o l e = ( n h o l e i · α + n n o n _ h o l e i ) · w n o n _ h o l e = ( n h o l e i · α + 2 · w i d t h - n h o l e i ) · w n o n _ h o l e = [ 2 · w i d t h + ( α - 1 ) · n h o l e i ] · w n o n _ h o l e
每行视点合成负载:wi,i∈(1,2,...,H),其中,α可以由训练得到。
S4、对每个图像块调整分割高度:
根据线程个数均分图像,但此种分割必然导致不同块之间负载的不均衡,所以还需要根据如下公式计算每块图像应该调整的负载大小:
Δw k = Σ i = ( k - 1 ) · H N + 1 k · H N w i - Σ i = 1 H w i N
其中,H表示图像的总行数,N表示线程个数,k表示当前处理的是第k个图像块。
第一个图像块的分割高度h1相应的应调整的负载值为Δw1,第二个图像块的分割高度h2相应的应调整的负载值为Δw1+Δw2,当线程个数大于两个时,第k个图像块的分割高度hk相应的应调整负载值依次类推。参见图4是本发明具体实施方式的一种实施例四个线程的参数说明。则第k个图像块的分割高度位置公式如下:
h k n e w = h k + H Σ i = 1 H w i · Σ j = 1 k Δw j
如果调整后的分割高度hk不是偶数,则hk=hk+1。
本发明根据上述方法,引入了基于深度图的面向并行虚拟视点合成的负载均衡策略,通过本发明能够缩短线程间的时间差,大大提高了虚拟视点的合成速度。
本领域技术人员将认识到,对以上描述做出众多变通是可能的,所以实施例仅是用来描述一个或多个特定实施方式。
尽管已经描述和叙述了被看作本发明的示范实施例,本领域技术人员将会明白,可以对其作出各种改变和替换,而不会脱离本发明的精神。另外,可以做出许多修改以将特定情况适配到本发明的教义,而不会脱离在此描述的本发明中心概念。所以,本发明不受限于在此披露的特定实施例,但本发明可能还包括属于本发明范围的所有实施例及其等同物。

Claims (3)

1.一种基于深度图的并行视点合成负载均衡方法,包括:
对参考视点图像进行分割得到不同图像块,各个线程分别对所述不同图像块进行并行的视点合成,然后将各个线程产生的虚拟视点图像进行拼接,完成整个虚拟视点图像的输出;
所述对参考视点图像进行分割包括:将所述参考视点图像按线程个数均分为不同图像块,根据每个线程负载与平均线程负载之差计算每个图像块应调整的负载值,然后以行为单位补偿所述负载值计算每个图像块的分割高度,实现负载均衡;
所述每个图像块应调整的负载值为:
Δw k = Σ i = ( k - 1 ) · H N + 1 k · H N w i - Σ i = 1 H w i N
其中,Δwk为第k个图像块应调整的负载值,wi为图像各行总负载,H为图像总行数,N为线程个数;
所述计算每个图像块的分割高度为:第k个图像块的分割高度hk相应的调整的负载值为通过下式确定:
h k n e w = h k + H Σ i = 1 H w i · Σ j = 1 k Δw j ,
其中第一帧的hk初始化为均分图像;
所述图像各行总负载wi通过下式确定:
w i = n h o l e i · w h o l e + n n o n _ h o l e i · w n o n _ h o l e
其中,分别是每行总的空洞和非空洞数目,wholes和wnon_holes分别是处理单个空洞和非空洞的负载;
定义处理所述单个空洞和非空洞的负载之比:
α = w h o l e w n o n _ h o l e
得到:
w i = n h o l e i · α · w n o n _ h o l e + n n o n _ h o l e i · w n o n _ h o l e = ( n h o l e i · α + n n o n _ h o l e i ) · w n o n _ h o l e = ( n h o l e i · α + n r e f s · w i d t h - n h o l e i ) · w n o n _ h o l e = [ n r e f s · w i d t h + ( α - 1 ) · n h o l e i ] · w n o n _ h o l e
其中,α由训练得到,width为图像块的宽度,nrefs为所述参考视点图像的个数。
2.如权利要求1所述的基于深度图的并行视点合成负载均衡方法,其特征在于,所述每行总的空洞数目通过以下方式确定:
对所述参考视点图像进行边缘检测,标记上升边缘和下降边缘;
参考视点像素在虚拟视点图像中移动的距离d通过下式确定:
d=fu·(tv-tr)/z+duv-dur,其中 z = 1 v 255 · ( 1 z n e a r - 1 z f a r ) + 1 z f a r
z是计算出的此像素点深度,znear和zfar分别是在原始三维空间中的最近和最远剪切平面,v是深度图所记录的此像素点的强度值,fu是在水平方向上的焦距,tv和tr分别是虚拟视点和参考视点的相机位置,duv和dur分别是虚拟视点和参考视点图像中与光轴相交的位置;
对于所述下降边缘,所述下降边缘像素和其右边像素的移动距离分别为dL和dR,则在合成视点图像上该行空洞数目为n=dL-dR,对于所述上升边缘,所述上升边缘像素和其左边像素的移动距离分别为dR和dL,则在合成视点图像上该行空洞数目为n=dR-dL;将各个参考视点图像在合成视点图像中形成的该行空洞数目累加起来,得到合成视点图像上该行总的空洞数目记为i∈(1,2,…,H),其中H为图像的总行数。
3.如权利要求1所述的基于深度图的并行视点合成负载均衡方法,其特征在于,如果分割高度hk是奇数,则hk=hk+1。
CN201410632543.5A 2014-11-11 2014-11-11 一种基于深度图的并行视点合成负载均衡方法 Active CN104378618B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201410632543.5A CN104378618B (zh) 2014-11-11 2014-11-11 一种基于深度图的并行视点合成负载均衡方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201410632543.5A CN104378618B (zh) 2014-11-11 2014-11-11 一种基于深度图的并行视点合成负载均衡方法

Publications (2)

Publication Number Publication Date
CN104378618A CN104378618A (zh) 2015-02-25
CN104378618B true CN104378618B (zh) 2016-06-29

Family

ID=52557232

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201410632543.5A Active CN104378618B (zh) 2014-11-11 2014-11-11 一种基于深度图的并行视点合成负载均衡方法

Country Status (1)

Country Link
CN (1) CN104378618B (zh)

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN100576934C (zh) * 2008-07-03 2009-12-30 浙江大学 基于深度和遮挡信息的虚拟视点合成方法
CN101695139B (zh) * 2009-10-14 2011-08-17 宁波大学 一种基于可分级块的虚拟视点图像绘制方法
JP2011135246A (ja) * 2009-12-24 2011-07-07 Sony Corp 画像処理装置、撮像装置、および画像処理方法、並びにプログラム
CN101771893B (zh) * 2010-01-05 2012-08-08 浙江大学 一种基于视频序列背景建模的虚拟视点绘制方法
KR20140022300A (ko) * 2012-08-14 2014-02-24 광주과학기술원 다시점 영상 생성 방법 및 장치
CN103002306B (zh) * 2012-11-27 2015-03-18 宁波大学 一种深度图像编码方法
CN104065946B (zh) * 2014-06-17 2015-10-21 四川虹微技术有限公司 基于图像序列的空洞填充方法
CN104079915B (zh) * 2014-07-03 2016-01-13 清华大学深圳研究生院 一种并行虚拟视点合成方法

Also Published As

Publication number Publication date
CN104378618A (zh) 2015-02-25

Similar Documents

Publication Publication Date Title
US9153032B2 (en) Conversion method and apparatus with depth map generation
US8655055B2 (en) Method, system and computer program product for converting a 2D image into a 3D image
CN102665086B (zh) 利用基于区域的局部立体匹配获取视差的方法
US20140176672A1 (en) Systems and methods for image depth map generation
US20140198101A1 (en) 3d-animation effect generation method and system
CN102741879A (zh) 由单眼图像产生深度图的方法及其系统
CN102609950B (zh) 一种二维视频深度图的生成方法
CN102098528B (zh) 一种平面图像的立体转换方法及装置
CN108604389B (zh) 连续深度排序图像合成
US9661307B1 (en) Depth map generation using motion cues for conversion of monoscopic visual content to stereoscopic 3D
CN106600665A (zh) 一种相机动画路径生成方法和装置
KR20200128378A (ko) 이미지 생성 네트워크의 훈련 및 이미지 처리 방법, 장치, 전자 기기, 매체
CN107871321B (zh) 图像分割方法及装置
JP2023519728A (ja) 二次元画像の三次元化方法、装置、機器及びコンピュータプログラム
BR102020027013A2 (pt) Método para gerar uma imagem multiplano adaptativa a partir de uma única imagem de alta resolução
JP4892113B2 (ja) 画像処理方法及び装置
KR20210038659A (ko) 2차원 이미지를 외삽하기 위해 깊이 정보를 사용하는 시스템 및 방법
US9071832B2 (en) Image processing device, image processing method, and image processing program
JP2013097782A (ja) 画像ワープ方法及びそのコンピュータプログラム製品
KR101103511B1 (ko) 평면 영상을 입체 영상으로 변환하는 방법
CN104378618B (zh) 一种基于深度图的并行视点合成负载均衡方法
CN110149508A (zh) 一种基于一维集成成像系统的阵列图生成及填补方法
CN104079915B (zh) 一种并行虚拟视点合成方法
KR101163020B1 (ko) 3차원 모델을 스케일링하는 방법 및 스케일링 유닛
CN103164868B (zh) 产生具有景深效果的图像的方法和装置

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant