CN104320649B - 一种基于全概率模型的多视点深度图增强方法 - Google Patents
一种基于全概率模型的多视点深度图增强方法 Download PDFInfo
- Publication number
- CN104320649B CN104320649B CN201410612458.2A CN201410612458A CN104320649B CN 104320649 B CN104320649 B CN 104320649B CN 201410612458 A CN201410612458 A CN 201410612458A CN 104320649 B CN104320649 B CN 104320649B
- Authority
- CN
- China
- Prior art keywords
- depth
- vector
- degree
- pixel
- super
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Landscapes
- Processing Or Creating Images (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
本发明实施例公开了一种基于全概率模型的多视点深度图增强方法。该方法包括如下步骤:图像预处理步骤:将像素矢量聚合为超像素矢量;颜色信息分类步骤:使用狄利克雷混合模型模拟超像素矢量分布,并运用变分贝叶斯方法估测模型参数,得出超像素矢量的概率密度函数,根据概率进行分类;深度信息分类和增强步骤:基于颜色信息分类结果,使用贝塔混合模型模拟深度图像素矢量分布,并运用变分贝叶斯方法估计模型参数,根据所得概率密度函数对深度图像素进行细分,将各像素深度值更新为所在类内深度均值,完成深度图增强。利用本发明实施例,能够得到层次更加清晰,结构更加紧凑的深度图,从而提高基于深度绘制的多视点图像合成质量,具有很大的实用价值。
Description
技术领域
本发明涉及多视点图像合成方法的改善,着重描述了一种基于全概率模型的深度图增强方法,从而达到提高多视点图像合成质量的目的。
背景技术
随着3D技术逐渐走入人们的生活,多视点视频作为一种应运而生的新兴数字媒体越来越受到大家的关注。多视点视频是通过在一个场景不同视角放置多台摄像机,可以更加真实、生动的还原场景,为用户提供交互式操作功能。但若想将这种3D视频表示方法应用到诸如自由视点电视(FTV),远程医疗,交融式会议电视等多媒体业务中,图像质量,视频连贯性等还需要达到更高标准。
由于拍摄现场的摄像机数目限制,我们只能从有限的视角获取图景信息,若想流畅展示物体的全部视角,需要我们进行多视点图像合成。多视点图像合成大致分为三个步骤:图像的预处理、图像信息的处理与聚类、图像合成。其中,如何利用有限的信息以及如何有效的处理信息对多视点图像的合成质量有决定性作用。在数字图像处理中,图像的颜色作为最重要的视觉特征之一一直被广泛应用。K-means算法作为一种简单的聚类方法常被用于图像颜色信息的分割聚类。这一聚类方法虽然简单,但未能考虑像素间的关联性,且需要在聚类前确定聚类数目。因此,我们需要探索一种更高效的方法对图像的颜色信息进行聚类。
近年来,在图像合成过程中除了运用图像所包含的颜色信息,能够提供几何信息的深度图也开始得到广泛关注。深度图可以用一个二维矩阵表示,矩阵中每个像素值表示的是场景中各点与摄像机的距离。相比于2D的普通图像,深度信息可用于对场景内的物体进行更加精确的区分。然而,在多数研究中,深度图常用立体匹配算法进行估计,忽视了像素间的连续性,层次模糊的深度图可能会给图像合成造成负面影响。因此,如何充分利用图像信息对深度图进行增强,即得到分布更加紧凑、层次更加清晰的深度图,对基于深度的图像绘制结果具有重要意义。
另外,3D图像的合成需要对海量图片进行处理,加之图像高清化、超清化的趋势,如何对原图像进行预处理,从而迅速高效的进行图像合成,对于多视点视频的流畅性也具有十分重要的意义。
发明内容
为了解决基于深度的图像绘制技术中所使用的深度图连续性缺陷以及层次模糊的问题,本发明提供一种以基于全概率模型的深度图增强方法,改善了合成效果。
为达到上述目的,本发明提出的基于全概率模型的多视点深度图增强方法包括下列步骤:
步骤一.图像预处理步骤:针对高清图片包含的庞大像素数量,对原始图像进行超像素聚类,降低图像处理的计算复杂度;
步骤二.颜色信息聚类步骤:有效的颜色信息聚类是深度图增强的基础,本文使用狄利克雷混合模型(DMM-Dirichletmixturemodel)逼近三维超像素矢量的分布,并运用变分贝叶斯方法(VB-VariationalBayes)估计模型参数,从而获得作为颜色聚类依据的责任矩阵R;
步骤三.深度信息聚类及增强步骤:
A、深度信息聚类步骤:在颜色信息聚类结果的基础上,按照各像素的深度值再细分出不同子类,此处对一维深度像素矢量用贝塔混合模型(BMM–BetaMixtureModel)建模;
B、深度图增强步骤:计算步骤A中所得子类内像素矢量的深度均值,更新原始深度值,最终完成深度图的增强,得到层次更加清晰,结构更加紧凑的深度图。
在步骤一所述的图像预处理步骤中,可选用K-means,SLIC(Simple-Linear-Iterative-Clustering)等聚类方法将相似度高的像素聚合为三维超像素矢量Sm,便于对图像的进一步处理。
在步骤二所述颜色信息聚类步骤中,对三维超像素矢量用狄利克雷混合模型进行逼近,并运用变分贝叶斯方法估计分布参数,从而计算出像素矢量的概率密度,得到作为聚类依据的责任矩阵R。此步骤具体过程如下:
1)对步骤一所得三维超像素矢量Sm归一化,得到三维矢量xm=[x1,x2,x3]T,其中K=3;
2)用狄利克雷混合模型对归一化后的超像素矢量进行建模,模型表示为:
其中,г(z)表示伽玛函数,其定义为:为模型参数;
结合变分贝叶斯方法估计模型参数,得到超像素矢量的概率密度函数:
其中,变量Π=[π1,…πi,…πI]表示各混合成分的权值,S=[S1,…Sm,…SM]是M个三维超像素矢量构成的矩阵,U=[u1,…ui,…uI]是I个模型参数构成的参数矩阵,参数M表示超像素矢量的个数,参数I表示狄利克雷混合模型中包含I个狄利克雷混合成分;
3)根据概率密度函数得到责任矩阵R, 其中, 中各元素表示三维超像素矢量Sm属于第i类的概率,判定依据如下:
在步骤三所述深度信息聚类及增强步骤中,步骤A所述的深度信息聚类步骤中,以颜色信息聚类结果为基础,进行基于深度信息的子类划分。鉴于深度信息为一维矢量且其值有界,用贝塔混合模型对其进行建模。此步骤具体过程如下:
1)将与颜色像素矢量vnr位置对应的深度矢量dnr做同样聚类,第i深度簇表示为
2)用贝塔混合模型对深度矢量dnr建模,并运用变分贝叶斯方法估计模型参数,从而得到深度矢量概率密度函数为:
其中,φ(i)表示第i深度类的类内像素索引序号;τ=[τ1,…τl,…τL]表示贝塔混合模型各混合成分的权值,al和bl是贝塔分布的参数,模型参数a=[a1,…al,…aL]T和b=[b1,…bl,…bL]T为参数矢量,可由变分贝叶斯方法估计获得;
从而可通过概率密度函数得到作为深度信息聚类依据的责任矩阵:
其中,元素表示深度矢量属于子类l的概率,把第i簇内深度矢量归为第l类的依据为:
步骤B所述的深度图增强步骤中,以步骤A所得深度图子类为基础,分别求解各类内深度均值,从而完成深度图增强。此步骤具体过程如下:
1)计算深度图子类内的深度均值,其计算公式为:
其中,γ(il)表示深度矢量的索引序号,表示深度矢量v属于第l子类的概率,dv表示深度矢量v的深度值;
2)得到各深度均值后,将各深度矢量值更新为所在子类深度均值,从而完成深度图增强。
本发明的有益效果在于,相对于现有技术而言,本发明综合考虑图像的颜色信息和深度信息,运用狄利克雷混合模型对颜色矢量进行建模并分类,从而辅助基于深度信息的子类划分,得到层次更清晰,结构更紧凑的深度图,提高多视点图片的合成质量。
附图说明
图1为本发明提供的基于全概率模型的多视点深度图增强方法的步骤流程图;
图2为深度图分类及增强的步骤流程图。
具体实施方式
下面将结合附图对本发明具体实施方式进行详细说明。
图1是本发明的流程图,包括以下步骤:
第一步:图像预处理:对高清图像进行超像素聚类;
第二步:颜色信息聚类
步骤S1:使用狄利克雷混合模型模拟超像素分布,得到超像素概率密度函数,从而得到责任矩阵R(S),其元素表示各超像素属于各簇的概率,完成颜色信息聚类;
第三步:深度信息聚类及增强
步骤S2:在步骤S1所得聚类结果同样应用于深度图,并运用贝塔混合模型模拟深度矢量分布,得到其概率密度函数,根据责任矩阵R(D)各元素所表示的深度矢量属于各深度簇的概率完成深度信息聚类;
步骤S3:对步骤S2所得各深度矢量子类求解类内深度均值,并将各深度矢量值更新为所在类的深度均值,从而完成深度图增强。
下面将对每个步骤进行具体的说明:
步骤S1进行颜色信息聚类,使用狄利克雷混合模型模拟超像素矢量分布,计算其概率密度函数,从而得到聚类依据,即责任矩阵R。本发明中三维超像素矢量Sm归一化可得三维矢量xm=[x1,x2,x3]T,详细步骤为:
1)用狄利克雷混合模型对归一化后的超像素矢量进行建模,模型表示为:
公式中,K=3,参数uk可由变分贝叶斯方法进行估计;
2)对于超像素矢量Sm,通过I个狄利克雷模型混合,可得到其概率密度函数:
其中,变量Π=[π1,…πi,…πI]表示各混合成分的权值,S=[S1,…Sm,…SM]是M个三维超像素矢量构成的矩阵,U=[u1,…ui,…uI]是I个模型参数构成的参数矩阵,参数M表示超像素矢量的个数,参数I表示狄利克雷混合模型中包含I个狄利克雷混合成分;
3)根据概率密度函数可得责任矩阵R,
其中,中各元素表示超像素Sm属于第i类的概率,判定依据如下:
从而可得各超像素包含的所有颜色信息矢量vnr的聚类结果,得到I个颜色信息簇。
步骤S2以步骤S1所得聚类结果为基础,对深度信息运用贝塔混合模型建模,从而对深度矢量进行子类划分。图2给出了该方法的具体流程如下:
1)输入1:深度矢量D=[d1,…dNR];
输入2:颜色信息矢量vnr的聚类结果;
2)步骤21中,将深度矢量dnr按其对应颜色矢量vnr的聚类结果进行标号,划分为同样的I个子类;第i深度簇表示为
3)步骤22中,用贝塔混合模型对深度矢量dnr建模,并运用变分贝叶斯方法估计模型参数,从而得到深度矢量概率密度函数为:
其中,φ(i)表示第i深度类的类内像素索引序号;τ=[τ1,…τl,…τL]表示贝塔混合模型各混合成分的权值,al和bl是贝塔分布的参数,模型参数a=[a1,…al,…aL]T和b=[b1,…bl,…bL]T为参数矢量,可由变分贝叶斯方法估计获得;
4)步骤23中,依据步骤22所得概率密度函数,可得作为深度信息聚类依据的责任矩阵:
其中,元素表示深度矢量属于子类l的概率。把第i簇内深度矢量归为第l类的依据为:
5)输出:深度信息子类划分结果D(il)。
步骤S4进行深度图增强,计算子深度簇l的深度均值:
其中,γ(il)表示深度矢量的索引序号,表示深度矢量v属于第l子类的概率,dv表示深度矢量v的深度值;
得到各深度均值后,将各深度矢量值更新为所在子类深度均值,从而完成深度图增强。
以上结合附图对所提出的基于全概率模型的多视点深度图增强方法的具体实施方式进行了阐述。通过以上实施方式的描述,所属领域的一般技术人员可以清楚的了解增强深度图所使用的数学推导方法,得到增强后的深度图。基于更新后的深度图,可通过专业软件完成更高质量多视点图像的合成。
依据本发明的思想,在具体实施方式及应用范围上均会有改变之处。综上所述,本说明书内容不应理解为对本发明的限制。
以上所述的本发明实施方式,并不构成对发明保护范围的限定。任何在本发明的精神和原则之内所作的修改、等同替换和改进等,均应包含在本发明的保护范围之内。
Claims (1)
1.一种基于全概率模型的多视点深度图增强方法,其特征在于,包括以下步骤:
步骤一.图像预处理步骤:针对高清图片包含的庞大像素数量,对原始图像进行超像素聚类,得到三维超像素矢量Sm,从而降低图像处理的计算复杂度;
步骤二.颜色信息聚类步骤:有效的颜色信息分类是深度图增强的基础,本文使用狄利克雷混合模型(DMM-Dirichletmixturemodel)逼近三维超像素矢量的分布,并运用变分贝叶斯方法(VB-VariationalBayes)估计模型参数,从而获得作为颜色分类依据的责任矩阵R,具体过程如下:
1)对步骤一所得三维超像素矢量Sm归一化,得到三维矢量xm=[x1,x2,x3]T,其中K=3;
2)用狄利克雷混合模型对归一化后的超像素矢量进行建模,模型表示为:
其中,г(z)表示伽玛函数,其定义为:u=[u1,u2,u3]T为模型参数;
结合变分贝叶斯方法估计模型参数,得到超像素矢量的概率密度函数:
其中,变量Π=[π1,…πi,…πI]表示各混合成分的权值,S=[S1,…Sm,…SM]是M个三维超像素矢量构成的矩阵,U=[u1,…ui,…uI]是I个模型参数构成的参数矩阵,参数M表示超像素矢量的个数,参数I表示狄利克雷混合模型中包含I个狄利克雷混合成分;
3)根据概率密度函数得到责任矩阵R,其中,中各元素表示三维超像素矢量Sm属于第i类的概率,判定依据如下:
步骤三.深度信息聚类及增强步骤:
A、深度信息聚类步骤:在颜色信息分类结果的基础上,按照各像素的深度值再细分出不同子类,鉴于深度信息为一维矢量且其值有界,此处对一维深度像素矢量用贝塔混合模型(BMM–BetaMixtureModel)建模;此步骤具体过程如下:
1)将与颜色像素矢量vnr位置对应的深度矢量dnr做同样聚类,第i深度簇表示为
2)用贝塔混合模型对深度矢量dnr建模,并运用变分贝叶斯方法估计模型参数,从而得到深度矢量概率密度函数为:
其中,φ(i)表示第i深度类的类内像素索引序号;τ=[τ1,…τl,…τL]表示贝塔混合模型各混合成分的权值,al和bl是贝塔分布的参数,模型参数a=[a1,…al,…aL]T和b=[b1,…bl,…bL]T为参数矢量,可由变分贝叶斯方法估计获得;
从而可通过概率密度函数得到作为深度信息聚类依据的责任矩阵:
其中,元素表示深度矢量属于子类l的概率,把第i簇内深度矢量归为第l类的依据为:
B、深度图增强步骤:计算步骤A中所得子类内像素矢量的深度均值,更新原始深度值,最终完成深度图的增强,得到层次更加清晰,结构更加紧凑的深度图,此步骤具体过程如下:
1)计算深度图子类内的深度均值d(il),其计算公式为:
其中,γ(il)表示深度矢量的索引序号,表示深度矢量v属于第l子类的概率,dv表示深度矢量v的深度值;
2)得到各深度均值后,将各深度矢量值更新为所在子类深度均值,从而完成深度图增强。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201410612458.2A CN104320649B (zh) | 2014-11-04 | 2014-11-04 | 一种基于全概率模型的多视点深度图增强方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201410612458.2A CN104320649B (zh) | 2014-11-04 | 2014-11-04 | 一种基于全概率模型的多视点深度图增强方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN104320649A CN104320649A (zh) | 2015-01-28 |
CN104320649B true CN104320649B (zh) | 2016-04-20 |
Family
ID=52375810
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201410612458.2A Active CN104320649B (zh) | 2014-11-04 | 2014-11-04 | 一种基于全概率模型的多视点深度图增强方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN104320649B (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106897436B (zh) * | 2017-02-28 | 2018-08-07 | 北京邮电大学 | 一种基于变分推断的学术研究热点关键词提取方法 |
CN110289925B (zh) * | 2019-06-05 | 2021-06-11 | 宁波大学 | 一种判决后变分推断估计主用户占空比的方法 |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8588515B2 (en) * | 2009-01-28 | 2013-11-19 | Electronics And Telecommunications Research Institute | Method and apparatus for improving quality of depth image |
CN102831582B (zh) * | 2012-07-27 | 2015-08-12 | 湖南大学 | 一种微软体感装置深度图像增强方法 |
CN103198486B (zh) * | 2013-04-10 | 2015-09-09 | 浙江大学 | 一种基于各向异性扩散的深度图像增强方法 |
-
2014
- 2014-11-04 CN CN201410612458.2A patent/CN104320649B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
CN104320649A (zh) | 2015-01-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Zou et al. | Df-net: Unsupervised joint learning of depth and flow using cross-task consistency | |
CN102741879B (zh) | 由单眼图像产生深度图的方法及其系统 | |
CN101605270B (zh) | 生成深度图的方法和装置 | |
CN102263979B (zh) | 一种平面视频立体化的深度图生成方法及装置 | |
CN106952222A (zh) | 一种交互式图像虚化方法及装置 | |
CN104937927A (zh) | 2维图像或视频到3维立体图像或视频的实时自动转换 | |
CN106341676B (zh) | 基于超像素的深度图像预处理和深度空洞填充方法 | |
CN105957124B (zh) | 具有重复场景元素的自然图像颜色编辑方法及装置 | |
CN104506872B (zh) | 一种平面视频转立体视频的方法及装置 | |
CN102542593A (zh) | 一种基于视频解译的交互式视频风格化渲染方法 | |
CN104574358A (zh) | 从聚焦堆图像进行场景分割的方法和设备 | |
CN113411582A (zh) | 一种基于活动轮廓的视频编码方法、系统、装置及介质 | |
CN104320649B (zh) | 一种基于全概率模型的多视点深度图增强方法 | |
CN112822479A (zh) | 一种用于2d-3d视频转换的深度图生成方法及装置 | |
CN102333234A (zh) | 一种双目立体视频状态信息的监测方法及装置 | |
Chen et al. | Image vectorization with real-time thin-plate spline | |
CN110390293A (zh) | 一种基于高阶能量约束的视频对象分割算法 | |
CN103646428B (zh) | 一种3d流体场景的合成方法 | |
CN115619974A (zh) | 基于改进PatchMatch网络的大型场景三维重建方法、重建装置、设备及存储介质 | |
CN110149508A (zh) | 一种基于一维集成成像系统的阵列图生成及填补方法 | |
CN110796181B (zh) | 基于纹理的文物病害高精度自动提取方法 | |
CN111127587B (zh) | 一种基于对抗生成网络的无参考图像质量地图生成方法 | |
CN114022371A (zh) | 基于空间和通道注意力残差网络的去雾装置及其去雾方法 | |
Chen et al. | A normalized disparity loss for stereo matching networks | |
CN104601972B (zh) | 一种利用图像修补的自由视点合成方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant |