CN103942794A - 一种基于置信度的图像协同抠图方法 - Google Patents
一种基于置信度的图像协同抠图方法 Download PDFInfo
- Publication number
- CN103942794A CN103942794A CN201410153439.8A CN201410153439A CN103942794A CN 103942794 A CN103942794 A CN 103942794A CN 201410153439 A CN201410153439 A CN 201410153439A CN 103942794 A CN103942794 A CN 103942794A
- Authority
- CN
- China
- Prior art keywords
- subregion
- image
- background
- confidence
- scratching
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 95
- 238000004422 calculation algorithm Methods 0.000 claims abstract description 27
- 238000005457 optimization Methods 0.000 claims abstract description 10
- 238000005070 sampling Methods 0.000 claims description 46
- 238000006748 scratching Methods 0.000 claims description 45
- 230000002393 scratching effect Effects 0.000 claims description 45
- 238000003709 image segmentation Methods 0.000 claims description 17
- 239000002689 soil Substances 0.000 claims description 12
- 230000008878 coupling Effects 0.000 claims description 10
- 238000010168 coupling process Methods 0.000 claims description 10
- 238000005859 coupling reaction Methods 0.000 claims description 10
- 230000008569 process Effects 0.000 claims description 9
- 238000004458 analytical method Methods 0.000 claims description 6
- 230000005540 biological transmission Effects 0.000 claims description 6
- 230000002452 interceptive effect Effects 0.000 claims description 6
- 230000000644 propagated effect Effects 0.000 claims description 6
- 238000000638 solvent extraction Methods 0.000 claims description 4
- 238000002372 labelling Methods 0.000 claims description 3
- 230000003993 interaction Effects 0.000 claims description 2
- 230000000694 effects Effects 0.000 abstract description 5
- 230000000877 morphologic effect Effects 0.000 abstract description 2
- 230000011218 segmentation Effects 0.000 abstract 2
- 238000005259 measurement Methods 0.000 abstract 1
- 238000010586 diagram Methods 0.000 description 12
- 238000005516 engineering process Methods 0.000 description 10
- 238000009826 distribution Methods 0.000 description 7
- 150000001875 compounds Chemical class 0.000 description 6
- 238000007637 random forest analysis Methods 0.000 description 6
- 238000012549 training Methods 0.000 description 6
- 238000003909 pattern recognition Methods 0.000 description 5
- 239000011159 matrix material Substances 0.000 description 4
- 238000010606 normalization Methods 0.000 description 4
- 230000008901 benefit Effects 0.000 description 3
- 230000001902 propagating effect Effects 0.000 description 3
- 230000009466 transformation Effects 0.000 description 3
- 238000011156 evaluation Methods 0.000 description 2
- 238000002474 experimental method Methods 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 238000009499 grossing Methods 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- 230000000366 juvenile effect Effects 0.000 description 2
- 238000010801 machine learning Methods 0.000 description 2
- 239000003550 marker Substances 0.000 description 2
- 239000000203 mixture Substances 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 230000008439 repair process Effects 0.000 description 2
- 230000006978 adaptation Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 238000003066 decision tree Methods 0.000 description 1
- 230000007812 deficiency Effects 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 230000037308 hair color Effects 0.000 description 1
- 230000013011 mating Effects 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 238000012797 qualification Methods 0.000 description 1
- 238000005295 random walk Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Landscapes
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
本发明公开了一种基于置信度的图像协同抠图方法,旨在对多张拥有轻微形变的前景与较大差异背景的图像进行协同扣图。该方法采用协同分割算法对多张图像进行前背景分割,通过形态学操作取得将每张图像标记为前景、背景与待求解区域的掩膜,然后使用源图像和掩膜对每张源图像采用已有的单张普通抠图方法进行抠图,对抠图结果进行置信度量,然后对所有图像待求解区域的像素点进行匹配,继而在匹配的基础上定义一个全局优化函数以使得所有图像协同提升抠图效果,旨在由高置信度区域向与其匹配的低置信度区域进行抠图结果传播,以使得相对应的低置信度区域获得更为精确的抠图结果。该方法的输入为多张图像,输出则是多张图像的抠图结果。
Description
技术领域
本发明涉及计算机视觉的图像处理方法,特别是一种具有较强抠图能力与较自动化从而节省大量人工交互的一种基于置信度的图像协同抠图方法。
背景技术
抠图技术旨在将自然场景图像的前景与背景精确分离开,给定一张自然场景图像,根据线性复合公式:
I=αF+(1-α)B
抠图技术将自然图像中的像素值I表示为图像的前景F与背景B以及前景透明度α(又称作alpha matte)的线性复合,其中α的值在0与1之间。
抠图技术在工业界特别是在图像处理与电影产业中被广泛应用并获得巨大成功,因此抠图技术近年来也一直是计算机视觉的重要研究内容。抠图技术由于其固有的解析难度(复合公式中有三个等式与七个未知量),在实际的解决方案中,一般会加入适量的限定条件以使得问题变得易解。常见的限定方式如给出待处理图像的前景、背景与待求解区域的类别的掩膜,标注出图像中每个像素的类别(属于前景、背景或待求解区域)。
现有的抠图技术大多致力于单张图像的抠图,大致上可以分为三类。分别为基于采样的方法、基于传播的方法与基于混合模型的方法。基于采样的方法从已知的前景与背景中取采样对,对于每个待求解区域的像素根据线性复合公式选取最匹配的一对前背景像素点对以求解出alpha;基于传播的方法建立起相邻像素点的关联以强制alpha局部平滑,并通过全局优化的方式求解出alpha;基于混合模型的方法假设在平滑限制条件下采样误差可以被减小,而基于关联的传播误差则可以被精确的采样减小,继而将上两种方法结合进一个单目标函数以优化的方式去求解出alpha以期取得更好的效果。
近些年的抠图技术进展中,研究人员尝试了繁多的技术种类,但是在真实自然场景图像的抠图中,仍然不能得到完备的效果,主要原因在于真实场景图像并不完全符合三类主要抠图技术的假设前提。在基于采样的方法中,如果前景F与背景B的颜色分布有较大重叠,基于采样的方法便不能对待求解像素采样出合适的前景与背景像素对,以致会造成较差的结果;在基于传播的方法中,局部颜色线模型(Local Color Line Model)假设并不能在真实场景图像下的高梯度边纹理中成立,以致同样不能得到较好的结果。针对这样的问题,现有的做法一般是进一步给出更为精确的掩膜,可是这无疑加大了人工作业量。
发明内容
发明目的:本发明所要解决的技术问题是针对现有技术的不足,旨在对多张拥有轻微形变的前景与较大差异的背景的图像进行协同扣图。
为了解决上述问题,本发明公开了一种基于置信度的图像协同抠图方法,包括以下步骤:
步骤1:对所有图像进行协同分割;
步骤2:采取交互式图像分割算法进行分割,以取得精确的前景和背景分割;
步骤3:对前景膨胀,围绕前景取得固定宽度的待求解区域,从而得到初步的将图像标注为前景、背景和待求解区域的掩膜;用户交互修缮待求解区域,在修缮过程中以光流制导的传播方法将修缮传播到其他的掩膜中;
步骤4:对每张图像进行单张图像抠图以产生每张图像的初始抠图结果;
步骤5:对每张图像的初始抠图结果进行置信度量;
步骤6:对所有图像的待求解区域像素点集进行匹配;
步骤7:在定义的全局优化框架下进行所有图像的协同抠图,以取得最终的抠图。
本发明中,步骤1采用无监督的协同分割算法(Random walks basedmulti-image segmentation)算法对多张图像进行协同分割。
本发明中,步骤2采用基于图的图像分割算法对图像进行交互式的前背景分割。
本发明中,步骤3采用参考点位于中心的3*3核对图像前景进行膨胀,并用光流制导的传播方法对掩膜的修缮进行传播。
本发明中,步骤4根据原始图像和掩膜,对每张图像采用基于全局采样的抠图算法(Global sampling matting)对单张图像进行抠图。
本发明中,步骤5具体包括以下步骤:
步骤51:对掩膜中的背景区域采用基于图的图像分割算法分割成一组背景子区域,延长所述背景子区域的划分边界直到与掩膜中的待求解区域相交,在交点处寻找离交点最近的前景边缘点,将所述交点和前景边缘点连接即将待求解区域划分为一组待求解子区域;
步骤52:提取基于背景的特征。对每个与待求解区域相邻接的背景子区域计算以下特征,继而传播到待求解子区域中,特征包括:颜色复杂度、梯度复杂度、规格墒和子区域尺寸。给定背景子区域Bi,有个像素:
(1)颜色复杂度(Color complexity,CC):取背景子区域规格化RGB颜色直方图的墒。表述为下式:
其中H为背景子区域的规格化颜色直方图向量,RGB分别取4个通道,即向量一共有Nch=64个维度,l的范围为1~64。CC越小表明背景子区域中有越多的颜色类别,也即场景越复杂。
(2)梯度复杂度(Gradient complexity,GC):取背景子区域的平均梯度。表述为下式:
其中,M为区域的梯度向量,为背景子区域Bi的像素个数,k的取值范围为梯度复杂度反应了区域内的梯度变化,值越大表明梯度变化越大,也即表示背景子区域具有更复杂的纹理。
(3)规格墒(Regularity entropy,RE):取每个像素周围区域的规格墒的平均值。在每个像素点k,将其所在的S*S窗口的像素灰度值投影到Nre个通道的向量中,表示为Vk。RE表述为下式:
其中,为背景子区域的像素个数,l的范围为1~Nre,k的取值范围为本发明中取S=9,Nre=10。规格墒反应了局部区域内局部模式的再现性,复杂的场景会使得RE值变小。
(4)子区域尺寸(Region size,RZ):基于图的图像分割算法以区域内与区域间的差异为分割准则,因此背景子区域的像素个数反应了其区域内场景复杂度情况,即子区域尺寸越大则相对内部场景变化越小,反之则变化越大。
在得到上述几个特征后,将所述特征线性拼接为背景子区域的特征向量,表述为
掩膜中背景子区域的特征向与其邻接的待求解子区域传播以形成待求解子区域特征。具体方式如下:
其中Tj为某待求解子区域,为背景子区域Bi与待求解子区域Tj的交线长度,T为的Tj并,NB为背景子区域的数量。
步骤53:提取基于单张抠图方法的特征,主要是基于两类单张抠图方法的结果差异产生特征,特征包括:绝对抠图结果差值、平均采样置信度和采样颜色模糊度。
(1)绝对抠图结果差(Absolute matte difference,AMD):对待求解子区域基于全局采样的抠图算法(Sample-based matting)与闭式解抠图算法(Closed-formed matting)的结果取平均误差。
(2)平均采样置信度(Average sampling confidence,ASC):对待求解子区域的每个像素求基于全局采样抠图算法中的采样置信度,待求解子区域的ASC即为这些采样置信度的平均值。
(3)采样颜色模糊(Sample color ambiguity,SCA):分别对待求解子区域的近前景边缘与近背景边缘建立单元高斯分布(UnivariateGaussiandistribution),取两个分布的KL散度距离为SCA。
步骤54:以基准数据集(http://www.alphamatting.com/datasets.php)对上述特征作回归分析,得到回归模型用于协同抠图的置信度预测。
本发明中,步骤6由以下两步组成:第一步在图像对的前景上进行匹配。第二步对待求解区域的边界上的所有点进行非刚性变化匹配以求得所有待求解区域的像素点对匹配。
本发明中,步骤7在定义的全局优化框架下进行多张图像的协同抠图。最小化以下能量方程以使得高置信度区域可以改善低置信度区域的抠图结果同时低置信度区域的结果不会影响高置信度区域结果:
其中α是包含所有图像的所有待求解区域像素点alpha值的向量,为alpha值初始结果向量。
有益效果:本发明的显著优点是:本发明公开了一种基于置信度的图像协同抠图方法,对于多张拥有相似前景和不同背景的图像,本方法可以同时对所有图像进行协同抠图并取得相比单张图像更为精确的抠图结果。本发明提出了基于置信度的协同抠图方式,对多个视觉特征进行机器学习以得到抠图置信度,对多张图像的待求解区域以尺度不变特征流方法和非刚性匹配方法进行匹配。将抠图置信度与像素间关联度纳入一个全局优化框架中以优化方式求得更精确的抠图结果。相对于其他的抠图方法,采用本发明提出的基于置信度的图像协同抠图方法,利用了多张图像相似前景间的关联,并且提出了待求解区域的置信度量方式,使高置信度区域向与其匹配的低置信度区域传播抠图结果,从而相比于其他单张图像抠图方法取得了更为精确的抠图结果。
附图说明
下面结合附图和具体实施方式对本发明做更进一步的具体说明,本发明的上述和/或其他方面的优点将会变得更加清楚。
图1为本发明方法的基本流程图。
图2为两张源图像。
图3为两张源图像经过协同分割与膨胀后形成的掩膜。
图4显示待求解区域被划分成一组待求解子区域后各子区域的置信度值高低。
图5为基于全局采样的抠图算法结果。
图6为基于全局采样方法的采样置信度。
图7为经过协同抠图后的结果。
图8为本方法的流程概述。
图9为协同抠图算法的图模型。
图10采用基于图的图像分割算法将待求解区域分为一组待求解子区域。
图11反映了各个特征对置信度的影响。
图12为对“少年派的奇幻漂流”中截图的基于置信度的协同抠图方法与单张抠图方法对比图。
图13为对抠图基准数据集中两帧视频截图的基于置信度的协同抠图方法与单张抠图方法对比图。
图14为对一个三张图像的基于置信度的协同抠图方法与单张抠图方法对比图。
具体实施方式:
具体的说,如图1所示,本发明公开了一种基于置信度的图像协同抠图方法,包括以下步骤:
步骤1:对多张图像进行协同分割。
步骤2:针对步骤1的结果中前背景标记错误或漏标记部分采取交互式图像分割算法进行分割以取得足够精确的前背景分割效果。
步骤3:对步骤2得到的前景膨胀以围绕前景取得固定宽度的待求解区域,得到将图像标注为前景、背景和待求解区域的掩膜。可以选择继续手动修缮待求解区域,在修缮过程中以光流制导的传播方法将修缮传播到其他的掩膜中。
步骤4:对每张图像进行单张图像抠图以产生每张图像的初始抠图结果。
步骤5:对每张图像的初始抠图结果进行置信度量。
步骤6:对所有图像的待求解区域像素点集进行匹配。
步骤7:在定义的全局优化框架下进行所有图像的协同抠图,以取得更精确的抠图结果。
所述步骤1包括以下步骤:采用多张图像协同分割算法对多张图像进行前背景分割以分割出前景和背景。协同分割算法的具体内容可参见“JoulinA,BachF,PonceJ.Multi-classcosegmentation.In:IEEECVPR;2012.p.542–9.”。
所述步骤2包括以下步骤:采用交互式图像分割算法以对步骤1中前背景标记错误或漏标记部分进行修缮。交互式图像分割算法的具体内容可参见“BoykovY,Veksler O,Zabih R.Fast approximate energy minimization via graph cuts[J].Pattern Analysis and Machine Intelligence,IEEE Transactions on,2001,23(11):1222-1239.”。
所述步骤3包括以下步骤:对步骤2得到的前景膨胀以围绕前景取得待求解区域,待求解区域拥有指定的同样宽度(依图像具体的待求解区域概况确定宽度值),得到初步的掩膜。其中形态学操作膨胀是指将图像中的一部分区域A与核B进行卷积,膨胀是求局部最大值的操作,核B与图像卷积即计算核B覆盖的区域的像素点最大值,并把这个最大值赋值给参考点指定的像素。在本方法中采用参考点位于中心的3*3核。
在膨胀操作结束后,我们得到围绕前景拥有固定宽度的待求解区域。对于图像中属于待求解区域但是未能覆盖的部分我们采用交互式方式修缮待求解区域范围,并在修缮时采用光流制导的传播方法将用户对某幅图像掩膜的修缮操作传播到其他掩膜中。光流制导的传播方法具体内容可参见“Bai X,Wang J,Simons D.Towards temporally-coherent videomatting[M]//Computer Vision/Computer GraphicsCollaboration Techniques.Springer Berlin Heidelberg,2011:63-74.”。
所述步骤4包括以下步骤:由步骤3得到的掩膜和源图像,对每张图像采用基于全局采样的单张图像抠图方法产生初始的抠图结果。基于全局采样的单张图像抠图方法具体内容可参见“He K,Rhemann C,Rother C,et al.A global samplingmethod for alpha matting[C]//Computer Vision and Pattern Recognition(CVPR),2011IEEE Conference on.IEEE,2011:2049-2056.”。
所述步骤5包括以下步骤:
步骤51:对掩膜中的背景区域采用基于图的图像分割算法分割成一组背景子区域,以这些背景子区域的划分边界延长线与掩膜中待求解区域的前背景边界相交线段为边界将掩膜中的待求解区域划分成一组待求解子区域。基于图的图像分割算法的具体内容可参见“Felzenszwalb P F,Huttenlocher D P.Efficientgraph-based image segmentation[J].International Journal of Computer Vision,2004,59(2):167-181.”
步骤52:提取基于背景的特征。对每个与待求解子区域相邻接的背景子区域计算以下特征继而传播到与其相邻的待求解子区域中,特征包括:颜色复杂度、梯度复杂度、规格墒和子区域尺寸。给定背景子区域Bi,有个像素:
(1)颜色复杂度(Color complexity,CC):取背景子区域规格化RGB颜色直方图的墒。表述为下式:
其中H为背景子区域的规格化颜色直方图向量,RGB分别取4个通道,即向量一共有Nch=64个维度,l的范围为1~64。CC越小表明背景子区域中有越多的颜色类别,也即场景越复杂。
(2)梯度复杂度(Gradient complexity,GC):取背景子区域的平均梯度。表述为下式:
其中,M为区域的梯度向量,为背景子区域Bi的像素个数,k的取值范围为梯度复杂度反应了区域内的梯度变化,值越大表明梯度变化越大,也即表示背景子区域具有更复杂的纹理。
(3)规格墒(Regularity entropy,RE):取每个像素周围区域的规格墒的平均值。在每个像素点k,将其所在的SSS窗口的像素灰度值投影到Nre个通道的向量中,表示为Vk。RE表述为下式:
其中,为背景子区域的像素个数,l的范围为1~Nre,k的取值范围为本发明中取S=9,Nre=10。规格墒反应了局部区域内局部模式的再现性,复杂的场景会使得RE值变小。
(4)子区域尺寸(Region size,RZ):基于图的图像分割算法以区域内与区域间的差异为分割准则,因此背景子区域的像素个数反应了其区域内场景复杂度情况,即子区域尺寸越大则相对内部场景变化越小,反之则变化越大。
在得到上述几个特征后,将所述特征线性拼接为背景子区域的特征向量,表述为
掩膜中背景子区域的特征向与其邻接的待求解子区域传播以形成待求解子区域特征。具体方式如下:
其中Tj为某待求解子区域,为背景子区域Bi与待求解子区域Tj的交线长度,T为的Tj并,NB为背景子区域的数量。
步骤53:提取基于单张抠图方法的特征,主要是基于两类单张抠图方法的结果差异产生特征,特征包括:绝对抠图结果差值、平均采样置信度和采样颜色模糊度。
(1)绝对抠图结果差(Absolute matte difference,AMD):对待求解子区域基于全局采样的抠图算法(Sample-based matting)与闭式解抠图算法(Closed-formed matting)的结果取平均误差。基于全局采样的抠图算法具体可参见“He K,Rhemann C,Rother C,et al.A global samplingmethod for alpha matting[C]//Computer Vision and Pattern Recognition(CVPR),2011IEEE Conference on.IEEE,2011:2049-2056.”,基于关联的抠图算法具体可参见“Levin A,Lischinski D,Weiss Y.A closed-formsolution to natural image matting[J].Pattern Analysis and MachineIntelligence,IEEE Transactions on,2008,30(2):228-242.”。
(2)平均采样置信度(Average sampling confidence,ASC):对待求解子区域的每个像素求基于全局采样抠图算法中的采样置信度,待求解子区域的ASC即为这些采样置信度的平均值。基于全局采样的抠图算法具体可参见“He K,Rhemann C,Rother C,et al.A global samplingmethod for alpha matting[C]//Computer Vision and Pattern Recognition(CVPR),2011IEEE Conference on.IEEE,2011:2049-2056.”。
(3)采样颜色模糊度(Sample color ambiguity,SCA):分别对待求解子区域的近前景边缘与近背景边缘建立单元高斯分布(UnivariateGaussiandistribution),取两个分布的KL散度距离为SCA(KL距离,是Kullback-Leibler差异的简称,也叫做相对熵。它衡量的是相同事件空间里的两个概率分布的差异情况)。
步骤54:选择随机森林回归作为学习模型以抠图评估基准数据集(http://www.alphamatting.com/datasets.php)对上述特征作回归分析,得到回归模型用于协同抠图的置信度预测。随机森林回归是一种非线性回归模型,它是一个包含多个分类与回归决策树的分类器,将多个分类与回归树的平均输出作为其输出。随机森林回归具体可参见“Breiman L.Random forests[J].Machine learning,2001,45(1):5-32.”。
为了避免过拟合并提高预测精度,引入两种随机操作。
(1)随机森林的每一颗树都是可置换的从训练数据中随机选择一个子集进行训练。这样采样的益处在于大约有36%的训练数据不会被使用,使得在模型训练完毕后可以用未使用的数据进行测试与调整。
(2)在树增长的过程中,每个节点的分裂都在属性集上随机选一个子集进行。
具体的模型训练中,从互联网随机选择100张背景图片,以抠图评估基准数据集提供的基准alpha值与基准数据前景图片复合。对每张复合过的图片以基于全局采样的抠图方法进行抠图,对抠图结果进行特征提取。对得到的数据训练模型,随机森林回归模型定义如下:
其中决策树数目为200。
在模型训练结束后,对每张图片得到的上述两类特征线性拼接的向量输入回归模型中以取得最后的待求解子区域置信度值。
所述步骤6包括以下步骤:第一步在图像对的前景上进行匹配;第二步在待求解区域的所有边界点上做非刚性匹配。
步骤61:取所有图像中平均抠图置信度最高的图像作为基准。在前景上用SIFT流匹配算法作其他图像与基准图像的前景匹配。相比于其他匹配算法,SIFT流匹配更倾向于加强邻接像素间匹配时的拓扑关系,同时对视角变换及光照环境有更好的适应。在这一步结束,待求解区域近前景边缘的像素点匹配完毕。SIFT流匹配算法具体可参见“Liu C,Yuen J,Torralba A,et al.Sift flow:Densecorrespondence across different scenes[M]//Computer Vision–ECCV2008.SpringerBerlin Heidelberg,2008:28-42.”。
步骤62:取待求解区域的所有边缘像素点,采用RPM-TPS匹配算法得到点集间的非刚性变换,对待求解区域剩余所有点利用非刚性变换得到匹配。
RPM-TPS匹配算法具体可参见“Chui H,Rangarajan A.A new point matchingalgorithm for non-rigid registration[J].Computer Vision and Image Understanding,2003,89(2):114-141.”。
所述步骤7包括以下步骤:在定义的全局优化框架下进行所有图像的协同抠图。最小化以下能量方程以使得高置信度区域可以改善低置信度区域的抠图结果同时低置信度区域的结果不会影响高置信度区域结果:
其中α是包含所有图像的所有待求解区域像素点alpha值的向量,为alpha值初始结果向量。方程第一项强制抠图结果的局部平滑性,其中LM上的值由闭式解抠图算法构建的拉普拉斯矩阵值给出。方程第二项基于图像间匹配像素点对建立起协同抠图的基础,使不同图像间匹配像素点对建立起关联。其中LR是匹配关联矩阵,定义为LR=I-WR。其中I为单位矩阵,WR定义如下:
方程第三项对最后优化结果的alpha值做出限制,使其尽量与初始alpha值保持一致。Δ为一个对角矩阵,对角线上值如下设定:
其中C为一个大的常数(一般设为1000),f(αi)∈[0,1]为αi的抠图置信度,Tf为一个高阈值(一般设为0.8)。这样,对于已知的前景或者背景像素点以及置信度很高的像素点它们的值被设为大常数,而其他像素点对应值被设定为采样置信度fi s,采样置信度具体可参见“He K,Rhemann C,Rother C,et al.A globalsampling method for alpha matting[C]//Computer Vision and Pattern Recognition(CVPR),2011IEEE Conference on.IEEE,2011:2049-2056.”。在这样的设定下,高置信度区域的结果值不会有大的变化,而低置信度区域像素点结果值会被其匹配的高置信度区域结果值所引导。δr与δc为两个权值,控制方程每一项的比重(一般分别设为100与0.1)。
上述能量方程的解可以通过共轭梯度法求解一个线性系统得到。
实施例:
由于本发明是对图像进行处理,因此在实施例的处理过程展示以及效果展示的附图中,不可避免的使用灰度图进行表示。
图2给出了两张待处理源图像。可以看到,两张图像拥有相似的前景并且背景有较大变化。
图3给出了经过步骤1-3后得到的两张图像的掩膜。其中区域1为前景,区域2为待求解区域,区域3为背景。
图4为采用基于全局采样抠图算法后的结果,可以看到其中一些前背景混合处的抠图结果不是很好。
图5为经过特征提取与回归分析后得出的置信度图,不同颜色反应了不同的置信度,颜色越浅处置信度越高,相应的在协同抠图过程中倾向于不会变化,而颜色深处即置信度低处会被其对应的置信度高处的结果所引导改善。
图6为采样置信度图,它被用于协同优化过程中。采样置信度具体可参见“HeK,Rhemann C,Rother C,et al.A global sampling method for alphamatting[C]//Computer Vision and Pattern Recognition(CVPR),2011IEEEConference on.IEEE,2011:2049-2056.”。
图7为最后协同抠图的结果,相比于单张抠图方法,在细节处可以明显看到基于置信度的协同抠图取得了更好的抠图结果。
图8为整个基于置信度的协同抠图方法的概览。其中图8中a列为两张原图与其掩膜,图8中b列为对每张图像基于单张抠图方法产生的初始抠图结果,图8中c列显示了对待求解区域作划分后每个待求解子区域的置信度值,图8中d列为两张图像的匹配结果图,图8中e列为经过优化步骤后的协同抠图结果图。
图9为协同抠图的图模型。计算出初始抠图结果alpha值后每个像素点的最终alpha值受制于常数先验权重、抠图置信度以及采样置信度,所以也即最终待求解区域的每个像素点alpha值既受制于图像内的关联同样也受制于图像间的关联。箭头反映了高置信度区域是如何引导低置信度区域提升抠图结果。
图10反应了采用基于图的图像分割算法后待求解区域的划分情况。图10中a列对掩膜所标注的背景区域采用基于图的图像分割算法分成一组背景子区域,将分割线与待求解区域边缘的交点往前景处延伸(取与交点最近的前景边缘像素点)形成图10中b列中的一组线段,线段将待求解区域划分为一组待求解子区域,继而在这些待求解子区域上计算置信度值。
图11反应了以每个单个特征建立的回归模型与联合所有特征建立的回归模型在预测的置信度值与基准置信度值之间的平均平方差。可以看出结合多个特征所建立的回归模型明显优于单个特征。
图12中为对从“少年派的奇幻漂流”中截取的两帧图像的一次实验。其中a列为两张源图像,b列为基于全局采样的抠图方法结果,c列为闭式解抠图方法结果,d列为基于置信度的协同抠图结果,e列为置信度图。可以看到闭式解抠图方法过于倾向平滑以至一些高对比度区域的细节被丢失(图12中b列的箭头所指区域),基于全局采样的抠图方法则在前背景比较重叠的区域得到了较为嘈杂的抠图结果(图12中c列箭头所指区域),而基于置信度的协同抠图则有效的克服了这两个缺点,取得了更好的抠图结果(图12中d列)。
图13为对基准数据集所提供的视频中截图的一次实验。其中a列为两张源图像,b列为基于全局采样的抠图方法结果,c列为闭式解抠图方法结果,d列为基于置信度的协同抠图结果,e列为置信度图。两张图像的背景非常相似,只有一些被方框标注的局部区域略有不同,普通的单张图像抠图方法在这些细微变化的背景区域会产生不连续的结果,而基于置信度的协同抠图方法很好的克服了这一缺点。一个鲜明的例子可见于箭头所指位置,此处有一颗钉子与头发颜色相近,普通的单张图像抠图方法(基于全局采样的抠图方法及闭式解抠图方法)都没有很好的在此处取得较好结果,而基于置信度的协同抠图方法很好的给出了此处的抠图结果。
图14为一个三张图像协同抠图的示意图。其中a列为三张源图像,b列为基于全局采样的抠图方法结果,c列为闭式解抠图方法结果,d列为基于置信度的协同抠图结果,e列为置信度图。在所标注的方框内可以看出,每帧图像的低置信度区域不完善的抠图结果都被其对应的高置信度区域抠图结果所引导改善。
Claims (7)
1.一种基于置信度的图像协同抠图方法,其特征在于,包括以下步骤:
步骤1:对所有图像进行协同分割;
步骤2:采取交互式图像分割算法进行分割,以取得精确的前景和背景分割;
步骤3:对前景膨胀,围绕前景取得固定宽度的待求解区域,从而得到初步的将图像标注为前景、背景和待求解区域的掩膜;用户交互修缮待求解区域,在修缮过程中以光流制导的传播方法将修缮传播到其他的掩膜中;
步骤4:对每张图像进行单张图像抠图以产生每张图像的初始抠图结果;
步骤5:对每张图像的初始抠图结果进行置信度量;
步骤6:对所有图像的待求解区域像素点集进行匹配;
步骤7:在定义的全局优化框架下进行所有图像的协同抠图,以取得最终的抠图。
2.根据权利要求1所述的一种基于置信度的图像协同抠图方法,其特征在于,步骤1中,采用无监督的协同分割算法对所有图像进行协同分割以得出初步前景和背景。
3.根据权利要求2所述的一种基于置信度的图像协同抠图方法,其特征在于,步骤3中,采用参考点位于中心的3*3核对图像前景进行膨胀。
4.根据权利要求3所述的一种基于置信度的图像协同抠图方法,其特征在于,步骤4中,根据原始图像和掩膜,对每张图像采用基于全局采样的单张图像抠图方法产生初始的抠图结果。
5.根据权利要求4所述的一种基于置信度的图像协同抠图方法,其特征在于,所述步骤5包括以下步骤:
步骤51:对掩膜中的背景区域采用基于图的图像分割算法分割成一组背景子区域,延长所述背景子区域的划分边界直到与掩膜中的待求解区域相交,在交点处寻找离交点最近的前景边缘点,将所述交点和前景边缘点连接,即将待求解区域划分为一组待求解子区域;
步骤52:提取基于背景的特征:对每个与待求解子区域相邻接的背景子区域计算以下特征,继而传播到待求解子区域中,特征包括:颜色复杂度、梯度复杂度、规格墒和子区域尺寸;将所述特征线性拼接为背景子区域的特征向量,背景子区域的特征向与其邻接的待求解子区域传播以形成待求解子区域的特征向量;
步骤53:提取基于单张抠图方法的特征,特征包括:绝对抠图结果差值、平均采样置信度和采样颜色模糊度;
步骤54:以基准数据集对步骤52和步骤53的所有特征作回归分析,得到回归模型用于协同抠图的置信度预测。
6.根据权利要求5所述的一种基于置信度的图像协同抠图方法,其特征在于,步骤52中,将所述颜色复杂度、梯度复杂度、规格墒和子区域尺寸线性拼接为背景子区域的特征向量掩膜中背景子区域的特征,向与其邻接的待求解子区域传播,以形成待求解子区域特征公式如下:
其中Tj为一待求解子区域,为背景子区域Bi与待求解子区域Tj的交线长度,T为的Tj并,NB为背景子区域的数量,i取值1~NB。
7.根据权利要求1所述的一种基于置信度的图像协同抠图方法,其特征在于,所述步骤6对所有图像采取两步匹配:第一步在图像对的前景上进行匹配;第二步对待求解区域的边界上的所有点进行非刚性变化匹配以求得所有待求解区域的像素点对匹配。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201410153439.8A CN103942794B (zh) | 2014-04-16 | 2014-04-16 | 一种基于置信度的图像协同抠图方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201410153439.8A CN103942794B (zh) | 2014-04-16 | 2014-04-16 | 一种基于置信度的图像协同抠图方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN103942794A true CN103942794A (zh) | 2014-07-23 |
CN103942794B CN103942794B (zh) | 2016-08-31 |
Family
ID=51190445
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201410153439.8A Expired - Fee Related CN103942794B (zh) | 2014-04-16 | 2014-04-16 | 一种基于置信度的图像协同抠图方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN103942794B (zh) |
Cited By (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106204621A (zh) * | 2016-07-22 | 2016-12-07 | 北京航空航天大学 | 一种自适应分治的高分辨率图像对象精准提取方法 |
CN106331533A (zh) * | 2016-08-10 | 2017-01-11 | 深圳市企拍文化科技有限公司 | 在视频中添加logo的方法 |
CN106846337A (zh) * | 2017-02-09 | 2017-06-13 | 丽水学院 | 一种基于主动学习的抠图方法 |
CN107305682A (zh) * | 2016-04-22 | 2017-10-31 | 富士通株式会社 | 用于对图像进行拼接的方法和装置 |
WO2018107825A1 (zh) * | 2016-12-13 | 2018-06-21 | 华为技术有限公司 | 抠图方法及装置 |
CN108305267A (zh) * | 2018-02-14 | 2018-07-20 | 北京市商汤科技开发有限公司 | 物体分割方法、装置、设备、存储介质及程序 |
CN108520223A (zh) * | 2018-04-02 | 2018-09-11 | 广州华多网络科技有限公司 | 视频图像的分割方法、分割装置、存储介质和终端设备 |
CN109062484A (zh) * | 2018-07-30 | 2018-12-21 | 安徽慧视金瞳科技有限公司 | 一种交互式课堂教学系统手动掩膜图获取方法 |
CN110910391A (zh) * | 2019-11-15 | 2020-03-24 | 安徽大学 | 一种双模块神经网络结构视频对象分割方法 |
CN111047604A (zh) * | 2019-11-29 | 2020-04-21 | 贵州民族大学 | 一种高清图像的透明度遮罩提取方法、装置及存储介质 |
CN111091543A (zh) * | 2019-12-12 | 2020-05-01 | 哈尔滨市科佳通用机电股份有限公司 | 铁路货车摇枕弹簧丢失故障目标检测方法 |
CN111212228A (zh) * | 2020-01-13 | 2020-05-29 | 维沃移动通信有限公司 | 图像处理方法和电子设备 |
CN111223108A (zh) * | 2019-12-31 | 2020-06-02 | 上海影卓信息科技有限公司 | 基于背景幕抠图和融合的方法和系统 |
CN111275729A (zh) * | 2020-01-17 | 2020-06-12 | 新华智云科技有限公司 | 精分割天空区域的方法及系统、图像换天的方法及系统 |
CN112330531A (zh) * | 2020-11-04 | 2021-02-05 | 广州博冠信息科技有限公司 | 图像处理方法、装置、电子设备及存储介质 |
CN112734916A (zh) * | 2021-01-25 | 2021-04-30 | 华侨大学 | 基于图像处理的彩色共聚焦并行测量三维形貌还原算法 |
WO2021139625A1 (zh) * | 2020-01-07 | 2021-07-15 | 广州虎牙科技有限公司 | 图像处理方法、图像分割模型训练方法及相关装置 |
CN113658197A (zh) * | 2021-08-20 | 2021-11-16 | Oppo广东移动通信有限公司 | 图像处理方法、装置、电子设备及计算机可读存储介质 |
CN113870283A (zh) * | 2021-09-29 | 2021-12-31 | 深圳万兴软件有限公司 | 人像抠图方法、装置、计算机设备及可读存储介质 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN100539698C (zh) * | 2007-07-10 | 2009-09-09 | 浙江大学 | 一种数字视频处理中交互式时空一致的视频抠图方法 |
EP2396748A4 (en) * | 2009-02-10 | 2012-05-30 | Thomson Licensing | VIDEO DETOURAGE BASED ON A CONFRAINTS PROPAGATION FIRST PLAN-BACKGROUND |
-
2014
- 2014-04-16 CN CN201410153439.8A patent/CN103942794B/zh not_active Expired - Fee Related
Cited By (31)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107305682B (zh) * | 2016-04-22 | 2020-12-15 | 富士通株式会社 | 用于对图像进行拼接的方法和装置 |
CN107305682A (zh) * | 2016-04-22 | 2017-10-31 | 富士通株式会社 | 用于对图像进行拼接的方法和装置 |
CN106204621B (zh) * | 2016-07-22 | 2019-03-08 | 北京航空航天大学 | 一种自适应分治的高分辨率图像对象精准提取方法 |
CN106204621A (zh) * | 2016-07-22 | 2016-12-07 | 北京航空航天大学 | 一种自适应分治的高分辨率图像对象精准提取方法 |
CN106331533A (zh) * | 2016-08-10 | 2017-01-11 | 深圳市企拍文化科技有限公司 | 在视频中添加logo的方法 |
WO2018107825A1 (zh) * | 2016-12-13 | 2018-06-21 | 华为技术有限公司 | 抠图方法及装置 |
CN106846337B (zh) * | 2017-02-09 | 2019-11-19 | 丽水学院 | 一种基于主动学习的抠图方法 |
CN106846337A (zh) * | 2017-02-09 | 2017-06-13 | 丽水学院 | 一种基于主动学习的抠图方法 |
CN108305267A (zh) * | 2018-02-14 | 2018-07-20 | 北京市商汤科技开发有限公司 | 物体分割方法、装置、设备、存储介质及程序 |
CN108305267B (zh) * | 2018-02-14 | 2020-08-11 | 北京市商汤科技开发有限公司 | 物体分割方法、装置、设备、存储介质及程序 |
CN108520223A (zh) * | 2018-04-02 | 2018-09-11 | 广州华多网络科技有限公司 | 视频图像的分割方法、分割装置、存储介质和终端设备 |
CN108520223B (zh) * | 2018-04-02 | 2021-11-12 | 广州方硅信息技术有限公司 | 视频图像的分割方法、分割装置、存储介质和终端设备 |
CN109062484A (zh) * | 2018-07-30 | 2018-12-21 | 安徽慧视金瞳科技有限公司 | 一种交互式课堂教学系统手动掩膜图获取方法 |
CN110910391A (zh) * | 2019-11-15 | 2020-03-24 | 安徽大学 | 一种双模块神经网络结构视频对象分割方法 |
CN110910391B (zh) * | 2019-11-15 | 2023-08-18 | 安徽大学 | 一种双模块神经网络结构视频对象分割方法 |
CN111047604A (zh) * | 2019-11-29 | 2020-04-21 | 贵州民族大学 | 一种高清图像的透明度遮罩提取方法、装置及存储介质 |
CN111047604B (zh) * | 2019-11-29 | 2023-04-28 | 贵州民族大学 | 一种高清图像的透明度遮罩提取方法、装置及存储介质 |
CN111091543A (zh) * | 2019-12-12 | 2020-05-01 | 哈尔滨市科佳通用机电股份有限公司 | 铁路货车摇枕弹簧丢失故障目标检测方法 |
CN111223108A (zh) * | 2019-12-31 | 2020-06-02 | 上海影卓信息科技有限公司 | 基于背景幕抠图和融合的方法和系统 |
WO2021139625A1 (zh) * | 2020-01-07 | 2021-07-15 | 广州虎牙科技有限公司 | 图像处理方法、图像分割模型训练方法及相关装置 |
CN111212228B (zh) * | 2020-01-13 | 2021-06-22 | 维沃移动通信有限公司 | 图像处理方法和电子设备 |
CN111212228A (zh) * | 2020-01-13 | 2020-05-29 | 维沃移动通信有限公司 | 图像处理方法和电子设备 |
CN111275729A (zh) * | 2020-01-17 | 2020-06-12 | 新华智云科技有限公司 | 精分割天空区域的方法及系统、图像换天的方法及系统 |
CN111275729B (zh) * | 2020-01-17 | 2023-05-30 | 新华智云科技有限公司 | 精分割天空区域的方法及系统、图像换天的方法及系统 |
CN112330531A (zh) * | 2020-11-04 | 2021-02-05 | 广州博冠信息科技有限公司 | 图像处理方法、装置、电子设备及存储介质 |
CN112734916A (zh) * | 2021-01-25 | 2021-04-30 | 华侨大学 | 基于图像处理的彩色共聚焦并行测量三维形貌还原算法 |
CN112734916B (zh) * | 2021-01-25 | 2022-08-05 | 华侨大学 | 基于图像处理的彩色共聚焦并行测量三维形貌还原方法 |
CN113658197A (zh) * | 2021-08-20 | 2021-11-16 | Oppo广东移动通信有限公司 | 图像处理方法、装置、电子设备及计算机可读存储介质 |
CN113658197B (zh) * | 2021-08-20 | 2023-09-05 | Oppo广东移动通信有限公司 | 图像处理方法、装置、电子设备及计算机可读存储介质 |
CN113870283A (zh) * | 2021-09-29 | 2021-12-31 | 深圳万兴软件有限公司 | 人像抠图方法、装置、计算机设备及可读存储介质 |
CN113870283B (zh) * | 2021-09-29 | 2024-05-28 | 深圳万兴软件有限公司 | 人像抠图方法、装置、计算机设备及可读存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN103942794B (zh) | 2016-08-31 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN103942794A (zh) | 一种基于置信度的图像协同抠图方法 | |
CN104537676B (zh) | 一种基于在线学习的渐进式图像分割方法 | |
CN104050471B (zh) | 一种自然场景文字检测方法及系统 | |
CN110276264B (zh) | 一种基于前景分割图的人群密度估计方法 | |
CN105825502B (zh) | 一种基于显著性指导的词典学习的弱监督图像解析方法 | |
CN102194108B (zh) | 一种聚类线性鉴别分析特征选择的笑脸表情识别方法 | |
CN104899877A (zh) | 基于超像素和快速三分图的图像前景提取方法 | |
CN102024156B (zh) | 彩色人脸图像中的唇部区域定位方法 | |
CN102779270B (zh) | 一种针对购物图像搜索的目标衣物图像提取方法 | |
CN102103690A (zh) | 一种自动的头发区域分割方法 | |
Li et al. | Saliency based image segmentation | |
CN103177446A (zh) | 基于邻域和非邻域平滑先验的图像前景精准提取方法 | |
CN103035013A (zh) | 一种基于多特征融合的精确运动阴影检测方法 | |
CN110827312B (zh) | 一种基于协同视觉注意力神经网络的学习方法 | |
CN103310194A (zh) | 视频中基于头顶像素点梯度方向的行人头肩部检测方法 | |
CN103295013A (zh) | 一种基于成对区域的单幅图像阴影检测方法 | |
CN103886619A (zh) | 一种融合多尺度超像素的目标跟踪方法 | |
CN107657625A (zh) | 融合时空多特征表示的无监督视频分割方法 | |
CN106529432A (zh) | 一种深度融合显著性检测与先验知识的手部区域分割方法 | |
CN105718866A (zh) | 一种视觉目标检测与识别方法 | |
CN102254327B (zh) | 数码照片中的人脸自动分割方法 | |
CN102184404B (zh) | 掌纹图像中手掌区域的获取方法及装置 | |
CN103198479A (zh) | 基于语义信息分类的sar图像分割方法 | |
CN110728302A (zh) | 一种基于HSV和Lab颜色空间的色纺织物组织识别的方法 | |
CN106548139A (zh) | 一种行人重识别方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20160831 |