CN107194949B - 一种基于区块匹配和增强Onecut的交互式视频分割方法和系统 - Google Patents

一种基于区块匹配和增强Onecut的交互式视频分割方法和系统 Download PDF

Info

Publication number
CN107194949B
CN107194949B CN201710350863.5A CN201710350863A CN107194949B CN 107194949 B CN107194949 B CN 107194949B CN 201710350863 A CN201710350863 A CN 201710350863A CN 107194949 B CN107194949 B CN 107194949B
Authority
CN
China
Prior art keywords
pixel
frame
background
local
foreground
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
CN201710350863.5A
Other languages
English (en)
Other versions
CN107194949A (zh
Inventor
韩守东
杨迎春
陈阳
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Huazhong University of Science and Technology
Original Assignee
Huazhong University of Science and Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Huazhong University of Science and Technology filed Critical Huazhong University of Science and Technology
Priority to CN201710350863.5A priority Critical patent/CN107194949B/zh
Publication of CN107194949A publication Critical patent/CN107194949A/zh
Application granted granted Critical
Publication of CN107194949B publication Critical patent/CN107194949B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/215Motion-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • G06F18/232Non-hierarchical techniques
    • G06F18/2321Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
    • G06F18/23213Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions with fixed number of clusters, e.g. K-means clustering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/12Edge-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/194Segmentation; Edge detection involving foreground-background segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Probability & Statistics with Applications (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于区块匹配和增强Onecut的交互式视频分割方法和系统。本发明方法沿着上一帧轮廓线均匀地选取采样点,以采样点为中心建立局部分类器,利用区块匹配将上一帧的轮廓传递到当前帧,得到目标物体在当前帧的预估初始轮廓,同时移动局部分类器的位置到当前帧,更新局部分类器,利用局部分类器及全局概率模型求取当前帧各像素属于前景或背景的概率,最后通过增强Onecut模型得到当前帧各个像素的分割标记。如果上一帧为关键帧时,加入交互,利用传统交互式图像分割方法得到目标物体精确的轮廓。本发明还实现了一种基于区块匹配和增强Onecut的交互式视频分割系统,本发明技术方案具有较高的容错性和较高的分割性能。

Description

一种基于区块匹配和增强Onecut的交互式视频分割方法和 系统
技术领域
本发明属于图像处理技术领域,更具体地,涉及一种基于区块匹配和增强Onecut的交互式视频分割方法和系统。
背景技术
视频分割是一类二值标记问题,旨在把作为一个整体的视频或图像序列,通过一定的方法分割出具有实际意义的对象。视频分割在很多领域中均有着重要的作用,例如:在目标识别中,视频分割可以为目标识别提供先验信息;在图像编码中,视频分割可以提高视频压缩编码的效率。虽然国内外众多研究者对视频分割技术进行了较长时间的研究,而且各种视频分割算法也层出不穷,但是由于视频场景的复杂性,待分割视频的多样性,以及各种噪声干扰,因此到目前为止,仍然没有一种适用所有视频的分割算法。
一般地,根据是否加入人工交互,视频分割可以分为非交互式视频分割和交互式视频分割两种。非交互式视频分割不需要加入人工标记,主要采用视频对象的运动特征,如基于光流或基于梯度下降法的非交互式视频分割方法。该类方法对视频中存在运动物体的情况适用性较好,如果待分割的目标固定或者运动缓慢或者交替着运动,该类方法由于无法通过运动特征来预测目标物体的可能区域,从而无法达到分割的目的。而交互式视频分割方法通过加入人工交互能够较好地解决上述目标不规律运动的问题,而且,在某些特殊情况下,必须采用人工交互给出先验信息才能分割出目标物体。
目前大多数视频分割方法都是基于图论的,有很多方法直接将图割模型从图像分割推广到视频分割,通过光流或其他跟踪方式在原有的空间连续性基础上加入时间连续性。运用Graphcut或者Grabcut在考虑像素间相似性的时候通常只考虑邻近的一些像素点,这类方法没有很好地考虑大范围颜色相近的像素点之间的联系,而Onecut则充分考虑了全局颜色空间,将距离很远的两个像素点划分在同一个颜色直方图中,计算前背景直方图的L1距离,在保证全局最优的情况下,一次分割便可得到最终的分割结果。
发明内容
针对现有技术的以上缺陷或改进需求,本发明提供了一种基于区块匹配和增强Onecut的交互式视频分割方法和系统,其目的在于融合颜色特征、形状信息和目标物体运动特征,以较少的人工交互得到满意的分割结果,由此解决现有交互式视频分割技术中的分割结果精确性不强,时空连续性不一致,以及交互量过大等技术问题。
为实现上述目的,按照本发明的一个方面,提供了一种基于区块匹配和增强Onecut的交互式视频分割方法,所述步骤包括以下步骤:
(1)视频当前帧不是关键帧时,获取上一帧的分割轮廓,沿轮廓线均匀取采样点,以采样点为中心,初始化局部分类器的位置、大小和混合高斯模型;若上一帧不为关键帧,则通过上一帧的分割轮廓更新全局概率模型;所述关键帧为视频第一帧及视频中确定进行交互的帧;
(2)利用区块匹配跟踪上一帧分割轮廓获得当前帧轮廓,以当前帧轮廓更新局部分类器的位置和混合高斯模型,构建局部分类器;
(3)利用前一帧全局概率模型、当前帧局部分类器模型和相邻帧间的时空连续性新建增强Onecut数据项,构建增强Onecut能量模型;
(4)加权结合当前帧局部分类器模型和前一帧全局概率模型求取每个像素属于前景和背景的综合概率,结合综合概率和该像素点到轮廓线的最近距离来选取Onecut能量模型种子点,求解增强Onecut能量模型的最大流,得到当前帧的分割轮廓;若视频分割未结束,则将当前帧转换为上一帧,返回步骤(1),否则结束。
进一步地,所述方法还包括步骤(5):
(5)当前帧是关键帧时,对当前帧进行交互式图像分割,得到分割轮廓,由分割轮廓统计前景点集合和背景点集合,分别对这两个集合进行聚类,优选kmeans++聚类操作,选用高斯分布进行拟合,初始化得到前景和背景全局混合高斯模型由此求得像素x属于前景和背景的当前全局概率p1 global(x)和p0 global(x);若视频分割未结束,则将当前帧转换为上一帧,返回步骤(1),否则结束。
进一步地,所述步骤(1)包括以下子步骤:
(11)计算分类器大小,每个局部分类器是边长为r的正方形:
其中,ymin表示整帧图像短边长度;λ表示分割目标物占整帧图像的大小比重;
(12)沿轮廓线均匀取采样点,以采样点为局部分类器的中心,并以分割结果初始化第t帧图像第k个局部分类器的前景和背景局部混合高斯模型
(13)第t帧不是关键帧时,根据分割轮廓统计前景点集合和背景点集合,分别根据两个集合更新前景和背景全局混合高斯模型由此求得像素x属于前景和背景的当前全局概率
进一步地,所述步骤(2)包括以下子步骤:
(21)利用区块匹配跟踪第t帧分割轮廓获得第t+1帧轮廓,区块匹配后轮廓的位置L(xt+1)为:
其中,表示待匹配轮廓点xt的邻域的前景部分,邻域的边长取值范围为3~7,邻域优选5×5;表示中一个像素点的位置;T表示由第t帧的像素点得到第t+1帧最相似像素点的位置变换,采用稀疏匹配得到优选SIFT单点稀疏匹配;
(22)更新局部分类器中心点的位置到新的轮廓上,并更新第t+1帧前景和背景局部混合高斯模型
(23)在第t+1帧的第k个局部分类器中,像素x属于前景和背景的局部概率分别为
其中,St+1(x|k)表示区块匹配后的预估前景和背景标记,若像素x预估为前景则取值为1,否则取值为0;分别是相对局部前景和背景颜色概率:
分别由计算所得;ξc为局部分类器模型中颜色约束相对形状约束的权重,
其中,w(x)为距离影响权重,
w(x)=exp(-|d(x)|22 c)
其中,|d(x)|为像素x距离最近轮廓线的距离,当像素x越接近物体轮廓线,其颜色概率模型的作用越大,所以w(x)也越大;σc为经验值,大小设为局部分类器尺寸的,其取值范围为0.4~0.6,优选0.5;Sk表示第k个分类器的像素集合;
(24)由于经过区块匹配之后,第t+1帧图像的某个像素可能同时存在于多个局部分类器中,所以通过叠加所有覆盖局部分类器的作用以求得像素x属于前景和背景的局部概率p1 local(x)和p0 local(x):
其中,K表示覆盖像素x的局部分类器数量;ck为第k个局部分类器的中心位置;δ是一个非常小的常数,防止出现分母为0的情况。
进一步地,所述步骤(3)包括以下子步骤:
(31)构建增强Onecut能量模型:
其中,能量模型的优化结果只取决于分割结果S,这里S表示前景像素集合,表示背景像素集合,而D(x)表示通过全局概率模型和局部分类器加入的增强Onecut数据项,而表示通过帧间平滑项N-links折算加入的增强Onecut数据项,θs分别表示前景和背景的直方图统计,为θs之间的L1距离;τ为前景和背景分布差异的权重,其取值范围为0.2~0.5,优选0.35,γ表示帧间平滑项的权重,其取值范围为0.13~02,优选0.17;η表示帧内平滑项的权重,其取值范围为0.3~0.45,优选0.4;表示帧内相邻像素的相似度,
其中,sx和sy表示相邻像素对x和y的标记,像素点为前景取值1,像素点为背景取值0;N表示帧内相邻像素对的集合;ωxy表示像素x和y的相似度,
其中,||x-y||表示像素x和y的欧式距离,ΔI表示像素x和y的颜色距离,σ设置为整个图像的梯度均值;
(32)基于全局概率模型和局部分类器的增强Onecut数据项为像素x属于前景和背景的综合概率D(x),
其中,α为计算综合前景概率时,全局概率模型所占比例,α取值范围为0.5~0.7,优选0.6;β为计算综合前景概率时,全局概率模型所占比例,β取值范围为0.3~0.5,优选0.4;
(33)基于帧间平滑项N-links折算的增强Onecut数据项为
其中,表示像素x在第t帧的邻域像素集合,为了保证相邻帧多层图分割的时空连续性,同时又避免折算后数据项比重过大,优选采用6×6的邻域空间;|sy|表示像素y的标记取值,像素y属于前景取值1,像素y属于背景取值0;wxy表示像素x与上一帧邻域像素y的相似度。
按照本发明的另一方面,提供了一种基于区块匹配和增强Onecut的交互式视频分割系统,所述系统包括:
上一帧处理模块,用于判断若视频当前帧不是关键帧时,则获取上一帧的分割轮廓,初始化局部分类器的位置、大小和混合高斯模型;若上一帧不为关键帧,则通过上一帧的分割轮廓更新全局概率模型;所述关键帧为视频第一帧及视频中确定进行交互的帧;
当前帧处理模块,用于利用区块匹配跟踪上一帧分割轮廓获得当前帧轮廓,以当前帧轮廓更新局部分类器的位置和混合高斯模型,构建局部分类器;
增强Onecut能量模型构建模块,用于利用前一帧全局概率模型、当前帧局部分类器模型和相邻帧间的时空连续性新建增强Onecut数据项,构建增强Onecut能量模型;
求解当前帧分割模块,用于加权结合当前帧局部分类器模型和前一帧全局概率模型求取每个像素属于前景和背景的综合概率,结合综合概率和该像素点到轮廓线的最近距离来选取Onecut能量模型种子点,求解增强Onecut能量模型的最大流,得到当前帧的分割轮廓;若视频分割未结束,则将当前帧转换为上一帧,返回上一帧处理模块,否则结束。
进一步地,所述系统还包括关键帧交互模块,用于判断若当前帧是关键帧时,则对当前帧进行交互式图像分割,得到分割轮廓,由分割轮廓统计前景点集合和背景点集合,分别对这两个集合进行聚类,优选kmeans++聚类操作,选用高斯分布进行拟合,初始化得到前景和背景全局混合高斯模型由此求得像素x属于前景和背景的当前全局概率p1 global(x)和p0 global(x);若视频分割未结束,则将当前帧转换为上一帧,返回上一帧处理模块,否则结束。
进一步地,所述上一帧处理模块包括以下单元:
分类器大小计算单元,用于计算分类器大小,每个局部分类器是边长为r的正方形:
其中,ymin表示整帧图像短边长度;λ表示分割目标物占整帧图像的大小比重;
混合高斯模型初始化单元,用于沿轮廓线均匀取采样点,以采样点为局部分类器的中心,并以分割结果初始化第t帧图像第k个局部分类器的前景和背景局部混合高斯模型
全局概率更新单元,用于判断若第t帧不是关键帧时,则根据分割轮廓统计前景点集合和背景点集合,分别根据两个集合更新前景和背景全局混合高斯模型由此求得像素x属于前景和背景的当前全局概率p1 global(x)和p0 global(x)。
进一步地,所述当前帧处理模块包括以下单元:
区块匹配单元,用于利用区块匹配跟踪第t帧分割轮廓获得第t+1帧轮廓,区块匹配后轮廓的位置L(xt+1)为:
其中,表示待匹配轮廓点xt的邻域的前景部分,邻域的边长取值范围为3~7,优选5×5;表示中一个像素点的位置;T表示由第t帧的像素点得到第t+1帧最相似像素点的位置变换,采用稀疏匹配得到优选SIFT单点稀疏匹配;
混合高斯模型更新单元,用于更新局部分类器中心点的位置到新的轮廓上,并更新第t+1帧前景和背景局部混合高斯模型
局部概率计算单元,用于在第t+1帧的第k个局部分类器中,像素x属于前景和背景的局部概率分别为
其中,St+1(x|k)表示区块匹配后的预估前景和背景标记,若像素x预估为前景则取值为1,否则取值为0;分别是相对局部前景和背景颜色概率:
分别由计算所得;ξc为局部分类器模型中颜色约束相对形状约束的权重,
其中,w(x)为距离影响权重,
w(x)=exp(-|d(x)|22 c)
其中,|d(x)|为像素x距离最近轮廓线的距离,当像素x越接近物体轮廓线,其颜色概率模型的作用越大,所以w(x)也越大;σc为经验值,大小设为局部分类器尺寸的,其取值范围为0.4~0.6,优选0.5;Sk表示第k个分类器的像素点集合;
局部分类器构建单元,用于构建分类器,由于经过区块匹配之后,第t+1帧图像的某个像素可能同时存在于多个局部分类器中,所以通过叠加所有覆盖局部分类器的作用以求得像素x属于前景和背景的局部概率p1 local(x)和p0 local(x):
其中,K表示覆盖像素x的局部分类器数量;ck为第k个局部分类器的中心位置;δ是一个非常小的常数,防止出现分母为0的情况。
进一步地,所述增强Onecut能量模型构建模块包括以下单元:
Onecut能量模型单元,用于构建增强Onecut能量模型:
其中,能量模型的优化结果只取决于分割结果S,这里S表示前景像素集合,表示背景像素集合,而D(x)表示通过全局概率模型和局部分类器加入的增强Onecut数据项,而表示通过帧间平滑项N-links折算加入的增强Onecut数据项,θs分别表示前景和背景的直方图统计,为θs之间的L1距离;τ为前景和背景分布差异的权重,其取值范围为0.2~0.5,优选0.35,γ表示帧间平滑项的权重,其取值范围为0.13~02,优选0.17;η表示帧内平滑项的权重,其取值范围为0.3~0.45,优选0.4;表示帧内相邻像素的相似度,
其中,sx和sy表示相邻像素对x和y的标记,像素点为前景取值1,像素点为背景取值0;N表示帧内相邻像素对的集合;ωxy表示像素x和y的相似度,
其中,||x-y||表示像素x和y的欧式距离,ΔI表示像素x和y的颜色距离,σ设置为整个图像的梯度均值;
综合概率数据项单元,用于构建综合概率数据项,基于全局概率模型和局部分类器的增强Onecut数据项为像素x属于前景和背景的综合概率D(x),
其中,α为计算综合前景概率时,全局概率模型所占比例,α取值范围为0.5~0.7,优选0.6;β为计算综合前景概率时,全局概率模型所占比例,β取值范围为0.3~0.5,优选0.4;
帧间平滑数据项单元,用于构建帧间平滑数据项单元,基于帧间平滑项N-links折算的增强Onecut数据项为
其中,表示像素x在第t帧的邻域像素集合,为了保证相邻帧多层图分割的时空连续性,同时又避免折算后数据项比重过大,所采用的是6×6的邻域空间;|sy|表示像素y的标记取值,像素y属于前景取值1,像素y属于背景取值0;wxy表示像素x与上一帧邻域像素y的相似度。
总体而言,通过本发明所构思的以上技术方案与现有技术相比,具有以下技术特征及有益效果:
(1)本发明技术方案采用全局概率模型和局部分类器模型,综合了目标颜色特征和目标形状特征信息,既保证了目标对象的整体性,又兼顾到目标的局部轮廓,具有较高的容错性;
(2)本发明技术方案采用区块匹配的方法跟踪分割轮廓,改进了单点稀疏匹配抗噪能力弱的问题,并充分利用了目标的运动信息,增加了目标对象轮廓传递的鲁棒性;
(3)本发明技术方案采用全局概率模型、局部分类器模型以及帧间平滑项N-links增强了Onecut分割模型,通过实验验证,本发明提出的增强Onecut模型具有较高的分割性能。
附图说明
图1是本发明方法的实施流程图;
图2是采用本发明技术方案的实施例中上一帧的分割结果;
图3是实施例中上一帧目标轮廓上均匀选取的局部分类器;
图4是实施例中区块匹配后得到的当前帧局部分类器;
图5是本发明中Onecut能量模型图结构;
图6是实施例中当前帧的分割结果。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅用以解释本发明,并不用于限定本发明。此外,下面所描述的本发明各个实施方式中所涉及到的技术特征只要彼此之间未构成冲突就可以相互组合。
视频分割旨在将视频中的每一个有意义的实体,从背景中分离出来,这些实体都是完整的个体,对图像进行全局建模保证了目标物体的完整性,然而视频分割与其他目标提取方法的区别之处在于视频分割是一种精确的标记,对于每个像素都要明确给定其属于前景或背景的标签,所以物体边界分割的准确与否对最终分割结果至关重要,这就是本发明结合全局建模和局部建模的目的,既突出目标物体的整体性又兼顾目标的局部细节。
如图1所述,本发明方法包括以下步骤:
(1)若视频当前帧不是关键帧时,则获取上一帧的分割轮廓,沿轮廓线均匀取采样点,以采样点为中心,初始化局部分类器的位置、大小和混合高斯模型;若上一帧不为关键帧,则通过上一帧的分割轮廓更新全局概率模型;若视频当前帧是关键帧时,则进入步骤(5);
本步骤包括以下子步骤:
(11)计算分类器大小,每个局部分类器是边长为r的正方形:
其中,ymin表示整帧图像短边长度;λ表示分割目标物占整帧图像的大小比重;如图1所述为实施例视屏中上一帧图片的分割轮廓;
(12)沿轮廓线均匀取采样点,以采样点为局部分类器的中心,由分割轮廓统计局部前景点集合和背景点集合,分别对两个集合进行聚类,优选kmeans++聚类操作,选用3个高斯分布进行拟合,并以分割结果初始化第t帧图像第k个局部分类器的前景和背景局部混合高斯模型如图3为实施例中上一帧图片中初始化的局部分类器;
(13)第t帧不是关键帧时,根据分割轮廓统计前景点集合和背景点集合,分别根据两个集合更新前景和背景全局混合高斯模型由此求得像素x属于前景和背景的当前全局概率p1 global(x)和p0 global(x)。
(2)利用区块匹配跟踪上一帧分割轮廓获得当前帧轮廓,以当前帧轮廓更新局部分类器的位置和混合高斯模型,构建局部分类器;
本步骤包括以下子步骤:
(21)利用区块匹配跟踪第t帧分割轮廓获得第t+1帧轮廓,区块匹配后轮廓的位置L(xt+1)为:
其中,表示待匹配轮廓点xt的邻域的前景部分,邻域选5×5;表示中一个像素点的位置;T表示由第t帧的像素点得到第t+1帧最相似像素点的位置变换,采用稀疏匹配得到优选SIFT单点稀疏匹配;
(22)更新局部分类器中心点的位置到新的轮廓上,并更新第t+1帧前景和背景局部混合高斯模型如图4所述为本实施例中区块匹配后得到的当前帧局部分类器;
(23)在第t+1帧的第k个局部分类器中,像素x属于前景和背景的局部概率分别为
其中,Lt+1(x|k)表示区块匹配后的预估前景和背景标记,若像素x预估为前景则取值为1,否则取值为0;分别是相对局部前景和背景颜色概率:
分别由计算所得;ξc为局部分类器模型中颜色约束相对形状约束的权重,
其中,w(x)为距离影响权重,
w(x)=exp(-|d(x)|22 c)
其中,|d(x)|为像素x距离最近轮廓线的距离,当像素x越接近物体轮廓线,其颜色概率模型的作用越大,所以w(x)也越大;σc为经验值,大小设为局部分类器尺寸的,本实施例选0.5;St+1(x|k)表示第k个分类器中像素x为前景或背景,前景取值为1,背景取值为0;Sk表示第k个分类器的像素点集合;
(24)由于经过区块匹配之后,第t+1帧图像的某个像素可能同时存在于多个局部分类器中,所以通过叠加所有覆盖局部分类器的作用以求得像素x属于前景和背景的局部概率p1 local(x)和p0 local(x):
其中,K表示覆盖像素x的局部分类器集合;ck为第k个局部分类器的中心位置;δ是一个非常小的常数,防止出现分母为0的情况,本实施例中δ取0.01。
(3)利用前一帧全局概率模型、当前帧局部分类器模型和相邻帧间的时空连续性新建增强Onecut数据项,构建增强Onecut能量模型;
本步骤包括以下子步骤:
(31)构建增强Onecut能量模型:
其中,能量模型的优化结果只取决于分割结果S,这里S表示前景像素集合,表示背景像素集合,而D(x)表示通过全局概率模型和局部分类器加入的增强Onecut数据项,而表示通过帧间平滑项N-links折算加入的增强Onecut数据项,θs分别表示前景和背景的直方图统计,为θs之间的L1距离;τ为前景和背景分布差异的权重,本实施例中选0.35,γ表示帧间平滑项的权重,本实施例中选0.17;η表示帧内平滑项的权重,本实施例中选0.4;表示帧内相邻像素的相似度,
其中,sx和sy表示相邻像素对x和y的标记,像素点为前景取值1,像素点为背景取值0;N表示帧内相邻像素对的集合;ωxy表示像素x和y的相似度,
其中,||x-y||表示像素x和y的欧式距离,ΔI表示像素x和y的颜色距离,σ设置为整个图像的梯度均值;
(32)基于全局概率模型和局部分类器的增强Onecut数据项为像素x属于前景和背景的综合概率D(x),
其中,α为计算综合前景概率时,全局概率模型所占比例,本实施例α选0.6;β为计算综合前景概率时,全局概率模型所占比例,本实施例β选0.4;为了满足全局概率模型和局部分类器模型的归一性,本发明对它们均采用了相对概率,即有效的前景和背景概率值需要先用其前景概率与背景概率之和进行归一化处理;
(33)基于帧间平滑项N-links折算的增强Onecut数据项为
其中,表示像素x在第t帧的邻域像素集合,为了保证相邻帧多层图分割的时空连续性,同时又避免折算后数据项比重过大,本实施例中所采用的是6×6的邻域空间;|sy|表示像素y的标记取值,像素y属于前景取值1,像素y属于背景取值0;wxy表示像素x与上一帧邻域像素y的相似度。
(4)加权结合当前帧局部分类器模型和前一帧全局概率模型求取每个像素属于前景和背景的综合概率,结合综合概率和该像素点到轮廓线的最近距离来选取Onecut能量模型种子点,求解增强Onecut能量模型的最大流,得到当前帧的分割结果,求解增强Onecut能量模型等价于求解图5的最小割,数据项为图结构中的中间节点分别与上下顶点连接的边,由于在图论中最大流问题和最小割问题是对偶问题,所以最终等价于求解图的最大流,本实施例采用maxflow算法,得到当前帧分割结果,如图6所示;若视频分割未结束,则将当前帧转换为上一帧,返回步骤(1),否则结束:
本实施例中选取种子点具体过程为:如果某像素点的综合前景概率大于0.9,而该像素点又在预估初始轮廓线之内且到轮廓线的最小距离大于局部分类器边长的1/3,则选取其为前景种子点;如果某像素点的综合背景概率大于0.9,而该像素点又在预估初始轮廓线之外且到轮廓线的最小距离距离大于局部分类器边长的1/3,则选取其为背景种子点。
(5)当前帧是关键帧时,对当前帧进行交互式图像分割,得到分割轮廓,由分割轮廓统计前景点集合和背景点集合,分别对两个集合进行聚类,选用kmeans++聚类操作,选用5个高斯分布进行拟合,初始化得到前景和背景全局混合高斯模型由此求得像素x属于前景和背景的当前全局概率p1 global(x)和p0 global(x);若视频分割未结束,则将当前帧转换为上一帧,返回步骤(1),否则结束。
本领域的技术人员容易理解,以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明的保护范围之内。

Claims (8)

1.一种视频分割方法,其特征在于,所述方法包括以下步骤:
(1)视频当前帧不是关键帧时,获取上一帧的分割轮廓,初始化局部分类器的位置、大小和混合高斯模型;若上一帧不为关键帧,则通过上一帧的分割轮廓更新全局概率模型;
(2)利用区块匹配跟踪上一帧分割轮廓获得当前帧轮廓,以当前帧轮廓更新局部分类器的位置和混合高斯模型,构建局部分类器;
(3)利用前一帧全局概率模型、当前帧局部分类器模型和相邻帧间的时空连续性新建增强Onecut数据项,构建增强Onecut能量模型;
所述步骤(3)包括以下子步骤:
(31)构建增强Onecut能量模型:
其中,S表示前景像素集合,表示背景像素集合,而θs分别表示前景和背景的直方图统计,为θs之间的L1距离;τ为前景和背景分布差异的权重;γ表示帧间平滑项的权重;η表示帧内平滑项的权重;表示帧内相邻像素的相似度,
其中,sx和sy表示相邻像素对x和y的标记,像素为前景取值1,像素为背景取值0;N表示帧内相邻像素对的集合;ωxy表示像素x和y的相似度,
其中,||x-y||表示像素x和y的欧式距离,ΔI表示像素x和y的颜色距离,σ设置为整个图像的梯度均值;
(32)基于全局概率模型和局部分类器的增强Onecut数据项为像素x属于前景和背景的综合概率D(x),
其中,α为计算综合前景概率时,全局概率模型所占比例;β为计算综合前景概率时,全局概率模型所占比例;p1 global(x)和p0 global(x)表示像素x属于前景和背景的当前全局概率;p1 local(x)和p0 local(x)表示像素x属于前景和背景的局部概率;
(33)基于帧间平滑项N-links折算的增强Onecut数据项为
其中,表示像素x在第t帧的邻域像素集合;|sy|表示像素y的标记取值,像素为前景取值1,像素为背景取值0;wxy表示像素x与上一帧邻域像素y的相似度;
(4)加权结合当前帧局部分类器模型和前一帧全局概率模型求取每个像素属于前景和背景的综合概率,结合综合概率和该像素点到轮廓线的最近距离来选取Onecut能量模型种子点,求解增强Onecut能量模型的最大流,得到当前帧的分割轮廓;若视频分割未结束,则将当前帧转换为上一帧,返回步骤(1),否则结束。
2.根据权利要求1所述的一种视频分割方法,其特征在于,所述方法还包括步骤(5):
(5)当前帧是关键帧时,对当前帧进行交互式图像分割,得到分割轮廓,由分割轮廓统计前景点集合和背景点集合,分别对两个集合进行聚类,选用高斯分布进行拟合,初始化得到前景和背景全局混合高斯模型由此求得像素x属于前景和背景的当前全局概率p1 global(x)和p0 global(x);若视频分割未结束,则将当前帧转换为上一帧,返回步骤(1),否则结束。
3.根据权利要求1所述的一种视频分割方法,其特征在于,所述步骤(1)包括以下子步骤:
(11)计算分类器大小,每个局部分类器是边长为r的正方形:
其中,ymin表示整帧图像短边长度;λ表示分割目标物占整帧图像的大小比重;
(12)沿轮廓线均匀取采样点,以采样点为局部分类器的中心,并以分割结果初始化第t帧图像第k个局部分类器的前景和背景局部混合高斯模型
(13)第t帧不是关键帧时,根据分割轮廓统计前景点集合和背景点集合,分别根据两个集合更新前景和背景全局混合高斯模型由此求得像素x属于前景和背景的当前全局概率p1 global(x)和p0 global(x)。
4.根据权利要求1所述的一种视频分割方法,其特征在于,所述步骤(2)包括以下子步骤:
(21)利用区块匹配跟踪第t帧分割轮廓获得第t+1帧轮廓,区块匹配后轮廓的位置L(xt +1)为:
其中,表示待匹配轮廓点xt的邻域的前景部分;表示中一个像素点的位置;T表示由第t帧的像素点得到第t+1帧最相似像素点的位置变换,采用稀疏匹配得到
(22)更新局部分类器中心点的位置到新的轮廓上,并更新第t+1帧前景和背景局部混合高斯模型
(23)在第t+1帧的第k个局部分类器中,像素x属于前景和背景的局部概率分别为
其中,St+1(x|k)表示区块匹配后第k个分类器中像素x为前景和背景,前景则取值为1,背景取值为0;分别是相对局部前景和背景颜色概率:
分别由计算所得;ξc为局部分类器模型中颜色约束相对形状约束的权重,
其中,w(x)为距离影响权重,
w(x)=exp(-|d(x)|22 c)
其中,|d(x)|为像素x距离最近轮廓线的距离;σc为经验值;Sk表示第k个分类器的像素点集合;
(24)像素x属于前景和背景的局部概率p1 local(x)和p0 local(x):
其中,K表示覆盖像素x的局部分类器集合;ck为第k个局部分类器的中心位置;δ是一个非常小的常数,防止分母为0。
5.一种视频分割系统,其特征在于,所述系统包括:
上一帧处理模块,用于判断若视频当前帧不是关键帧时,则获取上一帧的分割轮廓,初始化局部分类器的位置、大小和混合高斯模型;若上一帧不为关键帧,则通过上一帧的分割轮廓更新全局概率模型;
当前帧处理模块,用于利用区块匹配跟踪上一帧分割轮廓获得当前帧轮廓,以当前帧轮廓更新局部分类器的位置和混合高斯模型,构建局部分类器;
增强Onecut能量模型构建模块,用于利用前一帧全局概率模型、当前帧局部分类器模型和相邻帧间的时空连续性新建增强Onecut数据项,构建增强Onecut能量模型;
所述增强Onecut能量模型构建模块包括以下单元:
Onecut能量模型单元,用于构建增强Onecut能量模型:
其中,S表示前景像素集合,表示背景像素集合,而θs分别表示前景和背景的直方图统计,为θs之间的L1距离;τ为前景和背景分布差异的权重;γ表示帧间平滑项的权重;η表示帧内平滑项的权重;表示帧内相邻像素的相似度,
其中,sx和sy表示相邻像素对x和y的标记,像素为前景取值1,像素为背景取值0;N表示帧内相邻像素对的集合;ωxy表示像素x和y的相似度,
其中,||x-y||表示像素x和y的欧式距离;ΔI表示像素x和y的颜色距离;σ设置为整个图像的梯度均值;
综合概率数据项单元,用于构建综合概率数据项,基于全局概率模型和局部分类器的增强Onecut数据项为像素x属于前景和背景的综合概率D(x),
其中,α为计算综合前景概率时,全局概率模型所占比例;β为计算综合前景概率时,全局概率模型所占比例;p1 global(x)和p0 global(x)表示像素x属于前景和背景的当前全局概率;p1 local(x)和p0 local(x)表示像素x属于前景和背景的局部概率;
帧间平滑数据项单元,用于构建帧间平滑数据项单元,基于帧间平滑项N-links折算的增强Onecut数据项为
其中,表示像素x在第t帧的邻域像素集合;|sy|表示像素y的标记取值,前景1,背景0;wxy表示像素x与上一帧邻域像素y的相似度;
求解当前帧分割模块,用于加权结合当前帧局部分类器模型和前一帧全局概率模型求取每个像素属于前景和背景的综合概率,结合综合概率和该像素点到轮廓线的最近距离来选取Onecut能量模型种子点,求解增强Onecut能量模型的最大流,得到当前帧的分割轮廓;若视频分割未结束,则将当前帧转换为上一帧,返回上一帧处理模块,否则结束。
6.根据权利要求5所述的一种视频分割系统,其特征在于,所述系统还包括关键帧交互模块,用于判断若视频当前帧是关键帧时,则对当前帧进行交互式图像分割,得到分割轮廓,由分割轮廓统计前景点集合和背景点集合,分别对两个集合进行聚类,选用高斯分布进行拟合,初始化得到前景和背景全局混合高斯模型由此求得像素x属于前景和背景的当前全局概率p1 global(x)和p0 global(x);若视频分割未结束,则将当前帧转换为上一帧,返回上一帧处理模块,否则结束。
7.根据权利要求5所述的一种视频分割系统,其特征在于,所述上一帧处理模块包括以下单元:
分类器大小计算单元,用于计算分类器大小,每个局部分类器是边长为r的正方形:
其中,ymin表示整帧图像短边长度;λ表示分割目标物占整帧图像的大小比重;
混合高斯模型初始化单元,用于沿轮廓线均匀取采样点,以采样点为局部分类器的中心,并以分割结果初始化第t帧图像第k个局部分类器的前景和背景局部混合高斯模型
全局概率更新单元,用于判断若第t帧不是关键帧时,则根据分割轮廓统计前景点集合和背景点集合,分别根据两个集合更新前景和背景全局混合高斯模型由此求得像素x属于前景和背景的当前全局概率p1 global(x)和p0 global(x)。
8.根据权利要求5所述的一种视频分割系统,其特征在于,所述当前帧处理模块包括以下单元:
区块匹配单元,用于利用区块匹配跟踪第t帧分割轮廓获得第t+1帧轮廓,区块匹配后轮廓的位置L(xt+1)为:
其中,表示待匹配轮廓点xt的邻域的前景部分;表示中一个像素点的位置;T表示由第t帧的像素点得到第t+1帧最相似像素点的位置变换,采用稀疏匹配得到
混合高斯模型更新单元,用于更新局部分类器中心点的位置到新的轮廓上,并更新第t+1帧前景和背景局部混合高斯模型
局部概率计算单元,用于在第t+1帧的第k个局部分类器中,像素x属于前景和背景的局部概率分别为
其中,St+1(x|k)表示区块匹配后第k个分类器中像素x为前景和背景,前景则取值为1,背景取值为0;分别是相对局部前景和背景颜色概率:
分别由计算所得;ξc为局部分类器模型中颜色约束相对形状约束的权重,
其中,w(x)为距离影响权重,
w(x)=exp(-|d(x)|22 c)
其中,|d(x)|为像素x距离最近轮廓线的距离;σc为经验值;Sk表示第k个分类器的像素点集合;
局部分类器构建单元,用于构建分类器,像素x属于前景和背景的局部概率p1 lccal(x)和p0 local(x):
其中,K表示覆盖像素x的局部分类器集合;ck为第k个局部分类器的中心位置;δ是一个非常小的常数,防止分母为0。
CN201710350863.5A 2017-05-18 2017-05-18 一种基于区块匹配和增强Onecut的交互式视频分割方法和系统 Expired - Fee Related CN107194949B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201710350863.5A CN107194949B (zh) 2017-05-18 2017-05-18 一种基于区块匹配和增强Onecut的交互式视频分割方法和系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201710350863.5A CN107194949B (zh) 2017-05-18 2017-05-18 一种基于区块匹配和增强Onecut的交互式视频分割方法和系统

Publications (2)

Publication Number Publication Date
CN107194949A CN107194949A (zh) 2017-09-22
CN107194949B true CN107194949B (zh) 2019-09-24

Family

ID=59873775

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710350863.5A Expired - Fee Related CN107194949B (zh) 2017-05-18 2017-05-18 一种基于区块匹配和增强Onecut的交互式视频分割方法和系统

Country Status (1)

Country Link
CN (1) CN107194949B (zh)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110738682B (zh) * 2019-10-23 2022-02-01 南京航空航天大学 一种前景分割方法及系统
CN111539273B (zh) * 2020-04-12 2023-05-16 南京理工大学 一种交通视频背景建模方法及系统
CN114257756A (zh) * 2020-09-25 2022-03-29 瑞昱半导体股份有限公司 校正移动向量的视频处理方法
CN113822879B (zh) * 2021-11-18 2022-06-21 南京智谱科技有限公司 一种图像分割的方法及装置
CN114627289B (zh) * 2022-02-25 2024-04-16 中国科学院沈阳自动化研究所 基于投票机制的工业零件实例分割方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101676953A (zh) * 2008-08-22 2010-03-24 奥多比公司 自动视频图像分割
CN101777180A (zh) * 2009-12-23 2010-07-14 中国科学院自动化研究所 基于背景建模和能量最小化的复杂背景实时替换方法
CN106326924A (zh) * 2016-08-23 2017-01-11 武汉大学 一种基于局部分类的目标跟踪方法及系统

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101676953A (zh) * 2008-08-22 2010-03-24 奥多比公司 自动视频图像分割
CN101777180A (zh) * 2009-12-23 2010-07-14 中国科学院自动化研究所 基于背景建模和能量最小化的复杂背景实时替换方法
CN106326924A (zh) * 2016-08-23 2017-01-11 武汉大学 一种基于局部分类的目标跟踪方法及系统

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
Discontinuity-Aware Video Object Cutout;Fan Zhong 等;《ACM Transactions on Graphics(TOG)》;20121130;第31卷(第6期);第175:1-10页 *
Video SnapCut: Robust Video Object Cutout Using Localized Classifiers;Xue Bai 等;《ACM Transactions on Graphics》;20090831;第28卷(第3期);第70:1-11页 *
三维物体的高效分割与重建;张佳伟;《中国优秀硕士学位论文全文数据库-信息科技辑》;20160715(第6期);第I138-1074页第2.2-2.4节 *
基于OneCut 和共享抠图算法的自适应衣物目标抠取;孟蕊 等;《智能计算机与应用》;20151031;第5卷(第5期);第84-88页 *

Also Published As

Publication number Publication date
CN107194949A (zh) 2017-09-22

Similar Documents

Publication Publication Date Title
CN107194949B (zh) 一种基于区块匹配和增强Onecut的交互式视频分割方法和系统
CN106897670B (zh) 一种基于计算机视觉的快递暴力分拣识别方法
CN108615027B (zh) 一种基于长短期记忆-加权神经网络对视频人群计数的方法
Xing et al. Multi-object tracking through occlusions by local tracklets filtering and global tracklets association with detection responses
CN107204006A (zh) 一种基于双背景差分的静止目标检测方法
US7457436B2 (en) Real-time crowd density estimation from video
CN103049751A (zh) 一种改进的加权区域匹配高空视频行人识别方法
CN105869178B (zh) 一种基于多尺度组合特征凸优化的复杂目标动态场景无监督分割方法
Cao et al. Large scale crowd analysis based on convolutional neural network
CN107590818B (zh) 一种交互式视频分割方法
CN106203513B (zh) 一种基于行人头肩多目标检测及跟踪的统计方法
CN110688905B (zh) 一种基于关键帧的三维物体检测与跟踪方法
CN103578119A (zh) 基于超像素的Codebook动态场景中目标检测方法
CN106570486A (zh) 基于特征融合和贝叶斯分类的核相关滤波目标跟踪方法
CN109448015A (zh) 基于显著图融合的图像协同分割方法
CN107182036A (zh) 基于多维特征融合的自适应位置指纹定位方法
Subudhi et al. A change information based fast algorithm for video object detection and tracking
CN105528794A (zh) 基于混合高斯模型与超像素分割的运动目标检测方法
CN110533048A (zh) 基于全景区域场景感知的组合语义层次连接模型的实现方法及系统
CN109919053A (zh) 一种基于监控视频的深度学习车辆停车检测方法
CN102034267A (zh) 基于关注度的目标物三维重建方法
CN110163873A (zh) 一种双边视频目标分割方法及系统
Jiang et al. Data fusion-based multi-object tracking for unconstrained visual sensor networks
Zhang et al. A survey on instance segmentation: Recent advances and challenges
CN109461115A (zh) 一种基于深度卷积网络的自动图像配准方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20190924

Termination date: 20200518

CF01 Termination of patent right due to non-payment of annual fee