CN106295509B - 一种面向非均匀退化视频中对象的结构化跟踪方法 - Google Patents

一种面向非均匀退化视频中对象的结构化跟踪方法 Download PDF

Info

Publication number
CN106295509B
CN106295509B CN201610597025.3A CN201610597025A CN106295509B CN 106295509 B CN106295509 B CN 106295509B CN 201610597025 A CN201610597025 A CN 201610597025A CN 106295509 B CN106295509 B CN 106295509B
Authority
CN
China
Prior art keywords
image
tracking
degradation
superpixel
target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201610597025.3A
Other languages
English (en)
Other versions
CN106295509A (zh
Inventor
刘盛
冯缘
宋洪章
林家宁
陈胜勇
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hangzhou Shishang Technology Co ltd
Original Assignee
Zhejiang University of Technology ZJUT
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhejiang University of Technology ZJUT filed Critical Zhejiang University of Technology ZJUT
Priority to CN201610597025.3A priority Critical patent/CN106295509B/zh
Publication of CN106295509A publication Critical patent/CN106295509A/zh
Application granted granted Critical
Publication of CN106295509B publication Critical patent/CN106295509B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/46Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2411Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Abstract

一种面向非均匀退化视频中对象的结构化跟踪方法,在非均匀退化的目标视频中,利用自相关产生的方向图和Tenengrad提取的每个目标部分的退化程度结合在我们的基于超像素结构化模型,一个目标的一个未分配的干涉图是用来跟踪目标,图的节点是超像素中心点,边缘是超像素间的连线。本发明方法跟踪效果跟好,特别是在退化的视频目标跟踪中可以有效避免因为严重模糊导致的跟踪失败问题。

Description

一种面向非均匀退化视频中对象的结构化跟踪方法
技术领域
本发明属于计算机视觉技术领域,尤其是涉及到模糊对象的跟踪方法。
背景技术
一般的追踪算法将目标表示为一个包围盒模板,其中不包含结构信息。Lim模型中的在线增量空间可以鲁棒地代表目标。
一些其他的跟踪器使用支持向量机或者改善不同目标和背景的分类器模型的效果。同样,对结构信息的忽略导致了结构变形和闭塞的糟糕性能。目标模型作为一种词典结构的稀疏表示,对于历史部分的表面特征并不敏感。历史部分对结构的改变也不敏感。分布模型在目标识别与检测中得到广泛应用。也有一部分的追踪领域在模型基础上发展形成。
最近,Han et al发现了一种可替换的稀疏表示的外观模型公式。通过从目标周围找到子图像特征集的稀疏表示来达到追踪目的。追踪结果和拥有与追踪目标最相似的系数分布的部分密切相关。该方法在闭塞的实验案例中比较成功。但是,这种方法是否可以在经历较大的光照和姿态变化下高效地追踪目标还不明确。
另外,Yang et al发现应用数据挖掘技术来辅助和结合他们的目标,形成星型拓扑图模型来鲁棒性地进行视觉追踪。然而,我们的分割是用来收集部分候选目标,因此,对于这里的超像素而言,粗分割而不是像素级分割已经足够有效了。
发明内容
为了克服现有的模糊对象的跟踪方法在跟踪严重非均匀退化目标时的准确率较低的不足,本发明提供一种在跟踪严重非均匀退化目标时的准确率较高的面向非均匀退化视频中对象的结构化跟踪方法,本发明对图像进行超像素分割并计算每个超像素的模糊信息,并对目标区域进行结构化建模。根据建立的目标结构化模型及目标区域的模糊信息,通过建立合适的能量函数可以成功地提升算法在跟踪严重非均匀退化目标时的准确率。
本发明解决其技术问题所采用的技术方案是:
一种面向非均匀退化视频中对象的结构化跟踪方法,包括如下步骤:
1)退化评价
给每一个超像素方向矢量来描述运动退化,单一超像素的方向评估是通过一个局部自相关函数而获得,并且该模糊度由Tenengrad函数计算得到的,然后,构建定向矢量来表示一个超像素的运动,以这种方式来生成图像的方向的地图,过程如下:
1.1)方向评价
通过局部自相关函数来计算位置(x,y)的值:
f(x,y)=∑(xi,yi)∈p[I(xi,yi)-I(xi+Δx,yi+Δy)]2 (1)
其中I(xi,yi)为图像中3*3矩阵的中心位置的梯度值,Δx和Δy表示在x和y方向上的移位;
该公式近似的表示为:
其中
通过计算出的矩阵M,得到了矩阵M的两个特征值。较小的特征值表示像素的方向,将每个像素的这些值转化到指定的方向空间[0,180),因此,每个值表示在一条线上的相反方向;
然后,将运动方向Im归一化,通过同等地划分然后将在数量上最多的作为背景的方向,得到图像模糊方向Up
1.2)模糊度评估
Tenengrad评价函数为
其中,sx(i,j)和sy(i,j)分别是图像f(i,j)与在水平方向和垂直方向与Sobel算子的卷积结果;M和N分别是图像的高和宽;
将图像通过Tenengrad评价得到的值除以所有结果中的最大值Fp来表示图像退化程度,被看作是
其中,Ften是Tenengrad评价得到的值,max(F)是所有结果中的最大值。
通过这样的方式,Tenengrad评价得到的结果被归一化为区间(0,1]之间的值,退化程度估计的结果决定方向向量的长度;
2)构建结构模型,过程如下:
首先,将追踪窗口中的图像通过SLIC划分成一些小的部分,通过颜色信息来追踪目标;
给定一组超像素集{Tp},收集候选目标部分{Ti}p然后重建候选图像G(V,E),通过建立一个配对的马尔科夫随机场来从背景中分离候选的前景部,同时使用目标颜色直方图和判别支持向量机分类器来计算单点势能,马尔科夫随机场能量被优化为:
其中B={bp|bp∈{0,1},p∈S}是超像素集{Tp}的标签,bp是Tp的指示器,当Tp属于前景时bp=1,其他情况bp=0,Dp(bp)是一个与超像素Tp结合的单点势能,Vp,q(bp,bq)一对结合超像素Tp和Tq的潜能。S是在跟踪窗口中的超像素集,N是共享边界的超像素集对;
单点势能::
Dp(bp)是一个可生成的颜色直方图潜能和一个判别支持向量机分类器潜能的加权组合,α=0.1,是一个用于平衡两个潜能影响的常量,生成的潜能形式为:
其中,Hf和Hb分别是目标和背景的归一化的RGB颜色直方图,Ci是像素I的RGB值,Np在超像素Tp中的像素数量,P(Ci|H)是在直方图H中的Ci的概率。判别潜能是一个在线支持向量机分类器的分类评分,这个分类器是通过从目标和背景超像素中提取的RGB颜色特征训练得到的;
其中,y(fp)=w·Φ(fp)+b是一种支持向量机判断,fp是Tp的颜色信息,当把Tp分类为前景时,λ是一个用于增强支持向量机分类器比重的常量,Vp,q(bp,bq)用于捕获两个相邻超像素的不连续性。
平滑项:
Vp,q(bp,bq)=exp{-D(fp,fq)}-βδ(dp,dq), (11)
其中,D(fp,fq)是颜色特征间的X2距离,dp是退化特征向量。δ(dp,dq)是退化特征距离,β是一个用于平衡退化向量距离影响的常量。
本发明的有益效果主要表现在:采用模糊评价方法得出了基于超像素块的退化程度信息,并以向量来表示,通过对超像素块的块间结构信息进行建图,得到了目标的结构化的量化信息,大大减少了跟踪时的数据量。最后通过对退化程度信息的利用,提高了算法对退化视频内目标的跟踪准确率。
附图说明
图1是面向非均匀退化视频中对象的结构化跟踪方法的一些追踪结果,其中,白框是结果,黑框是标注值。
图2是面向非均匀退化视频中对象的结构化跟踪方法的流程图。
图3是退化评价的方向示意图。
图4是不同超像素的退化向量距离示意图。
具体实施方式
下面结合附图对本发明作进一步描述。
参照图1~图4,一种面向非均匀退化视频中对象的结构化跟踪方法,包括如下步骤:
本发明所采用的技术方案为引进了一种结构退化模型,通过对目标的退化估计来解决追踪问题。具体的跟踪方法如下:
针对剧烈运动的目标有良好的跟踪效果(如图1),算法的流程图在图2中给出(如图2)。
1)退化评价
给每一个超像素方向矢量来描述运动退化,单一超像素的方向评估是通过一个局部自相关函数而获得,并且该模糊度由Tenengrad函数计算得到的,然后,构建定向矢量来表示一个超像素的运动,以这种方式来生成图像的方向的地图,过程如下:
1.2)方向评价
通过局部自相关函数来计算位置(x,y)的值:
f(x,y)=∑(xi,yi)∈P[I(xi,yi)-I(xi+Δx,yi+Δy)]2 (3)
其中I(xi,yi)为图像中3*3矩阵的中心位置的梯度值,Δx和Δy表示在x和y方向上的移位;
该公式近似的表示为:
其中
通过计算出的矩阵M,得到了矩阵M的两个特征值。较小的特征值表示像素的方向,将每个像素的这些值转化到指定的方向空间[0,180),因此,每个值表示在一条线上的相反方向;
然后,将运动方向Im归一化,通过同等地划分然后将在数量上最多的作为背景的方向,得到图像模糊方向Up
1.3)模糊度评估
Tenengrad评价函数为
其中,sx(i,j)和sy(i,j)分别是图像f(i,j)与在水平方向和垂直方向与Sobel算子的卷积结果;M和N分别是图像的高和宽;
将图像通过Tenengrad评价得到的值除以所有结果中的最大值Fp来表示图像退化程度,被看作是
其中,Ften是Tenengrad评价得到的值,max(F)是所有结果中的最大值。
通过这样的方式,Tenengrad评价得到的结果被归一化为区间(0,1]之间的值,退化程度估计的结果决定方向向量的长度(如图3);
2)构建结构模型,过程如下:
首先,将追踪窗口中的图像通过SLIC划分成一些小的部分,通过颜色信息来追踪目标;
给定一组超像素集{Tp},收集候选目标部分{Ti}p然后重建候选图像G(V,E),通过建立一个配对的马尔科夫随机场来从背景中分离候选的前景部,同时使用目标颜色直方图和判别支持向量机分类器来计算单点势能,马尔科夫随机场能量被优化为:
其中B={bp|bp∈{0,1},p∈S}是超像素集{Tp}的标签,bp是Tp的指示器,当Tp属于前景时bp=1,其他情况bp=0,Dp(bp)是一个与超像素Tp结合的单点势能,Vp,q(bp,bq)一对结合超像素Tp和Tq的潜能。S是在跟踪窗口中的超像素集,N是共享边界的超像素集对;
单点势能::
Dp(bp)是一个可生成的颜色直方图潜能和一个判别支持向量机分类器潜能的加权组合,α=0.1,是一个用于平衡两个潜能影响的常量,生成的潜能形式为:
其中,Hf和Hb分别是目标和背景的归一化的RGB颜色直方图,Ci是像素I的RGB值,Np在超像素Tp中的像素数量,P(Ci|H)是在直方图H中的Ci的概率。判别潜能是一个在线支持向量机分类器的分类评分,这个分类器是通过从目标和背景超像素中提取的RGB颜色特征训练得到的;
其中,y(fp)=w·Φ(fp)+b是一种支持向量机判断,fp是Tp的颜色信息,当把Tp分类为前景时,λ是一个用于增强支持向量机分类器比重的常量,Vp,q(bp,bq)用于捕获两个相邻超像素的不连续性。
平滑项:
Vp,q(bp,bq)=exp{-D(fp,fq)}-βδ(dp,dq), (11)
其中,D(fp,fq)是颜色特征间的X2距离,dp是退化特征向量。δ(dp,dq)是退化特征距离(如图4),β是一个用于平衡退化向量距离影响的常量。
本实施例采用模糊评价方法得出了基于超像素块的退化程度信息,并以向量来表示,通过对超像素块的块间结构信息进行建图,得到了目标的结构化的量化信息,大大减少了跟踪时的数据量。最后通过对退化程度信息的利用,提高了算法对退化视频内目标的跟踪准确率。

Claims (1)

1.一种面向非均匀退化视频中对象的结构化跟踪方法,其特征在于:包括如下步骤:
1)退化评价
给每一个超像素方向矢量来描述运动退化,单一超像素的方向评估是通过一个局部自相关函数而获得,并且模糊度由Tenengrad函数计算得到的,然后,构建定向矢量来表示一个超像素的运动,以这种方式来生成图像的方向的地图,过程如下:
1.1)方向评价
通过局部自相关函数来计算位置(x,y)的值:
f(x,y)=∑(xi,yi)∈P[I(xi,yi)-I(xi+Δx,yi+Δy)]2 (1)
其中I(xi,yi)为图像中3*3矩阵的中心位置的梯度值,Δx和Δy表示在x和y方向上的移位;
该公式近似的表示为:
其中
通过计算出的矩阵M,得到了矩阵M的两个特征值,较小的特征值表示像素的方向,将每个像素的这些值转化到指定的方向空间[0,180),因此,每个值表示在一条线上的相反方向;
然后,将运动方向Im归一化,通过同等地划分然后将在数量上最多的作为背景的方向,得到图像模糊方向;
1.2)模糊度评估
Tenengrad评价函数为
其中,sx(i,j)和sy(i,j)分别是图像f(i,j)与在水平方向和垂直方向与Sobel算子的卷积结果;M和N分别是图像的高和宽;
将图像通过Tenengrad评价得到的值除以所有结果中的最大值来表示图像退化程度,被看作是
其中,Ften是Tenengrad评价得到的值,max(F)是所有结果中的最大值;
通过这样的方式,Tenengrad评价得到的结果被归一化为区间(0,1]之间的值,退化程度估计的结果决定方向向量的长度;
2)构建结构模型,过程如下:
首先,将追踪窗口中的图像通过SLIC划分成一些小的部分,通过颜色信息来追踪目标;
给定一组超像素集{Tp},收集候选目标部分{Ti}p然后重建候选图像G(V,E),通过建立一个配对的马尔科夫随机场来从背景中分离候选的前景部,同时使用目标颜色直方图和判别支持向量机分类器来计算单点势能,马尔科夫随机场能量被优化为:
其中B={bp|bp∈{0,1},p∈S}是超像素集{Tp}的标签,bp是Tp的指示器,当Tp属于前景时bp=1,其他情况bp=0,Dp(bp)是一个与超像素Tp结合的单点势能,Vp,q(bp,bq)一对结合超像素Tp和Tq的潜能,S是在跟踪窗口中的超像素集,N是共享边界的超像素集对;
单点势能:
Dp(bp)是一个可生成的颜色直方图潜能和一个判别支持向量机分类器潜能的加权组合,α=0.1,是一个用于平衡两个潜能影响的常量,生成的潜能形式为:
其中,Hf和Hb分别是目标和背景的归一化的RGB颜色直方图,Ci是像素I的RGB值,Np在超像素Tp中的像素数量,P(Ci|H)是在直方图H中的Ci的概率,判别潜能是一个在线支持向量机分类器的分类评分,这个分类器是通过从目标和背景超像素中提取的RGB颜色特征训练得到的;
其中,是一种支持向量机判断,fp是Tp的颜色信息,当把Tp分类为前景时,λ是一个用于增强支持向量机分类器比重的常量,Vp,q(bp,bq)用于捕获两个相邻超像素的不连续性;
平滑项:
Vp,q(bp,bq)=exp{-D(fp,fq)}-βδ(dp,dq), (11)
其中,D(fp,fq)是颜色特征间的X2距离,dp是退化特征向量,δ(dp,dq)是退化特征距离,β是一个用于平衡退化向量距离影响的常量。
CN201610597025.3A 2016-07-27 2016-07-27 一种面向非均匀退化视频中对象的结构化跟踪方法 Active CN106295509B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201610597025.3A CN106295509B (zh) 2016-07-27 2016-07-27 一种面向非均匀退化视频中对象的结构化跟踪方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201610597025.3A CN106295509B (zh) 2016-07-27 2016-07-27 一种面向非均匀退化视频中对象的结构化跟踪方法

Publications (2)

Publication Number Publication Date
CN106295509A CN106295509A (zh) 2017-01-04
CN106295509B true CN106295509B (zh) 2019-11-08

Family

ID=57652669

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201610597025.3A Active CN106295509B (zh) 2016-07-27 2016-07-27 一种面向非均匀退化视频中对象的结构化跟踪方法

Country Status (1)

Country Link
CN (1) CN106295509B (zh)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104123566A (zh) * 2013-04-24 2014-10-29 信帧电子技术(北京)有限公司 视频模糊不变性目标追踪的方法与系统
CN104268532A (zh) * 2014-09-30 2015-01-07 郑州轻工业学院 网络环境下大规模图像与视频数据高效处理的方法
CN104517116A (zh) * 2013-09-30 2015-04-15 北京三星通信技术研究有限公司 在图像中确定目标区域的装置和方法
CN104637064A (zh) * 2015-02-28 2015-05-20 中国科学院光电技术研究所 一种基于边缘强度权重的离焦模糊图像清晰度检测方法
CN104915946A (zh) * 2015-02-10 2015-09-16 浙江工业大学 一种适用于严重退化图像的基于显著性的对象分割方法
CN105046714A (zh) * 2015-08-18 2015-11-11 浙江大学 一种非监督的基于超像素和目标发现机制的图像分割方法
CN105205161A (zh) * 2015-09-29 2015-12-30 浙江大学 一种基于互联网图片的同时目标搜索与分割方法

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104123566A (zh) * 2013-04-24 2014-10-29 信帧电子技术(北京)有限公司 视频模糊不变性目标追踪的方法与系统
CN104517116A (zh) * 2013-09-30 2015-04-15 北京三星通信技术研究有限公司 在图像中确定目标区域的装置和方法
CN104268532A (zh) * 2014-09-30 2015-01-07 郑州轻工业学院 网络环境下大规模图像与视频数据高效处理的方法
CN104915946A (zh) * 2015-02-10 2015-09-16 浙江工业大学 一种适用于严重退化图像的基于显著性的对象分割方法
CN104637064A (zh) * 2015-02-28 2015-05-20 中国科学院光电技术研究所 一种基于边缘强度权重的离焦模糊图像清晰度检测方法
CN105046714A (zh) * 2015-08-18 2015-11-11 浙江大学 一种非监督的基于超像素和目标发现机制的图像分割方法
CN105205161A (zh) * 2015-09-29 2015-12-30 浙江大学 一种基于互联网图片的同时目标搜索与分割方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
A Novel Saliency-based Object Segmentation Method for Seriously Degenerated Images;Jianfeng Wang 等;《IEEE International Conference on Information and Automation》;20150810;第1172-1177页 *

Also Published As

Publication number Publication date
CN106295509A (zh) 2017-01-04

Similar Documents

Publication Publication Date Title
CN103325112B (zh) 动态场景中运动目标快速检测方法
US10049277B2 (en) Method and apparatus for tracking object, and method and apparatus for calculating object pose information
Deori et al. A survey on moving object tracking in video
CN110334762B (zh) 一种基于四叉树结合orb和sift的特征匹配方法
CN109961506A (zh) 一种融合改进Census图的局部场景三维重建方法
WO2017201751A1 (zh) 虚拟视点视频、图像的空洞填充方法、装置和终端
US10249046B2 (en) Method and apparatus for object tracking and segmentation via background tracking
WO2019057197A1 (zh) 运动目标的视觉跟踪方法、装置、电子设备及存储介质
WO2019071976A1 (zh) 基于区域增长和眼动模型的全景图像显著性检测方法
CN102184550A (zh) 一种动平台地面运动目标检测方法
CN106204637A (zh) 光流计算方法
CN107909085A (zh) 一种基于Harris算子的图像特征角点提取方法
CN107527348B (zh) 基于多尺度分割的显著性检测方法
Wang et al. Hand posture recognition from disparity cost map
Mukherjee et al. A hybrid algorithm for disparity calculation from sparse disparity estimates based on stereo vision
Gallego et al. Joint multi-view foreground segmentation and 3d reconstruction with tolerance loop
CN106295509B (zh) 一种面向非均匀退化视频中对象的结构化跟踪方法
Fan et al. Collaborative three-dimensional completion of color and depth in a specified area with superpixels
Pertuz et al. Region-based depth recovery for highly sparse depth maps
CN108596950B (zh) 一种基于主动漂移矫正的刚体目标跟踪方法
San et al. Feature based disparity estimation using hill-climbing algorithm
Gupta et al. 3dfs: Deformable dense depth fusion and segmentation for object reconstruction from a handheld camera
San et al. Local stereo matching under radiometric variations
Wu et al. Learning depth from single image using depth-aware convolution and stereo knowledge
TWI831183B (zh) 影像物件標籤方法與電路系統

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
TR01 Transfer of patent right
TR01 Transfer of patent right

Effective date of registration: 20200611

Address after: Room 1504-2, Dikai International Center, Jianggan District, Hangzhou, Zhejiang Province

Patentee after: HANGZHOU SHISHANG TECHNOLOGY Co.,Ltd.

Address before: The city Zhaohui six districts Chao Wang Road Hangzhou City, Zhejiang province 310014 18

Patentee before: ZHEJIANG University OF TECHNOLOGY