CN106570499A - 一种基于概率图模型的目标跟踪方法 - Google Patents
一种基于概率图模型的目标跟踪方法 Download PDFInfo
- Publication number
- CN106570499A CN106570499A CN201610958716.1A CN201610958716A CN106570499A CN 106570499 A CN106570499 A CN 106570499A CN 201610958716 A CN201610958716 A CN 201610958716A CN 106570499 A CN106570499 A CN 106570499A
- Authority
- CN
- China
- Prior art keywords
- marked feature
- represent
- color
- feature region
- region
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/24—Aligning, centring, orientation detection or correction of the image
- G06V10/245—Aligning, centring, orientation detection or correction of the image by locating a pattern; Special marks for positioning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/46—Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
- G06V10/462—Salient features, e.g. scale invariant feature transforms [SIFT]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/50—Extraction of image or video features by performing operations within image blocks; by using histograms, e.g. histogram of oriented gradients [HoG]; by summing image-intensity values; Projection analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/56—Extraction of image or video features relating to colour
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于概率图模型的目标跟踪方法,该方法首先选择提取目标中的显著特征区域作为子块,针对子块划分问题,提出了一种基于局域特征点的目标显著特征区域提取方法。子块匹配之后,针对子块匹配结果的融合问题,提出了基于显著特征区域和马尔可夫随机场的目标跟踪算法,并基于显著特征区域之间的空间约束关系以及显著特征区域的描述特征分别建立目标的MRF模型的结构模型和观测模型,并利用BP算法对各个显著特征区域的MS匹配结果进行空间域上推断。本发明方法能够稳定可靠地跟踪目标,即便在目标处于被遮挡以及目标颜色信息与背景颜色信息相似等复杂情况下也能较好地实现目标跟踪。
Description
技术领域
本发明涉及一种基于概率图模型的目标跟踪方法,属于图像信息感知与识别技术领域。
背景技术
随着信息技术和智能科学的发展,计算机视觉技术受到了越来越多的关注,已经发展成为了高新技术领域的前沿技术之一。其中目标跟踪技术是计算机视觉领域的研究热点之一,融合了图像处理、模式识别、人工智能以及自动控制等多种不同学科的理论和知识。目标跟踪是以图像序列为基础,从图像序列中识别并标记目标位置,达到自动跟踪目标的技术。对目标的跟踪研究是对目标行为描述分析、识别和视频处理以及图像压缩编码等技术的基础,目标跟踪技术可以为目标检测及识别提供可靠依据。
对视频序列中的目标进行精确实时的跟踪无论是在军事、民用等方面都有着重要的应用价值。目前目标跟踪技术已经在实际生活中的许多方面发挥了重要的作用,在安防领域,基于目标跟踪的视频监控系统可以对指定场景区域进行监视,检测异常情况;基于目标跟踪的交通监控系统利用视频图像处理技术对摄像机得到的图像序列进行分析,实现对违反道路交通法规的车辆、行人等目标的检测、分类和跟踪;在军事领域,武器装备的精确化和智能化需求,使得红外成像制导技术越显重要,而目标跟踪是成像制导的关键技术之一;在民用领域,人机交互,使计算机可以识别理解人的姿态、手势等,简化人机交互的实现。在以上所有应用中,目标跟踪都是其中一项关键技术。
近年来,概率图模型也被引入目标跟踪之中,并取得了一定的效果,但该方法在通常的使用过程中,目标的深度图和运动轨迹都是利用目标区域的整体信息作为建模依据,当目标遮挡时,其采用的目标信息会有所缺失,因而可能会出现跟踪漂移甚至跟踪失败的情况。
发明内容
本发明所要解决的技术问题是:提供一种基于概率图模型的目标跟踪方法,该方法在目标处于被遮挡以及目标颜色信息与背景颜色信息相似等复杂情况下,跟踪效果依然很好。
本发明为解决上述技术问题采用以下技术方案:
一种基于概率图模型的目标跟踪方法,包括如下步骤:
步骤1,对图像序列中第一帧图像,标定目标区域,并将目标区域划分为多个显著特征区域;计算各个显著特征区域的颜色纹理直方图;
步骤2,对第一帧图像,将各显著特征区域作为马尔可夫随机场模型的节点,显著特征区域之间的空间关系作为连接两个节点的边,利用马尔可夫随机场模型融合显著特征区域之间的空间位置信息以及显著特征区域的局部信息对目标进行建模;
步骤3,在跟踪过程中,首先在当前帧中利用MS算法对各个显著特征区域的位置进行匹配,得到各个显著特征区域的初步定位结果;然后将各个显著特征区域的初步定位结果作为MRF模型中各个节点的观测值,输入信念传播算法进行空间域上的概率推断,得到各个显著特征区域的位置;最后根据各个显著特征区域与目标区域中心点的空间位置关系,利用已经得到的各个显著特征区域的位置进行计算,得到最终的目标区域中心并输出跟踪结果。
作为本发明的一种优选方案,步骤1所述将目标区域划分为多个显著特征区域的具体过程包括以下步骤:
步骤1-1,在目标区域中利用Harris算子提取Harris角点;
步骤1-2,将Harris角点中属于背景部分及目标边缘的Harris角点去除;
步骤1-3,采用K-means算法对步骤1-2剩余的Harris角点进行聚类;
步骤1-4,聚类完成后从各个类别中选择距离目标区域的中心最近的Harris角点,以此来划分显著特征区域。
作为本发明的一种优选方案,步骤1所述计算各个显著特征区域的颜色纹理直方图的具体过程包括以下步骤:
步骤1-5,根据下式计算显著特征区域的颜色直方图:
其中,表示颜色直方图,K(·)为核函数,x′0为显著特征区域中心像素点颜色特征值,x′k为第k个像素点颜色特征值,h为核函数的固定宽度,B(x′k)是与该像素点的颜色特征相应的灰度级数,bc=1,2,…,B,B为灰度级分量的个数,N为显著特征区域内所有像素点的个数;
步骤1-6,根据下式计算显著特征区域的纹理直方图:
其中,qLBP表示纹理直方图,I(xik)表示第i个显著特征区域中第k个像素点xik的灰度值,I(xik(p))表示像素点xik邻域内第p个像素点的灰度值,bv=0,1,…,255表示纹理值级数,N为显著特征区域内所有像素点的个数;
步骤1-7,将显著特征区域对应的颜色直方图和纹理直方图进行叠加,得到显著特征区域的颜色纹理直方图,公式如下:
其中,表示第i个显著特征区域的颜色纹理直方图,右上角T表示转置。
作为本发明的一种优选方案,步骤2所述对目标进行建模的公式为:
其中,n表示所有显著特征区域的个数,分别表示马尔可夫随机场模型的结构模型、观测模型,φ(xi,xj)表示xi,xj之间的兼容函数,表示xi,yi之间的似然函数,xi、xj分别表示第i、j个显著特征区域,yi表示xi的观测值,γ表示结构模型在整个模型所占的比重,λ表示观测模型在整个模型所占的比重,表示xi的颜色纹理直方图, 表示根据xi在当前帧中得到的区域中计算得到的颜色纹理直方图,表示两个颜色纹理直方图之间的巴氏距离。
作为本发明的一种优选方案,步骤3所述最终的目标区域中心的计算公式为:
其中,xO表示整体目标区域的中心,n表示所有显著特征区域的个数,ci表示每一个显著特征区域得到的结果的可信度,xi表示第i个显著特征区域,Δxi表示该显著特征区域中心 与目标区域中心的偏移量,表示xi的颜色纹理直方图,表示根据xi在当前帧中得到的区域中计算得到的颜色纹理直方图,表示两个颜色纹理直方图之间的巴氏距离。
本发明采用以上技术方案与现有技术相比,具有以下技术效果:
1、本发明提出了一种提取目标区域中显著特征区域的方法以及关于计算各个显著特征区域颜色纹理直方图的方法:以Harris角点为依据,在初始的手动标记的目标区域中,划分出适当大小的显著特征区域,对于每个显著特征区域分别计算颜色纹理直方图。之后利用MRF模型对显著特征区域进行建模,图模型中以显著特征区域的空间位置定义模型中拓扑结构,以颜色纹理直方图定义节点的相似性,以此得到目标的概率图模型,增强了目标建模的鲁棒性。
2、本发明在跟踪过程中,利用MS算法对所有显著特征区域进行匹配,并利用BP算法对各个显著特征区域的MS匹配结果进行空间域上推断。该算法能够稳定可靠地跟踪目标,即便在目标处于被遮挡以及目标颜色信息与背景颜色信息相似等复杂情况下,本发明算法跟踪效果比传统的目标跟踪算法更好。
附图说明
图1是本发明基于概率图模型的目标跟踪方法的流程图。
图2是本发明中显著特征区域提取过程图例,其中,(a)为图像序列的其中一帧图像,(b)为标定的目标区域,(c)为提取的所有Harris角点,(d)为去除属于背景部分及目标边缘的角点后剩余的角点,(e)为经K-means聚类后的角点,(f)为两个角点及其对应的显著特征区域。
图3是本发明中LBP纹理计算过程图例。
图4是本发明中包含约束关系和独立性的MRF模型图。
图5是本发明实施例视频序列1中四种算法的跟踪结果图。
图6是本发明实施例视频序列2中四种算法的跟踪结果图。
图7是本发明实施例视频序列3中四种算法的跟踪结果图。
图8是本发明实施例视频序列4中四种算法的跟踪结果图。
图5-图8中,(a)为本发明方法,(b)为PF算法,(c)为MS算法,(d)为分块跟踪算法。
具体实施方式
下面详细描述本发明的实施方式,所述实施方式的示例在附图中示出。下面通过参考附 图描述的实施方式是示例性的,仅用于解释本发明,而不能解释为对本发明的限制。
本发明提出基于子块匹配的抗遮挡算法作为基本框架的概率图模型目标跟踪方法,针对影响子块匹配算法性能的两个主要因素即子块的选择和子块匹配结果的融合策略进行改进,并利用神经网络BP算法对各个显著特征区域的Mean Shift(MS)匹配结果进行空间域上推断。该方法能够稳定可靠地跟踪目标,即便在目标处于被遮挡以及目标颜色信息与背景颜色信息相似等复杂情况下,本算法跟踪效果依然很好。
如图1所示,一种基于概率图模型的目标跟踪方法,包括如下步骤:
步骤1,提出一种提取目标区域中显著特征区域的方法以及关于计算各个显著特征区域颜色纹理直方图的方法。具体包括:
步骤1-1,选择目标区域的Harris角点作为之后划分特征区域的依据。以图像序列中其中一帧图像为例,如图2的(a)所示;标定的目标区域,如图2的(b)所示。Harris算子是一种有效的点特征提取算法,计算简单,对于目标的旋转、光照等变化,几乎具有不变性;并且提取的特征点均匀合理,能够反映图像的结构特性。同时相比其他特征点检测算法,Harris检测方法的重复率最高,定位精度最精确,而且提取的特征点的数量也比较多,可以满足下一步的处理。Harris算子R定义如下:
R=det(C)-f·tr2(C) (1)
其中,det为矩阵的行列式,tr为矩阵的迹,C(x)为角点特征描述矩阵,Iu(x)为图像中像素点x在水平方向上的偏导,Iv(x)为像素点x在垂直方向上的偏导数,Iuv(x)为像素点x的二阶混合偏导,f为经验值,通常取值为0.04~0.06。当图像中某个像素点的R值大于设定阈值时,则该点为Harris角点。
步骤1-2,提取的Harris角点中因为手动标定的目标区域存在一部分背景区域,所以有部分Harris角点并不属于目标区域,如图2的(c)所示,需要去除这部分属于背景部分的角点对之后区域划分的干扰。考虑到属于背景部分的角点是由于人为选定目标区域时引入了部分背景造成的,因而这些角点一般位于图像边缘地区,所以适当收缩目标区域即可去除属于背景中的角点,结果如图2的(d)所示。
在去除属于背景的角点之后,剩余角点数量仍然较多。如果直接进行区域划分,首先对跟踪的实时性有一定的影响,其次可能因为角点位置相邻,造成两个显著特征区域几乎重合。所以需要对剩余角点进行进一步处理。
本发明中采用K-means算法对角点进行聚类,如图2的(e)所示,聚类完成后从每个类别 中选取距离目标中心最近的Harris角点,以此划分显著特征区域。遵循以下原则,划分显著特征区域:1.每一个角点都对应一个长方形的特征区域,角点是特征区域的一个顶点,根据该角点与其他角点间的位置关系确定顶点属性。2.各特征区域大小相等,具体由目标面积和分块数量确定。如图2的(f)展示了两个角点及其对应的特征区域。
表1中表示了提取目标区域中显著特征区域的整个流程。
表1显著特征区域提取流程
步骤1-3,对于某一显著特征区域xi,i为显著特征区域编号,假设该显著特征区域内的像素点数目为N,其中区域中心像素点颜色特征值x′0,其余单个像素点颜色特征值分别为x′k,则该显著特征区域的颜色特征直方图的计算公式如下:
其中,bc=1,2,…,B,B是灰度级分量的个数,B(x′k)是与该像素点的颜色特征相应的灰度级数,K(x)为核函数,h为核函数的固定宽度。其中核函数定义为:
K(x)=1-x2 (4)
步骤1-4,利用局部二值纹理模式(LBP)算子计算目标区域的纹理直方图特征,LBP纹理特征是一种描述图像局部纹理特征和内部结构的有效表示方式。LBP算子是通过比较某一像素点和其邻域内其他像素点灰度的差值,得到局部的二值化图像。同样对于某一显著特征区域,用xik表示第k个像素点,其灰度值记为I(xik),通常考虑像素点的8邻域,当然可以选 择其他邻域模板进行纹理的计算。
对于图像中的某个像素点,以该像素点为中心,统计其L邻域内的所有像素。如果灰度值大于中心点像素灰度值则设置为1,反之则设置为0,具体过程如图3所示。最后通过下面公式(5),得到第k个像素点的纹理信息:
其中,I(xik(p))表示像素点xik邻域内第p个像素点的灰度值,δ含义同式(3)。
最后统计显著特征区域内各个像素点的纹理信息得到该显著特征区域的纹理直方图,计算公式如下:
其中,bv=0,1,…,255表示纹理值级数,δ含义同式(3)。
步骤1-5,采用颜色直方图和纹理直方图作为相似性度量特征,在进行匹配之时,对颜色直方图和纹理直方图进行叠加得到新的颜色纹理直方图,在求得显著特征区域的颜色直方图和纹理直方图后,得到该显著特征区域xi的颜色纹理直方图为:
步骤2,采用马尔可夫随机场(MRF)模型融合显著特征区域之间的空间位置信息以及显著特征区域的局部信息对目标进行建模。具体包括:
步骤2-1,使用MRF模型对目标进行建模,将每个显著特征区域作为MRF模型中的一个节点,显著特征区域之间的空间关系对应于连接两个节点的边,最终得到关于显著特征区域及其观察值之间的联合概率分布。
假设提取出的显著特征区域总数为n,令xi表示第i个显著特征区域的中心坐标,通常也可用xi来表示显著特征区域,即节点。Δxi=xi-x0表示该显著特征区域中心与目标区域中心的偏移量,其中x0为目标区域中心坐标。设节点变量的观测值为yi,为了简化问题的描述,本发明只考虑显著特征区域与显著特征区域之间以及显著特征区域与观察值之间的关系。
MRF模型中的所有随机变量的联合概率分布可用各节点的局部势函数的乘积表示,在定义了MRF模型的拓扑结构之后,节点xi与观测值yi之间的联合概率分布可以表示为:
其中,E为MRF模型中所有相邻节点,φ(xi,xj)表示节点之间的兼容函数,即用来定义 两个节点所对应的目标特征之间的空间约束关系,因此,称为MRF的结构模型。 表示节点的似然函数,即用来定义节点与对应的观测值之间的概率关系,因此, 称为MRF的观测模型。式(9)也可以用来表示后验概率分布:
其中,Xt、Yt分别表示节点xi的集合、观测值yi的集合。
步骤2-2,定义一个全连通图模型,即表示每个显著特征区域都与其他区域相关,显著特征区域的状态会受到其他区域的影响,这样得到的MRF模型会造成一种过度约束的情况。全连通图模型下联合概率分布为:
可以看出,对于公式(8)中的(i,j)∈E,在全连通图模型中的具体表现形式就变为公式(10)所示。
根据各个显著特征区域的性质,综合考虑显著特征区域之间的独立性和约束性。利用各个显著特征区域中心点的欧式距离定义图模型中节点间的邻域关系。
d0(xi,xj)=xi-xj (11)
N(i)={j|d0(xi,xj)<τ,j∈G} (12)
其中,G表示图模型的节点集合,N(i)为节点xi的邻域集合,τ为阈值。按照公式(11)和公式(12)计算出各个节点的邻域节点集合之后,最终形成的图模型如图4所示。根据图4,可以得到所需要的关于随机变量和观察值之间的联合概率分布,如果图模型中的两个节点xi、xj为邻域节点,则定义这两个节点之间的兼容函数为:
在跟踪过程中,目标有可能发生姿态,形状变化,此时各个显著特征区域之间的空间位置关系也会随着目标姿态和形状的变化发生变化,进而改变实际的结构模型。因此参数γ用来调节两个邻域节点之间的空间关系以适应目标的姿态等变化,即结构模型在马尔科夫模型中的比重。参数γ的大小与目标发生的形变成反比,形变越大,γ值越小,相应的结构模型在联合概率分布中所占比重也会发生变化。
步骤2-3,给定节点xi的观测值yi,在当前帧中选择和MRF模型中该节点对应的相同大 小的特征区域计算该观测节点区域的颜色直方图和LBP纹理,联合颜色直方图和LBP特征建立颜色纹理直方图。则似然度函数可以定义为:
其中,表示节点xi的颜色纹理直方图,表示根据节点xi在当前帧中得到的区域中计算得到的颜色纹理直方图,参数λ调节观测模型在联合概率分布中所占的比重,表示两个颜色纹理直方图之间的巴氏(Bhattacharyya)距离。
其中,M表示颜色纹理直方图的维数。
步骤3,在跟踪过程中,首先在当前帧中使用MS算法对各个显著特征区域的位置进行匹配,得到最优的位置估计结果;将得到的各个显著特征区域的位置作为MRF模型中各个节点的观测值进行输入采用BP算法进行空间域上的概率推断,提高显著特征区域的位置估计精度;最后根据各个显著特征区域与目标区域中心点的空间位置关系,利用已经得到的各个显著特征区域的位置进行计算,得到最终的目标区域中心并输出跟踪结果。具体包括:
步骤3-1,首先是在当前的图像帧中初步定位各个显著特征区域的位置。对于初步定位,要求在保证一定精度的同时,尽块匹配得到各个显著特征区域的位置,本发明中采用Mean Shift(MS)算法对显著特征区域进行粗略的定位。MS算法计算量小,可以做到实时跟踪。同时MS算法对边缘遮挡、目标的旋转、变形和背景运动不敏感,可以满足粗略定位的要求。依据颜色纹理直方图,使用MS算法对目标的各特征区域分别进行跟踪,得到这组显著特征区域在当前的图像帧中的位置估计。
对显著特征区域进行初步匹配时,核函数中心从某个初始位置开始,根据MS算法迭代计算不断移动到新的位置,其中MS迭代公式为:
其中,g(x)=-K(x),ωk为加权系数,可以通过公式计算得到:
根据上述公式,可以知道在利用MS算法对各个显著特征区域进行跟踪时,对于其中某 一个显著特征区域,首先计算该显著特征区域中心像素点颜色特征值x′0以及初始的权重ωk,其中表示显著特征区域在当前帧得到区域中的颜色特征直方图,当相邻两帧之间该显著特征区域的中心位置的偏差小于某一阈值,或者是迭代次数大于设定值时,MS算法迭代结束,最后计算得到的y1即为在当前帧中所要匹配的显著特征区域的最优估计结果。一般在当前帧中进行MS算法迭代计算时,初始位置为上一帧中显著特征区域的位置。
步骤3-2,在利用MS算法得到各个显著特征区域在当前帧的匹配位置之后,需要对各个显著特征区域的匹配结果进行简单的判断,判断匹配结果是否准确,统计跟踪正确区域以及跟踪错误区域的数量。判断过程由两部分组成:
首先根据公式(18)计算各个显著特征区域在两帧间的相对位移,通过位移变化进行判断。如果某个显著特征区域的位移变化与其他显著特征区域的位移变化相差较大,则认为对该显著特征区域的匹配结果失败:
其中,t表示帧数。然后对第一步认为跟踪正确的显著特征区域中进行进一步判断,利用公式(15)计算颜色纹理直方图的相似性度量值,如果小于某一阈值,则认为对该显著特征区域匹配失败。经过两次判断后,分别统计出跟踪正确的显著特征区域数量以及跟踪错误的显著特征区域数量,用于计算子块跟踪准确率,以此判断是否需要进行模型的更新。
步骤3-3,在精确定位阶段也就是基于概率图模型的空间推断:就是在当前帧中,根据各节点的初始位置(即各子块的MS跟踪输出),在图模型中进行贝叶斯推断,计算关于所有节点联合状态的后验概率分布。我们采用BP算法进行概率图模型上的空间推断,进一步精确定位目标位置。已经证明,对于有环图模型,BP算法可以获得很好的近似解。因此,本文建立的概率图模型是有环模型,并利用BP算法进行求解。
采用MMSE形式的BP算法,对于某一节点xi的信念消息以及MMSE估计值进行推断,公式如下:
其中,α表示归一化系数,作用是使得节点的所有信念b(xi)和为1,在利用BP算法推断出各个显著特征区域的位置之后,根据各个显著特征区域与目标区域的位置关系,输出最 终的目标区域:
其中,xO表示整体目标区域的中心,ci表示每一个显著特征区域得到的结果的可信度。
步骤3-4,考虑到遮挡等因素,当目标被部分遮挡时,存在有些显著特征区域难以跟踪。进行概率推断时,虽然可以根据可以被跟踪到的显著特征区域推断出被遮挡部分的显著特征区域,但如果这个时候进行模型的更新,对未被遮挡的显著特征区域进行建模,可以明显提高算法的计算效率。如果遮挡情况发生,不可能在每一帧结束时进行目标更新,这样会增加算法的复杂性。本发明中利用对显著特征区域跟踪的准确率Q进行判断,决定是否需要更新目标图模型,定义子块跟踪准确率Q:
Q=正确跟踪的特征区域数目/特征区域总数 (24)
一般认为目标的大部分区域处于被遮挡的状态时,就需要对目标的概率图模型进行更新。即当Q<0.5时,利用跟踪正确的特征区域重新建立目标的概率图模型;当Q>0.75时,认为目标区域的遮挡情况正在消失,因而恢复原始的概率图模型。
本发明在Matlab2012a环境下完成,实验中采用了多组视频序列对所提方法进行对比实验。测试视频序列中包含了目标运动过程中可能产生的多种变化,如目标与背景区域相似、目标遮挡、姿态变化等。在进行目标跟踪之前,首先在图像序列的第一帧中手动选取目标区域作为初始的目标模板,从目标模板中提取显著特征区域,进而建立MRF模型。文中比较了本文算法与改进的MS算法、分块跟踪算法、PF算法的跟踪效果,结果说明如下:图5-图8中,(a)为本发明方法,(b)为PF算法,(c)为MS算法,(d)为分块跟踪算法。
1、图5视频序列1中图像帧的总数为50,图像分辨率为128*96,在该视频序列中,运动目标为人脸,跟踪过程中目标人脸在一段时间内会被严重遮挡。考虑跟踪过程中存在遮挡,观测模型中的系数λ取较小的数值,实验中取值(γ,λ)=(0.6,2)。跟踪结果显示所示,图像帧的序号分别为第1,10,21,36和49。在目标运动过程中,本文算法和分块跟踪算法都可以实现对目标的跟踪,而PF算法和MS算法存在一定的漂移。
2、图6视频序列2中图像帧的总数为108,图像分辨率为176*144,视频序列中运动目标为船只,并且跟踪的过程中会出现船只相遇情况,同时在视频序列2中,目标与背景的颜色特征存在一定的相似性。考虑到该视频序列中目标没有太大的形变,遮挡时间很短并且遮挡程度并不明显,所以实验中参数取(γ,λ)=(0.5,4)。在目标运动过程,显示帧数为1,23,37,67 和98帧,可以看出,本文跟踪算法可以实现对目标的跟踪。而MS算法,PF算法以及分块跟踪算法在跟踪时会出现跟踪失败的情况。
3、图7视频序列3中图像帧的总数为173,图像分辨率为128*96,在该视频序列中,运动目标为人脸目标。在目标人脸运动过程中,在不同的时间段内,人脸姿态内发生变化、背景发生变化以及会有遮挡情况发生,所以选择参数(γ,λ)=(0.3,5)。算法的跟踪效果如图7所示,显示的图像帧的序号分别为第7,20,59,89以及118帧。实验结果显示本文提出了改进算法在整个跟踪过程中可以实现对目标的定位。而在人脸目标的姿态发生变化时,分块跟踪算法的跟踪精度受到很大影响,另外在目标人脸作偏转运动时,四种算法的跟踪误差较大,在目标人脸恢复正面时,四种算法可以重新实现对目标的准确跟踪。
4、图8视频序列4中图像帧的总数为86,图像分辨率为704*576,在该视频序列中,运动目标为车辆。在目标车辆运动过程中,存在其他相似车辆的干扰,所以选择参数(γ,λ)=(0.5,3)。算法的跟踪效果如图8所示,显示的图像帧的序号分别为第1,21,43,67以及82帧。实验结果显示本文所提算法和PF算法可以实现对目标车辆稳定准确的跟踪,而MS算法和分块跟踪算法在某些帧中存在很大的漂移。
以上实施例仅为说明本发明的技术思想,不能以此限定本发明的保护范围,凡是按照本发明提出的技术思想,在技术方案基础上所做的任何改动,均落入本发明保护范围之内。
Claims (5)
1.一种基于概率图模型的目标跟踪方法,其特征在于,包括如下步骤:
步骤1,对图像序列中第一帧图像,标定目标区域,并将目标区域划分为多个显著特征区域;计算各个显著特征区域的颜色纹理直方图;
步骤2,对第一帧图像,将各显著特征区域作为马尔可夫随机场模型的节点,显著特征区域之间的空间关系作为连接两个节点的边,利用马尔可夫随机场模型融合显著特征区域之间的空间位置信息以及显著特征区域的局部信息对目标进行建模;
步骤3,在跟踪过程中,首先在当前帧中利用MS算法对各个显著特征区域的位置进行匹配,得到各个显著特征区域的初步定位结果;然后将各个显著特征区域的初步定位结果作为MRF模型中各个节点的观测值,输入信念传播算法进行空间域上的概率推断,得到各个显著特征区域的位置;最后根据各个显著特征区域与目标区域中心点的空间位置关系,利用已经得到的各个显著特征区域的位置进行计算,得到最终的目标区域中心并输出跟踪结果。
2.根据权利要求1所述基于概率图模型的目标跟踪方法,其特征在于,步骤1所述将目标区域划分为多个显著特征区域的具体过程包括以下步骤:
步骤1-1,在目标区域中利用Harris算子提取Harris角点;
步骤1-2,将Harris角点中属于背景部分及目标边缘的Harris角点去除;
步骤1-3,采用K-means算法对步骤1-2剩余的Harris角点进行聚类;
步骤1-4,聚类完成后从各个类别中选择距离目标区域的中心最近的Harris角点,以此来划分显著特征区域。
3.根据权利要求1所述基于概率图模型的目标跟踪方法,其特征在于,步骤1所述计算各个显著特征区域的颜色纹理直方图的具体过程包括以下步骤:
步骤1-5,根据下式计算显著特征区域的颜色直方图:
其中,表示颜色直方图,K(·)为核函数,x′0为显著特征区域中心像素点颜色特征值,x′k为第k个像素点颜色特征值,h为核函数的固定宽度,B(x′k)是与该像素点的颜色特征相应的灰度级数,bc=1,2,…,B,B为灰度级分量的个数,N为显著特征区域内所有像素点的个数;
步骤1-6,根据下式计算显著特征区域的纹理直方图:
其中,qLBP表示纹理直方图,I(xik)表示第i个显著特征区域中第k个像素点xik的灰度值,I(xik(p))表示像素点xik邻域内第p个像素点的灰度值,bv=0,1,…,255表示纹理值级数,N为显著特征区域内所有像素点的个数;
步骤1-7,将显著特征区域对应的颜色直方图和纹理直方图进行叠加,得到显著特征区域的颜色纹理直方图,公式如下:
其中,表示第i个显著特征区域的颜色纹理直方图,右上角T表示转置。
4.根据权利要求1所述基于概率图模型的目标跟踪方法,其特征在于,步骤2所述对目标进行建模的公式为:
其中,n表示所有显著特征区域的个数,分别表示马尔可夫随机场模型的结构模型、观测模型,φ(xi,xj)表示xi,xj之间的兼容函数,表示xi,yi之间的似然函数,xi、xj分别表示第i、j个显著特征区域,yi表示xi的观测值,γ表示结构模型在整个模型所占的比重,λ表示观测模型在整个模型所占的比重,表示xi的颜色纹理直方图,表示根据xi在当前帧中得到的区域中计算得到的颜色纹理直方图,表示两个颜色纹理直方图之间的巴氏距离。
5.根据权利要求1所述基于概率图模型的目标跟踪方法,其特征在于,步骤3所述最终的目标区域中心的计算公式为:
其中,xO表示整体目标区域的中心,n表示所有显著特征区域的个数,ci表示每一个显著特征区域得到的结果的可信度,xi表示第i个显著特征区域,Δxi表示该显著特征区域中心与目标区域中心的偏移量,表示xi的颜色纹理直方图,表示根据xi在当前帧中得到的区域中计算得到的颜色纹理直方图,表示两个颜色纹理直方图之间的巴氏距离。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610958716.1A CN106570499A (zh) | 2016-10-28 | 2016-10-28 | 一种基于概率图模型的目标跟踪方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610958716.1A CN106570499A (zh) | 2016-10-28 | 2016-10-28 | 一种基于概率图模型的目标跟踪方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN106570499A true CN106570499A (zh) | 2017-04-19 |
Family
ID=58535904
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201610958716.1A Pending CN106570499A (zh) | 2016-10-28 | 2016-10-28 | 一种基于概率图模型的目标跟踪方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN106570499A (zh) |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107248296A (zh) * | 2017-07-13 | 2017-10-13 | 南京航空航天大学 | 一种基于无人机和时序特征的视频交通流量统计方法 |
CN107464256A (zh) * | 2017-07-05 | 2017-12-12 | 河海大学 | 一种目标检测与可能性判别修正的关联方法 |
CN108200430A (zh) * | 2017-12-27 | 2018-06-22 | 华中科技大学 | 一种基于视觉显著度的自适应下采样深度图压缩方法 |
CN108830842A (zh) * | 2018-06-04 | 2018-11-16 | 哈尔滨工程大学 | 一种基于角点检测的医学图像处理方法 |
CN110274588A (zh) * | 2019-06-19 | 2019-09-24 | 南京航空航天大学 | 基于无人机集群信息的双层嵌套因子图多源融合导航方法 |
CN111914850A (zh) * | 2019-05-07 | 2020-11-10 | 百度在线网络技术(北京)有限公司 | 图片特征提取方法、装置、服务器和介质 |
CN115082481A (zh) * | 2022-08-23 | 2022-09-20 | 聊城市誉林工业设计有限公司 | 一种用于齿轮的图像增强方法 |
CN115439919A (zh) * | 2022-11-01 | 2022-12-06 | 腾讯科技(深圳)有限公司 | 模型更新方法、装置、设备、存储介质及程序产品 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103824305A (zh) * | 2014-03-17 | 2014-05-28 | 天津工业大学 | 一种改进的Meanshift目标跟踪方法 |
-
2016
- 2016-10-28 CN CN201610958716.1A patent/CN106570499A/zh active Pending
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103824305A (zh) * | 2014-03-17 | 2014-05-28 | 天津工业大学 | 一种改进的Meanshift目标跟踪方法 |
Non-Patent Citations (1)
Title |
---|
蔡波: "基于显著特征区域和概率图模型的目标跟踪", 《云南民族大学学报(自然科学版)》 * |
Cited By (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107464256B (zh) * | 2017-07-05 | 2019-10-15 | 河海大学 | 一种目标检测与可能性判别修正的关联方法 |
CN107464256A (zh) * | 2017-07-05 | 2017-12-12 | 河海大学 | 一种目标检测与可能性判别修正的关联方法 |
CN107248296A (zh) * | 2017-07-13 | 2017-10-13 | 南京航空航天大学 | 一种基于无人机和时序特征的视频交通流量统计方法 |
CN107248296B (zh) * | 2017-07-13 | 2020-04-24 | 南京航空航天大学 | 一种基于无人机和时序特征的视频交通流量统计方法 |
CN108200430A (zh) * | 2017-12-27 | 2018-06-22 | 华中科技大学 | 一种基于视觉显著度的自适应下采样深度图压缩方法 |
CN108830842A (zh) * | 2018-06-04 | 2018-11-16 | 哈尔滨工程大学 | 一种基于角点检测的医学图像处理方法 |
CN108830842B (zh) * | 2018-06-04 | 2022-01-07 | 哈尔滨工程大学 | 一种基于角点检测的医学图像处理方法 |
CN111914850A (zh) * | 2019-05-07 | 2020-11-10 | 百度在线网络技术(北京)有限公司 | 图片特征提取方法、装置、服务器和介质 |
CN111914850B (zh) * | 2019-05-07 | 2023-09-19 | 百度在线网络技术(北京)有限公司 | 图片特征提取方法、装置、服务器和介质 |
CN110274588A (zh) * | 2019-06-19 | 2019-09-24 | 南京航空航天大学 | 基于无人机集群信息的双层嵌套因子图多源融合导航方法 |
CN110274588B (zh) * | 2019-06-19 | 2020-12-08 | 南京航空航天大学 | 基于无人机集群信息的双层嵌套因子图多源融合导航方法 |
CN115082481A (zh) * | 2022-08-23 | 2022-09-20 | 聊城市誉林工业设计有限公司 | 一种用于齿轮的图像增强方法 |
CN115082481B (zh) * | 2022-08-23 | 2022-11-15 | 聊城市誉林工业设计有限公司 | 一种用于齿轮的图像增强方法 |
CN115439919A (zh) * | 2022-11-01 | 2022-12-06 | 腾讯科技(深圳)有限公司 | 模型更新方法、装置、设备、存储介质及程序产品 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106570499A (zh) | 一种基于概率图模型的目标跟踪方法 | |
CN108304798B (zh) | 基于深度学习及运动一致性的街面秩序事件视频检测方法 | |
Tan et al. | Color model-based real-time learning for road following | |
CN101499128B (zh) | 基于视频流的三维人脸动作检测和跟踪方法 | |
CN111932580A (zh) | 一种基于卡尔曼滤波与匈牙利算法的道路3d车辆跟踪方法及系统 | |
CN111784747B (zh) | 一种基于关键点检测和校正的车辆多目标跟踪系统及方法 | |
CN110533695A (zh) | 一种基于ds证据理论的轨迹预测装置及方法 | |
CN105335986A (zh) | 基于特征匹配和MeanShift算法的目标跟踪方法 | |
CN105405154A (zh) | 基于颜色-结构特征的目标对象跟踪方法 | |
CN102982559A (zh) | 车辆跟踪方法及系统 | |
Nassu et al. | A vision-based approach for rail extraction and its application in a camera pan–tilt control system | |
CN108830246B (zh) | 一种交通环境行人多维运动特征视觉提取方法 | |
CN111681259B (zh) | 基于无Anchor机制检测网络的车辆跟踪模型建立方法 | |
CN101901334A (zh) | 静态目标检测方法 | |
CN105335701A (zh) | 一种基于hog与d-s证据理论多信息融合的行人检测方法 | |
CN106778633B (zh) | 一种基于区域分割的行人识别方法 | |
CN111797688A (zh) | 一种基于光流和语义分割的视觉slam方法 | |
CN112001378B (zh) | 基于特征空间的车道线处理方法、装置、车载终端和介质 | |
CN109800321A (zh) | 一种卡口图像车辆检索方法及系统 | |
Mayr et al. | Self-supervised learning of the drivable area for autonomous vehicles | |
Samadzadegan et al. | Automatic lane detection in image sequences for vision-based navigation purposes | |
Dornaika et al. | A new framework for stereo sensor pose through road segmentation and registration | |
CN113092807B (zh) | 基于多目标跟踪算法的城市高架道路车辆测速方法 | |
CN104574443A (zh) | 一种全景摄像机间运动目标的协同跟踪方法 | |
CN112801021B (zh) | 基于多级语义信息的车道线检测方法及系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20170419 |
|
RJ01 | Rejection of invention patent application after publication |