CN106570891A - 一种基于固定摄像头视频图像的目标跟踪算法 - Google Patents

一种基于固定摄像头视频图像的目标跟踪算法 Download PDF

Info

Publication number
CN106570891A
CN106570891A CN201610954987.XA CN201610954987A CN106570891A CN 106570891 A CN106570891 A CN 106570891A CN 201610954987 A CN201610954987 A CN 201610954987A CN 106570891 A CN106570891 A CN 106570891A
Authority
CN
China
Prior art keywords
result
tracking
target
obtains
overbar
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201610954987.XA
Other languages
English (en)
Inventor
张为
张泰�
刘艳艳
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tianjin University
Original Assignee
Tianjin University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tianjin University filed Critical Tianjin University
Priority to CN201610954987.XA priority Critical patent/CN106570891A/zh
Publication of CN106570891A publication Critical patent/CN106570891A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence

Landscapes

  • Image Analysis (AREA)

Abstract

本发明涉及一种基于固定摄像头视频图像的目标跟踪算法,首先对视频图像进行背景建模,得到运动的前景区域,然后通过跟踪目标的大小及位置信息,将跟踪结果与前景检测得到的结果对应起来,得到跟踪目标对应的前景区域,并将这个前景区域与KLT算法的跟踪结果综合起来,得到更准确的跟踪结果。本发明能提高跟踪效率和准确度。

Description

一种基于固定摄像头视频图像的目标跟踪算法
技术领域
本发明属于计算机视觉领域,是一种基于固定摄像头的目标跟踪算法。。
背景技术
对于物体的跟踪,近年来涌现出了很多非常经典的方法。比如有文献中设计了TLD(Tracking-learning-detection)跟踪算法,在跟踪的同时进行在线学习,并在跟踪丢失时采用检测算法重新寻找物体,起到了比较好的跟踪效果。还有文献将压缩感知的算法引入到跟踪领域,首先利用符合压缩感知RIP条件的随机感知矩对多尺度图像特征进行降维,然后在降维后的特征上采用简单的朴素贝叶斯分类器进行分类。这种算法的作者在实验中可以达到40帧/s的速度。可惜实际上这种方法在处理实时视频流时效果并不突出,远远达不到它描述的速率。还有文献中设计了struct跟踪算法,采用结构化学习的方法,不断预估物体的位移,再更新判别函数。通过建立的结构化SVM模型来进行分类判断。不过这种算法的运行速度并不是很快。针对这种方法,有序有文献进行改进得到了KCF跟踪算法,作者使用了一种通过矩阵循环偏移的算法构建出了分类器的训练样本,然后使用循环矩阵的数学性质把问题经过傅里叶变换转化到频域,避免了矩阵求逆的过程,极大地降低了运算复杂度。这种方法对后续的基于检测的跟踪算法影响深远。还有一些文章采用了基于深度学习的方法,主要解决跟踪时深度学习算法面临的数据不足的问题,并达到了当前最优秀的跟踪效果。
对于这些经典跟踪算法,都是针对背景可变的视频。对于目前常用的固定摄像头,往往可以通过固定的背景对跟踪目标的搜索进行约束。这样
发明内容
本发明的目的是提供一种可以提高计算效率,并得到更准确的效果的目标跟踪算法。技术方案如下:
一种基于固定摄像头视频图像的目标跟踪算法,首先对视频图像进行背景建模,得到运动的前景区域,然后通过跟踪目标的大小及位置信息,将跟踪结果与前景检测得到的结果对应起来,得到跟踪目标对应的前景区域,并将这个前景区域与KLT算法的跟踪结果综合起来,得到更准确的跟踪结果,包括下列步骤:
(1)对视频图像进行混合高斯背景建模,得到视频中的运动前景区域;
(2)特征点跟踪:对第一帧使用KLT算子进行特征点检测,对于之后的图片,通过分析特征点在样本上的覆盖情况,确定是否重新计算特征点,并使用LK光流法对这些特征点进行跟踪,得到所有特征点平均位移矢量vd
(3)跟踪目标对应前景,对于当前帧,包括如下步骤:
1)使用Kalman滤波器对目标位置进行预测,得到Kalman滤波器预测的位移;
2)结合Kalamn滤波器预测结果与运动前景区域,得到跟踪目标对应的前景矩形区域rB,对当前帧跟踪目标位置的预测ck以及上一帧跟踪的最终结果这一步具体步骤如下:
(4)将这个前景区域与KLT算法的跟踪结果综合起来,得到最终的跟踪结果rresult,即得到两个量:rresult的中心位置cresult以及rresult的大小Sresult,方法如下:
1)对于位移矢量vd,权重系数为:
其中M和N分别为检测到的特征点的总数及这些点经过聚类后结果中包含的点的数目,ud=2;
2)对于由Kalman滤波器预测的位置ck,权重系数为:
其中xk和yk分别为卡曼滤波器预测得到的中心位置在图像中的x坐标和与y坐标。xd和yd为上一帧跟踪目标的位置在第(1)步得到的位移矢量vd作用下移动到的位置的x坐标和与y坐标。vk为Kalman滤波器预测位置与原位置相比的位移,uk=2。
3)对于前景矩形区域rB的中心位置cB,权重系数:
其中w,h分别为rB的宽与高,分别是按照每帧20%和30%的固定速率更新的平均宽与高,即每帧计算出rresult之后,将rresult的宽与高分别乘以20%和30%,再与当前的乘以80%和70%的结果相加,得到的平均结果,uB=15。
对前三步计算得到的三个权重数进行归一化,并根据此三个权重,最终得到的rresult中心点cresult
4)对于跟踪目标对应的前景区域rB的大小,权重系数的形式与进行位置预测时相同,为:
5)对于前一帧跟踪结果的大小Sp,权重系数为一个固定值。
6)对5)6)两步得到的两个权重进行归一化,根据此两个权重得到rresult大小Sresult
具体实施方法
第一部分:特征点跟踪模块
1)首先使用KLT算子检测跟踪目标中的特征点,接下来使用运动前景对这些特征点做筛选,保留落在运动前景之上的特征点,这就组成了需要进行跟踪的点列:
Pin={pin1,pin2,pin3,pin4,...}
使用LK光流法对他们进行跟踪,得到跟踪成功的点列:
Pout={pout1,pout2,pout3,pout4,...}
为了保证算法的运行速度,不需要在每一帧图像中都使用KLT算子进行特征点检测通过下述步骤确定何时需要进行特征点检测:
2)将原图中的特征点按坐标对应关系放置在40×40像素直方图中,使该像素点的灰度值为最大值。然后使用Σ=2的高斯核对该直方图进行滤波。这就得到了一个直方图Pb。
3)通过Pb计算特征点覆盖直方图P,即通过比例系数r使得G,P两个直方图所有像素之和相等。
r=ΣGij/∑Pbij
Pij=r×Pbij
由于进行了归一化,这时
∑Gij=∑Pij=∑40×40
得到了直方图G与P之后,计算直方图G和P之间的差。这个运算定义如下:
||G-P||=∑||Gij-Pij||
最后对结果进行归一化:
Rdiff=||G-P||/Σ40×40
4)当Rdiff>Tth时,重新使用KLT算子检测跟踪目标中的特征点。否则使用上一次跟踪得到的特征点。这就完成了跟踪目标中特征点的跟踪和选取。
第二部分:跟踪目标对应前景区域选择模块
1)对前景区域求出各个前景团块的外接矩形;
2)使用Kalman滤波器,结合之前跟踪目标的位置来对当前跟踪目标的位置进行预测,得到预测矩形rk
3)上一步得到的预测矩形rk会与第一步得到的一些外接矩形相交,使用Dijkstra算法可以得到相交结果中所有合理的组合。记为Rrcb;(首先构建一个无向图G={V,E,ω}。顶点V={V1,V2,...,Vn}表示第一步得到的所有前景区域外接矩形,边E={E1,E2,...,Ek}表示这些矩形之间的距离。对于每一条边,都有一个权重系数ωij表示前景矩形Vi和Vj之间距离的大小。从一个顶点出发,到另一个顶点的最短路径,是可以通过Dijkstra算法求得的。每一条最短路径所经过的顶点的集合,都是一种合理的矩形组合)
4)从第三步得到的结果Rrcb中选择出最能代表跟踪目标前景区域的元素。公示定义如下:
其中有
公式中的αs、αN和αE为三个权重系数,表示公式中三部分的权重,人为进行指定。上标i表示它是Rrcb中的第几个元素。第一部分描述矩形与预测矩形rk的重合程度;第二部分描述上一部分中得到的Pout中的点中落在矩形内的数目。假设Pout中共有M个点;第三部分描述组成的j个矩形没有被rk覆盖的面积与其自身面积之比。对这j个比例求和,这个和越大,矩形露出rk的部分就越多,si的值也就越小。对于Rrcb中的每个元素,按照这个公式计算si的值,并进行比较。选择其中si值最大的元素作为跟踪目标的前景区域。这就完成了前景区域的确定。
第三部分:基于权重的最终跟踪结果确定
前面两部分的计算中已经得到了四个可以使用的信息:第一部分所有特征点平均位移矢量vd;第二部分中得到的Kalman滤波器对这一帧跟踪目标位置的预测ck以及跟踪目标对应的前景矩形区域rB;最后还有上一帧跟踪的最终结果(包括位置和大小两部分信息)。在这一步中算法综合这些信息,得到最终的跟踪结果rresult,即得到两个量:rresult的中心的位置cresult以及rresult的大小Sresult
7)对于位移矢量vd,权重系数的形式为:
其中M和N为第一部分中Pout中点的总数,和这些点经过聚类后结果中包含的点的数目。本算法中ud=2。
8)对于由Kalman滤波器预测的位置ck,权重系数的形式为:
其中vk为Kalman滤波器预测位置与原位置相比的位移。本算法中uk=2。
9)对于前景矩形中心位置cB,权重系数的形式为:
其中w,h分别为rB的宽与高。分别是按照每帧20%和30%的固定速率更新的平均宽与高,即每帧计算出rresult之后,将rresult的宽与高分别乘以20%和30%,再与当前的乘以80%和70%的结果相加,得到的平均结果。本算法中uB=15。
10)对前三步计算得到的三个权重系数进行归一化,得到归一化权重系数
i在B,d,k中选择。最终得到的rresult中心点cresult
其中cB为跟踪目标对应的前景矩形区域的中心。cd的中心经过位移矢量vd位移得到的位置。ck为Kalman滤波器对这一帧跟踪目标的位置的预测。cresult计算完成。
11)接下来计算rresult的大小Sresult。对于跟踪目标对应的前景区域rB的大小,权重系数的形式与进行位置预测时相同,为:
12)对于的大小Sp,权重系数为一个固定值:
本算法中取Ω=0.7。对这两个权重进行归一化:
i在B,p中选择。最终得到的rresult大小Sresult
这就融合得到了最终的跟踪结果。重复上面的步骤,可以持续对目标进行跟踪。

Claims (1)

1.一种基于固定摄像头视频图像的目标跟踪算法,首先对视频图像进行背景建模,得到运动的前景区域,然后通过跟踪目标的大小及位置信息,将跟踪结果与前景检测得到的结果对应起来,得到跟踪目标对应的前景区域,并将这个前景区域与KLT算法的跟踪结果综合起来,得到更准确的跟踪结果,包括下列步骤:
(1)对视频图像进行混合高斯背景建模,得到视频中的运动前景区域;
(2)特征点跟踪:对第一帧使用KLT算子进行特征点检测,对于之后的图片,通过分析特征点在样本上的覆盖情况,确定是否重新计算特征点,并使用LK光流法对这些特征点进行跟踪,得到所有特征点平均位移矢量vd
(3)跟踪目标对应前景,对于当前帧,包括如下步骤:
1)使用Kalman滤波器对目标位置进行预测,得到Kalman滤波器预测的位移;
2)结合Kalamn滤波器预测结果与运动前景区域,得到跟踪目标对应的前景矩形区域rB,对当前帧跟踪目标位置的预测ck以及上一帧跟踪的最终结果这一步具体步骤如下:
(4)将这个前景区域与KLT算法的跟踪结果综合起来,得到最终的跟踪结果rresult,即得到两个量:rresult的中心位置cresult以及rresult的大小Sresult,方法如下:
1)对于位移矢量vd,权重系数为:
ω d c = exp [ - u d ( 1 - N / M ) ]
其中M和N分别为检测到的特征点的总数及这些点经过聚类后结果中包含的点的数目,ud=2;
2)对于由Kalman滤波器预测的位置ck,权重系数为:
ω k c = exp [ - u k ( x d - x k ) 2 + ( y d - y k ) 2 x d 2 + x k 2 + y d 2 + y k 2 ] { 1 - exp [ - u d ( 1 - N M ) ] }
其中xk和yk分别为卡曼滤波器预测得到的中心位置在图像中的x坐标和与y坐标;xd和yd为上一帧跟踪目标的位置在第(1)步得到的位移矢量vd作用下移动到的位置的x坐标和与y坐标;vk为Kalman滤波器预测位置与原位置相比的位移,uk=2;
3)对于前景矩形区域rB的中心位置cB,权重系数:
ω B c = exp { - u B [ ( w - w ‾ w ‾ ) 2 + ( h - h ‾ h ‾ ) 2 ] }
其中w,h分别为rB的宽与高,分别是按照每帧20%和30%的固定速率更新的平均宽与高,即每帧计算出rresult之后,将rresult的宽与高分别乘以20%和30%,再与当前的乘以80%和70%的结果相加,得到的平均结果,uB=15;
对前三步计算得到的三个权重数进行归一化,并根据此三个权重,最终得到的rresult中心点cresult
4)对于跟踪目标对应的前景区域rB的大小,权重系数的形式与进行位置预测时相同,为:
ω B S = exp { - u B [ ( w - w ‾ w ‾ ) 2 + ( h - h ‾ h ‾ ) 2 ] }
5)对于前一帧跟踪结果的大小Sp,权重系数为一个固定值;
6)对5)6)两步得到的两个权重进行归一化,根据此两个权重得到rresult大小Sresult
CN201610954987.XA 2016-11-03 2016-11-03 一种基于固定摄像头视频图像的目标跟踪算法 Pending CN106570891A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201610954987.XA CN106570891A (zh) 2016-11-03 2016-11-03 一种基于固定摄像头视频图像的目标跟踪算法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201610954987.XA CN106570891A (zh) 2016-11-03 2016-11-03 一种基于固定摄像头视频图像的目标跟踪算法

Publications (1)

Publication Number Publication Date
CN106570891A true CN106570891A (zh) 2017-04-19

Family

ID=58535389

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201610954987.XA Pending CN106570891A (zh) 2016-11-03 2016-11-03 一种基于固定摄像头视频图像的目标跟踪算法

Country Status (1)

Country Link
CN (1) CN106570891A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109241952A (zh) * 2018-10-26 2019-01-18 北京陌上花科技有限公司 拥挤场景下人物计数方法及装置

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100119109A1 (en) * 2008-11-11 2010-05-13 Electronics And Telecommunications Research Institute Of Daejeon Multi-core multi-thread based kanade-lucas-tomasi feature tracking method and apparatus
KR101492366B1 (ko) * 2014-01-13 2015-02-12 한양대학교 에리카산학협력단 차량 사고 감지 방법 및 그 장치
CN104408739A (zh) * 2014-04-02 2015-03-11 武汉科技大学 一种运动目标的检测方法及其监控系统
CN104866827A (zh) * 2015-05-19 2015-08-26 天津大学 基于视频监控平台的人员翻越行为的检测方法
CN105894530A (zh) * 2014-12-11 2016-08-24 深圳市阿图姆科技有限公司 一种针对视频中运动目标检测与跟踪的解决方案
CN106204594A (zh) * 2016-07-12 2016-12-07 天津大学 一种基于视频图像的弥散性运动物体的方向检测方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100119109A1 (en) * 2008-11-11 2010-05-13 Electronics And Telecommunications Research Institute Of Daejeon Multi-core multi-thread based kanade-lucas-tomasi feature tracking method and apparatus
KR101492366B1 (ko) * 2014-01-13 2015-02-12 한양대학교 에리카산학협력단 차량 사고 감지 방법 및 그 장치
CN104408739A (zh) * 2014-04-02 2015-03-11 武汉科技大学 一种运动目标的检测方法及其监控系统
CN105894530A (zh) * 2014-12-11 2016-08-24 深圳市阿图姆科技有限公司 一种针对视频中运动目标检测与跟踪的解决方案
CN104866827A (zh) * 2015-05-19 2015-08-26 天津大学 基于视频监控平台的人员翻越行为的检测方法
CN106204594A (zh) * 2016-07-12 2016-12-07 天津大学 一种基于视频图像的弥散性运动物体的方向检测方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
KANG XUE ETAL.: "A modified KLT multiple objects tracking framework based on global segmentation and adaptive template", 《PROCEEDINGS OF THE 21ST INTERNATIONAL CONFERENCE ON PATTERN RECOGNITION (ICPR2012)》 *
张泰 等: "周界视频监控中人员翻越行为检测算法", 《西安交通大学学报》 *
黄超群: "基于混合高斯模型和Kalman滤波器的运动目标检测与跟踪", 《中国优秀硕士学位论文全文数据库 信息科技辑》 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109241952A (zh) * 2018-10-26 2019-01-18 北京陌上花科技有限公司 拥挤场景下人物计数方法及装置
CN109241952B (zh) * 2018-10-26 2021-09-07 北京陌上花科技有限公司 拥挤场景下人物计数方法及装置

Similar Documents

Publication Publication Date Title
CN106960195B (zh) 一种基于深度学习的人群计数方法及装置
Kwak et al. Learning occlusion with likelihoods for visual tracking
CN110599537A (zh) 基于Mask R-CNN的无人机图像建筑物面积计算方法及系统
CN108256431B (zh) 一种手部位置标识方法及装置
CN107633226B (zh) 一种人体动作跟踪特征处理方法
US9607228B2 (en) Parts based object tracking method and apparatus
CN105225226B (zh) 一种基于图像分割的级联可变形部件模型目标检测方法
CN107967451A (zh) 一种利用多尺度多任务卷积神经网络对静止图像进行人群计数的方法
CN111627050B (zh) 一种目标跟踪模型的训练方法和装置
CN111640136B (zh) 一种复杂环境中的深度目标跟踪方法
CN112750148B (zh) 一种基于孪生网络的多尺度目标感知跟踪方法
CN112348849A (zh) 一种孪生网络视频目标跟踪方法及装置
CN111046856B (zh) 基于动静态特征提取并行位姿跟踪与地图创建的方法
CN104537647A (zh) 一种目标检测方法及装置
CN109344851B (zh) 图像分类显示方法和装置、分析仪器和存储介质
Kouskoulis et al. Pedestrian simulation: Theoretical models vs. data driven techniques
CN110111370A (zh) 一种基于tld和深度多尺度时空特征的视觉物体跟踪方法
CN108537825B (zh) 一种基于迁移学习回归网络的目标跟踪方法
US11367206B2 (en) Edge-guided ranking loss for monocular depth prediction
CN105261040B (zh) 一种多目标跟踪方法及装置
CN112991394B (zh) 基于三次样条插值和马尔科夫链的kcf目标跟踪方法
CN107316030A (zh) 无人机对地面运动车辆自动检测与分类方法
CN108694398B (zh) 一种图像分析方法及装置
CN109858326A (zh) 基于类别语义弱监督的在线视觉跟踪方法及系统
CN106570891A (zh) 一种基于固定摄像头视频图像的目标跟踪算法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication

Application publication date: 20170419

RJ01 Rejection of invention patent application after publication