CN105184811B - 一种基于结构支持向量机的多尺度目标跟踪方法 - Google Patents
一种基于结构支持向量机的多尺度目标跟踪方法 Download PDFInfo
- Publication number
- CN105184811B CN105184811B CN201510270434.8A CN201510270434A CN105184811B CN 105184811 B CN105184811 B CN 105184811B CN 201510270434 A CN201510270434 A CN 201510270434A CN 105184811 B CN105184811 B CN 105184811B
- Authority
- CN
- China
- Prior art keywords
- target
- sample
- supporting vector
- vector
- init
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
Landscapes
- Image Analysis (AREA)
Abstract
本发明涉及一种基于结构支持向量机的多尺度目标跟踪方法,利用结构输出支持向量机输出目标的位置估计值,避免了传统分类器对样本标签进行精确估计的需要;通过在线学习的方式更新结构输出支持向量机的参数,实现目标自适应跟踪;采用少量多尺度粒子作为候选样本,克服了传统固定尺度密集采样计算量过大的缺点,并显著提高了方法对目标尺度变化的适应性;提出一种阈值机制来避免支持向量集维数随时间快速无限增长,避免了计算资源的浪费;采用积分图进行Haar‑like特征的快速计算,保证了方法的实时性。本发明在复杂背景下有较强鲁棒性,对目标的尺度变化、部分遮挡、旋转、光照变化等有较强适应性,满足实际目标跟踪任务的需要。
Description
技术领域
本发明属于计算机视觉技术领域,具体涉及一种基于结构支持向量机的多尺度目标跟踪方法。
背景技术
基于视觉的运动目标跟踪是计算机视觉中最热门的研究课题之一,目标跟踪技术在战略与技术侦查、精确打击与武器制导、智能交通、医学诊断、视频监控等领域都有广泛的应用。同时,运动目标跟踪是计算机视觉中包括场景理解、行为识别等更高层任务研究的基础,对于理解人类视觉机制和探索人工智能具有重要意义。目前,国内外学者在目标跟踪领域开展了大量的工作,但由于自然场景中,目标外观会由于遮挡、光照、成像视角、尺度变化、非刚性形变等因素而发生难以预测的变化,使得实现鲁棒、实时的运动目标跟踪仍然面临诸多挑战。
现有的视觉目标跟踪方法可以分为三类:模式匹配法、状态估计法和基于检测的目标跟踪方法。模式匹配法关注于目标建模,通过计算候选样本与目标外观模型的最大相似度来完成目标定位。该类方法只利用了目标的外观信息,忽略了运动信息,当目标外观变化较大时会导致丢失。运动估计法是一种跟踪算法框架,可以与多种目标建模方法相结合,其实质是根据已有观测数据对目标状态进行估计,再用观测值来修正估计值的过程,常用的有卡尔曼滤波、粒子滤波等。基于检测的目标跟踪方法是近年来的研究热点,将跟踪问题视为检测问题,即通过建立在线更新的分类器来实现目标与背景的分离,弥补了传统方法忽略大量背景信息的缺点,且对目标外观变化有较强适应性。目前典型的基于检测的跟踪方法包括Struck(Structured Output Tracking with Kernels)、CT(compressivetracking)、TLD(Tracking-Learning-Detection)等。
结构输出跟踪(Struck)由于其高鲁棒性而得到广泛关注,采用结构输出支持向量机可以直接输出目标位置的估计值,避免了传统方法中输出样本标签的中间步骤,但该方法存在两个问题:一是采用固定尺度采集样本,而目标在运动过程中尺度会不断变化,这大大限制了该方法的应用范围;二是没有考虑目标的运动信息,当目标外观变化较大或运动较快时容易跟踪失败。因此,基于结构输出支持向量机的目标跟踪方法仍需进行改进以提高其跟踪精度。
发明内容
要解决的技术问题
为了避免现有技术的不足之处,本发明提出一种基于结构支持向量机的多尺度目标跟踪方法,方法对运动目标的尺度变化、外观变化有较强鲁棒性。
技术方案
一种基于结构支持向量机的多尺度目标跟踪方法,其特征在于步骤如下:
步骤1、系统初始化:读取目标的初始位置initBB=(init_x,init_y,init_w,init_h),其中(init_x,init_y)表示矩形目标框左上角点的位置,(init_w,init_h)表示宽和高,并计算第一帧图像中目标的Haar-like特征x0;
根据目标的初始位置,构建n个粒子;所述每个粒子的参数包括位置(xMin,yMin)、宽高(width,height)、尺度s和特征V;将每个粒子的当前k时刻、(k-1)时刻、(k-2)时刻参数值均初始化为s=1,V=x0,(xMin,yMin,width,height)=initBB,width=init_w×s,height=init_h×s;
步骤2、利用二阶模型对每个粒子状态进行预测:
利用二阶模型i=1,2,...,n.预测每个粒子的当前状态,生成一组以上一帧目标位置为中心、不同位置、不同尺度的粒子集Par=(P0,P1,...Pn);
其中:表示第i个粒子在k时刻的状态,wk表示零均值白噪声,A和B分别为常数;
步骤3、多尺度目标跟踪:
读取第t帧图像,以步骤2中生成的粒子集Par=(P0,P1,...Pn)作为目标的候选样本集,由结构输出支持向量机的判别函数计算Par中所有样本的响应值,以响应值最大的样本Pmax所对应的粒子位置作为目标的估计位置,
其中:表示第j个支持向量的系数,(xi,y)、分别表示候选样本和支持向量的Haar-like特征和位置,表示高斯核函数,衡量候选样本(xi,y)与支持向量的相似度,Φ(xi,y)表示特征映射;yt表示第t帧目标的估计位置,Y表示候选样本的位置集;
步骤4、结构输出支持向量机更新两组独立数据:
所述两组独立数据为支持模式集SP和支持向量集SV;
所述支持模式集SP是:保存每一帧目标附近样本的特征向量x和位置信息BB;
所述支持向量集SV是:一个支持向量引用某个支持模式中的某个样本,保存该样本的特征x、位置BB、系数β、梯度g;
更新过程如下:
a)添加新支持模式SPt:首先以第t帧目标位置BB为中心进行固定尺度的极坐标采样,得到样本集S=((x0,y0),(x1,y1)...((xm,ym)),其中xi为特征,yi为位置,将该样本集添加入支持模式集SP中;(x0,y0)为第t帧目标信息,将其作为正支持向量添加入SV中,记为s+;然后由结构输出支持向量机的判别函数计算S中每个样本的响应值,由gi(y)=-Δ(y,yi)-F(xi,y)计算每个样本的梯度值,其中Δ(y,yi)表示第t帧目标位置yi与样本框y的重叠率,由求得,将梯度值最小的样本作为负支持向量添加入支持向量集,记为s-;最后由Sequential minimal optimization优化算法进行s+及s-的参数更新;
b)更新支持模式集SP:随机选取一个支持模式,由引用该支持模式的支持向量计算上述样本集S中梯度值最大且满足β<δ(y,yi)C的样本作为正支持向量,记为s+,其中C为常数;在所有支持模式中,将梯度值最小的样本作为负支持向量,记为s-;由Sequential minimal optimization优化算法进行s+及s-的参数更新;
c)优化支持模式集SP:随机选取一个支持模式,同b)中方法选取正支持向量s+;由计算得到负支持向量s-;由Sequential minimaloptimization优化算法进行s+及s-的参数更新;
d)阈值机制:若支持向量集维数超过阈值,则移除引起权向量改变最小的负支持向量(xr,y),权向量
步骤5:根据步骤3中最大得分粒子Pmax重置所有粒子的参数,读取下一帧图像,返回步骤2。
多次迭代步骤4中的b)、c)、d)以提高支持向量参数的准确度。
所述常数A和B的取值范围为A=1~2,B=-1~1。
有益效果
本发明提出的一种基于结构支持向量机的多尺度目标跟踪方法,利用结构输出支持向量机输出目标的位置估计值,避免了传统分类器对样本标签进行精确估计的需要;通过在线学习的方式更新结构输出支持向量机的参数,实现目标自适应跟踪;采用少量多尺度粒子作为候选样本,克服了传统固定尺度密集采样计算量过大的缺点,并显著提高了方法对目标尺度变化的适应性;提出一种阈值机制来避免支持向量集维数随时间快速无限增长,避免了计算资源的浪费;采用积分图进行Haar-like特征的快速计算,保证了方法的实时性。本发明在复杂背景下有较强鲁棒性,对目标的尺度变化、部分遮挡、旋转、光照变化等有较强适应性,满足实际目标跟踪任务的需要。
附图说明
图1:基于结构输出支持向量机的多尺度目标跟踪方法流程图;
图2:本发明与Struck算法、CT算法对人脸的跟踪结果对比图;
(a)本发明方法跟踪结果;(b)Struck跟踪结果;(c)CT跟踪结果;
图3:本发明与Struck算法、CT算法对汽车的跟踪结果对比图;
(a)本发明方法跟踪结果;(b)Struck跟踪结果;(c)CT跟踪结果。
具体实施方式
现结合实施例、附图对本发明作进一步描述:
用于实施的硬件环境是:因特尔酷睿2双核2.93G计算机、2.0GB内存、512M显卡,运行的软件环境是:Visual Studio 2010,Windows 7。我们用C++及opencv实现了本发明提出的方法。
本发明具体实施如下:
步骤1、系统初始化:读取目标的初始位置initBB=(init_x,init_y,init_w,init_h),其中(init_x,init_y)表示目标框的左上角点的位置,(init_w,init_h)表示矩形目标框的宽和高;将图像尺寸调整为240×320,并计算第一帧图像中目标的灰度Haar-like特征x0;
所述Haar-like特征是一种矩形特征,反应图像的灰度变化,可通过积分图进行快速计算。本实施例选取了6种不同类型的Haar-like特征,包括两种边缘特征、两种线性特征,中心环绕特征、对角线特征,每种特征取32个矩形框,最终生成192维的特征向量,然后将特征值归一化到[-1,1]范围内,为了降低跟踪方法的随机性,在取32个矩形框时,采用均匀网格(2×4×4)的方式。
构建n个粒子,粒子参数包括位置(xMin,yMin)、宽高(width,height)、尺度s、特征V,将每个粒子的当前k时刻、(k-1)时刻、(k-2)时刻的参数值均初始化为s=1,V=x0,(xMin,yMin,width,height)=initBB。本实施例中n=800,且粒子宽、高同比例变化,即width=init_w×s,height=init_h×s。
步骤2、利用二阶模型对粒子状态进行预测:对每个粒子,利用其(k-1)、(k-2)帧的状态信息预测当前帧的状态,具体公式为:
其中xk(i),yk(i)表示第i个粒子的左上角点坐标、sk(i)表示第i个粒子的尺度, 分别表示三个状态的零均值白噪声,由此生成一组以上一帧目标位置为中心、不同位置、不同尺度的粒子集Par=(P0,P1,...Pn)。本实施例中,A=1.5,B=-0.5,标准差分别为sdx=10,sdy=10,sds=0.06。
步骤3、多尺度目标跟踪:读取第t帧图像,将其调整为240×320,以步骤2中生成的粒子集Par=(P0,P1,...Pn)作为目标的候选样本集,由结构输出支持向量机的判别函数计算Par中所有样本的响应值,其中表示第j个支持向量的系数,(xi,y)、分别表示候选样本和支持向量的Haar-like特征和位置,表示高斯核函数,衡量候选样本(xi,y)与支持向量的相似度,Φ(xi,y)表示特征映射;
响应值最大的样本Pmax所对应的粒子位置即目标的估计位置,即其中yt表示第t帧目标的估计位置,Y表示候选样本的位置集。
步骤4、结构输出支持向量机更新:结构输出支持向量机包含两组独立数据:一是支持模式集SP,保存每一帧目标周围所有样本的特征向量x和位置信息BB;二是支持向量集SV,一个支持向量引用某个支持模式中的某个样本,保存该样本的特征x、位置BB、系数β、梯度g。对SP和SV的更新需要四个过程:
a)添加新支持模式SPt:首先以第(t-1)帧目标位置BBt为中心、搜索半径为30像素、半径步长为12像素、相位步长为22.5°进行固定尺度的极坐标采样,得到81维的样本集S=((x0,y0),(x1,y1)...((x80,y80)),其中x为特征,y为位置,将该样本集添加到支持模式集SP中;(x0,y0)为第t帧目标信息,将其作为正支持向量添加入SV中,记为s+;然后由结构输出支持向量机的判别函数计算S中所有样本的响应值,由gi(y)=-Δ(y,yi)-F(xi,y)计算每个样本的梯度值,其中Δ(y,yi)表示第t帧目标位置yi与样本框y的重叠率,由求得,将梯度值最小的样本作为负支持向量添加入支持向量集,记为s-;最后由Sequential minimal optimization(SMO)优化算法进行s+及s-的参数更新。本实施例中高斯核函数
所述Sequential minimal optimization(SMO)优化算法包括系数更新、梯度更新两部分:
系数更新:由更新支持向量的系数β,
其中
高斯核映射值
梯度更新:由gj(y)←gj(y)-λ(k0-k1)更新所有支持向量的梯度g,其中k0=<Φ(xj,s),Φ(xi,s+)>,k1=<Φ(xj,y),Φ(xi,s-)>,Φ(xj,y)为已有支持向量的特征映射,Φ(xi,s)为新支持向量的特征映射。
b)更新支持模式集SP:随机选取一个支持模式,由引用该支持模式的支持向量计算上述样本集S中梯度值最大且满足β<δ(y,yi)C的样本作为正支持向量,记为s+,其中C为常数100;在所有支持模式中,将梯度值最小的样本作为负支持向量,记为s-;由Sequential minimal optimization(SMO)优化算法进行s+及s-的参数更新。
c)优化支持模式集SP:随机选取一个支持模式,同b)中方法选取正支持向量s+;由计算得到负支持向量s-;由Sequential minimaloptimization(SMO)优化算法进行s+及s-的参数更新。
d)阈值机制:若支持向量集维数超过阈值,则移除引起权向量改变最小的负支持向量(xr,y),权向量本实施例取阈值为100。
将b)、c)、d)迭代10次以提高支持向量参数的准确度。
步骤5、根据步骤4中最大得分粒子Pmax重置所有粒子的参数,读取下一帧图像,返回步骤2。
Claims (3)
1.一种基于结构支持向量机的多尺度目标跟踪方法,其特征在于步骤如下:
步骤1、系统初始化:读取目标的初始位置initBB=(init_x,init_y,init_w,init_h),其中init_x,init_y表示矩形目标框左上角点的位置,init_w,init_h表示宽和高,并计算第一帧图像中目标的Haar-like特征x0;
根据目标的初始位置,构建n个粒子;所述n个粒子的参数包括位置(xMin,yMin)、宽高width,height、尺度s和特征V;将每个粒子的当前k时刻、(k-1)时刻、(k-2)时刻参数值均初始化为s=1,V=x0,(xMin,yMin,width,height)=initBB,width=init_w×s,height=init_h×s;
步骤2、利用二阶模型对每个粒子状态进行预测:
利用二阶模型i=1,2,...,n.预测每个粒子的当前状态,生成一组以上一帧目标位置为中心、不同位置、不同尺度的粒子集Par=(P0,P1,...Pn);
其中:表示第i个粒子在k时刻的状态,wk表示零均值白噪声,A和B分别为常数;
步骤3、多尺度目标跟踪:
读取第t帧图像,以步骤2中生成的粒子集Par=(P0,P1,...Pn)作为目标的候选样本集,由结构输出支持向量机的判别函数计算Par中所有样本的响应值,以响应值最大的样本Pmax所对应的粒子位置作为目标的估计位置,
其中:表示第j个支持向量的系数,(xi,y)、分别表示候选样本和支持向量的Haar-like特征和位置,表示高斯核函数,衡量候选样本(xi,y)与支持向量的相似度,Φ(xi,y)表示特征映射;yt表示第t帧目标的估计位置,Y表示候选样本的位置集;
步骤4、结构输出支持向量机更新两组独立数据:
所述两组独立数据为支持模式集SP和支持向量集SV;
所述支持模式集SP是:保存每一帧目标附近样本的特征向量x和位置信息BB;
所述支持向量集SV是:一个支持向量引用某个支持模式中的某个样本,保存该样本的特征x、位置BB、系数β、梯度g;
更新过程如下:
a)添加新支持模式SPt:首先以第t帧目标位置BB为中心进行固定尺度的极坐标采样,得到样本集S=((x0,y0),(x1,y1)...((xm,ym)),其中xi为特征,yi为位置,将该样本集添加入支持模式集SP中;(x0,y0)为第t帧目标信息,将其作为正支持向量添加入SV中,记为s+;然后由结构输出支持向量机的判别函数计算S中每个样本的响应值,由gi(y)=-Δ(y,yi)-F(xi,y)计算每个样本的梯度值,其中Δ(y,yi)表示第t帧目标位置yi与样本框y的重叠率,由求得,将梯度值最小的样本作为负支持向量添加入支持向量集,记为s-;最后由Sequential minimal optimization优化算法进行s+及s-的参数更新;
b)更新支持模式集SP:随机选取一个支持模式,由引用该支持模式的支持向量计算上述样本集S中梯度值最大且满足β<δ(y,yi)C的样本作为正支持向量,记为s+,其中C为常数;在所有支持模式中,将梯度值最小的样本作为负支持向量,记为s-;由Sequential minimal optimization优化算法进行s+及s-的参数更新;
c)优化支持模式集SP:随机选取一个支持模式,同b)中方法选取正支持向量s+;由计算得到负支持向量s-;由Sequential minimaloptimization优化算法进行s+及s-的参数更新;
d)阈值机制:若支持向量集维数超过阈值,则移除引起权向量改变最小的负支持向量(xr,y),权向量
步骤5:根据步骤3中最大得分粒子Pmax重置所有粒子的参数,读取下一帧图像,返回步骤2。
2.根据权利要求1所述基于结构支持向量机的多尺度目标跟踪方法,其特征在于:多次迭代步骤4中的b)、c)、d)以提高支持向量参数的准确度。
3.根据权利要求1所述基于结构支持向量机的多尺度目标跟踪方法,其特征在于:所述常数A和B的取值范围为A=1~2,B=-1~1。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510270434.8A CN105184811B (zh) | 2015-05-25 | 2015-05-25 | 一种基于结构支持向量机的多尺度目标跟踪方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510270434.8A CN105184811B (zh) | 2015-05-25 | 2015-05-25 | 一种基于结构支持向量机的多尺度目标跟踪方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN105184811A CN105184811A (zh) | 2015-12-23 |
CN105184811B true CN105184811B (zh) | 2017-02-22 |
Family
ID=54906863
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201510270434.8A Active CN105184811B (zh) | 2015-05-25 | 2015-05-25 | 一种基于结构支持向量机的多尺度目标跟踪方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN105184811B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109195100B (zh) * | 2018-07-09 | 2020-12-01 | 南京邮电大学 | 一种基于自适应窗口的盲区数据预警方法 |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101777185B (zh) * | 2009-12-09 | 2012-04-25 | 中国科学院自动化研究所 | 融合描述式和判别式建模的目标跟踪方法 |
US8379920B2 (en) * | 2010-05-05 | 2013-02-19 | Nec Laboratories America, Inc. | Real-time clothing recognition in surveillance videos |
CN103886322A (zh) * | 2012-12-20 | 2014-06-25 | 中山大学深圳研究院 | 一种基于SVM和Mean-Shift的视频目标跟踪方法 |
CN104091349B (zh) * | 2014-06-17 | 2017-02-01 | 南京邮电大学 | 基于支持向量机的鲁棒目标跟踪方法 |
CN104376576B (zh) * | 2014-09-04 | 2018-06-05 | 华为技术有限公司 | 一种目标跟踪方法及装置 |
-
2015
- 2015-05-25 CN CN201510270434.8A patent/CN105184811B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
CN105184811A (zh) | 2015-12-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106875424B (zh) | 一种基于机器视觉的城市环境行驶车辆行为识别方法 | |
CN109753975A (zh) | 一种训练样本获得方法、装置、电子设备和存储介质 | |
CN106204638A (zh) | 一种基于尺度自适应和遮挡处理的航拍目标跟踪方法 | |
Yang et al. | MGC-VSLAM: A meshing-based and geometric constraint VSLAM for dynamic indoor environments | |
CN110084836A (zh) | 基于深度卷积特征分层响应融合的目标跟踪方法 | |
CN103632382A (zh) | 一种基于压缩感知的实时多尺度目标跟踪方法 | |
CN113763424B (zh) | 基于嵌入式平台的实时智能目标检测方法及系统 | |
CN103985143A (zh) | 基于字典学习的视频中判别性在线目标跟踪方法 | |
CN104408760A (zh) | 一种基于双目视觉的高精度虚拟装配系统算法 | |
CN107844739B (zh) | 基于自适应同时稀疏表示的鲁棒性目标追踪方法 | |
CN112184762A (zh) | 一种基于特征融合的灰狼优化粒子滤波目标跟踪算法 | |
Xu et al. | Hierarchical convolution fusion-based adaptive Siamese network for infrared target tracking | |
Tao et al. | Indoor 3D semantic robot VSLAM based on mask regional convolutional neural network | |
Hui | RETRACTED ARTICLE: Motion video tracking technology in sports training based on Mean-Shift algorithm | |
Li et al. | Video-based table tennis tracking and trajectory prediction using convolutional neural networks | |
Feng | Mask RCNN-based single shot multibox detector for gesture recognition in physical education | |
Yang et al. | An improved algorithm for the detection of fastening targets based on machine vision | |
CN103985139A (zh) | 基于颜色模型与预测向量簇模型信息融合的粒子滤波目标跟踪方法 | |
CN106485283B (zh) | 一种基于Online Boosting的粒子滤波行人目标跟踪方法 | |
CN105184811B (zh) | 一种基于结构支持向量机的多尺度目标跟踪方法 | |
Lu et al. | Hybrid deep learning based moving object detection via motion prediction | |
Li | Research on camera-based human body tracking using improved cam-shift algorithm | |
CN110660081B (zh) | 一种基于自适应的特征选择的目标跟踪方法 | |
CN105023277B (zh) | 基于复杂动态场景的卡尔曼粒子滤波跟踪方法 | |
Chen et al. | A generalized mean shift tracking algorithm |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant | ||
TR01 | Transfer of patent right | ||
TR01 | Transfer of patent right |
Effective date of registration: 20220523 Address after: Room 403, block a, innovation building, Northwest University of technology, No. 127, Youyi West Road, Beilin District, Xi'an, Shaanxi 710072 Patentee after: Xi'an Guangjiao Zhichuang Electronic Technology Co.,Ltd. Address before: 710072 No. 127 Youyi West Road, Shaanxi, Xi'an Patentee before: Northwestern Polytechnical University |