CN106097388A - 视频目标跟踪中目标位置预测、搜索范围自适应调整及双重匹配融合的方法 - Google Patents

视频目标跟踪中目标位置预测、搜索范围自适应调整及双重匹配融合的方法 Download PDF

Info

Publication number
CN106097388A
CN106097388A CN201610397076.1A CN201610397076A CN106097388A CN 106097388 A CN106097388 A CN 106097388A CN 201610397076 A CN201610397076 A CN 201610397076A CN 106097388 A CN106097388 A CN 106097388A
Authority
CN
China
Prior art keywords
target
frame
overbar
matching
sigma
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201610397076.1A
Other languages
English (en)
Other versions
CN106097388B (zh
Inventor
郭成安
梁志达
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Dalian University of Technology
Original Assignee
Dalian University of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Dalian University of Technology filed Critical Dalian University of Technology
Priority to CN201610397076.1A priority Critical patent/CN106097388B/zh
Publication of CN106097388A publication Critical patent/CN106097388A/zh
Application granted granted Critical
Publication of CN106097388B publication Critical patent/CN106097388B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence

Landscapes

  • Image Analysis (AREA)

Abstract

本发明公开了一种视频目标跟踪中目标位置预测、搜索范围自适应调整及双重匹配融合的方法。其特征是在目标跟踪过程中,根据运动学原理和目标自身的运动规律建立运动模型对下一帧图像中的目标位置进行预测,以预测的结果作为对下一帧目标的搜索中心;同时考虑到实际目标在运动过程中具有一定的不确定或随机性,根据目标跟踪过程中所求取的目标运动状态估计出随机运动的方差参数,进而利用所提取出来的方差参数自适应地调整目标搜索范围,从而可以提高目标搜索的效率,得到更为可靠的跟踪结果。在目标匹配中,采用双重匹配融合的方法对目标进行匹配,以此来进一步提升对所跟踪目标的匹配精度和对不同视频情况的适应性。

Description

视频目标跟踪中目标位置预测、搜索范围自适应调整及双重 匹配融合的方法
技术领域
本发明涉及计算机视觉技术领域,特指在视频目标跟踪中一种目标位置预测、搜索范围自适应调整及双重匹配融合的方法。
背景技术
目标跟踪是计算机视觉领域的一个重要研究课题,是进一步分析运动行为的基础,例如,视频监控,智能交通,运动行为分析等。近年来已提出了许多卓有成效的目标跟踪算法,在该领域取得了很大进展。但在面对背景复杂、光照变化和目标运动变化快的视频序列时,经常出现跟踪精度下降、跟踪错误、甚至丢失目标的现象。因此,如何对现有的视频目标跟踪方法进行改进,实现精确可靠的视频目标跟踪仍然是一个富有挑战性和需要深入进行研究的课题。
视频目标跟踪主要是监测视频序列中目标的位置变化(主要为目标中心位置的变化)和形状的变化,方法的关键是在新的一帧图像中搜寻到目标的位置与形态的变化。现有文献中的目标跟踪方法,多数是以前一帧目标的匹配位置为中心、以事前预定的常数为方差按高斯分布产生的随机位置在新的一帧中对目标进行搜索(以随机仿射变换的形状进行匹配),这对于目标运动速度变化较大的视频序列,不得不通过选择一个较大的方差来扩大搜索范围以保证所要跟踪的目标不至于落在搜索范围之外,并且始终在这样大的范围内进行搜索。由此会使目标搜索的效率很低,使得跟踪精度受限。针对此问题,Lao等(Lao Y.,Zhu J.and Zheng Y.F.:Sequential particle generation for visual tracking.IEEETrans.Circuits and Systems for Video Technology,19(9):1365-1378,Sep.2009)提出在粒子滤波过程中通过利用已获得的当前帧(第k-1帧)和前一帧(第k-2帧)目标的位置之差来作为运动速度的估值进一步利用对第k帧的目标位置进行预测其中uk为满足高斯分布的白噪声uk~N(0,∑k),对角矩阵∑k中的主元素作为搜索区间的长轴,短轴取为λ2=γρk,其中γ为(0,1)的常数用于调整长短轴之间的比例。该方法能够适应目标运动速度较快的情况,而且在搜索范围上对不同的视频序列都有较好的适应性。但该方法仍然需要根据经验(或先验知识)事先选定常数γ,该参数的选取对目标搜索效率和精度产生人为因素的影响;此外,该方法没有考虑加速度的影响,因而在运动速度变化比较显著的情况下,跟踪效果不够理想。Cheng等(Cheng X.,Shiina Y.,Zhuang X.and Ikenaga T.:Player tracking usingprediction after intersection based particle filter for volleyball matchvideo.2014Asia-Pacific Signal Processing Association Annual Summit andConference,Feb.2014)提出按公式对目标位置进行预测和随机搜索,其中为对目标搜索区域中心位置的预测,预测公式为(其中a1,a2为预先选定的常数,x0为目标的初始位置,xk-i为在第k-i帧时所得到的最佳匹配目标的中心位置),N(0,1)表示均值为0方差为1的高斯随机数,B为事先选定的常数。该方法应用在排球选手目标跟踪过程中取得了比较显著的改进效果。但该方法仍然需要根据经验(或先验知识)事先选定常数a1,a2来实现目标位置的预测,依靠先验知识选定常数B来确定目标搜索范围,因此同样存在对难以适合不同的视频应用场合的问题。Wang等(D.Wang,H.Lu,M.-H.Yang.Online object tracking with sparse prototypes.IEEETransactions on Image Processing,2013,22(1):314-325)将目标模板的主成分分量(PCA:Principal Component Analysis)基向量作为字典中的原子,通过主成分特征提取能够较好描述全局性特征,在跟踪精度上有一定提高。现有文献中的目标跟踪方法,在对跟踪目标进行匹配时,仅采用一种匹配方法,使得对不同的视频条件的适应能力不强。针对上述这些不足之处,本发明提出相应的改进措施,以有效地提高视频跟踪方法对运动目标的定位精度和在不同视频情况下的适应能力。
发明内容
本发明以现有的典型高性能视频目标跟踪方法为基础,针对其存在的不足之处,提出相应的改进方法:在目标跟踪过程中,根据运动学原理和目标自身的运动规律建立运动模型对目标位置的变化进行预测,以预测的结果作为对下一帧目标的搜索中心,由此可以使搜索中心更加接近实际的目标位置;同时考虑到运动过程所具有的不确定或随机性,通过再对目标跟踪过程中所获得的运动状态估计出随机运动的方差参数,进而利用所提取出来的方差参数自适应地调整目标搜索范围,从而可以提高目标搜索的效率,得到更为可靠的跟踪结果。
在目标匹配中,采用双重匹配融合的方法对目标进行匹配,以此来进一步提升对所跟踪目标的匹配精度和对不同视频情况的适应性。
本发明的视频目标跟踪中一种目标位置预测、搜索范围自适应调整及双重匹配融合的方法,采用的技术方案,具体如下:
1.视频目标跟踪中目标位置预测、搜索范围自适应调整及双重匹配融合的方法,其特征在于如下步骤:
步骤1:建立目标位置的预测模型,在跟踪过程中以对目标位置的预测值为中心对下一帧目标进行搜索。
设在第1帧由人工标定运动目标和已知其目标中心位置的坐标为(x1,y1),并设现已得到了第k帧目标中心位置的坐标为(xk,yk),k≥1,其中xk和yk分别为目标中心位置的横、纵坐标值;
下一时刻的目标位置的横坐标xk+1与当前时刻xk的关系表示为:
x k + 1 = x k + v x , k + 1 2 a x , k + n x , k - - - ( 1 )
其中vx,k,ax,k分别为k时刻目标在x方向上的运动速度和加速度,nx,k为k时刻运动状态在x方向上的随机变化量,通常假设nx,k满足均值为0方差为的高斯分布;
下一时刻的目标位置的纵坐标yk+1与当前时刻yk的关系表示为:
y k + 1 = y k + v y , k + 1 2 a y , k + n y , k - - - ( 2 )
其中vy,k,ay,k分别为k时刻目标在y方向上的运动速度和加速度,ny,k为k时刻运动状态在y方向上的随机变化量,并且假设ny,k满足均值为0方差为的高斯分布;
对于目标在k时刻的速度和加速度vx,k,ax,k,根据跟踪过程所获取的目标运动状态来求取:
vx,k=Δxk/Δtk=xk-xk-1, (3)
ax,k=Δvx,k/Δtk=(vx,k-vx,k-1)=xk-2xk-1+xk-2 (4)
得到对下一时刻目标中心位置横坐标xk+1的预测模型为:
x ‾ k + 1 | k = 5 2 x k - 2 x k - 1 + 1 2 x k - 2 - - - ( 5 )
对下一时刻目标中心位置纵坐标yk+1的预测模型为:
y ‾ k + 1 | k = 5 2 y k - 2 y k - 1 + 1 2 y k - 2 - - - ( 6 )
根据上面推导出来的预测模型(5)和(6)求出下一帧目标中心位置的预测值将预测值作为对下一帧目标的搜索中心;
步骤2:求取模型(1)和(2)中随机噪声nx,k和ny,k的方差()的估值,据此自适应地调整目标的搜索范围;
步骤2.1:估计模型(1)和(2)中随机噪声nx,k和ny,k的方差():
σ ^ x , k 2 = 1 L Σ l = k + 1 - L k ( x ‾ l | l - 1 - x l ) 2 , σ ^ y , k 2 = 1 L Σ l = k + 1 - L k ( y ‾ l | l - 1 - y l ) 2 - - - ( 7 )
其中L为估计这两个方差参数时所取的帧数;为在目标跟踪过程中分别利用式(5)和(6)求出的在l-1时刻对l时刻的目标中心点位置的预测值,xl和yl分别为l时刻目标中心点的真实位置;
步骤2.2:确定目标的搜索范围
步骤2.2.1:以第一步中求得的预测值作为随机粒子分布的中心点位置;
步骤2.2.2:以步骤2.1中求得的方差作为随机粒子分布的方差 即:
σ p , x = σ ^ x , k , σ p , y = σ ^ y , k - - - ( 8 )
以(σp,xp,y)作为度量参数来确定目标的搜索范围:分别以正态分布产生一对随机数(x′k+1,i,y′k+1,i)作为下帧目标的一个候选搜索位置(i=1,2,...,M);
目标搜索范围即是以(3σp,x,3σp,y)为长短轴的椭圆范围内;当σp,x≥σp,y,σp,x为长轴;反之,σp,x为短轴;
步骤2.2.3:将目标位置预测和自适应调整搜索范围的方法与仿射变换相结合,应用到仿射变换中,确定出下一帧的候选目标的形状和所处区间;采用下式描述的仿射变换来确定该候选目标的形状和各点的坐标值:
x ^ k + 1 , i y ^ k + 1 , i = c o s ( θ ) - s i n ( θ ) s i n ( θ ) cos ( θ ) 1 s x y 0 1 1 + a x 0 0 1 + a y Δx k Δy k + x k + 1 , i ′ y k + 1 , i ′ , ( i = 1 , .. , M ) - - - ( 9 )
其中(Δxk,Δyk)为第k帧求出的最佳匹配目标上任意点的坐标值经过与第k帧预测中心坐标相减后的结果,(x′k+1,i,y′k+1,i)为在第(2.2.2)步中所产生的第i个随机粒子的坐标;ax,ay,sxy及θ均是按高斯分布N(0,ε2)产生的随机数,其中ε是在(0,0.05)区间选择的常数;
重复该步骤产生足够多(M个)的候选目标区,以备在步骤3中逐个与目标模板进行匹配,遴选出最优的候选目标作为对第k+1帧目标的跟踪结果;
步骤3:采用双重匹配融合的方法对目标进行匹配,进一步提升对目标的匹配精度和对不同视频情况的适应性;步骤如下:
步骤3.1:按照主成份分析(PCA)稀疏表示方法来确定匹配目标,求出该方法的最终匹配目标的坐标值包括下述步骤:
步骤3.1.1:构造字典。将视频序列前N帧人工标注的运动目标区中的各个目标区归一化为32×32像素的矩形区域并将该区内的像素表达成列向量,构建出一个1024×20的目标模板矩阵;将该矩阵去均值后进行K-L变换,计算矩阵的特征值,并由大到小排列,取其中前L个特征值对应的特征向量作为目标模板字典中的码本矩阵U,同时在字典后加入一个1024×1024的单位矩阵I,构造一个1024×(L+1024)的字典矩阵[U I];
步骤3.1.2:求解稀疏系数矢量和最小匹配误差;按照第一步和第二步中所述的方法,在第k+1帧中产生M个候选目标区,将各个候选目标区中的像素按步骤3.1.1中所述的方法变换为1024维的列向量,再将其与目标模板的均值做差值得到建立下述稀疏表示模型:
其中,U为字典中L个PCA基向量组成的矩阵,I为字典中的单位矩阵,zi和ei分别为候选目标投影到字典中U和I上的稀疏系数矢量,M为候选目标个数;通过下面的优化方法来求解稀疏系数矢量zi和ei
min z i , e i 1 2 || v ‾ i - Uz i - e i || 2 2 + λ || e i || 1 , i = 1 , ... , M - - - ( 11 )
其中||.||1和||.||2分别代表1范数和2范数,λ>0为规格化系数;
设用上述方法求解得到的最优稀疏系数矢量为zj和ej,所对应的最小匹配误差为:
并同时得到加权系数矢量wj=[wj,1,wj,2,…,wj,1024]T;该权值矢量的取值由所求得的系数矢量ej来决定:当ej,l=0或当ej,l<T∈(0,0.1),取wj,l=1;否则,取wj,l=0;
步骤3.2:直接利用候选区像素与模板图像之间的误差来确定匹配目标;采用第一步和第二步中所述的方法,在第k+1帧中产生M个候选目标区,将各个候选目标区中的像素按步骤3.1.1中所述的方法变换为1024维的列向量,再将其与目标模板的均值做差值得到然后按下式求取最小匹配误差EPixel,q和最佳匹配目标
其中权值矢量wj仍采用由步骤3.1中所得到的结果;
求得最小EPixel,q后,该候选目标区所对应的中心坐标位置即作为直接利用像素进行匹配所得到的最终匹配目标的坐标值
步骤3.3:采用双重匹配加权融合方法对运动目标进行最终定位;该方法主要包括下述步骤:
步骤3.3.1:计算由步骤3.1中所采用的PCA稀疏表示方法在前L帧中所求得的最小匹配误差的均值和标准差:
E &OverBar; P C A , j = 1 L &Sigma; t = k k - L + 1 E P C A , j t , &sigma; P C A , j = ( 1 L &Sigma; t = k k - L + 1 ( E P C A , j t ) 2 - ( E &OverBar; P C A , j ) 2 ) 1 / 2 - - - ( 14 )
其中表示在第t帧中用PCA稀疏表示方法求得的最小匹配误差;
步骤3.3.2:计算由步骤3.2中所采用的直接匹配方法在前L帧中所求得的最小匹配误差的均值和标准差:
其中表示在第t帧中直接用像素匹配方法求得的最小匹配误差;
步骤3.3.3:双重匹配方法中的阈值设计与计算:
(i)PCA稀疏表示匹配方法的阈值设计与计算:
阈值1:阈值2:
(ii)直接匹配方法的阈值设计与计算:
阈值1:阈值2:
步骤3.3.4:目标定位的双重匹配加权融合算法:
(i)当则采用PCA稀疏表示匹配方法得到的匹配结果作为最终结果;即
(ii)当则采用直接匹配方法得到的匹配结果作为最终结果;即
(iii)当既不满足(i)也不满足(ii)时,则采用两种匹配的加权平均结果作为最终结果:
其中w1和w2为权值,分别采用下面公式进行计算:
w 1 = E &OverBar; P C A , j E &OverBar; P C A , j + E &OverBar; P i x e l , q , w 2 = E &OverBar; P i x e l , q E &OverBar; P C A , j + E &OverBar; P i x e l , q - - - ( 19 ) .
本发明充分利用在跟踪过程中已获得的目标运动信息和跟踪结果,对下一帧图像中目标出现的位置进行预测和对目标的搜索范围进行自适应地调整,由此可以使搜索中心和搜索范围与实际目标所处的范围及其真实位置更加接近,从而可以提高目标搜索的准确率和定位精度,并且提高搜素效率;进而通过采用双重匹配加权融合和通过采用自动提取的门限进行匹配判决的方法,去除可信度较低的匹配结果,使得改进后的跟踪算法对不同的视频情况均有较好的适应性,得到更为可靠的目标跟踪结果。
附图说明
图1是本发明的方法示意图。
具体实施方式
以下结合技术方案和附图详细叙述本发明的实施例。
第一步:建立目标位置的预测模型,在跟踪过程中以预测值为中心对下一帧目标进行搜索。
设在第1帧由人工标定运动目标和已知其目标中心位置的坐标为(x1,y1),并设现已得到了第k帧目标中心位置的坐标为(xk,yk),k≥1,其中xk和yk分别为目标中心位置的横、纵坐标值。根据运动学原理,物体从t0到t1时刻运动的距离为:
s t 1 - s t 0 = v t 0 ( t 1 - t 0 ) + 1 2 a t 0 ( t 1 - t 0 ) 2 - - - ( 1 )
其中分别为t0时刻该物体的速度和加速度。
根据式(1)的运动模型,将时间t离散化,取t0=k,t1=k+1。进一步考虑到实际中的目标运动过程具有一定的随机性,因此可将下一时刻的目标位置的横坐标xk+1与当前时刻xk的关系表示为:
x k + 1 = x k + v x , k + 1 2 a x , k + n x , k - - - ( 2 )
其中vx,k,ax,k分别为k时刻目标在x方向上的运动速度和加速度,nx,k为k时刻运动状态在x方向上的随机变化量,通常假设nx,k满足均值为0方差为的高斯分布。
同理下一时刻的目标位置的纵坐标yk+1与当前时刻yk的关系表示为:
y k + 1 = y k + v y , k + 1 2 a y , k + n y , k - - - ( 3 )
其中vy,k,ay,k分别为k时刻目标在y方向上的运动速度和加速度,ny,k为k时刻运动状态在y方向上的随机变化量,并且假设ny,k满足均值为0方差为的高斯分布。
对于目标在k时刻的速度和加速度vx,k,ax,k,本发明根据跟踪过程所获取的目标运动状态来进行求取:
vx,k=Δxk/Δtk=xk-xk-1, (4)
ax,k=Δvx,k/Δtk=(vx,k-vx,k-1)=xk-2xk-1+xk-2 (5)
将式(4)和(5)代入到式(2),经整理可得对下一时刻目标中心位置横坐标xk+1的预测模型为:
x &OverBar; k + 1 | k = 5 2 x k - 2 x k - 1 + 1 2 x k - 2 - - - ( 6 )
同理可得对下一时刻目标中心位置纵坐标yk+1的预测模型为:
y &OverBar; k + 1 | k = 5 2 y k - 2 y k - 1 + 1 2 y k - 2 - - - ( 7 )
根据上面推导出来的预测模型(6)和(7)可以求出下一帧目标中心位置的预测值在本发明中,将预测值作为对下一帧目标的搜索中心。
第二步:在跟踪过程中求取模型(2)和(3)中随机噪声nx,k和ny,k的方差()的估值,据此来自适应地调整目标的搜索范围。
(2.1)估计模型(2)和(3)中随机噪声nx,k和ny,k的方差():
&sigma; ^ x , k 2 = 1 L &Sigma; l = k + 1 - L k ( x &OverBar; l | l - 1 - x l ) 2 , &sigma; ^ y , k 2 = 1 L &Sigma; l = k + 1 - L k ( y &OverBar; l | l - 1 - y l ) 2 - - - ( 8 )
其中L为估计这两个方差参数时所取的帧数(例如取L=10);为在目标跟踪过程中分别利用式(6)和(7)求出的在l-1时刻对l时刻的目标中心点位置的预测值,xl和yl分别为l时刻目标中心点的真实位置。在实际计算中目标中心点的真实位置是未知的,为此在本发明中用在跟踪过程中所获取的最佳匹配目标的中心位置来代替其真实位置。
(2.2)确定目标的搜索范围:
在本发明中仍沿用粒子滤波的思想,通过产生一定数量的随机粒子作为下一帧目标的候选搜索位置。在此基础上,本发明采取下述步骤对已有的方法进行改进:
(2.2.1)以第一步中求得的预测值作为随机粒子分布的中心点位置;
(2.2.2)以步骤(2.1)中求得的方差作为随机粒子分布的方差 即:
&sigma; p , x = &sigma; ^ x , k , &sigma; p , y = &sigma; ^ y , k - - - ( 9 )
进而以(σp,xp,y)作为度量参数来确定目标的搜索范围。具体做法为:分别以正态分布产生一对随机数(x′k+1,i,y′k+1,i)作为下帧目标的一个候选搜索位置(i=1,2,...,M)。
根据统计学理论,由上述方法产生的随机数以接近100%的概率分布在以为中心、以(3σp,x,3σp,y)为长短轴的椭圆范围内(当σp,x≥σp,y,σp,x为长轴;反之,σp,x为短轴)。故本发明所确定的目标搜索范围即为该椭圆范围。而在本发明中是通过在视频跟踪过程中从视频序列本身中提取出预测值和方差所以是一种自适应调整目标搜索范围的方法。通过该方法可以克服原有方法中由于依靠事先选定的常数作为目标的搜索范围因此难以做到适应各种不同视频情况的问题。
(2.2.3)将目标位置预测和自适应调整搜索范围的方法与仿射变换相结合,即将在步骤(2.2.1)和(2.2.2)所得到的目标位置预测结果与搜索范围应用到仿射变换中,确定出下一帧的候选目标的形状和所处区间。具体做法为采用下式描述的仿射变换来确定该候选目标的形状和各点的坐标值:
x ^ k + 1 , i y ^ k + 1 , i = c o s ( &theta; ) - s i n ( &theta; ) s i n ( &theta; ) cos ( &theta; ) 1 s x y 0 1 1 + a x 0 0 1 + a y &Delta;x k &Delta;y k + x k + 1 , i &prime; y k + 1 , i &prime; , ( i = 1 , .. , M ) - - - ( 10 )
其中(Δxk,Δyk)为第k帧求出的最佳匹配目标上任意点的坐标值经过与第k帧预测中心坐标相减(即做中心化处理)后的结果,(x′k+1,i,y′k+1,i)为在第(2.2.2)步中所产生的第i个随机粒子的坐标;ax,ay,sxy及θ均是按高斯分布N(0,ε2)产生的随机数,其中ε是在(0,0.05)区间选择的常数。
重复该步骤产生足够多的候选目标区,以备逐个与目标模板进行匹配,遴选出最优的候选目标作为对第k+1帧目标的跟踪结果。
第三步:采用双重匹配融合的方法对目标进行匹配,进一步提升对目标的匹配精度和对不同视频情况的适应性。具体方法和步骤如下:
(3.1)按照Wang等(D.Wang,H.Lu,M.-H.Yang.Online object tracking withsparse prototypes.IEEE Transactions on Image Processing,2013,22(1):314-325)给出的主成份分析(PCA)稀疏表示方法来确定匹配目标,求出该方法的最终匹配目标的坐标值该方法主要包括下述步骤:
(3.1.1)构造字典。将视频序列前N帧(N取20)人工标注的运动目标区中的各个目标区归一化为32×32像素的矩形区域并将该区内的像素表达成列向量,构建出一个1024×20的目标模板矩阵。将该矩阵去均值后进行K-L变换,计算矩阵的特征值,并由大到小排列,取其中前L个特征值(L为常数,可在10至20内取值)对应的特征向量作为目标模板字典中的码本矩阵U,同时在字典后加入一个1024×1024的单位矩阵I,构造一个1024×(L+1024)的字典矩阵[U I];
(3.1.2)求解稀疏系数矢量和最小匹配误差。按照第一步和第二步中所述的方法,在第k+1帧中产生M个候选目标区(M可在400至800范围内取值),将各个候选目标区中的像素按(3.1.1)中所述的方法变换为1024维的列向量,再将其与目标模板的均值做差值得到建立下述稀疏表示模型:
v &OverBar; i = U I z i e i , i = 1 , ... , M - - - ( 11 )
其中,U为字典中L个PCA基向量组成的矩阵,I为字典中的单位矩阵,zi和ei分别为候选目标投影到字典中U和I上的稀疏系数矢量,M为候选目标个数(M在400至800范围内取值)。通过下面的优化方法来求解稀疏系数矢量zi和ei
m i n z i , e i 1 2 || v &OverBar; i - Uz i - e i || 2 2 + &lambda; || e i || 1 , i = 1 , ... , M - - - ( 12 )
其中||.||1和||.||2分别代表1范数和2范数,λ>0为规格化系数。
具体求解式(12)的算法由Wang等(D.Wang,H.Lu,M.-H.Yang.Online objecttracking with sparse prototypes.IEEE Transactions on Image Processing,2013,22(1):314-325)给出,此处从略。
设用上述方法求解得到的最优稀疏系数矢量为zj和ej,所对应的最小匹配误差为:
并同时可得到加权系数矢量wj=[wj,1,wj,2,…,wj,1024]T。该权值矢量的取值由所求得的系数矢量ej来决定:当ej,l=0(或当ej,l<T∈(0,0.1)),取wj,l=1;否则,取wj,l=0。
(3.2)直接利用候选区像素与模板图像之间的误差来确定匹配目标。按照第一步和第二步中所述的方法,在第k+1帧中产生M个候选目标区(M取值与步骤(3.1)中相同),将各个候选目标区中的像素按(3.1.1)中所述的方法变换为1024维的列向量,再将其与目标模板的均值做差值得到然后按下式求取最小匹配误差EPixel,q和最佳匹配目标
其中权值矢量wj仍采用由(3.1)中所得到的结果。
求得最小EPixel,q后,该候选目标区所对应的中心坐标位置即作为直接利用像素进行匹配所得到的最终匹配目标的坐标值
(3.3)采用双重匹配加权融合方法对运动目标进行最终定位。该方法主要包括下述步骤:
(3.3.1)计算由(3.1)中所采用的PCA稀疏表示方法在前L(L在10至20范围内取值)帧中所求得的最小匹配误差的均值和标准差:
E &OverBar; P C A , j = 1 L &Sigma; t = k k - L + 1 E P C A , j t , &sigma; P C A , j = ( 1 L &Sigma; t = k k - L + 1 ( E P C A , j t ) 2 - ( E &OverBar; P C A , j ) 2 ) 1 / 2 - - - ( 14 )
其中表示在第t帧中用PCA稀疏表示方法求得的最小匹配误差。
(3.3.2)计算由(3.2)中所采用的直接匹配方法在前L帧中所求得的最小匹配误
差的均值和标准差:
E &OverBar; P i x e l , q = 1 L &Sigma; t = k k - L + 1 E P i x e l , q t , &sigma; P i x e l , q = ( 1 L &Sigma; t = k k - L + 1 ( E P i x e l , q t ) 2 - ( E &OverBar; P i x e l , q ) 2 ) 1 / 2 - - - ( 15 )
其中表示在第t帧中直接用像素匹配方法求得的最小匹配误差。
(3.3.3)双重匹配方法中的阈值设计与计算:
(i)PCA稀疏表示匹配方法,即在(3.1)中所采用匹配方法)的阈值设计与计算:
阈值1:阈值2:
(ii)直接匹配方法匹配方法(即在(3.2)中所采用匹配方法)的阈值设计与计算:阈值1:阈值2:
(3.3.4)目标定位的双重匹配加权融合算法:
(i)当则采用PCA稀疏表示匹配方法(即步骤(3.1))得到的匹配结果作为最终结果。即
( x ^ F u s i o n , k + 1 , y ^ F u s i o n , k + 1 ) = ( x ^ P C A , k + 1 , y ^ P C A , k + 1 ) ; - - - ( 16 )
(ii)当则采用直接匹配方法(即步骤(3.2))得到的匹配结果作为最终结果。即
( x ^ F u s i o n , k + 1 , y ^ F u s i o n , k + 1 ) = ( x ^ P i x e l , k + 1 , y ^ P i x e l , k + 1 ) ; - - - ( 17 )
(iii)当既不满足(i)也不满足(ii)时,则采用两种匹配的加权平均结果作为最终结果:
其中w1和w2为权值,分别采用下面公式进行计算:
w 1 = E &OverBar; P C A , j E &OverBar; P C A , j + E &OverBar; P i x e l , q , w 2 = E &OverBar; P i x e l , q E &OverBar; P C A , j + E &OverBar; P i x e l , q . - - - ( 19 ) .

Claims (1)

1.视频目标跟踪中目标位置预测、搜索范围自适应调整及双重匹配融合的方法,其特征在于如下步骤:
步骤1:建立目标位置的预测模型,在跟踪过程中以对目标位置的预测值为中心对下一帧目标进行搜索;
设在第1帧由人工标定运动目标和已知其目标中心位置的坐标为(x1,y1),并设现已得到了第k帧目标中心位置的坐标为(xk,yk),k≥1,其中xk和yk分别为目标中心位置的横、纵坐标值;
下一时刻的目标位置的横坐标xk+1与当前时刻xk的关系表示为:
x k + 1 = x k + v x , k + 1 2 a x , k + n x , k - - - ( 1 )
其中vx,k,ax,k分别为k时刻目标在x方向上的运动速度和加速度,nx,k为k时刻运动状态在x方向上的随机变化量,通常假设nx,k满足均值为0方差为的高斯分布;
下一时刻的目标位置的纵坐标yk+1与当前时刻yk的关系表示为:
y k + 1 = y k + v y , k + 1 2 a y , k + n y , k - - - ( 2 )
其中vy,k,ay,k分别为k时刻目标在y方向上的运动速度和加速度,ny,k为k时刻运动状态在y方向上的随机变化量,并且假设ny,k满足均值为0方差为的高斯分布;
对于目标在k时刻的速度和加速度vx,k,ax,k,根据跟踪过程所获取的目标运动状态来求取:
vx,k=Δxk/Δtk=xk-xk-1, (3)
ax,k=Δvx,k/Δtk=(vx,k-vx,k-1)=xk-2xk-1+xk-2 (4)
得到对下一时刻目标中心位置横坐标xk+1的预测模型为:
x &OverBar; k + 1 | k = 5 2 x k - 2 x k - 1 + 1 2 x k - 2 - - - ( 5 )
对下一时刻目标中心位置纵坐标yk+1的预测模型为:
y &OverBar; k + 1 | k = 5 2 y k - 2 y k - 1 + 1 2 y k - 2 - - - ( 6 )
根据上面推导出来的预测模型(5)和(6)求出下一帧目标中心位置的预测值将预测值作为对下一帧目标的搜索中心;
步骤2:求取模型(1)和(2)中随机噪声nx,k和ny,k的方差()的估值,据此自适应地调整目标的搜索范围;
步骤2.1:估计模型(1)和(2)中随机噪声nx,k和ny,k的方差():
&sigma; ^ x , k 2 = 1 L &Sigma; l = k + 1 - L k ( x &OverBar; l | l - 1 - x l ) 2 , &sigma; ^ y , k 2 = 1 L &Sigma; l = k + 1 - L k ( y &OverBar; l | l - 1 - y l ) 2 - - - ( 7 )
其中L为估计这两个方差参数时所取的帧数;为在目标跟踪过程中分别利用式(5)和(6)求出的在l-1时刻对l时刻的目标中心点位置的预测值,xl和yl分别为l时刻目标中心点的真实位置;
步骤2.2:确定目标的搜索范围
步骤2.2.1:以第一步中求得的预测值作为随机粒子分布的中心点位置;
步骤2.2.2:以步骤2.1中求得的方差作为随机粒子分布的方差即:
&sigma; p , x = &sigma; ^ x , k , &sigma; p , y = &sigma; ^ y , k - - - ( 8 )
以(σp,xp,y)作为度量参数来确定目标的搜索范围:分别以正态分布N产生一对随机数(x′k+1,i,y′k+1,i)作为下帧目标的一个候选搜索位置(i=1,2,...,M);
目标搜索范围即是以(3σp,x,3σp,y)为长短轴的椭圆范围内;当σp,x≥σp,y,σp,x为长轴;反之,σp,x为短轴;
步骤2.2.3:将目标位置预测和自适应调整搜索范围的方法与仿射变换相结合,应用到仿射变换中,确定出下一帧的候选目标的形状和所处区间;采用下式描述的仿射变换来确定该候选目标的形状和各点的坐标值:
x ^ k + 1 , i y ^ k + 1 , i = c o s ( &theta; ) - s i n ( &theta; ) s i n ( &theta; ) cos ( &theta; ) 1 s x y 0 1 1 + a x 0 0 1 + a y &Delta;x k &Delta;y k + x k + 1 , i &prime; y k + 1 , i &prime; , ( i = 1 , .. , M ) - - - ( 9 )
其中(Δxk,Δyk)为第k帧求出的最佳匹配目标上任意点的坐标值经过与第k帧预测中心坐标相减后的结果,(x′k+1,i,y′k+1,i)为在第(2.2.2)步中所产生的第i个随机粒子的坐标;ax,ay,sxy及θ均是按高斯分布N(0,ε2)产生的随机数,其中ε是在(0,0.05)区间选择的常数;
重复该步骤产生M个的候选目标区,以备在步骤3中逐个与目标模板进行匹配,遴选出最优的候选目标作为对第k+1帧目标的跟踪结果;
步骤3:采用双重匹配融合的方法对目标进行匹配,进一步提升对目标的匹配精度和对不同视频情况的适应性;步骤如下:
步骤3.1:按照主成份分析(PCA)稀疏表示方法来确定匹配目标,求出该方法的最终匹配目标的坐标值包括下述步骤:
步骤3.1.1:构造字典;将视频序列前N帧人工标注的运动目标区中的各个目标区归一化为32×32像素的矩形区域并将该区内的像素表达成列向量,构建出一个1024×20的目标模板矩阵;将该矩阵去均值后进行K-L变换,计算矩阵的特征值,并由大到小排列,取其中前L个特征值对应的特征向量作为目标模板字典中的码本矩阵U,同时在字典后加入一个1024×1024的单位矩阵I,构造一个1024×(L+1024)的字典矩阵[U I];
步骤3.1.2:求解稀疏系数矢量和最小匹配误差;按照第一步和第二步中所述的方法,在第k+1帧中产生M个候选目标区,将各个候选目标区中的像素按步骤3.1.1中所述的方法变换为1024维的列向量,再将其与目标模板的均值做差值得到建立下述稀疏表示模型:
其中,U为字典中L个PCA基向量组成的矩阵,I为字典中的单位矩阵,zi和ei分别为候选目标投影到字典中U和I上的稀疏系数矢量,M为候选目标个数;通过下面的优化方法来求解稀疏系数矢量zi和ei
min z i , e i 1 2 || v &OverBar; i - Uz i - e i || 2 2 + &lambda; || e i || 1 , i = 1 , ... , M - - - ( 11 )
其中||.||1和||.||2分别代表1范数和2范数,λ>0为规格化系数;
设用上述方法求解得到的最优稀疏系数矢量为zj和ej,所对应的最小匹配误差为:
并同时得到加权系数矢量wj=[wj,1,wj,2,…,wj,1024]T;该权值矢量的取值由所求得的系数矢量ej来决定:当ej,l=0或当ej,l<T∈(0,0.1),取wj,l=1;否则,取wj,l=0;
步骤3.2:直接利用候选区像素与模板图像之间的误差来确定匹配目标;采用第一步和第二步中所述的方法,在第k+1帧中产生M个候选目标区,将各个候选目标区中的像素按步骤3.1.1中所述的方法变换为1024维的列向量,再将其与目标模板的均值做差值得到(i=1,...,M),然后按下式求取最小匹配误差EPixel,q和最佳匹配目标
其中权值矢量wj仍采用由步骤3.1中所得到的结果;
求得最小EPixel,q后,该候选目标区所对应的中心坐标位置即作为直接利用像素进行匹配所得到的最终匹配目标的坐标值
步骤3.3:采用双重匹配加权融合方法对运动目标进行最终定位;该方法主要包括下述步骤:
步骤3.3.1:计算由步骤3.1中所采用的PCA稀疏表示方法在前L帧中所求得的最小匹配误差的均值和标准差:
E &OverBar; P C A , j = 1 L &Sigma; t = k k - L + 1 E P C A , j t , &sigma; P C A , j = ( 1 L &Sigma; t = k k - L + 1 ( E P C A , j t ) 2 - ( E &OverBar; P C A , j ) 2 ) 1 / 2 - - - ( 14 )
其中表示在第t帧中用PCA稀疏表示方法求得的最小匹配误差;
步骤3.3.2:计算由步骤3.2中所采用的直接匹配方法在前L帧中所求得的最小匹配误差的均值和标准差:
其中表示在第t帧中直接用像素匹配方法求得的最小匹配误差;
步骤3.3.3:双重匹配方法中的阈值设计与计算:
(i)PCA稀疏表示匹配方法的阈值设计与计算:
阈值1:阈值2:
(ii)直接匹配方法匹配方法的阈值设计与计算:
阈值1:阈值2:
步骤3.3.4:目标定位的双重匹配加权融合算法:
(i)当则采用PCA稀疏表示匹配方法得到的匹配结果作为最终结果;即
(ii)当则采用直接匹配方法得到的匹配结果作为最终结果;即
(iii)当既不满足(i)也不满足(ii)时,则采用两种匹配的加权平均结果作为最终结果:
x ^ F u s i o n , k + 1 = w 1 &CenterDot; x ^ P i x e l , k + 1 + w 2 &CenterDot; x ^ P C A , k + 1 , y ^ F u s i o n , k + 1 = w 1 &CenterDot; y ^ P i x e l , k + 1 + w 2 &CenterDot; y ^ P C A , k + 1 - - - ( 18 )
其中w1和w2为权值,分别采用下面公式进行计算:
w 1 = E &OverBar; P C A , j E &OverBar; P C A , j + E &OverBar; P i x e l , q , w 2 = E &OverBar; P i x e l , q E &OverBar; P C A , j + E &OverBar; P i x e l , q - - - ( 19 ) .
CN201610397076.1A 2016-06-07 2016-06-07 视频目标跟踪中目标位置预测、搜索范围自适应调整及双重匹配融合的方法 Active CN106097388B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201610397076.1A CN106097388B (zh) 2016-06-07 2016-06-07 视频目标跟踪中目标位置预测、搜索范围自适应调整及双重匹配融合的方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201610397076.1A CN106097388B (zh) 2016-06-07 2016-06-07 视频目标跟踪中目标位置预测、搜索范围自适应调整及双重匹配融合的方法

Publications (2)

Publication Number Publication Date
CN106097388A true CN106097388A (zh) 2016-11-09
CN106097388B CN106097388B (zh) 2018-12-18

Family

ID=57448558

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201610397076.1A Active CN106097388B (zh) 2016-06-07 2016-06-07 视频目标跟踪中目标位置预测、搜索范围自适应调整及双重匹配融合的方法

Country Status (1)

Country Link
CN (1) CN106097388B (zh)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108108697A (zh) * 2017-12-25 2018-06-01 中国电子科技集团公司第五十四研究所 一种实时无人机视频目标检测与跟踪方法
CN108280843A (zh) * 2018-01-24 2018-07-13 新华智云科技有限公司 一种视频目标检测跟踪方法及设备
CN108876812A (zh) * 2017-11-01 2018-11-23 北京旷视科技有限公司 用于视频中物体检测的图像处理方法、装置及设备
CN109993768A (zh) * 2018-12-29 2019-07-09 华中科技大学 一种提高伺服跟踪实时性和精准性的空中目标测谱方法
CN110210285A (zh) * 2019-04-16 2019-09-06 浙江大华技术股份有限公司 人脸跟踪方法、人脸跟踪装置以及计算机存储介质
CN111311639A (zh) * 2019-12-31 2020-06-19 山东工商学院 一种多搜索空间的快速移动自适应更新间隔的跟踪方法
CN111310526A (zh) * 2018-12-12 2020-06-19 杭州海康威视数字技术股份有限公司 目标跟踪模型的参数确定方法、装置及存储介质
CN113313733A (zh) * 2021-05-19 2021-08-27 西华大学 基于共享卷积的分级无人机目标跟踪方法
CN114943751A (zh) * 2022-07-26 2022-08-26 北京科技大学 云化plc环境下基于方向矢量的物料跟踪定位方法及系统

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101369346A (zh) * 2007-08-13 2009-02-18 北京航空航天大学 一种视频运动目标自适应窗口的跟踪方法
CN102184551A (zh) * 2011-05-10 2011-09-14 东北大学 结合多种特征匹配和粒子滤波的目标自动跟踪方法及系统
CN102509086A (zh) * 2011-11-22 2012-06-20 西安理工大学 一种基于目标姿态预测及多特征融合的行人目标检测方法
US20130101187A1 (en) * 2011-09-28 2013-04-25 Siemens Corporation Coronary artery motion modeling
CN103237155A (zh) * 2013-04-01 2013-08-07 北京工业大学 一种单视角被遮挡的目标的跟踪和定位方法
CN104200226A (zh) * 2014-09-01 2014-12-10 西安电子科技大学 基于机器学习的粒子滤波目标跟踪方法
CN105354863A (zh) * 2015-10-30 2016-02-24 浙江工业大学 基于特征滤波和快速运动检测模板预测的自适应尺度图像序列目标跟踪方法

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101369346A (zh) * 2007-08-13 2009-02-18 北京航空航天大学 一种视频运动目标自适应窗口的跟踪方法
CN102184551A (zh) * 2011-05-10 2011-09-14 东北大学 结合多种特征匹配和粒子滤波的目标自动跟踪方法及系统
US20130101187A1 (en) * 2011-09-28 2013-04-25 Siemens Corporation Coronary artery motion modeling
CN102509086A (zh) * 2011-11-22 2012-06-20 西安理工大学 一种基于目标姿态预测及多特征融合的行人目标检测方法
CN103237155A (zh) * 2013-04-01 2013-08-07 北京工业大学 一种单视角被遮挡的目标的跟踪和定位方法
CN104200226A (zh) * 2014-09-01 2014-12-10 西安电子科技大学 基于机器学习的粒子滤波目标跟踪方法
CN105354863A (zh) * 2015-10-30 2016-02-24 浙江工业大学 基于特征滤波和快速运动检测模板预测的自适应尺度图像序列目标跟踪方法

Non-Patent Citations (5)

* Cited by examiner, † Cited by third party
Title
DONG WANG 等: "Online Object Tracking With Sparse Prototypes", 《IMAGE PROCESSING》 *
JING WANG,CHENGAN GUO: "Face Recognition based on Sparse Representation and Error Correction SVM", 《WORLD CONGRESS ON COMPUTATIONAL INTELLIGENCE》 *
XINA CHENG 等: "Player Tracking using Prediction After Intersection based Particle Filter for Volleyball Match Video", 《SIGNAL AND INFORMATION PROCESSING ASSOCIATION ANNUAL SUMMIT AND CONFERENCE》 *
YUANWEI LAO 等: "Sequential Particle Generation for Visual Tracking", 《CIRCUITS AND SYSTEMS FOR VIDEO TECHNOLOGY》 *
王乐东 等: "序列帧间双重匹配的红外点目标跟踪算法", 《光电子·激光》 *

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108876812A (zh) * 2017-11-01 2018-11-23 北京旷视科技有限公司 用于视频中物体检测的图像处理方法、装置及设备
CN108108697B (zh) * 2017-12-25 2020-05-19 中国电子科技集团公司第五十四研究所 一种实时无人机视频目标检测与跟踪方法
CN108108697A (zh) * 2017-12-25 2018-06-01 中国电子科技集团公司第五十四研究所 一种实时无人机视频目标检测与跟踪方法
CN108280843A (zh) * 2018-01-24 2018-07-13 新华智云科技有限公司 一种视频目标检测跟踪方法及设备
CN111310526B (zh) * 2018-12-12 2023-10-20 杭州海康威视数字技术股份有限公司 目标跟踪模型的参数确定方法、装置及存储介质
CN111310526A (zh) * 2018-12-12 2020-06-19 杭州海康威视数字技术股份有限公司 目标跟踪模型的参数确定方法、装置及存储介质
CN109993768A (zh) * 2018-12-29 2019-07-09 华中科技大学 一种提高伺服跟踪实时性和精准性的空中目标测谱方法
CN109993768B (zh) * 2018-12-29 2020-10-30 华中科技大学 一种提高伺服跟踪实时性和精准性的空中目标测谱方法
CN110210285A (zh) * 2019-04-16 2019-09-06 浙江大华技术股份有限公司 人脸跟踪方法、人脸跟踪装置以及计算机存储介质
CN111311639A (zh) * 2019-12-31 2020-06-19 山东工商学院 一种多搜索空间的快速移动自适应更新间隔的跟踪方法
CN111311639B (zh) * 2019-12-31 2022-08-26 山东工商学院 一种多搜索空间的快速移动自适应更新间隔的跟踪方法
CN113313733A (zh) * 2021-05-19 2021-08-27 西华大学 基于共享卷积的分级无人机目标跟踪方法
CN114943751A (zh) * 2022-07-26 2022-08-26 北京科技大学 云化plc环境下基于方向矢量的物料跟踪定位方法及系统
CN114943751B (zh) * 2022-07-26 2022-11-08 北京科技大学 云化plc环境下基于方向矢量的物料跟踪定位方法及系统

Also Published As

Publication number Publication date
CN106097388B (zh) 2018-12-18

Similar Documents

Publication Publication Date Title
CN106097388A (zh) 视频目标跟踪中目标位置预测、搜索范围自适应调整及双重匹配融合的方法
CN110660082B (zh) 一种基于图卷积与轨迹卷积网络学习的目标跟踪方法
CN103325125B (zh) 基于改进多示例学习算法的运动目标跟踪方法
CN102880877B (zh) 一种基于轮廓特征的目标识别方法
CN106296742B (zh) 一种结合特征点匹配的在线目标跟踪方法
CN104680559B (zh) 基于运动行为模式的多视角室内行人跟踪方法
CN109285179A (zh) 一种基于多特征融合的运动目标跟踪方法
CN107609597A (zh) 一种电梯轿厢人数检测系统及其检测方法
CN110223324A (zh) 一种基于鲁棒特征表示的孪生匹配网络的目标跟踪方法
CN107220604A (zh) 一种基于视频的跌倒检测方法
CN106204638A (zh) 一种基于尺度自适应和遮挡处理的航拍目标跟踪方法
CN103824050A (zh) 一种基于级联回归的人脸关键点定位方法
CN105512621A (zh) 一种基于Kinect的羽毛球动作指导系统
CN103227888B (zh) 一种基于经验模式分解和多种评价准则的视频去抖动方法
CN107480640A (zh) 一种基于二值卷积神经网络的人脸对齐方法
CN103440510A (zh) 一种面部图像中特征点的定位方法
CN104616319A (zh) 基于支持向量机的多特征选择目标跟踪方法
CN107301657A (zh) 一种考虑目标运动信息的视频目标跟踪方法
CN105513094A (zh) 基于三维Delaunay三角剖分的立体视觉跟踪方法及系统
CN106251362A (zh) 一种基于快速相关邻域特征点的滑窗目标跟踪方法及系统
CN104200226B (zh) 基于机器学习的粒子滤波目标跟踪方法
CN108898621A (zh) 一种基于实例感知目标建议窗口的相关滤波跟踪方法
CN110958583B (zh) 一种基于位置与强度双重聚类的室内定位方法
CN105741326A (zh) 一种基于聚类融合的视频序列的目标跟踪方法
CN107644203A (zh) 一种形状自适应分类的特征点检测方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant