CN108053419B - 基于背景抑制和前景抗干扰的多尺度目标跟踪方法 - Google Patents

基于背景抑制和前景抗干扰的多尺度目标跟踪方法 Download PDF

Info

Publication number
CN108053419B
CN108053419B CN201711446603.4A CN201711446603A CN108053419B CN 108053419 B CN108053419 B CN 108053419B CN 201711446603 A CN201711446603 A CN 201711446603A CN 108053419 B CN108053419 B CN 108053419B
Authority
CN
China
Prior art keywords
image
target
scale
color
frame image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
CN201711446603.4A
Other languages
English (en)
Other versions
CN108053419A (zh
Inventor
杜骁释
石英
王冠
诸健文
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Wuhan Danwan Technology Co ltd
Original Assignee
Wuhan Danwan Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Wuhan Danwan Technology Co ltd filed Critical Wuhan Danwan Technology Co ltd
Priority to CN201711446603.4A priority Critical patent/CN108053419B/zh
Publication of CN108053419A publication Critical patent/CN108053419A/zh
Application granted granted Critical
Publication of CN108053419B publication Critical patent/CN108053419B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/207Analysis of motion for motion estimation over a hierarchy of resolutions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • G06T7/251Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于背景抑制和前景抗干扰的多尺度目标跟踪方法,涉及目标跟踪技术领域,包括步骤:构建并初始化颜色概率模型及DCF跟踪模型;利用自适应高斯窗函数对前一帧图像进行背景抑制,计算出前一帧图像基于FHOG特征的目标位置的滤波响应图,同时计算前一帧图像的颜色概率分布,得到目标位置的颜色响应图,并线性融合所述滤波响应图和颜色响应图,预测出下一帧图像的目标位置;根据预测的下一帧图像的目标位置及基于尺度金字塔模型,更新下一帧图像中目标的尺度信息;结合下一帧图像的目标位置和尺度信息,进行自适应密集采样,计算下一帧图像的FHOG特征和颜色直方图,完成DCF跟踪模型和颜色概率模型的更新。

Description

基于背景抑制和前景抗干扰的多尺度目标跟踪方法
技术领域
本发明涉及目标跟踪技术领域,具体涉及一种基于背景抑制和前景抗干扰的多尺度目标跟踪方法。
背景技术
目标跟踪是计算机视觉领域的一个重要分支,广泛应用于人流量统计、视频监控、机器人及无人驾驶等领域。目标跟踪方法主要分为生成式和判别式两种,前者在当前帧对目标区域建模,下一帧寻找与模型最相似的区域就是预测位置,比较著名的有卡尔曼滤波,粒子滤波,mean-shift等,而后者在当前帧以目标区域为正样本,背景区域为负样本,利用机器学习方法训练分类器,下一帧用训练好的分类器找最优区域,由于该方法利用了前景和背景信息,这样分类器可以更专注于区分前景和背景,因而提高了跟踪效果,判别式方法也被广泛应用。
近年来基于相关滤波的判别跟踪方法取得了重要的突破,吸引了诸多研究者的目光,在CVPR、ICCV、ECCV及TPAMI等视觉领域顶级会议期刊上出现了很多基于相关滤波的跟踪方法,如SAMF方法。
最小输出平方误差和(MOSSE)目标跟踪方法将相关滤波的思想引入了目标跟踪领域,该思想主要是将目标与候选区域间的相似性的复杂卷积运算利用傅里叶变换转换为频域内的点乘运算,从而大大提高了跟踪速度,可以达到615fps。而后CSK跟踪方法,引入核函数,并将岭回归和循环矩阵应用到其中,并提出密集采样的思想,极大优化跟踪效率,并且在CSK的基础上进行扩展,得到的著名的KCF跟踪方法,使用了FHOG特征,增加了跟踪鲁棒性。同时,研究者在CSK方法基础上提出自适应颜色属性的实时跟踪方法,有效解决了目标形变的问题。但以上方法均忽略了尺度问题,使得尺度变化鲁棒性变差。DSST跟踪方法,引入尺度金字塔模型,解决了目标尺度变化问题。且在2016年由牛津大学的L.Bertinetto等人提出了一种模板和逐像素融合学习器(Sum of Template And Pixel-wise Leaners,简称Staple)。
然而,现有技术中的跟踪方法存在以下4个不足:(1)尺度变化,当目标尺度变小时,相关滤波器就会学习到大量的背景信息,而当目标尺度变大时,相关滤波器没有完全学习目标信息,使得跟踪效果较差;(2)边界效应,以上所有方法在提取完特征后均使用余弦窗来去除边界效应,然而,当目标尺度过小时,经过余弦窗后仍然有大量的背景信息,当目标尺度过大时,目标信息会被余弦窗过滤;(3)背景干扰,每一帧跟踪时选取的候选ROI区域总会包含背景信息,使得前景和背景容易形成干扰;(4)目标形变,跟踪目标存在形变时,容易引入背景干扰。
发明内容
针对现有技术中存在的缺陷,本发明的目的在于提供一种基于背景抑制和前景抗干扰的多尺度目标跟踪方法,不仅跟踪效果好,可有效抑制背景的影响,抗变形干扰能力强,而且可解决跟踪过程中多尺度的问题。
为达到以上目的,本发明采取的技术方案是:
一种基于背景抑制和前景抗干扰的多尺度目标跟踪方法,包括步骤:
S1:构建并初始化颜色概率模型及DCF跟踪模型;
S2:以前一帧图像为基准,利用自适应高斯窗函数对前一帧图像进行背景抑制,计算出前一帧图像基于FHOG特征的目标位置的滤波响应图,同时计算前一帧图像的颜色概率分布,根据颜色概率分布得到积分图像,根据积分图像计算得到目标位置的颜色响应图,并线性融合所述滤波响应图和颜色响应图,进而预测出下一帧图像的目标位置;
S3:根据预测的下一帧图像的目标位置及基于尺度金字塔模型,更新下一帧图像中目标的尺度信息;
S4:结合下一帧图像的目标位置和尺度信息,进行自适应密集采样,计算下一帧图像的FHOG特征和颜色直方图,完成DCF跟踪模型和颜色概率模型的更新。
在上述技术方案的基础上,在步骤S4之后,还包括步骤S5:判断步骤S4中的下一帧图像是否为最后一帧图像,若是,则结束,否则,将步骤S4的下一帧图像作为前一帧图像,转至步骤S2。
在上述技术方案的基础上,构建并初始化颜色概率模型及DCF跟踪模型的步骤为:
S101:读入第一帧图像,将其作为初始图像;
S102:在初始图像中选择初始目标区域z0,所述初始目标区域的边界为目标框;
S103:初始化DCF跟踪模型:在区域z0内提取FHOG特征X0 l;根据初始尺度,计算满足高斯分布的标签值Y0;利用高斯窗对z0背景进行抑制;根据
Figure BDA0001527662500000031
计算得到DCF跟踪模型的初始模型参数
Figure BDA0001527662500000041
式中,p为特征维数,l代表特征空间的索引,λ为正则化参数;
S104:初始化颜色概率模型:在第一帧图像内选取比目标框小的区域的作为前景,比目标框大的区域作为背景;分别计算前景与背景的32bins颜色直方图HistO、HistB;计算颜色概率模型初始参数
Figure BDA0001527662500000045
Figure BDA0001527662500000044
式中,O、B分别代表前景和背景。
在上述技术方案的基础上,步骤S2的具体步骤为:
S201:将前一帧图像记为第t-1帧图像,第t-1帧图像中的目标位置记为pt-1,第t-1帧图像中的尺素因子记为st-1,后一帧图像记为第t帧图像,根据pt-1和st-1,提取第t帧图像中的待跟踪ROI区域zt,并在待跟踪ROI区域zt内提取FHOG特征Xt
S202:根据公式Xdcf=G(m,n,σwh)⊙Xt,对Xt进行基于高斯窗的背景抑制,得到抑制后的ROI区域特征Xdcf
式中,G(m,n,σwh)=g(m,σw)*g(n,σw),g为高斯函数,m,n分别为区域zt的宽和高,σwh分别为区域zt的宽对应的高斯窗的带宽、区域zt的高对应的高斯窗的带宽;
S203:根据第t-1帧图像的DCF模型
Figure BDA0001527662500000042
Bt-1以及在待跟踪ROI区域zt内提取FHOG特征Xt,计算DCF响应值yDCF,DCF响应值即为滤波响应值:
Figure BDA0001527662500000043
式中,F-1代表傅里叶逆变换,p为特征维数,l代表特征空间的索引,λ为正则化参数;
S204:根据t-1帧图像的颜色概率模型
Figure BDA0001527662500000051
计算颜色概率响应ycolor,具体步骤为:
利用贝叶斯准则,计算区域zt内每个像素的目标似然概率图;
Figure BDA0001527662500000052
其中,
Figure BDA0001527662500000053
代表输入图像I中区域O的第jx个颜色直方图区间的像素个数,
Figure BDA0001527662500000054
代表输入图像I中区域B的第jx个颜色直方图区间的像素个数;
计算目标似然概率图的积分图像Pinterimage
利用积分图像,计算每一个候选框区域的目标颜色响应值ycolor,最大响应的位置即为待预测位置:
Figure BDA0001527662500000055
式中,z1为zt内的任意候选框区域;
S205:对yDCF和ycolor进行线性融合,得到最终响应值ysum,最大响应值位置即为第t帧图像的目标位置pt
在上述技术方案的基础上,步骤S3的具体步骤为:
S301根据第t帧图像及目标位置pt,提取尺度金字塔的采样样本zscale
S302计算尺度响应yscale,最大响应值对应的尺度即为目标跟踪尺度st
在上述技术方案的基础上,步骤S4的具体步骤为:
S401:根据第t帧预测位置pt和尺度st,提取ROI区域zupdate
S402:进行自适应密集采样,根据st、pt、γ及跟踪目标大小w×h计算新的标签值y,
Figure BDA0001527662500000061
Figure BDA0001527662500000062
其中,γ为标签因子,x,y表示样本离目标中心的水平及垂直距离;
S403:在区域zupdate内提取FHOG特征,重新计算前景和背景的颜色直方图HO和HB,并进行基于自适应高斯窗的背景抑制,得到抑制后的特征
Figure BDA0001527662500000063
S404:根据如下公式,更新DCF跟踪模型的参数,
Figure BDA0001527662500000064
Figure BDA0001527662500000065
其中η为学习率;
S405:根据如下公式,更新颜色概率模型的参数,
Figure BDA0001527662500000066
Figure BDA0001527662500000067
其中,ηhist同样为学习率。
与现有技术相比,本发明的优点在于:
(1)本发明使用自适应高斯窗函数,针对不同尺度使用不同带宽的高斯函数,相比大小固定的余弦窗,高斯窗不仅可以去除多余的背景,而且保留了更多的前景信息,使得跟踪效果更好,达到了背景抑制的目的;
(2)本发明使用颜色概率模型,分别计算前景和背景的颜色直方图,并结合贝叶斯模型,计算每一个像素的近似目标概率,得到目标颜色概率图,利用该概率图有效地抑制了背景的影响;
(3)本发明使用颜色直方图忽略了每个像素点的位置信息,起到抗形变干扰的作用;
(4)本发明使用基于尺度金字塔的尺度模型,解决了跟踪过程中多尺度问题;
(5)本发明使用基于尺度自适应的密集采样策略,减少了目标响应值容易受到离目标中心较近的标签值的干扰而发生漂移的影响。
附图说明
图1为本发明实施例中基于背景抑制和前景抗干扰的多尺度目标跟踪方法的流程图;
图2为本发明实施例中高斯窗与余弦窗的对比图;
图3a为本发明算法与Staple、KCF、SAMF及DSST算法在所有干扰下的精确率曲线;
图3b为本发明算法与Staple、KCF、SAMF及DSST算法在所有干扰下的成功率曲线;
图4a为本发明算法与Staple、KCF、SAMF及DSST算法在背景混乱干扰下的精确率曲线;
图4b为本发明算法与Staple、KCF、SAMF及DSST算法在背景混乱干扰下的成功率曲线;
图5a为本发明算法与Staple、KCF、SAMF及DSST算法在变形干扰下的精确率曲线;
图5b为本发明算法与Staple、KCF、SAMF及DSST算法在变形干扰下的成功率曲线;
图6a为本发明算法与Staple、KCF、SAMF及DSST算法在尺度干扰下的精确率曲线;
图6b为本发明算法与Staple、KCF、SAMF及DSST算法在尺度干扰下的成功率曲线。
具体实施方式
以下结合附图及实施例对本发明作进一步详细说明。
参见图1所示,本发明实施例提供一种基于背景抑制和前景抗干扰的多尺度目标跟踪方法,该方法包括以下步骤:
S1:构建并初始化颜色概率模型及DCF跟踪模型;
在本实施例中,颜色概率模型指的是通过建立目标和背景区域的颜色直方图,利用贝叶斯准则显著区分目标和非目标信息,同时由于直方图特征不受位置的影响,鲁棒性较高,抗形变干扰;
DCF(Dual Correlation Filter)跟踪模型指的是利用相关滤波跟踪框架的一个线性相关滤波器。具体地,DCF跟踪模型首先在当前帧通过密集采样得到的大量的样本,并提取样本的FHOG特征训练一个相关滤波器,在下一帧,利用该滤波器计算目标位置响应,预测的目标位置为响应值最大的区域,随后,利用新的目标位置,更新滤波器;
S2:以前一帧图像为基准,利用自适应高斯窗函数对前一帧图像进行背景抑制,计算出前一帧图像基于FHOG特征的目标位置的滤波响应图,同时计算前一帧图像的颜色概率分布,根据颜色概率分布得到积分图像,根据积分图像计算得到目标位置的颜色响应图,并线性融合所述滤波响应图和颜色响应图,进而预测出下一帧图像的目标位置;
S3:根据预测的下一帧图像的目标位置及基于尺度金字塔模型,更新下一帧图像中目标的尺度信息;
S4:结合下一帧图像的目标位置和尺度信息,进行自适应密集采样,计算下一帧图像的FHOG特征和颜色直方图,完成DCF跟踪模型和颜色概率模型的更新;
S5:判断步骤S4中的下一帧图像是否为最后一帧图像,若是,则结束,否则,将步骤S4的下一帧图像作为前一帧图像,转至步骤S2。
本实施例中的标跟踪方法使用自适应高斯窗函数,针对不同尺度使用不同带宽的高斯函数,相比大小固定的余弦窗,高斯窗不仅可以去除多余的背景,而且保留了更多的前景信息,使得跟踪效果更好,达到了背景抑制的目的,抗干扰能力强;并使用颜色概率模型,分别计算前景和背景的颜色直方图,并结合贝叶斯模型,计算每一个像素的近似目标概率,得到目标颜色概率图,利用该概率图有效地抑制了背景的影响,抗干扰能力强;再者,使用颜色直方图忽略了每个像素点的位置信息,起到抗形变干扰的作用;并使用基于尺度金字塔的尺度模型,解决了跟踪过程中多尺度问题;使用基于尺度自适应的密集采样策略,减少了目标响应值容易受到离目标中心较近的标签值的干扰而发生漂移的影响。
上述初始化颜色概率模型及DCF跟踪模型的过程为:根据第一帧图像中目标的位置和尺度信息,分别提取前景与背景的直方图,获取第一帧图像的颜色直方图,进而计算出颜色概率模型初始参数,完成颜色概率模型的初始化,同时,利用高斯窗函数对第一帧图像进行背景抑制,并计算出DCF跟踪模型的初始模型参数,完成DCF跟踪模型的初始化。具体包括步骤:
S101:读入第一帧图像,将其作为初始图像;
S102:在初始图像中选择初始目标区域z0,初始目标区域可以为通过鼠标在初始图像中框选出的待跟踪的目标区域,或者直接为标定好的目标区域;
S103:初始化DCF跟踪模型:在区域z0内提取28维FHOG特征X0 l;根据初始尺度,计算满足高斯分布的标签值Y0;利用高斯窗对z0背景进行抑制;根据
Figure BDA0001527662500000101
计算得到DCF跟踪模型的初始模型参数
Figure BDA0001527662500000102
B0
Figure BDA0001527662500000103
式中,p为特征维数,l代表特征空间的索引,λ为正则化参数。
S104:初始化颜色概率模型:在区域z0内选取比目标框略小的区域的作为前景,比目标框略大的区域作为背景;分别计算前景与背景的32bins颜色直方图HistO、HistB;计算颜色概率模型初始参数
Figure BDA0001527662500000105
Figure BDA0001527662500000104
式中,O、B分别代表前景和背景。
步骤S2中根据前一帧图像中的目标位置预测下一帧图像中的目标位置的步骤为:
S201:将前一帧图像记为第t-1帧图像,第t-1帧图像中的目标位置记为pt-1,第t-1帧图像中的尺素因子记为st-1,后一帧图像记为第t帧图像,根据pt-1和st-1,提取第t帧图像中的待跟踪ROI区域zt,此处的ROI区域为感兴趣区域,并在待跟踪ROI区域zt内提取FHOG特征Xt,此处的FHOG(Histogram of Oriented Gradient)为方向梯度直方图;
S202:根据公式Xdcf=G(m,n,σwh)⊙Xt,对Xt进行基于自适应高斯窗的背景抑制,得到抑制后的ROI区域特征Xdcf
式中,自适应高斯窗表示为:G(m,n,σwh)=g(m,σw)*g(n,σw),g为高斯函数,m,n分别为区域zt的宽和高,σwh分别为区域zt的宽对应的高斯窗的带宽、区域zt的高对应的高斯窗的带宽;
高斯函数g(N,σ)表示为:
Figure BDA0001527662500000111
其中,初始目标区域大小为w×h,采样区域大小为W×H,高斯窗大小为m×n,则m=W/4,n=H/4;
高斯窗的带宽可以表示为:σw=θ×wt/W,σt=θ×ht/H
其中,θ为带宽因子,wt×ht为当前帧的目标大小,且wt,ht的更新公式为wt=stw,ht=sth,st为当前帧的尺度变化率。
S203根据第t-1帧图像的DCF模型
Figure BDA0001527662500000118
Bt-1以及在待跟踪ROI区域zt内提取FHOG特征Xt,计算DCF响应值yDCF,DCF响应值即为滤波响应值:
Figure BDA0001527662500000112
式中,F-1代表傅里叶逆变换,p为特征维数,l代表特征空间的索引,λ为正则化参数;
S204:根据t-1帧图像的颜色概率模型
Figure BDA0001527662500000113
计算颜色概率响应ycolor,具体步骤为:
利用贝叶斯准则,计算区域zt内每个像素的目标似然概率图;
Figure BDA0001527662500000114
其中,
Figure BDA0001527662500000115
代表输入图像I中区域O的第jx个颜色直方图区间的像素个数,
Figure BDA0001527662500000116
代表输入图像I中区域B的第jx个颜色直方图区间的像素个数;
计算目标似然概率图的积分图像Pinterimage,公式如下:
Figure BDA0001527662500000117
式中,x∈(i',j'),(i,j)表示积分图每一个位置的坐标,(i',j')代表目标似然概率图中的像素的坐标;
利用积分图像,计算每一个候选框区域的目标颜色响应值ycolor,最大响应的位置即为待预测位置:
Figure BDA0001527662500000121
式中,z1为zt内的任意候选框区域;
S205:对yDCF和ycolor进行线性融合,得到最终响应值ysum,最大响应值位置即为第t帧图像的目标位置pt,线性融合公式为:
ysum=(1-α)yDCF+αycolor
式中,α为融合因子,α=0.3。
上述步骤S204中目标似然概率图的推导过程为:引入贝叶斯分类模型,在像素x处的近似目标概率可以表示为:
Figure BDA0001527662500000122
利用RGB颜色直方图可以分别计算:
Figure BDA0001527662500000123
Figure BDA0001527662500000124
P(x∈Ω)≈|Ω|/(|O|+|B),
其中,设
Figure BDA0001527662500000125
Figure BDA0001527662500000126
分别为输入图像I的非归一化RGB直方图。
Figure BDA0001527662500000127
代表输入图像I中区域Ω的第j个区间的像素个数,则近似目标概率可以表示为:
Figure BDA0001527662500000128
参见图2所示,在本实施例中,第一行和第二行的采样区域大小均为80×180,第一行所有图像中目标区域大小为32×73,如图中框选区域所示,第二行所有图像中目标区域大小为76×177,第二列为高斯窗,第三列为余弦窗,第四列为高斯窗背景抑制结果,第五列为余弦窗背景抑制结果。可以看出,当目标区域大小较小时,即当目标区域大小为32×73时,利用余弦窗将引入更多的背景信息,而使用高斯窗可以将多余的背景滤除;当目标区域较大时,即当目标区域大小为76×177时,使用余弦窗反而会消弱前景信息,而高斯窗可以适应目标大小的变换,利用了更多的有用信息,并且排除了大量背景,使得跟踪漂移小,跟踪鲁棒性大大提高。
本实施例的方法使用自适应高斯窗函数,针对不同尺度使用不同带宽的高斯函数,相比大小固定的余弦窗,高斯窗不仅可以去除多余的背景,而且保留了更多的前景信息,使得跟踪效果更好,达到了背景抑制的目的。
而且,本实施例中采用颜色概率模型,可以有效区分目标和背景,起到背景抑制的作用,且颜色概率模型提取了颜色直方图,忽略了每个像素点的位置信息,可以有效克服目标形变的干扰,起到前景抗干扰的作用。
上述步骤S3的具体步骤为:
S301:根据第t帧图像及目标位置pt,提取尺度金字塔的采样样本zscale,具体地,设固定尺寸的训练样本xscale的大小为wscale×hscale,尺度金字塔层数为S,则尺度金字塔的采样样本大小为zscale=βi*wscale×hscale,其中β为尺度因子,
Figure BDA0001527662500000131
S302:计算尺度响应yscale,最大响应值对应的尺度即为目标跟踪尺度st,此处尺度响应的计算过程和DCF跟踪模型的计算过程类似。
本实施例中,尺度响应的计算过程为:根据第t帧图像及目标位置,在该目标位置进行尺度金字塔采样得到采样样本,并用线性插值的方法缩放到固定尺寸得到训练样本,额外训练一个一维尺度滤波器,从而提取尺度金字塔的采样样本,利用基于尺度金字塔的尺度模型计算跟踪目标的尺度。使用该方法可以大大降低计算复杂度,在保证一定实时性的前提下允许很高层数的尺度金字塔,保证了尺度预测的精度。
上述步骤S4的具体步骤为:
S401:根据第t帧预测位置pt和尺度st,重新在第t帧图像中提取ROI区域zupdate
S402:进行自适应密集采样,根据st、pt、γ及跟踪目标大小w×h计算新的标签值y:
Figure BDA0001527662500000141
Figure BDA0001527662500000142
其中,γ为标签因子,γ=0.85,目标初始大小为w×h,st为第t帧图像的尺度,x,y表示样本离目标中心的水平及垂直距离;
S403:在区域zupdate内提取FHOG特征,重新计算前景和背景的颜色直方图HO和HB,并进行基于自适应高斯窗的背景抑制,得到抑制后的特征
Figure BDA0001527662500000143
S404:根据如下公式,更新DCF跟踪模型的参数,
Figure BDA0001527662500000144
Figure BDA0001527662500000145
其中η为学习率,η=0.02;
S405:根据如下公式,更新颜色概率模型的参数,
Figure BDA0001527662500000146
Figure BDA0001527662500000147
其中,ηhist同样为学习率,ηhist=0.02。
本实施例中,采用自适应密集采样,当遇到尺度变换时,使用固定尺度的高斯标签会造成响应位置漂移,需要根据目标尺度变化,自动调整标签值,使得跟踪更加精确。
为了验证本实施例的方法(简称本文方法)的有效性,使用matlab软件分别对本文方法、以及现有技术中的KCF方法、DSST方法、SAMF方法和Staple方法进行多组仿真对比试验。
对仿真试验说明如下:
1、仿真试验参数为:FHOG特征单元大小为4×4,正则化参数λ=0.0001,学习率ηdcf=0.02,学习率ηhist=0.02,标签因子γ=0.85,带宽因子θ=0.75,尺度金字塔层数S=33,尺度因子β=1.02,融合因子α=0.3。
2、仿真数据集及评价指标
在OTB(Object tracking benchmark)数据集中选取46个视频序列进行仿真实验,序列包含IV(Illumination Variation,光照变化)、SV(Scale Variation,尺度变化)、BC(Background Clutters,背景混乱)、DEF(Deformation,形变)等11种干扰。
通过CLE(center location error,中心位置误差)和OS(overlapscore重叠分数)两种指标来评估方法性能。其中,CLE为预测的目标中心位置与标定的目标中心位置之间的欧式距离。而OS为预测目标框与标定的目标框的重叠区域占两者交集的百分比,即
Figure BDA0001527662500000151
rt为第t帧的预测目标框,rlabel为标定的目标框。
根据CLE和OS画出精确率曲线(Precision plot)和成功率曲线(Success plot)。精确率曲线的横坐标为CLE阈值(以像素为单位),纵坐标为小于该阈值的视频帧占比FR(frame rate),即
Figure BDA0001527662500000152
m为小于该阈值的视频帧的个数,n为视频的总帧数。成功率曲线的横坐标为OS的阈值,坐标为大于该阈值的视频帧占比FR。本仿真试验以CLE阈值为20像素,OS阈值为50%为基准作比较。
3、仿真方法为:首先,方法使用初始帧标定的目标初始位置及大小进行初始化,然后,对其后每一帧的预测值进行评估。为了验证本发明方法的有效性,将本发明方法与Staple、KCF、SAMF及DSST四个方法进行比较,其方法参数均使用默认参数。
4、仿真结果
参见图3a和图3b所示,利用OTB中的测试方法,得到5种方法的所有干扰下的平均精确率曲线(Precision plot)和成功率曲线(Success plot),结果使用了常用的OPE基准,且本文方法的成功率达到0.792,精确率达到0.655,和KCF方法相比,成功率提升了12.2%、精确率提升了21.7%,与Staple方法相比,成功率提升了4.9%、精确率提升了4.8%,可见本文方法总体效果明显优于其他几种方法。
为了测试本文方法对多种环境干扰的鲁棒性,尤其是尺度变化、形变、背景混乱这三种干扰,列举了在11种干扰下的成功率曲线值(Precision plot),如下表所示,从表中结果可以看出,本发明方法在OTB定义的11种干扰下的成功率都好于其他4种方法,对尺度、形变、背景混乱这三种干扰的鲁棒性好,说明本发明的背景抑制策略和前景抗尺度和形变干扰策略取得了很好的效果,参见下表。
Figure BDA0001527662500000161
参见图4a和图4b分别为背景混乱干扰下的精确率曲线(Precision plot)和成功率曲线(Success plot),参见图5a和图5b分别为变形干扰下的精确率曲线(Precisionplot)和成功率曲线(Success plot),参见图6a和图6b分别为尺度干扰下的精确率曲线(Precision plot)和成功率曲线(Success plot),从图中可以看出本文的背景抑制和前景抗干扰的多尺度目标跟踪方法,在背景混乱、变形、尺度变化三种干扰下优势十分明显。
本发明不局限于上述实施方式,对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也视为本发明的保护范围之内。本说明书中未作详细描述的内容属于本领域专业技术人员公知的现有技术。

Claims (6)

1.一种基于背景抑制和前景抗干扰的多尺度目标跟踪方法,其特征在于,包括步骤:
S1:构建并初始化颜色概率模型及DCF跟踪模型;
S2:以前一帧图像为基准,利用自适应高斯窗函数对前一帧图像进行背景抑制,计算出前一帧图像基于FHOG特征的目标位置的滤波响应图,同时计算前一帧图像的颜色概率分布,根据颜色概率分布得到积分图像,根据积分图像计算得到目标位置的颜色响应图,并线性融合所述滤波响应图和颜色响应图,进而预测出下一帧图像的目标位置;
S3:根据预测的下一帧图像的目标位置及基于尺度金字塔模型,更新下一帧图像中目标的尺度信息;
S4:结合下一帧图像的目标位置和尺度信息,进行自适应密集采样,计算下一帧图像的FHOG特征和颜色直方图,完成DCF跟踪模型和颜色概率模型的更新。
2.如权利要求1所述的基于背景抑制和前景抗干扰的多尺度目标跟踪方法,其特征在于:在步骤S4之后,还包括步骤S5:判断步骤S4中的下一帧图像是否为最后一帧图像,若是,则结束,否则,将步骤S4的下一帧图像作为前一帧图像,转至步骤S2。
3.如权利要求1所述的基于背景抑制和前景抗干扰的多尺度目标跟踪方法,其特征在于,构建并初始化颜色概率模型及DCF跟踪模型的步骤为:
S101:读入第一帧图像,将其作为初始图像;
S102:在初始图像中选择初始目标区域z0,所述初始目标区域的边界为目标框;
S103:初始化DCF跟踪模型:在区域z0内提取FHOG特征
Figure FDA0001527662490000021
根据初始尺度,计算满足高斯分布的标签值Y0;利用高斯窗对z0背景进行抑制;根据
Figure FDA0001527662490000022
计算得到DCF跟踪模型的初始模型参数
Figure FDA0001527662490000023
式中,p为特征维数,l代表特征空间的索引,λ为正则化参数;
S104:初始化颜色概率模型:在第一帧图像内选取比目标框小的区域的作为前景,比目标框大的区域作为背景;分别计算前景与背景的32bins颜色直方图HistO、HistB;计算颜色概率模型初始参数
Figure FDA0001527662490000024
Figure FDA0001527662490000025
式中,O、B分别代表前景和背景。
4.如权利要求3所述的基于背景抑制和前景抗干扰的多尺度目标跟踪方法,其特征在于,步骤S2的具体步骤为:
S201:将前一帧图像记为第t-1帧图像,第t-1帧图像中的目标位置记为pt-1,第t-1帧图像中的尺素因子记为st-1,后一帧图像记为第t帧图像,根据pt-1和st-1,提取第t帧图像中的待跟踪ROI区域zt,并在待跟踪ROI区域zt内提取FHOG特征Xt
S202:根据公式Xdcf=G(m,n,σwh)⊙Xt,对Xt进行基于高斯窗的背景抑制,得到抑制后的ROI区域特征Xdcf
式中,G(m,n,σwh)=g(m,σw)*g(n,σw),g为高斯函数,m,n分别为区域zt的宽和高,σwh分别为区域zt的宽对应的高斯窗的带宽、区域zt的高对应的高斯窗的带宽;
S203:根据第t-1帧图像的DCF模型
Figure FDA0001527662490000026
Bt-1以及在待跟踪ROI区域zt内提取FHOG特征Xt,计算DCF响应值yDCF,DCF响应值即为滤波响应值:
Figure FDA0001527662490000031
式中,F-1代表傅里叶逆变换,p为特征维数,l代表特征空间的索引,λ为正则化参数;
S204:根据t-1帧图像的颜色概率模型
Figure FDA0001527662490000032
计算颜色概率响应ycolor,具体步骤为:
利用贝叶斯准则,计算区域zt内每个像素的目标似然概率图;
Figure FDA0001527662490000033
其中,
Figure FDA0001527662490000034
代表输入图像I中区域O的第jx个颜色直方图区间的像素个数,
Figure FDA0001527662490000035
代表输入图像I中区域B的第jx个颜色直方图区间的像素个数;
计算目标似然概率图的积分图像Pinterimage
利用积分图像,计算每一个候选框区域的目标颜色响应值ycolor,最大响应的位置即为待预测位置:
Figure FDA0001527662490000036
式中,z1为zt内的任意候选框区域;
S205:对yDCF和ycolor进行线性融合,得到最终响应值ysum,最大响应值位置即为第t帧图像的目标位置pt
5.如权利要求4所述的基于背景抑制和前景抗干扰的多尺度目标跟踪方法,其特征在于,步骤S3的具体步骤为:
S301根据第t帧图像及目标位置pt,提取尺度金字塔的采样样本zscale
S302计算尺度响应yscale,最大响应值对应的尺度即为目标跟踪尺度st
6.如权利要求5所述的基于背景抑制和前景抗干扰的多尺度目标跟踪方法,其特征在于,步骤S4的具体步骤为:
S401:根据第t帧预测位置pt和尺度st,提取ROI区域zupdate
S402:进行自适应密集采样,根据st、pt、γ及跟踪目标大小w×h计算新的标签值y,
Figure FDA0001527662490000041
Figure FDA0001527662490000042
其中,γ为标签因子,x,y表示样本离目标中心的水平及垂直距离;
S403:在区域zupdate内提取FHOG特征,重新计算前景和背景的颜色直方图HO和HB,并进行基于自适应高斯窗的背景抑制,得到抑制后的特征
Figure FDA0001527662490000043
S404:根据如下公式,更新DCF跟踪模型的参数,
Figure FDA0001527662490000044
Figure FDA0001527662490000045
其中η为学习率;
S405:根据如下公式,更新颜色概率模型的参数,
Figure FDA0001527662490000046
Figure FDA0001527662490000047
其中,ηhist同样为学习率。
CN201711446603.4A 2017-12-27 2017-12-27 基于背景抑制和前景抗干扰的多尺度目标跟踪方法 Expired - Fee Related CN108053419B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201711446603.4A CN108053419B (zh) 2017-12-27 2017-12-27 基于背景抑制和前景抗干扰的多尺度目标跟踪方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201711446603.4A CN108053419B (zh) 2017-12-27 2017-12-27 基于背景抑制和前景抗干扰的多尺度目标跟踪方法

Publications (2)

Publication Number Publication Date
CN108053419A CN108053419A (zh) 2018-05-18
CN108053419B true CN108053419B (zh) 2020-04-24

Family

ID=62128254

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201711446603.4A Expired - Fee Related CN108053419B (zh) 2017-12-27 2017-12-27 基于背景抑制和前景抗干扰的多尺度目标跟踪方法

Country Status (1)

Country Link
CN (1) CN108053419B (zh)

Families Citing this family (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108986139B (zh) * 2018-06-12 2021-09-28 南京师范大学 一种用于目标跟踪的带有重要性图的特征整合方法
CN109034193A (zh) * 2018-06-20 2018-12-18 上海理工大学 多特征融合与尺度自适应核相关滤波跟踪方法
CN108986140B (zh) * 2018-06-26 2022-02-01 南京信息工程大学 基于相关滤波和颜色检测的目标尺度自适应跟踪方法
CN109035300B (zh) * 2018-07-05 2021-03-26 桂林电子科技大学 一种基于深度特征与平均峰值相关能量的目标跟踪方法
CN110751671B (zh) * 2018-07-23 2022-08-19 中国科学院长春光学精密机械与物理研究所 一种基于核相关滤波与运动估计的目标跟踪方法
CN110751673B (zh) * 2018-07-23 2022-08-19 中国科学院长春光学精密机械与物理研究所 一种基于集成学习的目标跟踪方法
CN109146912B (zh) * 2018-07-26 2020-08-04 湖南人文科技学院 一种基于目标性分析的视觉目标跟踪方法
CN109255799B (zh) * 2018-07-26 2021-07-27 华中科技大学 一种基于空间自适应相关滤波器的目标跟踪方法及系统
CN109272530B (zh) * 2018-08-08 2020-07-21 北京航空航天大学 面向空基监视场景的目标跟踪方法与装置
CN109360223A (zh) * 2018-09-14 2019-02-19 天津大学 一种快速空间正则化的目标跟踪方法
CN109461170B (zh) * 2018-09-20 2021-11-16 西安电子科技大学 基于fpga的超高速目标跟踪方法、计算机视觉系统
CN110211149B (zh) * 2018-12-25 2022-08-12 湖州云通科技有限公司 一种基于背景感知的尺度自适应核相关滤波跟踪方法
CN109785366B (zh) * 2019-01-21 2020-12-25 中国科学技术大学 一种针对遮挡的相关滤波目标跟踪方法
CN110895820B (zh) * 2019-03-14 2023-03-24 河南理工大学 一种基于kcf的尺度自适应目标跟踪方法
CN109949342B (zh) * 2019-03-15 2022-07-15 中国科学院福建物质结构研究所 基于目标概率模型的自适应融合互补学习实时跟踪方法
CN109949344B (zh) * 2019-03-18 2022-12-27 吉林大学 一种基于颜色概率目标建议窗口的核相关滤波跟踪方法
CN109934853B (zh) * 2019-03-21 2023-04-07 云南大学 基于响应图置信区域自适应特征融合的相关滤波跟踪方法
CN110009664B (zh) * 2019-04-11 2021-08-27 南京航空航天大学金城学院 一种基于响应图融合的红外目标跟踪方法及装置
CN110097575B (zh) * 2019-04-28 2022-07-01 电子科技大学 一种基于局部特征及尺度池的目标跟踪方法
CN111161321B (zh) * 2019-12-31 2023-07-04 北京理工大学重庆创新中心 一种基于背景感知的相关滤波跟踪方法
CN111340838B (zh) * 2020-02-24 2022-10-21 长沙理工大学 一种基于多种特征融合的背景时空相关滤波跟踪方法
CN111815668B (zh) * 2020-06-23 2024-08-30 浙江大华技术股份有限公司 目标跟踪方法、电子设备及存储介质
CN111814734B (zh) * 2020-07-24 2024-01-26 南方电网数字电网研究院有限公司 识别刀闸状态的方法
CN111951297B (zh) * 2020-08-31 2022-04-19 郑州轻工业大学 一种基于结构化逐像素目标注意机制的目标跟踪方法
CN112700477A (zh) * 2020-12-25 2021-04-23 北京环境特性研究所 基于背景抑制和记忆跟踪的红外目标跟踪方法
CN113658216B (zh) * 2021-06-24 2024-07-19 北京理工大学 基于多级自适应kcf的遥感目标跟踪方法及电子设备
CN115018885B (zh) * 2022-08-05 2022-11-11 四川迪晟新达类脑智能技术有限公司 一种适用于边缘设备的多尺度目标跟踪算法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9443532B2 (en) * 2012-07-23 2016-09-13 Qsound Labs, Inc. Noise reduction using direction-of-arrival information
CN106101485A (zh) * 2016-06-02 2016-11-09 中国科学技术大学 一种基于反馈的前景轨迹判定方法和装置
CN106570478A (zh) * 2016-11-04 2017-04-19 北京智能管家科技有限公司 视觉跟踪中的目标丢失判断方法和装置
CN107248170A (zh) * 2017-04-24 2017-10-13 辽宁师范大学 基于图像匹配的焊缝跟踪方法
CN107480704A (zh) * 2017-07-24 2017-12-15 南开大学 一种具有遮挡感知机制的实时视觉目标跟踪方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9443532B2 (en) * 2012-07-23 2016-09-13 Qsound Labs, Inc. Noise reduction using direction-of-arrival information
CN106101485A (zh) * 2016-06-02 2016-11-09 中国科学技术大学 一种基于反馈的前景轨迹判定方法和装置
CN106570478A (zh) * 2016-11-04 2017-04-19 北京智能管家科技有限公司 视觉跟踪中的目标丢失判断方法和装置
CN107248170A (zh) * 2017-04-24 2017-10-13 辽宁师范大学 基于图像匹配的焊缝跟踪方法
CN107480704A (zh) * 2017-07-24 2017-12-15 南开大学 一种具有遮挡感知机制的实时视觉目标跟踪方法

Also Published As

Publication number Publication date
CN108053419A (zh) 2018-05-18

Similar Documents

Publication Publication Date Title
CN108053419B (zh) 基于背景抑制和前景抗干扰的多尺度目标跟踪方法
CN109816689B (zh) 一种多层卷积特征自适应融合的运动目标跟踪方法
CN108830285B (zh) 一种基于Faster-RCNN的加强学习的目标检测方法
CN108647694B (zh) 基于上下文感知和自适应响应的相关滤波目标跟踪方法
CN108171112A (zh) 基于卷积神经网络的车辆识别与跟踪方法
CN109035300B (zh) 一种基于深度特征与平均峰值相关能量的目标跟踪方法
CN106815323B (zh) 一种基于显著性检测的跨域视觉检索方法
CN105160310A (zh) 基于3d卷积神经网络的人体行为识别方法
CN111192294B (zh) 一种基于目标检测的目标跟踪方法及系统
CN109658442B (zh) 多目标跟踪方法、装置、设备及计算机可读存储介质
CN109087337B (zh) 基于分层卷积特征的长时间目标跟踪方法及系统
CN111582349B (zh) 一种基于YOLOv3和核相关滤波改进的目标跟踪算法
CN113592894B (zh) 一种基于边界框和同现特征预测的图像分割方法
CN111461039A (zh) 基于多尺度特征融合的地标识别方法
CN110503613A (zh) 基于级联空洞卷积神经网络的面向单幅图像去雨方法
CN113505670B (zh) 基于多尺度cam和超像素的遥感图像弱监督建筑提取方法
CN110310305B (zh) 一种基于bssd检测与卡尔曼滤波的目标跟踪方法与装置
CN111340842A (zh) 一种基于联合模型的相关滤波目标跟踪算法
CN107480585A (zh) 基于dpm算法的目标检测方法
CN109325407B (zh) 基于f-ssd网络滤波的光学遥感视频目标检测方法
Xiao et al. Traffic sign detection based on histograms of oriented gradients and boolean convolutional neural networks
CN110458047A (zh) 一种基于深度学习的越野环境场景识别方法及系统
CN110827319B (zh) 一种基于局部敏感直方图改进的Staple目标跟踪方法
CN111539985A (zh) 一种融合多特征的自适应运动目标跟踪方法
CN110827327B (zh) 一种基于融合的长期目标跟踪方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20200424

Termination date: 20211227