CN107644430A - 基于自适应特征融合的目标跟踪 - Google Patents

基于自适应特征融合的目标跟踪 Download PDF

Info

Publication number
CN107644430A
CN107644430A CN201710622389.7A CN201710622389A CN107644430A CN 107644430 A CN107644430 A CN 107644430A CN 201710622389 A CN201710622389 A CN 201710622389A CN 107644430 A CN107644430 A CN 107644430A
Authority
CN
China
Prior art keywords
mrow
msub
msup
target
mfrac
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201710622389.7A
Other languages
English (en)
Inventor
孙战里
谷成刚
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Anhui University
Original Assignee
Zhan Li Sun
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhan Li Sun filed Critical Zhan Li Sun
Priority to CN201710622389.7A priority Critical patent/CN107644430A/zh
Publication of CN107644430A publication Critical patent/CN107644430A/zh
Pending legal-status Critical Current

Links

Landscapes

  • Other Investigation Or Analysis Of Materials By Electrical Means (AREA)

Abstract

本发明提出了一种自适应特征融合的目标跟踪方法,包括:在第一帧图像中,初始化目标区域,构造位置滤波器和尺度滤波器;在目标周围提取检测样本,分别计算方向梯度直方图(Histogram of Oriented Gradient,HOG)特征以及颜色(Color Name,CN)特征,通过位置滤波器获得响应值;根据响应值计算特征权重,归一化权重系数,融合特征响应值,选取响应值最大的点作为目标的中心位置;根据目标响应判断是否出现遮挡,遮挡情况下,只更新尺度滤波器,不更新目标位置滤波器,循环处理,获取每一帧的目标位置。本发明的优点在于:提出了一种自适应特征融合的方法,并且设计了一种基于平均峰相关能量(Average Peak‑to‑Correlation Energy,APCE)的模型更新策略,显著提高了遮挡情况下目标的跟踪精度和鲁棒性。

Description

基于自适应特征融合的目标跟踪
技术领域
本发明属于图像处理和计算机视觉领域,具体涉及一种自适应特征融合的目标跟踪方法。
技术背景
在计算机视觉中,目标跟踪是一个热门的研究领域,可以应用到视频监控、自动监测等多个人机交互领域。虽然近几年研究人员提出了许多跟踪算法,但面临目标外观变化、快速运动、尺度变换、遮挡等问题,很难达到实时高效稳定的跟踪。
传统的跟踪方法通过构建复杂的外观模型,抽取大量的学习样本,产生庞大的计算量,很难达到实时跟踪。相关滤波类方法绕过构建复杂的外观模型与大量学习样本,仅通过前一帧的跟踪结果作为学习样本就可以跟踪,不仅可以达到实时跟踪,也能保证跟踪精度。
相关滤波类方法如果利用有效的样本特征可以显著的提高跟踪精度,近些年不断涌现大量优秀的特征(HOG特征、CN特征、深度特征等)使跟踪效果不断提高,不同优秀特征的融合也能形成优势互补,提高跟踪精度。
发明内容
本发明提出了一种自适应特征融合的跟踪方法,可以显著提高跟踪精度。并且融入了遮挡判断机制,对遮挡的目标达到准确跟踪。
本发明技术解决方案如下:
基于自适应特征融合的目标跟踪,其特征在于:包括如下步骤:
步骤1:初始化目标并选取目标区域;
步骤2:在目标区域选取样本,计算HOG特征以及CN特征,构造位置高斯滤波器、尺度滤波器;
步骤3:计算检测样本的HOG特征以及CN特征,并进行加余弦窗处理;
步骤4:多通道特征求和,分别得到不同特征的高斯响应值;
步骤5:分别根据响应值计算特征权重。归一化权重系数,融合特征响应值;
步骤6:对求得响应值进行排序,选取最大值对应的样本区域作即为目标位置;
步骤7:在目标周围提取尺度样本,计算特征后,通过尺度滤波器,获取尺度响应;
步骤8:求得尺度响应最大值即目标尺度,更新目标尺度;
步骤9:更新尺度滤波器模型;
步骤10:根据目标位置相应判断是否出现遮挡,如果是重复步骤3至步骤9,如果没出现遮挡进入步骤11;
步骤11:更新位置滤波器模型;
步骤12:重复步骤3至11直至跟踪结束。
所述步骤1为:
根据所述第一帧被跟踪目标的初始化位置为p=[x,y,w,h]。
其中x,y表示目标中心点的横坐标和纵坐标,w,h分别表示目标框的宽和高。
目标区域选取以目标中心点为中心,2倍目标大小的矩形区域为目标区域Pt
所述步骤2为:
计算目标区域Pt的HOG特征和CN特征作为滤波器的输入F。
其中M和N表示目标区域Pt的大小,L表示特征通道的个数。
第一帧选取标准偏差构造位置滤波器输出,即
其中(x,y)表示目标位置,(x',y')∈{0,…,M-1}×{0,…,N-1}表示每个像素位置。
选取标准差作为尺度滤波器输出,即:
其中s表示目标当前的尺度,s'表示样本尺度:
其中,P,R分别为目标在前一帧的宽和高,a=1.02为尺度因子,S=33为尺度的数量。
根据建立最小化代价函数构造滤波器h,如下:
其中,h表示滤波器,f表示滤波器输入,g表示滤波器输出,l表示特征的某一维度,λ是正则项系数。
作用是消除f频谱中的零频分量的影响,避免上式解的分子为零,通过最优化求解,并转化为频域,则滤波器表示为:
其中Hl表示我们构造的滤波器,表示滤波器输出的频域共轭,Fl表示滤波器的频域输入的某一维度。
d表示输入样本的像素个数,Fk表示输入的某一像素值的频域,是它的频域共轭,Al和B表示构造滤波器的分子和分母。
完成滤波器的构造。
所述步骤3为:
计算HOG特征初始化单元大小为1×1,根据标准化HOG特征计算函数得到检测样本M×N大小的27维梯度特征,加上一维的灰度特征构成M×N×L1的HOG特征,其中L1=28。
CN特征根据标准的计算函数可以得到M×N×L2的CN特征,其中L2=10。
对特征进行余弦窗处理,公式如下:
x'mn=(xmn-0.5)sin(πm/M)sin(πn/N)
其中x'mn表示处理后图像的每个像素,xmn表示处理前的图像像素,(m,n)∈{0,…,M-1}×{0,…,N-1}表示每个像素位置。
处理后得到目标区域特征
所述步骤4为:
将求得的测试样本特征Zt通过滤波器Ht,得到响应值并进行多通道求和:
其中F-1表示傅里叶反变换,Al、B表示滤波器的参数,d表示特征维数。
求和之后分别得到HOG特征的响应值y1,CN特征的响应值y2
所述步骤5为:
传统的跟踪方法根据y1的最大值y1max或者y2的最大值y2max确定目标位置,传统的特征融合也是简单的响应值相加,或者以固定比例求和,方法过于片面。
我们提出的自适应特征融合根据响应值的最大值y1max和y2max以及各自的通道权重:
其中ρmax1,ρmax2分别表示响应值图像最大的极值以及第二大的极值,按照公式:
得到特征融合后的响应值。
所述步骤6为:
根据求得特征融合后的响应值y求得最大值ymax所在的位置就是检测区域的目标位置,经过坐标变换,得到目标在整幅图像中的位置。
所述步骤7为:
以新目标位置为中心按照权利要求书3所述公式:
提取S=33种不同尺度下的样本Zs,把每个样本缩放成固定尺寸大小M×N。
按照初始化单元大小为4×4,根据标准化HOG特征计算函数得到检测样本M×N大小的31维梯度特征。
每个样本的所有的HOG特征串联成一个特征向量,不同样本的特征向量构成S=33层金字塔特征,按照权利要求书4所述公式:
x'mn=(xmn-0.5)sin(πm/M)sin(πn/N)
对特征进行加窗处理得到尺度样本输入Zs
所述步骤8为:
将求得的测试样本特征Zs通过尺度滤波器Hs,得到响应值:
求得响应值最大的尺度就是当前目标的尺度,更新目标的尺度参数。
所述步骤9为:
以固定学习率η=0.025对尺度滤波器模型进行更新,更新公式为:
其中表示前一帧的滤波器参数,尺度滤波器模型每一帧都进行更新。
所述步骤10为:
遮挡判断根据目标位置响应最大值fmax以及APCE值,计算公式如下:
其中fmin表示相应最小值,fw,h表示某一点的响应值,经过大量实验我们得出当:
fmax<θ11=0.2)
APCE<θ22=20)
同时满足时,跟踪目标周围出现明显遮挡,此时位置滤波器模型不更新,传统的跟踪算法是每一帧都进行更新,当出现遮挡时很容易学习到很多背景信息,另外一些跟踪算法每N帧更新一次模型,相比之下,我们的方法更加科学,跟踪效果明显提高。
所述步骤11为:
当判断没有出现遮挡时,以固定学习率η=0.025对位置滤波器模型进行更新,更新公式为:
相应的Bt-1表示前一帧的滤波器参数。
所述步骤12为:
算法运行至此,第二帧运行结束,目标位置、尺度以及滤波器模型都已经更新完成,下一帧重复运行步骤3至11直至视频结束。
附图说明
图1是本发明基于自适应特征融合的目标跟踪方法的流程图。
图2是在重叠阈值条件下对50个测试视频的时间鲁棒性评估。
图3是在重叠阈值条件下对50个测试视频的空间鲁棒性评估。
图4是在位置误差阈值条件下对50个测试视频的时间鲁棒性评估。
图5是在位置误差阈值条件下对50个测试视频的空间鲁棒性评估。
图6是测试比较算法明细。
具体实施方法
为了使本发明的目的、技术路线和有益效果更加清楚,下面将结合附图和具体实施方式,进一步阐述本发明。
基于自适应特征融合的目标跟踪方法实施过程如图1所示,包括如下步骤:
步骤1:初始化目标并选取目标区域;
具体步骤:
根据所述第一帧被跟踪目标的初始化位置为p=[x,y,w,h]。
其中x,y表示目标中心点的横坐标和纵坐标,w,h分别表示目标框的宽和高。
目标区域选取以目标中心点为中心,2倍目标大小的矩形区域为目标区域Pt
步骤2:在目标区域选取样本计算HOG特征以及CN特征,构造高斯滤波器1和高斯滤波器2以及尺度滤波器;
具体步骤:
计算目标区域Pt的HOG特征和CN特征作为滤波器的输入F。
其中M和N表示目标区域Pt的大小,L表示特征通道的个数。
第一帧选取标准偏差构造位置滤波器输出,即
其中(x,y)表示目标位置,(x',y')∈{0,…,M-1}×{0,…,N-1}表示每个像素位置。
选取标准差作为尺度滤波器输出,即:
其中s表示目标当前的尺度,s'表示样本尺度:
其中,P,R分别为目标在前一帧的宽和高,a=1.02为尺度因子,S=33为尺度的数量。
根据建立最小化代价函数构造滤波器h,如下:
其中,h表示滤波器,f表示滤波器输入,g表示滤波器输出,l表示特征的某一维度,λ是正则项系数。
作用是消除f频谱中的零频分量的影响,避免上式解的分子为零,通过最优化求解,并转化为频域,则滤波器表示为:
其中Hl表示我们构造的滤波器,表示滤波器输出的频域共轭,Fl表示滤波器的频域输入的某一维度。
d表示输入样本的像素个数,Fk表示输入的某一像素值的频域,是它的频域共轭,Al和B表示构造滤波器的分子和分母。
完成滤波器的构造。
步骤3:计算检测样本的HOG特征以及CN特征,加余弦窗处理;
具体步骤:
计算HOG特征初始化单元大小为1×1,根据标准化HOG特征计算函数得到检测样本M×N大小的27维梯度特征,加上一维的灰度特征构成M×N×L1的HOG特征,其中L1=28。
CN特征根据标准的计算函数可以得到M×N×L2的CN特征,其中L2=10。
对特征进行余弦窗处理,公式如下:
x'mn=(xmn-0.5)sin(πm/M)sin(πn/N)
其中x'mn表示处理后图像的每个像素,xmn表示处理前的图像像素,(m,n)∈{0,…,M-1}×{0,…,N-1}表示每个像素位置。
处理后得到目标区域特征
步骤4:多通道特征求和,分别得到高斯响应值1、高斯响应值2;
具体步骤:
将求得的测试样本特征Zt通过滤波器Ht,得到响应值并进行多通道求和:
其中F-1表示傅里叶反变换,Al、B表示滤波器的参数,d表示特征维数。
求和之后分别得到HOG特征的响应值y1,CN特征的响应值y2
步骤5:分别根据响应值计算特征权重。归一化权重系数,融合特征响应值;
具体步骤:
传统的跟踪方法根据y1的最大值y1max或者y2的最大值y2max确定目标位置,传统的特征融合也是简单的响应值相加,或者以固定比例求和,方法过于片面。
我们提出的自适应特征融合根据响应值的最大值y1max和y2max以及各自的通道权重:
其中ρmax1,ρmax2分别表示响应值图像最大的极值以及第二大的极值,按照公式:
得到特征融合后的响应值。
步骤6:求得响应值最大即为目标位置;
具体步骤:
根据求得特征融合后的响应值y求得最大值ymax所在的位置就是检测区域的目标位置,经过坐标变换,得到目标在整幅图像中的位置。
步骤7:在目标周围提取尺度样本,计算特征后通过尺度滤波器;
具体步骤:
以新目标位置为中心按照权利要求书3所述公式:
提取S=33种不同尺度下的样本Zs,把每个样本缩放成固定尺寸大小M×N。
按照初始化单元大小为4×4,根据标准化HOG特征计算函数得到检测样本M×N大小的31维梯度特征。
每个样本的所有的HOG特征串联成一个特征向量,不同样本的特征向量构成S=33层金字塔特征,按照权利要求书4所述公式:
x'mn=(xmn-0.5)sin(πm/M)sin(πn/N)
对特征进行加窗处理得到尺度样本输入Zs
步骤8:求得尺度响应最大值即目标尺度,更新目标尺度;
具体步骤:
将求得的测试样本特征Zs通过尺度滤波器Hs,得到响应值:
求得响应值最大的尺度就是当前目标的尺度,更新目标的尺度参数。
步骤9:更新尺度滤波器模型;
具体步骤:
以固定学习率η=0.025对尺度滤波器模型进行更新,更新公式为:
其中表示前一帧的滤波器参数,尺度滤波器模型每一帧都进行更新。
步骤10:根据目标位置相应判断是否出现遮挡,如果是重复步骤3至步骤9,如果没出现遮挡进入步骤11;
具体步骤:
遮挡判断根据目标位置响应最大值fmax以及APCE值,计算公式如下:
其中fmin表示相应最小值,fw,h表示某一点的响应值,经过大量实验我们得出当:
fmax<θ11=0.2)
APCE<θ22=20)
同时满足时,跟踪目标周围出现明显遮挡,此时位置滤波器模型不更新,传统的跟踪算法是每一帧都进行更新,当出现遮挡时很容易学习到很多背景信息,另外一些跟踪算法每N帧更新一次模型,相比之下,我们的方法更加科学,跟踪效果明显提高。
步骤11:更新位置滤波器模型;
具体步骤:
当判断没有出现遮挡时,以固定学习率η=0.025对位置滤波器模型进行更新,更新公式为:
相应的Bt-1表示前一帧的滤波器参数。
步骤12:重复步骤3至11直至跟踪结束。
具体步骤:
算法运行至此,第二帧运行结束,目标位置、尺度以及滤波器模型都已经更新完成,下一帧重复运行步骤3至11直至视频结束。

Claims (13)

1.基于自适应特征融合的目标跟踪,其特征在于:包括如下步骤:
步骤1:初始化目标并选取目标区域;
步骤2:在目标区域选取样本,计算HOG特征以及CN特征,构造位置高斯滤波器、尺度滤波器;
步骤3:计算检测样本的HOG特征以及CN特征,并进行加余弦窗处理;
步骤4:多通道特征求和,分别得到不同特征的高斯响应值;
步骤5:根据响应值计算特征权重,归一化权重系数,融合特征响应值;
步骤6:对响应值进行排序,选取最大值对应的样本区域作为目标位置;
步骤7:在目标周围提取尺度样本,计算特征后,通过尺度滤波器,获取尺度响应;
步骤8:求得尺度响应最大值即目标尺度,更新目标尺度;
步骤9:更新尺度滤波器模型;
步骤10:根据目标位置相应判断是否出现遮挡,如果是重复步骤3至步骤9,如果没出现遮挡进入步骤11;
步骤11:更新位置滤波器模型;
步骤12:重复步骤3至11直至跟踪结束。
2.根据权利要求1所述的基于自适应特征融合的目标跟踪,其特征在于:所述步骤1具体为:
根据所述第一帧被跟踪目标的初始化位置为p=[x,y,w,h],其中x,y表示目标中心点的横坐标和纵坐标,w,h分别表示目标框的宽和高,目标区域选取以目标中心点为中心,2倍目标大小的矩形区域为目标区域Pt
3.根据权利要求1所述的基于自适应特征融合的目标跟踪,其特征在于:所述步骤2具体包括:
计算目标区域Pt的HOG特征和CN特征作为滤波器的输入F,其中M和N表示目标区域Pt的大小,L表示特征通道的个数。第一帧选取标准偏差构造位置滤波器输出,即:
<mrow> <mi>g</mi> <mo>=</mo> <mi>exp</mi> <mrow> <mo>(</mo> <mo>-</mo> <mfrac> <mrow> <msup> <mrow> <mo>(</mo> <mi>x</mi> <mo>-</mo> <msup> <mi>x</mi> <mo>&amp;prime;</mo> </msup> <mo>)</mo> </mrow> <mn>2</mn> </msup> <mo>+</mo> <msup> <mrow> <mo>(</mo> <mi>y</mi> <mo>-</mo> <msup> <mi>y</mi> <mo>&amp;prime;</mo> </msup> <mo>)</mo> </mrow> <mn>2</mn> </msup> </mrow> <msup> <mi>&amp;sigma;</mi> <mn>2</mn> </msup> </mfrac> <mo>)</mo> </mrow> </mrow>
其中(x,y)表示目标位置,(x',y')∈{0,…,M-1}×{0,…,N-1}表示每个像素位置。选取标准差构造尺度滤波器输出,即:
<mrow> <msup> <mi>g</mi> <mo>&amp;prime;</mo> </msup> <mo>=</mo> <mi>exp</mi> <mrow> <mo>(</mo> <mo>-</mo> <mfrac> <msup> <mrow> <mo>(</mo> <mi>s</mi> <mo>-</mo> <msup> <mi>s</mi> <mo>&amp;prime;</mo> </msup> <mo>)</mo> </mrow> <mn>2</mn> </msup> <mrow> <mn>2</mn> <msup> <mi>&amp;sigma;</mi> <mn>2</mn> </msup> </mrow> </mfrac> <mo>)</mo> </mrow> </mrow>
其中s表示目标当前的尺度,s'表示样本尺度:
<mrow> <msup> <mi>s</mi> <mo>&amp;prime;</mo> </msup> <mo>=</mo> <msup> <mi>a</mi> <mi>n</mi> </msup> <mi>P</mi> <mo>&amp;times;</mo> <msup> <mi>a</mi> <mi>n</mi> </msup> <mi>R</mi> <mo>,</mo> <mi>n</mi> <mo>&amp;Element;</mo> <mo>{</mo> <mo>&amp;lsqb;</mo> <mo>-</mo> <mfrac> <mrow> <mi>S</mi> <mo>-</mo> <mn>1</mn> </mrow> <mn>2</mn> </mfrac> <mo>&amp;rsqb;</mo> <mo>,</mo> <mo>...</mo> <mo>,</mo> <mo>&amp;lsqb;</mo> <mfrac> <mrow> <mi>S</mi> <mo>-</mo> <mn>1</mn> </mrow> <mn>2</mn> </mfrac> <mo>&amp;rsqb;</mo> <mo>}</mo> <mo>,</mo> </mrow>
其中,P,R分别为目标在前一帧的宽和高,a=1.02为尺度因子,S=33为尺度的数量。
根据建立最小化代价函数构造滤波器h,如下:
<mrow> <mi>&amp;epsiv;</mi> <mo>=</mo> <mo>|</mo> <mo>|</mo> <munderover> <mo>&amp;Sigma;</mo> <mrow> <mi>l</mi> <mo>=</mo> <mn>1</mn> </mrow> <mi>d</mi> </munderover> <msup> <mi>h</mi> <mi>l</mi> </msup> <mo>*</mo> <msup> <mi>f</mi> <mi>l</mi> </msup> <mo>-</mo> <mi>g</mi> <mo>|</mo> <mo>|</mo> <mo>+</mo> <mi>&amp;lambda;</mi> <munderover> <mo>&amp;Sigma;</mo> <mrow> <mi>l</mi> <mo>=</mo> <mn>1</mn> </mrow> <mi>d</mi> </munderover> <mo>|</mo> <mo>|</mo> <msup> <mi>h</mi> <mi>l</mi> </msup> <mo>|</mo> <msup> <mo>|</mo> <mn>2</mn> </msup> </mrow>
其中,h表示滤波器,f表示滤波器输入,g表示滤波器输出,l表示特征的某一维度,λ是正则项系数,作用是消除f频谱中的零频分量的影响,避免上式解的分子为零,通过最优化求解,并转化为频域,则滤波器表示为:
<mrow> <msup> <mi>H</mi> <mi>l</mi> </msup> <mo>=</mo> <mfrac> <mrow> <mover> <mi>G</mi> <mo>&amp;OverBar;</mo> </mover> <msup> <mi>F</mi> <mi>l</mi> </msup> </mrow> <mrow> <msubsup> <mi>&amp;Sigma;</mi> <mrow> <mi>k</mi> <mo>=</mo> <mn>1</mn> </mrow> <mi>d</mi> </msubsup> <mover> <msup> <mi>F</mi> <mi>k</mi> </msup> <mo>&amp;OverBar;</mo> </mover> <msup> <mi>F</mi> <mi>k</mi> </msup> <mo>+</mo> <mi>&amp;lambda;</mi> </mrow> </mfrac> <mo>=</mo> <mfrac> <msup> <mi>A</mi> <mi>l</mi> </msup> <mi>B</mi> </mfrac> </mrow>
其中Hl表示我们构造的滤波器,表示滤波器输出的频域共轭,Fl表示滤波器的频域输入的某一维度,d表示输入样本的像素个数,Fk表示输入的某一像素值的频域,是它的频域共轭,Al和B表示构造滤波器的分子和分母,完成滤波器的构造。
4.根据权利要求1所述的基于自适应特征融合的目标跟踪,其特征在于:所述步骤3具体为:
计算HOG特征初始化单元大小为1×1,根据标准化HOG特征计算函数得到检测样本为M×N大小的27维梯度特征,加上一维的灰度特征构成M×N×L1的HOG特征,其中L1=28,CN特征根据标准的计算函数可以得到M×N×L2的CN特征,其中L2=10,对特征进行余弦窗处理,公式如下:
x'mn=(xmn-0.5)sin(πm/M)sin(πn/N)
其中x'mn表示处理后图像的每个像素,xmn表示处理前的图像像素,(m,n)∈{0,…,M-1}×{0,…,N-1}表示每个像素位置,处理后得到目标区域特征
5.根据权利要求1所述的基于自适应特征融合的目标跟踪,其特征在于:所述步骤4具体为:
将求得的测试样本特征Zt通过滤波器Ht,得到响应值并进行多通道求和:
<mrow> <mi>y</mi> <mo>=</mo> <msup> <mi>F</mi> <mrow> <mo>-</mo> <mn>1</mn> </mrow> </msup> <mo>{</mo> <mfrac> <mrow> <msubsup> <mi>&amp;Sigma;</mi> <mrow> <mi>l</mi> <mo>=</mo> <mn>1</mn> </mrow> <mi>d</mi> </msubsup> <mover> <msup> <mi>A</mi> <mi>l</mi> </msup> <mo>&amp;OverBar;</mo> </mover> <msup> <mi>Z</mi> <mi>l</mi> </msup> </mrow> <mrow> <mi>B</mi> <mo>+</mo> <mi>&amp;lambda;</mi> </mrow> </mfrac> <mo>}</mo> </mrow>
其中F-1表示傅里叶反变换,Al、B表示滤波器的参数,d表示特征维数,求和之后分别得到HOG特征的响应值y1,CN特征的响应值y2
6.根据权利要求1基于自适应特征融合的目标跟踪,其特征在于:所述步骤5为:
传统的跟踪方法根据y1的最大值y1max或者y2的最大值y2max确定目标位置,传统的特征融合也是简单的响应值相加,或者以固定比例求和,方法过于片面,我们提出的自适应特征融合根据响应值的最大值y1max和y2max以及各自的通道权重:
<mrow> <msub> <mi>w</mi> <mi>d</mi> </msub> <mo>=</mo> <mn>1</mn> <mo>-</mo> <mi>m</mi> <mi>i</mi> <mi>n</mi> <mrow> <mo>(</mo> <msub> <mi>&amp;rho;</mi> <mrow> <mi>m</mi> <mi>a</mi> <mi>x</mi> <mn>2</mn> </mrow> </msub> <mo>/</mo> <msub> <mi>&amp;rho;</mi> <mrow> <mi>m</mi> <mi>a</mi> <mi>x</mi> <mn>1</mn> </mrow> </msub> <mo>,</mo> <mfrac> <mn>1</mn> <mn>2</mn> </mfrac> <mo>)</mo> </mrow> </mrow>
其中ρmax1,ρmax2分别表示响应值图像最大的极值以及第二大的极值,按照公式:
<mrow> <mi>y</mi> <mo>=</mo> <mfrac> <mrow> <msub> <mi>y</mi> <mrow> <mn>1</mn> <mi>max</mi> </mrow> </msub> <msub> <mi>w</mi> <mrow> <mi>d</mi> <mn>1</mn> </mrow> </msub> </mrow> <mrow> <msub> <mi>y</mi> <mrow> <mn>1</mn> <mi>m</mi> <mi>a</mi> <mi>x</mi> </mrow> </msub> <msub> <mi>w</mi> <mrow> <mi>d</mi> <mn>1</mn> </mrow> </msub> <mo>+</mo> <msub> <mi>y</mi> <mrow> <mn>2</mn> <mi>m</mi> <mi>a</mi> <mi>x</mi> </mrow> </msub> <msub> <mi>w</mi> <mrow> <mi>d</mi> <mn>2</mn> </mrow> </msub> </mrow> </mfrac> <msub> <mi>y</mi> <mn>1</mn> </msub> <mo>+</mo> <mfrac> <mrow> <msub> <mi>y</mi> <mrow> <mn>2</mn> <mi>m</mi> <mi>a</mi> <mi>x</mi> </mrow> </msub> <msub> <mi>w</mi> <mrow> <mi>d</mi> <mn>2</mn> </mrow> </msub> </mrow> <mrow> <msub> <mi>y</mi> <mrow> <mn>1</mn> <mi>m</mi> <mi>a</mi> <mi>x</mi> </mrow> </msub> <msub> <mi>w</mi> <mrow> <mi>d</mi> <mn>1</mn> </mrow> </msub> <mo>+</mo> <msub> <mi>y</mi> <mrow> <mn>2</mn> <mi>m</mi> <mi>a</mi> <mi>x</mi> </mrow> </msub> <msub> <mi>w</mi> <mrow> <mi>d</mi> <mn>2</mn> </mrow> </msub> </mrow> </mfrac> <msub> <mi>y</mi> <mn>2</mn> </msub> </mrow>
其中wd1表示HOG特征的通道权重;wd2表示CN特征通道的权重,得到特征融合后的响应值。
7.根据权利要求1所述的基于自适应特征融合的目标跟踪,其特征在于:所述步骤6为:
根据求得特征融合后的响应值y求得最大值ymax所在的位置就是检测区域的标位置,经过坐标变换,得到目标在整幅图像中的位置。
8.根据权利要求1所述的基于自适应特征融合的目标跟踪,其特征在于:所述步骤7为:
以新目标位置为中心按照权利要求书3所述公式:
<mrow> <msup> <mi>s</mi> <mo>&amp;prime;</mo> </msup> <mo>=</mo> <msup> <mi>a</mi> <mi>n</mi> </msup> <mi>P</mi> <mo>&amp;times;</mo> <msup> <mi>a</mi> <mi>n</mi> </msup> <mi>R</mi> <mo>,</mo> <mi>n</mi> <mo>&amp;Element;</mo> <mo>{</mo> <mo>&amp;lsqb;</mo> <mo>-</mo> <mfrac> <mrow> <mi>S</mi> <mo>-</mo> <mn>1</mn> </mrow> <mn>2</mn> </mfrac> <mo>&amp;rsqb;</mo> <mo>,</mo> <mo>...</mo> <mo>,</mo> <mo>&amp;lsqb;</mo> <mfrac> <mrow> <mi>S</mi> <mo>-</mo> <mn>1</mn> </mrow> <mn>2</mn> </mfrac> <mo>&amp;rsqb;</mo> <mo>}</mo> </mrow>
提取S=33种不同尺度下的样本Zs,把每个样本缩放成固定尺寸大小M×N,按照初始化单元大小为4×4,根据标准化HOG特征计算函数得到检测样本M×N大小的31维梯度特征,每个样本的所有的HOG特征串联成一个特征向量,不同样本的特征向量构成S=33层金字塔特征,按照权利要求书4所述公式
x'mn=(xmn-0.5)sin(πm/M)sin(πn/N)
对特征进行加窗处理得到尺度样本输入Zs
9.根据权利要求1所述的基于自适应特征融合的目标跟踪,其特征在于:所述步骤8为:
将求得的测试样本特征Zs通过尺度滤波器Hs,得到响应值:
<mrow> <msub> <mi>y</mi> <mi>s</mi> </msub> <mo>=</mo> <msup> <mi>F</mi> <mrow> <mo>-</mo> <mn>1</mn> </mrow> </msup> <mrow> <mo>{</mo> <mfrac> <mrow> <mover> <mi>A</mi> <mo>&amp;OverBar;</mo> </mover> <msub> <mi>Z</mi> <mi>s</mi> </msub> </mrow> <mrow> <mi>B</mi> <mo>+</mo> <mi>&amp;lambda;</mi> </mrow> </mfrac> <mo>}</mo> </mrow> </mrow>
求得响应值最大的尺度就是当前目标的尺度,更新目标的尺度参数。
10.根据权利要求1所述的基于自适应特征融合的目标跟踪,其特征在于:所述步骤9为:
以固定学习率η=0.025对尺度滤波器模型进行更新,更新公式为:
<mrow> <msubsup> <mi>A</mi> <mi>t</mi> <mi>s</mi> </msubsup> <mo>=</mo> <mrow> <mo>(</mo> <mn>1</mn> <mo>-</mo> <mi>&amp;eta;</mi> <mo>)</mo> </mrow> <msubsup> <mi>A</mi> <mrow> <mi>t</mi> <mo>-</mo> <mn>1</mn> </mrow> <mi>s</mi> </msubsup> <mo>+</mo> <mi>&amp;eta;</mi> <mover> <msub> <mi>G</mi> <mi>t</mi> </msub> <mo>&amp;OverBar;</mo> </mover> <msub> <mi>F</mi> <mi>t</mi> </msub> </mrow>
<mrow> <msubsup> <mi>B</mi> <mi>t</mi> <mi>s</mi> </msubsup> <mo>=</mo> <mrow> <mo>(</mo> <mn>1</mn> <mo>-</mo> <mi>&amp;eta;</mi> <mo>)</mo> </mrow> <msubsup> <mi>B</mi> <mrow> <mi>t</mi> <mo>-</mo> <mn>1</mn> </mrow> <mi>s</mi> </msubsup> <mo>+</mo> <mi>&amp;eta;</mi> <mover> <msub> <mi>F</mi> <mi>t</mi> </msub> <mo>&amp;OverBar;</mo> </mover> <msub> <mi>F</mi> <mi>t</mi> </msub> </mrow>
其中表示前一帧的滤波器参数,尺度滤波器模型每一帧都进行更新。
11.根据权利要求1所述的基于自适应特征融合的目标跟踪,其特征在于:所述步骤10为:
遮挡判断根据目标位置响应最大值fmax以及APCE值,计算公式如下:
<mrow> <mi>A</mi> <mi>P</mi> <mi>C</mi> <mi>E</mi> <mo>=</mo> <mfrac> <mrow> <mo>|</mo> <msub> <mi>f</mi> <mrow> <mi>m</mi> <mi>a</mi> <mi>x</mi> </mrow> </msub> <mo>-</mo> <msub> <mi>f</mi> <mrow> <mi>m</mi> <mi>i</mi> <mi>n</mi> </mrow> </msub> <mo>|</mo> </mrow> <mrow> <mi>m</mi> <mi>e</mi> <mi>a</mi> <mi>n</mi> <mrow> <mo>(</mo> <munder> <mo>&amp;Sigma;</mo> <mrow> <mi>w</mi> <mo>,</mo> <mi>h</mi> </mrow> </munder> <msup> <mrow> <mo>(</mo> <mrow> <msub> <mi>f</mi> <mrow> <mi>w</mi> <mo>,</mo> <mi>h</mi> </mrow> </msub> <mo>-</mo> <msub> <mi>f</mi> <mrow> <mi>m</mi> <mi>i</mi> <mi>n</mi> </mrow> </msub> </mrow> <mo>)</mo> </mrow> <mn>2</mn> </msup> <mo>)</mo> </mrow> </mrow> </mfrac> </mrow>
其中fmin表示相应最小值,fw,h表示某一点的响应值,经过大量实验我们得出当:
fmax<θ11=0.2)
APCE<θ22=20)
同时满足时,跟踪目标周围出现明显遮挡,此时位置滤波器模型不更新,传统的跟踪算法是每一帧都进行更新,当出现遮挡时很容易学习到很多背景信息,另外一些跟踪算法每N帧更新一次模型,相比之下,我们的方法更加科学,跟踪效果明显提高。
12.根据权利要求1所述的基于自适应特征融合的目标跟踪,其特征在于:所述步骤11为:
当判断没有出现遮挡时,以固定学习率η=0.025对位置滤波器模型进行更新,更新公式为:
<mrow> <msubsup> <mi>A</mi> <mi>t</mi> <mi>l</mi> </msubsup> <mo>=</mo> <mrow> <mo>(</mo> <mn>1</mn> <mo>-</mo> <mi>&amp;eta;</mi> <mo>)</mo> </mrow> <msubsup> <mi>A</mi> <mrow> <mi>t</mi> <mo>-</mo> <mn>1</mn> </mrow> <mi>l</mi> </msubsup> <mo>+</mo> <mi>&amp;eta;</mi> <mover> <msub> <mi>G</mi> <mi>t</mi> </msub> <mo>&amp;OverBar;</mo> </mover> <msubsup> <mi>F</mi> <mi>t</mi> <mi>l</mi> </msubsup> </mrow>
<mrow> <msub> <mi>B</mi> <mi>t</mi> </msub> <mo>=</mo> <mrow> <mo>(</mo> <mn>1</mn> <mo>-</mo> <mi>&amp;eta;</mi> <mo>)</mo> </mrow> <msub> <mi>B</mi> <mrow> <mi>t</mi> <mo>-</mo> <mn>1</mn> </mrow> </msub> <mo>+</mo> <mi>&amp;eta;</mi> <munderover> <mo>&amp;Sigma;</mo> <mrow> <mi>k</mi> <mo>=</mo> <mn>1</mn> </mrow> <mi>d</mi> </munderover> <mover> <msubsup> <mi>F</mi> <mi>t</mi> <mi>k</mi> </msubsup> <mo>&amp;OverBar;</mo> </mover> <msubsup> <mi>F</mi> <mi>t</mi> <mi>k</mi> </msubsup> </mrow>
相应的Bt-1表示前一帧的滤波器参数。
13.根据权利要求1所述的基于自适应特征融合的目标跟踪,其特征在于:所述步骤12为:
算法运行至此,第二帧运行结束,目标位置、尺度以及滤波器模型都已经更新完成,下一帧重复运行步骤3至11直至视频结束。
CN201710622389.7A 2017-07-27 2017-07-27 基于自适应特征融合的目标跟踪 Pending CN107644430A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201710622389.7A CN107644430A (zh) 2017-07-27 2017-07-27 基于自适应特征融合的目标跟踪

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201710622389.7A CN107644430A (zh) 2017-07-27 2017-07-27 基于自适应特征融合的目标跟踪

Publications (1)

Publication Number Publication Date
CN107644430A true CN107644430A (zh) 2018-01-30

Family

ID=61110675

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710622389.7A Pending CN107644430A (zh) 2017-07-27 2017-07-27 基于自适应特征融合的目标跟踪

Country Status (1)

Country Link
CN (1) CN107644430A (zh)

Cited By (42)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107578423A (zh) * 2017-09-15 2018-01-12 杭州电子科技大学 多特征分层融合的相关滤波鲁棒跟踪方法
CN108229432A (zh) * 2018-01-31 2018-06-29 广州市动景计算机科技有限公司 人脸标定方法及装置
CN108364305A (zh) * 2018-02-07 2018-08-03 福州大学 基于改进型dsst的车载摄像视频目标跟踪方法
CN108549839A (zh) * 2018-03-13 2018-09-18 华侨大学 自适应特征融合的多尺度相关滤波视觉跟踪方法
CN108596951A (zh) * 2018-03-30 2018-09-28 西安电子科技大学 一种融合特征的目标跟踪方法
CN108665482A (zh) * 2018-04-18 2018-10-16 南京邮电大学 一种基于vgg深度网络的视觉目标跟踪方法
CN108665481A (zh) * 2018-03-27 2018-10-16 西安电子科技大学 多层深度特征融合的自适应抗遮挡红外目标跟踪方法
CN108694723A (zh) * 2018-05-11 2018-10-23 西安天和防务技术股份有限公司 一种复杂背景下目标稳定跟踪方法
CN108734139A (zh) * 2018-05-24 2018-11-02 辽宁工程技术大学 基于特征融合及svd自适应模型更新的相关滤波跟踪方法
CN108830879A (zh) * 2018-05-29 2018-11-16 上海大学 一种适用于遮挡场景的无人艇海面相关滤波目标跟踪方法
CN108958296A (zh) * 2018-06-05 2018-12-07 西安工业大学 一种无人机自主跟踪方法
CN108986140A (zh) * 2018-06-26 2018-12-11 南京信息工程大学 基于相关滤波和颜色检测的目标尺度自适应跟踪方法
CN109166139A (zh) * 2018-07-18 2019-01-08 天津大学 一种结合快速背景抑制的尺度自适应目标跟踪方法
CN109255799A (zh) * 2018-07-26 2019-01-22 华中科技大学 一种基于空间自适应相关滤波器的目标跟踪方法及系统
CN109255800A (zh) * 2018-08-03 2019-01-22 浙江工业大学 一种震动检测和参数自适应的对冲方法
CN109285179A (zh) * 2018-07-26 2019-01-29 昆明理工大学 一种基于多特征融合的运动目标跟踪方法
CN109410247A (zh) * 2018-10-16 2019-03-01 中国石油大学(华东) 一种多模板和自适应特征选择的视频跟踪算法
CN109584271A (zh) * 2018-11-15 2019-04-05 西北工业大学 基于高置信度更新策略的高速相关滤波跟踪方法
CN109671102A (zh) * 2018-12-03 2019-04-23 华中科技大学 一种基于深度特征融合卷积神经网络的综合式目标跟踪方法
CN109685832A (zh) * 2018-12-26 2019-04-26 山东创科自动化科技有限公司 一种运动目标跟踪方法、装置及计算机设备
CN109740448A (zh) * 2018-12-17 2019-05-10 西北工业大学 基于相关滤波和图像分割的航拍视频目标鲁棒跟踪方法
CN109816689A (zh) * 2018-12-18 2019-05-28 昆明理工大学 一种多层卷积特征自适应融合的运动目标跟踪方法
CN109887001A (zh) * 2019-01-31 2019-06-14 中国科学院深圳先进技术研究院 目标跟踪方法、装置、计算机设备及存储介质
CN110147768A (zh) * 2019-05-22 2019-08-20 云南大学 一种目标跟踪方法及装置
CN110276782A (zh) * 2018-07-09 2019-09-24 西北工业大学 一种结合空谱特征和相关滤波的高光谱目标跟踪方法
CN110428450A (zh) * 2019-08-01 2019-11-08 中国矿业大学 应用于矿井巷道移动巡检图像的尺度自适应目标跟踪方法
CN110544267A (zh) * 2019-07-24 2019-12-06 中国地质大学(武汉) 一种自适应选择特征的相关滤波跟踪方法
CN110660077A (zh) * 2019-09-12 2020-01-07 昆明理工大学 一种融合多个特征的多尺度目标跟踪方法
CN110766723A (zh) * 2019-10-22 2020-02-07 湖南大学 一种基于颜色直方图相似性的无人机目标跟踪方法及系统
CN110968107A (zh) * 2019-10-25 2020-04-07 深圳市道通智能航空技术有限公司 一种降落控制方法、飞行器及存储介质
CN111105444A (zh) * 2019-12-31 2020-05-05 哈尔滨工程大学 一种适用于水下机器人目标抓取的连续跟踪方法
CN111260738A (zh) * 2020-01-08 2020-06-09 天津大学 基于相关滤波和自适应特征融合的多尺度目标跟踪方法
CN111292358A (zh) * 2020-03-10 2020-06-16 南京理工大学 基于判别式尺度空间跟踪算法的相关滤波自适应方法
CN111507999A (zh) * 2019-01-30 2020-08-07 北京四维图新科技股份有限公司 一种基于fdsst算法的目标追踪方法及装置
CN111968153A (zh) * 2020-07-16 2020-11-20 新疆大学 基于相关滤波和粒子滤波的长时间目标跟踪方法及系统
CN112132855A (zh) * 2020-09-22 2020-12-25 山东工商学院 基于前景分割引导的自适应高斯函数的目标跟踪方法
CN112767437A (zh) * 2020-12-30 2021-05-07 大连海事大学 基于kcf自适应多特征融合滤波水面无人船跟踪方法、系统及存储介质
CN112785622A (zh) * 2020-12-30 2021-05-11 大连海事大学 一种水面无人船长时跟踪方法、装置及存储介质
CN113269809A (zh) * 2021-05-07 2021-08-17 桂林电子科技大学 一种多特征融合相关滤波目标跟踪方法及计算机设备
CN113537253A (zh) * 2021-08-23 2021-10-22 北京环境特性研究所 一种红外图像目标检测方法、装置、计算设备及存储介质
CN113643327A (zh) * 2021-08-18 2021-11-12 江西理工大学 一种响应置信度多特征融合的核相关滤波目标跟踪方法
CN115018885A (zh) * 2022-08-05 2022-09-06 四川迪晟新达类脑智能技术有限公司 一种适用于边缘设备的多尺度目标跟踪算法

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106952288A (zh) * 2017-03-31 2017-07-14 西北工业大学 基于卷积特征和全局搜索检测的长时遮挡鲁棒跟踪方法

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106952288A (zh) * 2017-03-31 2017-07-14 西北工业大学 基于卷积特征和全局搜索检测的长时遮挡鲁棒跟踪方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
DANELLJAN MARTIN等: "《Accurate Scale Estimation for Robust Visual Tracking》", 《BRITISH MACHINE VISION CONFERENCE》 *
LUKEZIC ALAN等: "《Discriminative Correlation Filter With Channel and Spatial Reliability》", 《PROCEEDINGS OF THE IEEE CONFERENCE ON COMPUTER VISION AND PATTERN RECOGNITION》 *
WANG MENGMENG等: "《Large Margin Object Tracking With Circulant Feature Maps》", 《PROCEEDINGS OF THE IEEE CONFERENCE ON COMPUTER VISION AND PATTERN RECOGNITION》 *

Cited By (63)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107578423B (zh) * 2017-09-15 2020-04-28 杭州电子科技大学 多特征分层融合的相关滤波鲁棒跟踪方法
CN107578423A (zh) * 2017-09-15 2018-01-12 杭州电子科技大学 多特征分层融合的相关滤波鲁棒跟踪方法
CN108229432A (zh) * 2018-01-31 2018-06-29 广州市动景计算机科技有限公司 人脸标定方法及装置
CN108364305A (zh) * 2018-02-07 2018-08-03 福州大学 基于改进型dsst的车载摄像视频目标跟踪方法
CN108364305B (zh) * 2018-02-07 2021-05-18 福州大学 基于改进型dsst的车载摄像视频目标跟踪方法
CN108549839A (zh) * 2018-03-13 2018-09-18 华侨大学 自适应特征融合的多尺度相关滤波视觉跟踪方法
CN108549839B (zh) * 2018-03-13 2021-09-28 华侨大学 自适应特征融合的多尺度相关滤波视觉跟踪方法
CN108665481A (zh) * 2018-03-27 2018-10-16 西安电子科技大学 多层深度特征融合的自适应抗遮挡红外目标跟踪方法
CN108596951A (zh) * 2018-03-30 2018-09-28 西安电子科技大学 一种融合特征的目标跟踪方法
CN108665482A (zh) * 2018-04-18 2018-10-16 南京邮电大学 一种基于vgg深度网络的视觉目标跟踪方法
CN108694723A (zh) * 2018-05-11 2018-10-23 西安天和防务技术股份有限公司 一种复杂背景下目标稳定跟踪方法
CN108734139B (zh) * 2018-05-24 2021-12-14 辽宁工程技术大学 基于特征融合及svd自适应模型更新的相关滤波跟踪方法
CN108734139A (zh) * 2018-05-24 2018-11-02 辽宁工程技术大学 基于特征融合及svd自适应模型更新的相关滤波跟踪方法
CN108830879A (zh) * 2018-05-29 2018-11-16 上海大学 一种适用于遮挡场景的无人艇海面相关滤波目标跟踪方法
CN108958296A (zh) * 2018-06-05 2018-12-07 西安工业大学 一种无人机自主跟踪方法
CN108986140B (zh) * 2018-06-26 2022-02-01 南京信息工程大学 基于相关滤波和颜色检测的目标尺度自适应跟踪方法
CN108986140A (zh) * 2018-06-26 2018-12-11 南京信息工程大学 基于相关滤波和颜色检测的目标尺度自适应跟踪方法
CN110276782A (zh) * 2018-07-09 2019-09-24 西北工业大学 一种结合空谱特征和相关滤波的高光谱目标跟踪方法
CN110276782B (zh) * 2018-07-09 2022-03-11 西北工业大学 一种结合空谱特征和相关滤波的高光谱目标跟踪方法
CN109166139B (zh) * 2018-07-18 2022-03-22 天津大学 一种结合快速背景抑制的尺度自适应目标跟踪方法
CN109166139A (zh) * 2018-07-18 2019-01-08 天津大学 一种结合快速背景抑制的尺度自适应目标跟踪方法
CN109285179A (zh) * 2018-07-26 2019-01-29 昆明理工大学 一种基于多特征融合的运动目标跟踪方法
CN109255799B (zh) * 2018-07-26 2021-07-27 华中科技大学 一种基于空间自适应相关滤波器的目标跟踪方法及系统
CN109285179B (zh) * 2018-07-26 2021-05-14 昆明理工大学 一种基于多特征融合的运动目标跟踪方法
CN109255799A (zh) * 2018-07-26 2019-01-22 华中科技大学 一种基于空间自适应相关滤波器的目标跟踪方法及系统
CN109255800B (zh) * 2018-08-03 2021-08-03 浙江工业大学 一种震动检测和参数自适应的对冲方法
CN109255800A (zh) * 2018-08-03 2019-01-22 浙江工业大学 一种震动检测和参数自适应的对冲方法
CN109410247A (zh) * 2018-10-16 2019-03-01 中国石油大学(华东) 一种多模板和自适应特征选择的视频跟踪算法
CN109584271A (zh) * 2018-11-15 2019-04-05 西北工业大学 基于高置信度更新策略的高速相关滤波跟踪方法
CN109671102A (zh) * 2018-12-03 2019-04-23 华中科技大学 一种基于深度特征融合卷积神经网络的综合式目标跟踪方法
CN109671102B (zh) * 2018-12-03 2021-02-05 华中科技大学 一种基于深度特征融合卷积神经网络的综合式目标跟踪方法
CN109740448B (zh) * 2018-12-17 2022-05-10 西北工业大学 基于相关滤波和图像分割的航拍视频目标鲁棒跟踪方法
CN109740448A (zh) * 2018-12-17 2019-05-10 西北工业大学 基于相关滤波和图像分割的航拍视频目标鲁棒跟踪方法
CN109816689A (zh) * 2018-12-18 2019-05-28 昆明理工大学 一种多层卷积特征自适应融合的运动目标跟踪方法
CN109685832A (zh) * 2018-12-26 2019-04-26 山东创科自动化科技有限公司 一种运动目标跟踪方法、装置及计算机设备
CN111507999B (zh) * 2019-01-30 2023-07-18 北京四维图新科技股份有限公司 一种基于fdsst算法的目标追踪方法及装置
CN111507999A (zh) * 2019-01-30 2020-08-07 北京四维图新科技股份有限公司 一种基于fdsst算法的目标追踪方法及装置
CN109887001A (zh) * 2019-01-31 2019-06-14 中国科学院深圳先进技术研究院 目标跟踪方法、装置、计算机设备及存储介质
CN110147768A (zh) * 2019-05-22 2019-08-20 云南大学 一种目标跟踪方法及装置
CN110147768B (zh) * 2019-05-22 2021-05-28 云南大学 一种目标跟踪方法及装置
CN110544267B (zh) * 2019-07-24 2022-03-15 中国地质大学(武汉) 一种自适应选择特征的相关滤波跟踪方法
CN110544267A (zh) * 2019-07-24 2019-12-06 中国地质大学(武汉) 一种自适应选择特征的相关滤波跟踪方法
CN110428450B (zh) * 2019-08-01 2021-11-16 中国矿业大学 应用于矿井巷道移动巡检图像的尺度自适应目标跟踪方法
CN110428450A (zh) * 2019-08-01 2019-11-08 中国矿业大学 应用于矿井巷道移动巡检图像的尺度自适应目标跟踪方法
CN110660077A (zh) * 2019-09-12 2020-01-07 昆明理工大学 一种融合多个特征的多尺度目标跟踪方法
CN110766723A (zh) * 2019-10-22 2020-02-07 湖南大学 一种基于颜色直方图相似性的无人机目标跟踪方法及系统
CN110968107A (zh) * 2019-10-25 2020-04-07 深圳市道通智能航空技术有限公司 一种降落控制方法、飞行器及存储介质
CN111105444A (zh) * 2019-12-31 2020-05-05 哈尔滨工程大学 一种适用于水下机器人目标抓取的连续跟踪方法
CN111260738A (zh) * 2020-01-08 2020-06-09 天津大学 基于相关滤波和自适应特征融合的多尺度目标跟踪方法
CN111292358A (zh) * 2020-03-10 2020-06-16 南京理工大学 基于判别式尺度空间跟踪算法的相关滤波自适应方法
CN111968153A (zh) * 2020-07-16 2020-11-20 新疆大学 基于相关滤波和粒子滤波的长时间目标跟踪方法及系统
CN112132855B (zh) * 2020-09-22 2022-05-20 山东工商学院 基于前景分割引导的自适应高斯函数的目标跟踪方法
CN112132855A (zh) * 2020-09-22 2020-12-25 山东工商学院 基于前景分割引导的自适应高斯函数的目标跟踪方法
CN112767437A (zh) * 2020-12-30 2021-05-07 大连海事大学 基于kcf自适应多特征融合滤波水面无人船跟踪方法、系统及存储介质
CN112785622A (zh) * 2020-12-30 2021-05-11 大连海事大学 一种水面无人船长时跟踪方法、装置及存储介质
CN112785622B (zh) * 2020-12-30 2024-04-05 大连海事大学 一种水面无人船长时跟踪方法、装置及存储介质
CN113269809A (zh) * 2021-05-07 2021-08-17 桂林电子科技大学 一种多特征融合相关滤波目标跟踪方法及计算机设备
CN113269809B (zh) * 2021-05-07 2022-06-21 桂林电子科技大学 一种多特征融合相关滤波目标跟踪方法及计算机设备
CN113643327A (zh) * 2021-08-18 2021-11-12 江西理工大学 一种响应置信度多特征融合的核相关滤波目标跟踪方法
CN113643327B (zh) * 2021-08-18 2023-10-20 江西理工大学 一种响应置信度多特征融合的核相关滤波目标跟踪方法
CN113537253A (zh) * 2021-08-23 2021-10-22 北京环境特性研究所 一种红外图像目标检测方法、装置、计算设备及存储介质
CN113537253B (zh) * 2021-08-23 2024-01-23 北京环境特性研究所 一种红外图像目标检测方法、装置、计算设备及存储介质
CN115018885A (zh) * 2022-08-05 2022-09-06 四川迪晟新达类脑智能技术有限公司 一种适用于边缘设备的多尺度目标跟踪算法

Similar Documents

Publication Publication Date Title
CN107644430A (zh) 基于自适应特征融合的目标跟踪
Wang et al. Neuron linear transformation: Modeling the domain shift for crowd counting
CN106952288B (zh) 基于卷积特征和全局搜索检测的长时遮挡鲁棒跟踪方法
CN107330357A (zh) 基于深度神经网络的视觉slam闭环检测方法
CN111882580A (zh) 一种视频多目标跟踪方法及系统
CN110135314A (zh) 一种基于深度轨迹预测的多目标跟踪方法
CN103310194B (zh) 视频中基于头顶像素点梯度方向的行人头肩部检测方法
CN108665481A (zh) 多层深度特征融合的自适应抗遮挡红外目标跟踪方法
CN107154024A (zh) 基于深度特征核相关滤波器的尺度自适应目标跟踪方法
CN109344725A (zh) 一种基于时空关注度机制的多行人在线跟踪方法
CN108053419A (zh) 基于背景抑制和前景抗干扰的多尺度目标跟踪方法
CN103886325B (zh) 一种分块的循环矩阵视频跟踪方法
CN107993250A (zh) 一种快速多目标行人追踪和分析方法及其智能装置
CN111898432B (zh) 一种基于改进YOLOv3算法的行人检测系统及方法
CN107563349A (zh) 一种基于VGGNet的人数估计方法
CN105844663A (zh) 一种自适应orb目标跟踪方法
CN109583321A (zh) 一种基于深度学习的结构化道路中小物体的检测方法
CN110795982A (zh) 一种基于人体姿态分析的表观视线估计方法
CN109033945A (zh) 一种基于深度学习的人体轮廓提取方法
CN109191488B (zh) 一种基于csk与tld融合算法的目标跟踪系统及方法
Qi et al. FTC-Net: Fusion of transformer and CNN features for infrared small target detection
CN107025420A (zh) 视频中人体行为识别的方法和装置
CN109934224A (zh) 基于马尔科夫随机场和视觉对比机制的小目标检测方法
CN106023245A (zh) 基于中智集相似度量测的静态背景下运动目标检测方法
CN104484890A (zh) 基于复合稀疏模型的视频目标跟踪方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
TA01 Transfer of patent application right

Effective date of registration: 20180126

Address after: 230601 Hefei Road, Shushan, Anhui, No. 111

Applicant after: Anhui University

Address before: 230601 Kowloon Road, Shushan District, Hefei City, Hefei, Anhui Province, No. 111

Applicant before: Sun Zhanli

TA01 Transfer of patent application right
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
WD01 Invention patent application deemed withdrawn after publication

Application publication date: 20180130

WD01 Invention patent application deemed withdrawn after publication