CN109035290A - 一种基于高置信度更新补充学习的跟踪算法 - Google Patents

一种基于高置信度更新补充学习的跟踪算法 Download PDF

Info

Publication number
CN109035290A
CN109035290A CN201810782664.6A CN201810782664A CN109035290A CN 109035290 A CN109035290 A CN 109035290A CN 201810782664 A CN201810782664 A CN 201810782664A CN 109035290 A CN109035290 A CN 109035290A
Authority
CN
China
Prior art keywords
frame
confidence level
response
update
track algorithm
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201810782664.6A
Other languages
English (en)
Inventor
宋慧慧
樊佳庆
张开华
范蓉蓉
刘青山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nanjing University of Information Science and Technology
Original Assignee
Nanjing University of Information Science and Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nanjing University of Information Science and Technology filed Critical Nanjing University of Information Science and Technology
Priority to CN201810782664.6A priority Critical patent/CN109035290A/zh
Publication of CN109035290A publication Critical patent/CN109035290A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20024Filtering details
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20048Transform domain processing
    • G06T2207/20056Discrete and fast Fourier transform, [DFT, FFT]

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开一种基于高置信度更新补充学习的跟踪算法,属于图像处理领域。首先根据标准相关滤波分类器得到相关滤波响应值,计算相关滤波响应的峰旁比作为响应置信度,若该置信度大于平均阈值则当前帧继续更新相关滤波器,如果小于平均阈值则停止更新滤波器;接着计算出持续不更新的帧数,如果有连续10帧不更新时,则强制更新;最后通过融合颜色补充学习器的响应,得到总响应,响应中最大值的位置即为跟踪结果。本发明显著改善了跟踪算法的鲁棒性,能够有效地区分目标和背景,进而提高跟踪器的精度,在光照剧烈变化和目标场景复杂的情况下显著地提高了跟踪器的稳健性和准确性。具有不受跟踪目标环境变化影响,可有效、准确跟踪到目标物体等优点。

Description

一种基于高置信度更新补充学习的跟踪算法
技术领域
本发明涉及一种基于高置信度更新补充学习的跟踪算法,特别是一种视频跟踪方法,属于图像处理领域,
背景技术
目标跟踪是计算机视觉领域的核心问题之一,在人机交互、视频监控、增强现实等领域有广泛的应用。尽管在过去的几十年里该领域已经取得了很多进步,但由于光照变化、几何形变、局部遮挡、背景混乱、快速运动等干扰,对任意目标的跟踪仍然是一个非常具有挑战性的任务。
近年来涌现出很多基于相关滤波的目标跟踪算法,能较好的进行视频单目标跟踪,其中具有代表性的是实时颜色补充学习目标跟踪算法。但是,基于补充学习的实时目标跟踪算法(Staple)方法在更新滤波器时并没有考虑当前帧结果的可靠性,而是全部更新。使得不可靠的响应结果严重影响到训练出来的滤波器,错误积累到一定程度之后将导致跟踪失败。
发明内容
本发明要解决的技术问题是针对现有目标跟踪算法在更新滤波器时没有考虑当前帧结果的可靠性而导致跟踪失败的不足,提出一种基于高置信度更新补充学习的跟踪算法,在实时补充学习跟踪(Staple)的基础上加入了高置信度检测步骤,从而使得跟踪算法更稳健、准确。
为解决上述技术问题,本发明提出一种基于高置信度更新补充学习的跟踪算法(HCLT),包括训练可检测帧图片的岭回归滤波分类器、输入当前帧及分类器参数得到当前帧的相关滤波分类器的检测响应值、计算相关滤波响应的置信度、根据置信度sn与阈值θn的大小关系判断是否更新分类器参数、计算连续不更新的帧数并对超过10帧的强制更新、通过融合颜色补充学习器的响应得到最终的跟踪位置、输出当前帧跟踪结果及分类器参数七个步骤;具体过程如下:
(1)利用标准的相关滤波框架,训练出一个可检测每帧图片得到检测响应值的岭回归滤波分类器,即其中,rCF是图片检测响应值,z表示新的帧图片,下标c表示特征层,F-1表示离散傅立叶逆变换,^表示离散傅立叶变换,是是经过离散傅立叶变换之后的相关滤波器系数,x是所有循环样本组成的矩阵,y表示标签矩阵,λ是正则项系数,*表示共轭操作;
(2)输入当前帧及分类器参数,利用滤波分类器得到当前帧的相关滤波分类器的检测响应值;
(3)计算相关滤波响应的置信度其中,μCF是rCF中所有元素的均值,σCF是rCF的标准差;
(4)计算第n帧的阈值其中,ρ是固定的阈值比例参数,si是第i帧的置信度得分,i=1,2,3,......,n-1;根据置信度s与阈值θ的大小关系判断是否更新分类器参数,若当前帧的置信度sn大于当前帧的阈值θn,则更新相关滤波分类器系数,若当前帧的置信度sn小于当前帧阈值θn,则不更新;
(5)计算出连续不更新的帧数l,若l≥10,则强制更新;
(6)利用融合颜色补充分类器r=ηrch+(1-η)rCF,对图像进行融合颜色补充学习,得到最终的响应值,r中最大值的位置就是跟踪结果,即最终的跟踪位置;其中,η是融合系数,rch是颜色直方图响应;
(7)输出最大响应值的位置,即当前帧跟踪结果,再输出更新后的分类器参数,用于下一帧的跟踪。
所述步骤(2)中的当前帧和分类器参数是根据上一帧的结果得到的,检测响应值是根据相关滤波分类器检测得到的响应值;步骤(4)中的阈值是根据步骤(3)中置信度的稳定程度计算得到的;步骤(5)中的连续不更新的帧数通过步骤(4)中的是否更新参数统计出来;步骤(6)中的颜色补充分类器是每帧都更新的;步骤(7)中的跟踪结果是响应最大值的位置。
所述步骤(1)中λ值的取值是0.01,步骤(3)中标准差σCF即每帧响应rCF(向量)的平均值。步骤(6)中融合系数η的取值是0.4。λ、η的取值范围可以根据实际需要具体确定。
本发明的原理是:
首先利用标准的相关滤波框架,训练出一个岭回归分类器。目标是找到一个函数f(z)=wTz,使得在循环样本{xi}上的检测结果和回归目标{yi}之间的平方误差最小,即:
利用岭回归的相关推导,可直接得到系数矩阵的闭式解w=(XTx+λl)-1XTy,其中x表示所有循环样本组成的矩阵,y表示标签矩阵。进一步地,利用离散傅立叶变换,可以快速计算出系数矩阵
这里的帽子^表示离散傅立叶变换,*表示共轭操作,⊙表示元素级的乘法,除法表示元素级的除。
检测时,当输入新的帧图片z时,其检测结果为r=wTz,利用离散傅立叶变换,可简化为
这里的F-1表示离散傅立叶逆变换,同上^、⊙分别表示离散傅立叶变换和点乘。
在使用多通道特征,如HOG特征时,同KCF[5]一样,本发明在检测时直接将多层特征在通道方向上求和,即
这里的下标c是特征层。求得当前帧的相关滤波分类器响应图。
本发明引入一种高置信度更新策略,对于CF响应值rCF,计算其置信度得分
其中,rCF是根据式(4)得到的相关滤波总响应,μCF是rCF中所有元素的均值,σCF是其标准差。可以观察到,当响应rCF的峰值相对于周边较强时,置信度得分会变高;反之会降低。
根据置信得分上述的性质,本发明设定一个阈值,这个阈值θ是每帧都变化的,第n帧的阈值θn这样设计
其中,si是第i帧的置信度得分,ρ是固定的阈值比例参数。得到当前帧阈值θn之后,若当前帧的置信度sn大于当前帧阈值时,即判断为当前帧的响应结果可信,随即使用当前帧的跟踪结果来更新相关滤波器;反之,不更新。
接下来,计算出连续不更新的帧数,若超过10帧,则强制更新。这样就防止了过久的不更新导致跟踪器不能自适应目标表观变化的问题。
在得到稳定性加权的相关滤波响应rCF和颜色直方图响应rch之后,采用一种线性加权的结合方式得到最终的颜色补充分类器响应r=ηrch+(1-η)rCF,其中η是融合系数,r中最大值的位置就是跟踪结果;通过融合颜色补充分类器的响应,得到最终的响应图;输出最大响应值的位置即当前帧跟踪结果,再输出更新过后的分类器参数,用于下一帧的跟踪。
本发明提出的基于高置信度更新补充学习的跟踪算法(High-confidence UpdateComplementary Learner Tracker,HCLT),根据标准相关滤波分类器得到相关滤波响应值,计算相关滤波响应的峰旁此(Peak-to-Sidelobe Ratio,PSR)作为响应置信度,若该置信度大于平均阈值则当前帧继续更新相关滤波器,如果小于平均阈值则停止更新滤波器;接着计算出持续不更新的帧数,如果有连续10帧不更新时,则强制更新;最后通过融合颜色补充学习器的响应,得到总响应,响应中最大值的位置即为跟踪结果。跟踪过程中有效地利用响应置信度得分,使得原更新策略变得更高效、稳健、准确,显著地提高跟踪算法的鲁棒性,在目标遭受部分遮挡、旋转、尺度变化、快速运动、剧烈光照变化等各种情况时,依然可以有效地跟踪到目标物体,具有不受跟踪目标环境变化影响、可以有效地跟踪到目标物体等优点、
附图说明
图1为本发明的流程图。
图2为本发明的原理图。
图3为本发明实施例与其它主流跟踪算法的成功率对比图。
图4为本发明实施例与其它主流跟踪算法的精度对比图。
具体实施方式
下面结合附图对本发明的具体实施方式作进一步详尽描述,实施例中未注明的技术或产品,均为现有技术或可以通过购买获得的常规产品。
实施例1:如图1、2所示,本基于高置信度更新补充学习的跟踪算法(HCLT)包括训练可检测帧图片的岭回归滤波分类器、输入当前帧及分类器参数得到当前帧的相关滤波分类器的检测响应值、计算相关滤波响应的置信度、根据置信度sn与阈值θn的大小关系判断是否更新分类器参数、计算连续不更新的帧数并对超过10帧的强制更新、通过融合颜色补充学习器的响应得到最终的跟踪位置、输出当前帧跟踪结果及分类器参数七个步骤;具体过程如下:
(1)利用标准的相关滤波框架,训练出一个可检测每帧图片得到检测响应值的岭回归滤波分类器,即其中,rCF是图片检测响应值,z表示新的帧图片,下标c表示特征层,F-1表示离散傅立叶逆变换,^表示离散傅立叶变换,是经过离散傅立叶变换之后的相关滤波器系数(即学到的相关滤波器系数),x是所有循环样本组成的矩阵,y表示标签矩阵,λ是正则项系数,*表示共轭操作;
(2)输入当前帧及分类器参数,利用滤波分类器得到当前帧的相关滤波分类器的检测响应值;
(3)计算相关滤波响应的置信度其中,μCF是rCF中所有元素的均值,σCF是向量rCF的标准差;
(4)计算第n帧的阈值其中,ρ是固定的阈值此例参数,si是第i帧的置信度得分,i=1,2,3,......,n-1;根据置信度s与阈值θ的大小关系判断是否更新分类器参数,若当前帧的置信度s″大于当前帧的阈值θn,则更新相关滤波分类器系数,若当前帧的置信度sn小于当前帧阈值θn,则不更新;
(5)计算出连续不更新的帧数l,若/≥10,则强制更新;
(6)利用融合颜色补充分类器r=ηrch+(1-η)rCF,对图像进行融合颜色补充学习,得到最终的响应值,r中最大值的位置就是跟踪结果,即最终的跟踪位置;其中,η是融合系数,rch是颜色直方图响应;
(7)输出最大响应值的位置,即当前帧跟踪结果,再输出更新后的分类器参数,用于下一帧的跟踪。
本方法步骤(2)中的当前帧和分类器参数是根据上一帧的结果得到的,检测响应值是根据相关滤波分类器检测得到的响应值;步骤(4)中的阈值是根据步骤(3)中置信度的稳定程度计算得到的;步骤(5)中的连续不更新的帧数通过步骤(4)中的是否更新参数统计出来;步骤(6)中的颜色补充分类器是每帧都更新的;步骤(7)中的跟踪结果是响应最大值的位置。
本方法步骤(1)中λ=0.01,步骤(3)中标准差σCF是向量rCF标准差(即每帧响应rCF向量的平均值),步骤(6)中融合系数η=0.4。
本实施例中采用成功率图(Success rate plots)和精度图(Precision plots)两种评价准则对跟踪器的性能进行评估。在成功率图中,横坐标表示重叠阈值(Overlapthreshold),纵坐标表示成功率(Success rate),重叠率是通过计算跟踪结果目标框与真实结果目标框的重叠率获得的。类似地,在精度图中,横坐标表示位置误差阈值(Locationerror threshold),单位是像素,纵坐标表示精度(Precision)。
通过上述两种评价方式,选取50个视频序列验证本实施例提供的目标跟踪方法,这些视频序列含有不同的挑战因素,包括光照变化、尺寸变化、遮挡、变形、快速运动、运动模糊、面内旋转、超出范围、面外旋转、背景混乱和低分辨率。同时,将本发明方法HCLT实施例的跟踪方法与现有的9种主流跟踪方法进行了比较,包括CFNet、STAPLE_CA、DLSSVM、SiamFC、ACFN、HDT、CSR-DCF、Staple以及RPT。图3和图4分别为本实施例和其他几种主流跟踪方法的成功率和精度的对比,图中可以清楚地反映出本发明方法HCLT的优势。
本基于高置信度更新补充学习的跟踪算法(HCLT)的跟踪过程中有效地利用了响应置信度得分,使得原更新策略变得更高效、稳健、准确,显著地提高跟踪算法的鲁棒性,在目标遭受部分遮挡、旋转、尺度变化、快速运动、剧烈光照变化等各种情况时,依然可以有效地跟踪到目标物体,
上面结合附图对本发明的技术内容作了说明,但本发明的保护范围并不限于所述内容,在本领域的普通技术人员所具备的知识范围内,还可以在不脱离本发明宗旨的前提下对本发明的技术内容做出各种变化,凡在本发明的精神和原则之内,所做的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

Claims (10)

1.一种基于高置信度更新补充学习的跟踪算法,其特征在于:包括以下步骤:包括以下步骤:
(1)训练可检测帧图片的岭回归滤波分类器;
(2)输入当前帧及分类器参数,得到当前帧的相关滤波分类器的检测响应值;
(3)计算相关滤波响应的置信度S;
(4)根据置信度sn与阈值θn的大小关系判断是否更新分类器参数,若sn≥θn,则更新相关滤波分类器系数;
(5)计算出连续不更新的帧数,若超过10帧,则强制更新;
(6)通过融合颜色补充学习器的响应,得到最终的跟踪位置;
(7)输出当前帧跟踪结果及分类器参数,最大响应值的位置即当前帧跟踪结果,更新后的分类器参数用于下一帧的跟踪。
2.根据权利要求1所述的高置信度更新补充学习跟踪算法,其特征在于:所述跟踪算法的具体步骤如下:
(1)利用标准的相关滤波框架,训练出一个可检测每帧图片得到检测响应值的岭回归滤波分类器,即其中,rCF是图片检测响应值,z表示新的帧图片,下标c表示特征层,F-1表示离散傅立叶逆变换,^表示离散傅立叶变换,是经过离散傅立叶变换之后的相关滤波器系数,其计算公式如下x是所有循环样本组成的矩阵,y表示标签矩阵,λ是正则项系数,*表示共轭操作;
(2)输入当前帧及分类器参数,利用滤波分类器得到当前帧的相关滤波分类器的检测响应值;
(3)计算相关滤波响应的置信度其中,μCF是rCF中所有元素的均值,σCF是rCF的标准差;
(4)计算第n帧的阈值其中,ρ是固定的阈值比例参数,si是第i帧的置信度得分,i=1,2,3,......,n-1;根据置信度s与阈值θ的大小关系判断是否更新分类器参数,若当前帧的置信度sn大于当前帧的阈值θn,则更新相关滤波分类器系数,若当前帧的置信度sn小于当前帧阈值θn,则不更新;
(5)计算出连续不更新的帧数/,若I≥10,则强制更新;
(6)利用融合颜色补充分类器r=ηrch+(1-η)rCF,对图像进行融合颜色补充学习,得到最终的响应值,r中最大值的位置就是跟踪结果,即最终的跟踪位置;其中,η是融合系数,rch是颜色直方图响应;
(7)输出最大响应值的位置,即当前帧跟踪结果,再输出更新后的分类器参数,用于下一帧的跟踪。
3.根据权利要求1或2所述的高置信度更新补充学习跟踪算法,其特征在于:所述步骤(2)中的当前帧和分类器参数是根据上一帧的结果得到的,检测响应值是根据相关滤波分类器检测得到的响应值。
4.根据权利要求1所述的高置信度更新补充学习跟踪算法,其特征在于:所述步骤(4)中的阈值是根据步骤(3)中置信度的稳定程度计算得到的。
5.根据权利要求1所述的高置信度更新补充学习跟踪算法,其特征在于:所述步骤(5)中的连续不更新的帧数通过步骤(4)中的是否更新参数统计出来。
6.根据权利要求1所述的高置信度更新补充学习跟踪算法,其特征在于:所述步骤(6)中的颜色补充分类器是每帧都更新的。
7.根据权利要求1所述的高置信度更新补充学习跟踪算法,其特征在于:所述步骤(7)中的跟踪结果是响应最大值的位置。
8.根据权利要求1所述的高置信度更新补充学习跟踪算法,其特征在于:所述步骤(1)中λ值的取值是0.01。
9.根据权利要求1所述的高置信度更新补充学习跟踪算法,其特征在于:所述步骤(3)中标准差σCF即每帧响应rCF的平均值。
10.根据权利要求1所述的高置信度更新补充学习跟踪算法,其特征在于:所述步骤(6)中融合系数η的取值是0.4。
CN201810782664.6A 2018-07-16 2018-07-16 一种基于高置信度更新补充学习的跟踪算法 Pending CN109035290A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810782664.6A CN109035290A (zh) 2018-07-16 2018-07-16 一种基于高置信度更新补充学习的跟踪算法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810782664.6A CN109035290A (zh) 2018-07-16 2018-07-16 一种基于高置信度更新补充学习的跟踪算法

Publications (1)

Publication Number Publication Date
CN109035290A true CN109035290A (zh) 2018-12-18

Family

ID=64643451

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810782664.6A Pending CN109035290A (zh) 2018-07-16 2018-07-16 一种基于高置信度更新补充学习的跟踪算法

Country Status (1)

Country Link
CN (1) CN109035290A (zh)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109712171A (zh) * 2018-12-28 2019-05-03 上海极链网络科技有限公司 一种基于相关滤波器的目标跟踪系统及目标跟踪方法
CN109886994A (zh) * 2019-01-11 2019-06-14 上海交通大学 视频跟踪中自适应遮挡检测系统及方法
CN109934849A (zh) * 2019-03-08 2019-06-25 西北工业大学 基于轨迹度量学习的在线多目标跟踪方法
CN110009006A (zh) * 2019-03-15 2019-07-12 华中科技大学 一种基于机器学习的点目标检测方法及系统
CN110070563A (zh) * 2019-04-30 2019-07-30 山东大学 基于联合感知的相关性滤波器目标跟踪方法及系统
CN110163132A (zh) * 2019-05-09 2019-08-23 云南大学 一种基于最大响应值变化率更新策略的相关滤波跟踪方法
CN111260689A (zh) * 2020-01-16 2020-06-09 东华大学 一种有效的置信度增强相关滤波视觉跟踪算法
CN112767450A (zh) * 2021-01-25 2021-05-07 开放智能机器(上海)有限公司 一种基于多损失学习的相关滤波目标跟踪方法及系统

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107154024A (zh) * 2017-05-19 2017-09-12 南京理工大学 基于深度特征核相关滤波器的尺度自适应目标跟踪方法
CN107316316A (zh) * 2017-05-19 2017-11-03 南京理工大学 基于多特征自适应融合和核相关滤波技术的目标跟踪方法
CN107403175A (zh) * 2017-09-21 2017-11-28 昆明理工大学 一种运动背景下的视觉跟踪方法及视觉跟踪系统

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107154024A (zh) * 2017-05-19 2017-09-12 南京理工大学 基于深度特征核相关滤波器的尺度自适应目标跟踪方法
CN107316316A (zh) * 2017-05-19 2017-11-03 南京理工大学 基于多特征自适应融合和核相关滤波技术的目标跟踪方法
CN107403175A (zh) * 2017-09-21 2017-11-28 昆明理工大学 一种运动背景下的视觉跟踪方法及视觉跟踪系统

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
JOÃO F. HENRIQUES 等: "High-Speed Tracking with Kernelized Correlation Filters", 《IEEE TRANSACTIONS ON PATTERN ANALYSIS AND MACHINE INTELLIGENCE》 *
徐忆菲 等: "自适应更新上下文相关滤波补充学习跟踪算法", 《科学技术与工程》 *

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109712171A (zh) * 2018-12-28 2019-05-03 上海极链网络科技有限公司 一种基于相关滤波器的目标跟踪系统及目标跟踪方法
CN109712171B (zh) * 2018-12-28 2023-09-01 厦门瑞利特信息科技有限公司 一种基于相关滤波器的目标跟踪系统及目标跟踪方法
CN109886994A (zh) * 2019-01-11 2019-06-14 上海交通大学 视频跟踪中自适应遮挡检测系统及方法
CN109886994B (zh) * 2019-01-11 2021-07-20 上海交通大学 视频跟踪中自适应遮挡检测系统及方法
CN109934849A (zh) * 2019-03-08 2019-06-25 西北工业大学 基于轨迹度量学习的在线多目标跟踪方法
CN110009006A (zh) * 2019-03-15 2019-07-12 华中科技大学 一种基于机器学习的点目标检测方法及系统
CN110070563A (zh) * 2019-04-30 2019-07-30 山东大学 基于联合感知的相关性滤波器目标跟踪方法及系统
CN110163132A (zh) * 2019-05-09 2019-08-23 云南大学 一种基于最大响应值变化率更新策略的相关滤波跟踪方法
CN110163132B (zh) * 2019-05-09 2023-07-11 云南大学 一种基于最大响应值变化率更新策略的相关滤波跟踪方法
CN111260689A (zh) * 2020-01-16 2020-06-09 东华大学 一种有效的置信度增强相关滤波视觉跟踪算法
CN111260689B (zh) * 2020-01-16 2022-10-11 东华大学 一种基于置信度增强的相关滤波视觉跟踪方法
CN112767450A (zh) * 2021-01-25 2021-05-07 开放智能机器(上海)有限公司 一种基于多损失学习的相关滤波目标跟踪方法及系统

Similar Documents

Publication Publication Date Title
CN109035290A (zh) 一种基于高置信度更新补充学习的跟踪算法
CN111882580B (zh) 一种视频多目标跟踪方法及系统
CN111260689B (zh) 一种基于置信度增强的相关滤波视觉跟踪方法
CN110599519B (zh) 基于领域搜索策略的抗遮挡相关滤波跟踪方法
CN108961308B (zh) 一种漂移检测的残差深度特征目标跟踪方法
CN111340842B (zh) 一种基于联合模型的相关滤波目标跟踪方法
CN108254741A (zh) 基于循环神经网络的目标航迹预测方法
CN106203334B (zh) 一种室内场景火苗检测方法
CN109977971A (zh) 基于均值偏移与核相关滤波的尺度自适应目标跟踪系统
CN109191488B (zh) 一种基于csk与tld融合算法的目标跟踪系统及方法
CN110490905A (zh) 一种基于YOLOv3和DSST算法的目标跟踪方法
CN106373145B (zh) 基于跟踪片段置信度和区分性外观学习的多目标跟踪方法
CN105184229A (zh) 一种动态场景下基于在线学习的实时行人检测方法
CN109993052A (zh) 一种复杂场景下尺度自适应的目标跟踪方法和系统
CN109447062A (zh) 基于巡检机器人的指针型仪表识别方法
CN111428642A (zh) 一种多目标跟踪算法、电子装置及计算机可读存储介质
CN108921880A (zh) 一种基于多个单跟踪器的视觉多目标跟踪方法
CN108320306A (zh) 融合tld和kcf的视频目标跟踪方法
CN111122162A (zh) 基于欧氏距离多尺度模糊样本熵的工业系统故障检测方法
Li et al. A collaborative learning tracking network for remote sensing videos
CN113837154B (zh) 一种基于多任务辅助的开放集过滤系统及方法
CN106127798B (zh) 基于自适应模型的稠密时空上下文目标跟踪方法
CN111340846B (zh) 一种多特征融合的抗遮挡目标跟踪方法
CN110097577A (zh) 一种基于深度学习的半离线深度目标追踪方法
CN116757063A (zh) 一种自适应学习的锅炉故障智能诊断方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication

Application publication date: 20181218

RJ01 Rejection of invention patent application after publication