CN111291630A - 基于联合预测-检测-修正框架的长期目标跟踪算法 - Google Patents

基于联合预测-检测-修正框架的长期目标跟踪算法 Download PDF

Info

Publication number
CN111291630A
CN111291630A CN202010052387.0A CN202010052387A CN111291630A CN 111291630 A CN111291630 A CN 111291630A CN 202010052387 A CN202010052387 A CN 202010052387A CN 111291630 A CN111291630 A CN 111291630A
Authority
CN
China
Prior art keywords
target
scale
tracking
result
detection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202010052387.0A
Other languages
English (en)
Inventor
唐晨
邱岳
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tianjin University
Original Assignee
Tianjin University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tianjin University filed Critical Tianjin University
Priority to CN202010052387.0A priority Critical patent/CN111291630A/zh
Publication of CN111291630A publication Critical patent/CN111291630A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2411Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/41Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
    • G06V20/42Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items of sport video content
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/07Target detection

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computational Linguistics (AREA)
  • Software Systems (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Abstract

本发明属于计算机视觉领域,为提出一种联合预测‑检测‑修正跟踪的视觉目标跟踪框架,实现视觉目标跟踪,本发明采取的技术方案是,基于联合预测‑检测‑修正框架的长期目标跟踪算法,通过预测器模块预测目标运动趋势和尺度变化,利用检测器模块结合预测参数进行有效的目标位置估计和目标尺度估计,通过修正器模块结合精化机制进行目标位置的修正,从而实现精确的目标跟踪。本发明主要应用于行人监控、动态手势识别、人机交互等场合。

Description

基于联合预测-检测-修正框架的长期目标跟踪算法
技术领域
本发明属于计算机视觉领域,涉及一种基于联合预测-检测-修正框架的长期目标跟踪算法。
背景技术
作为视觉信息分析的基础技术之一,视觉目标跟踪算法研究一直以来都是计算机视觉领域研究的热门方向。目标跟踪研究主要是通过在计算机中模拟人类对视觉目标的感官认识,赋予计算机稳定地跟踪特定目标的能力,从而为后续其他的应用,例如行人监控、动态手势识别、人机交互等,提供重要的技术基础。在计算机视觉领域,目标跟踪研究一般指的是通用单目标跟踪算法研究,这也是本文的主要研究内容。所谓的通用单目标跟踪(Visual Object Tracking),是指在视频第一帧(初始化阶段)通过鼠标或者真实数据标签确定任意目标所在区域,然后由跟踪算法对该目标进行在线的分析,确定目标在后续每一帧中的区域,从而实现任意单目标在线跟踪的目的。这里目标区域的确定,一般是包围目标的矩形框,用于估计目标在视频中每一帧的位置、尺度、旋转角度等信息,并输出对应的信息显示目标在每一帧的实际状态。这种任意选定目标的跟踪方式,使得算法能获取的先验知识得到限制(因为无法预知特定的目标,因此无法提前进行离线训练),对目标跟踪算法的综合学习能力提出了更高的要求,也增大了目标跟踪研究的难度。
目标跟踪算法具有广泛的应用,比如:在动态手势识别中,目标跟踪算法可以用来跟踪手型,提供目标运动特征用于分类;在手指书写系统中,目标跟踪算法可以用来跟踪手指,获取指尖运动轨迹用于字符和签名识别;在行人监控中,目标跟踪算法可以用来跟踪某个可以人物,也可以扩展为多个单目标跟踪算法的并行应用,实现多行人目标的跟踪;在智能交通系统中,目标跟踪算法可以进行车辆跟踪、车辆引导、车流量分析等等。因此,视觉目标跟踪算法的研究具有重要的理论意义和实际意义。
当前视觉目标跟踪研究依然存在不少的技术难点没有得到很好的解决,导致跟踪器的整体性能达不到理想要求,难以在现实场景中有效应用。技术难点主要有以下三个方面:
(1)目标跟踪精度和跟踪速度的双向平衡和提高问题。在研究如何提高目标跟踪精度的同时,需要考虑如何保持跟踪速度。实现精度高且实时性好的目标跟踪,有利于提高目标跟踪的整体性能,同时有利于目标跟踪算法在实际系统中的应用。
(2)稳定性-可塑性困境。为了实现跟踪的稳定性,需要保持目标模型对历史跟踪结果的记忆;而为了实现跟踪的可塑性,需要及时更新目标模型学习新的变化。就造成了跟踪过程的稳定性和可塑性困境。有必要完整地重构目标模型,提高目标模型的自适应性,以应对跟踪过程中可能出现的各种变化。
(3)长期稳定跟踪难题。目标跟踪属于没有先验知识的在线目标和背景区分问题,无法预先离线训练跟踪器,使其学习到目标有效的特征表示,以应对长期跟踪过程中的目标丢失和消失复现问题。但在实际跟踪过程中,目标可能被其他物体完全遮挡或消失后重新出现,现有的目标跟踪方法大部分无法应对这种情况。
发明内容
为克服现有技术的不足,本发明旨在提出一种联合预测-检测-修正跟踪的视觉目标跟踪框架,实现视觉目标跟踪,本发明采取的技术方案是,基于联合预测-检测-修正框架的长期目标跟踪算法,通过预测器模块预测目标运动趋势和尺度变化,利用检测器模块结合预测参数进行有效的目标位置估计和目标尺度估计,通过修正器模块结合精化机制进行目标位置的修正,从而实现精确的目标跟踪。
具体步骤细化如下:
步骤1:输入第t帧视频图像;
步骤2:由第t帧视频图像中的中心点坐标和对应的光流点坐标,用预测器预测目标的运动偏移量(Δx,Δy)和尺度变化量Sf
步骤3:进行目标位置检测。首先基于(Δx,Δy)和目标上一帧位置Ct-1确定搜索框范围并提取样本,然后用下式(4)计算目标相关置信图
Figure BDA0002371639830000021
Figure BDA0002371639830000022
其中,A为相关滤波系数,⊙为哈达码积运算,z为确定的搜索框范围,φ(·)为希尔伯特变换,
Figure BDA0002371639830000023
是学习到的目标外观模型;
寻找目标相关置信图中的最大响应值,即为目标新的位置Ct
步骤4:若检测器中目标外观滤波器的最大响应值低于预设的阈值θ时,进行目标位置精修;
步骤5:进行目标尺度检测。首先,根据超像素预测的尺度变化因子Sf,可以设置尺度变化步长SS
SS=(SS,0-1)+f(Sf) (5)
其中,SS,0是初始尺度步长,f(·)是用于限制Sf取值的函数;
随后计算完备的尺度范围Φ:
Φ={SS ±i} (6)
其中,
Figure BDA0002371639830000024
L是尺度层数;
接下来,在Φ中用各个尺度进行缩放,并用步骤3中的方法求得目标尺度置信图
Figure BDA0002371639830000025
最终将最大
Figure BDA0002371639830000026
对应的尺度作为尺度检测的结果St
步骤6:若检测器中目标尺度滤波器的最大响应值低于预设的阈值θ时,进行目标尺度精修;
步骤7:更新模型参数。结合当前帧的响应图
Figure BDA0002371639830000031
和前一帧的响应图
Figure BDA0002371639830000032
有:
Figure BDA0002371639830000033
其中,δ0初始学习因子;
接着,用下式(8)进行模型参数更新:
Figure BDA0002371639830000034
步骤8:输出目标位置结果Ct和目标尺寸大小St
步骤9:输入下一帧图像,按前述步骤处理,实现目标跟踪。
用预测器预测目标的运动偏移量和尺度变化量具体步骤是,进行超像素目标外观重构,并计算超像素光流,计算目标外观偏移量(Δx,Δy),如下式(1)(2):
Figure BDA0002371639830000035
(Δx,Δy)=(median(X),median(Y)) (2)
其中,X和Y分别是光流点位移变化量的横、纵坐标序列,Ci.x和Ci.y分别是中心点的横、纵坐标,Oi.x和Oi.y分别是对应光流点的横、纵坐标,n是相邻帧中匹配的光流对的数量,abs(.)代表绝对值计算,median(.)是求中值运算;
计算目标尺度变化因子Sf,如下式(3):
Figure BDA0002371639830000036
其中,dist(·)表示两个点间的欧氏距离的计算。
对于目标跟踪结果的修正,步骤4和步骤6具体地:
首先使用修正器的级联支持向量机SVM(Support Vector Machine)在上一帧跟踪到的目标位置周围检测一个候选的目标,然后计算其相关滤波响应值
Figure BDA0002371639830000037
如果
Figure BDA0002371639830000038
其中λ为修正放大系数,那么则认为修正器检测的结果比预测-检测器跟踪的结果更可靠,用修正器的结果去更新跟踪结果,并更新对应的滤波器模型参数;否则,则认为更新失败,保留预测-检测的结果,并重新训练修正器中的SVM。
本发明的特点及有益效果是:
相比传统的核化相关滤波算法,本发明的基于联合预测-检测-修正框架的跟踪算法可以实现更稳定的长期目标跟踪,有效地解决了诸如目标遮挡、目标消失等问题。
附图说明
图1是本发明提供跟踪算法的跟踪框架流程图;
图2本发明和KCF跟踪算法在Coke数据集上的部分跟踪结果对比图。
图2(a)是KCF跟踪算法在Coke数据集上的部分跟踪结果;
图2(b)是本发明提供的跟踪算法在Coke数据集上的部分跟踪结果;
图3本发明和KCF跟踪算法在Basketball数据集上的部分跟踪结果对比图。
图3(a)是KCF跟踪算法在Basketball数据集上的部分跟踪结果;
图3(b)是本发明提供的跟踪算法在Basketball数据集上的部分跟踪结果;
图4是本发明和KCF跟踪算法在Liquor数据集上的部分跟踪结果对比图。
图4(a)是KCF跟踪算法在Liquor数据集上的部分跟踪结果;
图4(b)是本发明提供的跟踪算法在Liquor数据集上的部分跟踪结果;
具体实施方式
为克服现有技术的不足,本发明旨在提出一种联合预测-检测-修正跟踪的视觉目标跟踪框架,通过预测器模块预测目标运动趋势和尺度变化,检测器模块结合预测参数进行有效的目标位置估计和目标尺度估计,修正器模块结合精化机制进行目标位置的修正,从而实现精确的目标跟踪。具体步骤细化如下:
步骤1:输入第t帧视频图像。
步骤2:由第t帧视频图像中的中心点坐标和对应的光流点坐标,用预测器预测目标的运动偏移量(Δx,Δy)和尺度变化量Sf
进行超像素目标外观重构,并计算超像素光流,计算目标外观偏移量(Δx,Δy),如下式(1)(2):
Figure BDA0002371639830000041
(Δx,Δy)=(median(X),median(Y)) (2)
其中,X和Y分别是光流点位移变化量的横、纵坐标序列,Ci.x和Ci.y分别是中心点的横、纵坐标,Oi.x和Oi.y分别是对应光流点的横、纵坐标,n是相邻帧中匹配的光流对的数量,abs(.)代表绝对值计算,median(.)是求中值运算。
计算目标尺度变化因子Sf,如下式(3):
Figure BDA0002371639830000042
其中,dist(·)表示两个点间的欧氏距离的计算。
步骤3:进行目标位置检测。首先基于(Δx,Δy)和目标上一帧位置Ct-1确定搜索框范围并提取样本。然后用下式(4)计算目标相关置信图
Figure BDA0002371639830000051
Figure BDA0002371639830000052
其中,A为相关滤波系数,⊙为哈达码积运算,z为确定的搜索框范围,φ(·)为希尔伯特变换,
Figure BDA0002371639830000053
是学习到的目标外观模型。
寻找目标相关置信图中的最大响应值,即为目标新的位置Ct
步骤4:若检测器中目标外观滤波器的最大响应值低于预设的阈值θ时,进行目标位置精修。
首先使用修正器的级联SVM在上一帧跟踪到的目标位置周围检测一个候选的目标,然后计算其相关滤波响应值
Figure BDA0002371639830000054
如果
Figure BDA0002371639830000055
(其中λ为修正放大系数),那么则认为修正器检测的结果比预测-检测器跟踪的结果更可靠,用修正器的结果去更新跟踪结果,并更新对应的滤波器模型参数;否则,则认为更新失败,保留预测-检测的结果,并重新训练修正器中的SVM。
步骤5:进行目标尺度检测。首先,根据超像素预测的尺度变化因子Sf,可以设置尺度变化步长SS
SS=(SS,0-1)+f(Sf) (5)
其中,SS,0是初始尺度步长,f(·)是用于限制Sf取值的函数。
随后计算完备的尺度范围Φ:
Φ={SS ±i} (6)
其中,
Figure BDA0002371639830000056
L是尺度层数。
接下来,在Φ中用各个尺度进行缩放,并用步骤3中的方法求得目标尺度置信图
Figure BDA0002371639830000057
最终将最大
Figure BDA0002371639830000058
对应的尺度作为尺度检测的结果St
步骤6:若检测器中目标尺度滤波器的最大响应值低于预设的阈值θ时,进行目标尺度精修,方法同步骤4。
步骤7:更新模型参数。结合当前帧的响应图
Figure BDA0002371639830000059
和前一帧的响应图
Figure BDA00023716398300000510
有:
Figure BDA00023716398300000511
其中,δ0初始学习因子。
接着,用下式(8)进行模型参数更新:
Figure BDA0002371639830000061
步骤8:输出目标位置结果Ct和目标尺寸大小St
步骤9:输入下一帧图像,按前述步骤处理,实现目标跟踪。
采用本发明提供的跟踪方法对3组目标遇到遮挡的场景下的视频序列进行跟踪,并在相同条件下与KCF算法的跟踪结果进行比较,得到的部分跟踪结果如图2、3、4所示。
在图2所示的视频序列中,易拉罐及其周围的区域选定为跟踪目标,视频中出现了运动目标被静止物体遮挡的情况。图2(a)、(b)分别表示KCF算法及本发明提供的跟踪算法所得到的部分跟踪结果,并且两种算法在初始帧处选择的目标区域相同。从图2的跟踪结果可知,本发明提供的跟踪算法能很好地对目标进行定位,跟踪精度较高,取得了很好的跟踪效果。而KCF算法在目标遇到部分遮挡时,跟踪框即发生偏移,后续也没有重检测到目标,导致跟踪失败
在图3所示的视频序列中,运动员及其周围的区域选定为跟踪目标,视频中出现了发生形变的运动目标被物体遮挡的情况。图3(a)、(b)分别表示KCF算法及本发明提供的跟踪算法所得到的部分跟踪结果,并且两种算法在初始帧处选择的目标区域相同。从图3的跟踪结果可知,本发明提供的跟踪算法能很好地对目标进行定位,跟踪精度较高,取得了很好的跟踪效果。而KCF算法在目标遇到部分遮挡时,跟踪框即发生偏移,后续也没有重检测到目标,导致跟踪失败。
在图4所示的视频序列中,酒瓶及其周围的区域选定为跟踪目标,视频中出现了静止目标被运动物体遮挡的情况。图4(a)、(b)分别表示KCF算法及本发明提供的跟踪算法所得到的部分跟踪结果,并且两种算法在初始帧处选择的目标区域相同。从图4的跟踪结果可知,本发明提供的跟踪算法能很好地对目标进行定位,跟踪精度较高,取得了很好的跟踪效果。而KCF算法在目标遇到部分遮挡时,跟踪框即发生偏移,后续也没有重检测到目标,导致跟踪失败。
由此,本发明提供的基于相关滤波和自适应特征融合的多尺度目标跟踪算法,对运动模糊、尺度变化、遮挡等复杂场景下的运动目标跟踪具有更强的鲁棒性。
尽管上面结合图示对本发明进行了描述,但是本发明并不局限于上述的具体实施方式,上述的具体实施方式仅仅是示意性的,而不是限制性的,本领域的普通技术人员在本发明的启示下,在不脱离本发明宗旨的情况下,还可以作出很多变形,这些均属于本发明的保护之内。
本领域技术人员可以理解附图只是一个优选实施例的示意图,上述本发明实施例序号仅仅为了描述,不代表实施例的优劣。
以上所述仅为本发明的较佳实施例,并不用以限制本发明,凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

Claims (4)

1.一种基于联合预测-检测-修正框架的长期目标跟踪算法,其特征是,通过预测器模块预测目标运动趋势和尺度变化,利用检测器模块结合预测参数进行有效的目标位置估计和目标尺度估计,通过修正器模块结合精化机制进行目标位置的修正,从而实现精确的目标跟踪。
2.如权利要求1所述的基于联合预测-检测-修正框架的长期目标跟踪算法,其特征是,具体步骤细化如下:
步骤1:输入第t帧视频图像;
步骤2:由第t帧视频图像中的中心点坐标和对应的光流点坐标,用预测器预测目标的运动偏移量(Δx,Δy)和尺度变化量Sf
步骤3:进行目标位置检测。首先基于(Δx,Δy)和目标上一帧位置Ct-1确定搜索框范围并提取样本,然后用下式(4)计算目标相关置信图yP
Figure FDA0002371639820000011
其中,A为相关滤波系数,⊙为哈达码积运算,z为确定的搜索框范围,φ(·)为希尔伯特变换,p是学习到的目标外观模型;
寻找目标相关置信图中的最大响应值,即为目标新的位置Ct
步骤4:若检测器中目标外观滤波器的最大响应值低于预设的阈值θ时,进行目标位置精修;
步骤5:进行目标尺度检测。首先,根据超像素预测的尺度变化因子Sf,可以设置尺度变化步长SS
SS=(SS,0-1)+f(Sf) (5)
其中,SS,0是初始尺度步长,f(·)是用于限制Sf取值的函数;
随后计算完备的尺度范围Φ:
Φ={SS ±i} (6)
其中,
Figure FDA0002371639820000012
L是尺度层数;
接下来,在Φ中用各个尺度进行缩放,并用步骤3中的方法求得目标尺度置信图yS,最终将最大yS对应的尺度作为尺度检测的结果St
步骤6:若检测器中目标尺度滤波器的最大响应值低于预设的阈值θ时,进行目标尺度精修;
步骤7:更新模型参数。结合当前帧的响应图yt和前一帧的响应图yt-1,有:
Figure FDA0002371639820000021
其中,δ0初始学习因子;
接着,用下式(8)进行模型参数更新:
Figure FDA0002371639820000022
步骤8:输出目标位置结果Ct和目标尺寸大小St
步骤9:输入下一帧图像,按前述步骤处理,实现目标跟踪。
3.如权利要求2所述的基于联合预测-检测-修正框架的长期目标跟踪算法,其特征是,用预测器预测目标的运动偏移量和尺度变化量具体步骤是,进行超像素目标外观重构,并计算超像素光流,计算目标外观偏移量(Δx,Δy),如下式(1)(2):
Figure FDA0002371639820000023
(Δx,Δy)=(median(X),median(Y)) (2)
其中,X和Y分别是光流点位移变化量的横、纵坐标序列,Ci.x和Ci.y分别是中心点的横、纵坐标,Oi.x和Oi.y分别是对应光流点的横、纵坐标,n是相邻帧中匹配的光流对的数量,abs(.)代表绝对值计算,median(.)是求中值运算;
计算目标尺度变化因子Sf,如下式(3):
Figure FDA0002371639820000024
其中,dist(·)表示两个点间的欧氏距离的计算。
4.如权利要求2所述的基于联合预测-检测-修正框架的长期目标跟踪算法,其特征是,对于目标跟踪结果的修正,步骤4和步骤6具体地:
首先使用修正器的级联支持向量机SVM(Support Vector Machine)在上一帧跟踪到的目标位置周围检测一个候选的目标,然后计算其相关滤波响应值yr,如果max(yr)>λ×max(y),其中λ为修正放大系数,那么则认为修正器检测的结果比预测-检测器跟踪的结果更可靠,用修正器的结果去更新跟踪结果,并更新对应的滤波器模型参数;否则,则认为更新失败,保留预测-检测的结果,并重新训练修正器中的SVM。
CN202010052387.0A 2020-01-17 2020-01-17 基于联合预测-检测-修正框架的长期目标跟踪算法 Pending CN111291630A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010052387.0A CN111291630A (zh) 2020-01-17 2020-01-17 基于联合预测-检测-修正框架的长期目标跟踪算法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010052387.0A CN111291630A (zh) 2020-01-17 2020-01-17 基于联合预测-检测-修正框架的长期目标跟踪算法

Publications (1)

Publication Number Publication Date
CN111291630A true CN111291630A (zh) 2020-06-16

Family

ID=71022297

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010052387.0A Pending CN111291630A (zh) 2020-01-17 2020-01-17 基于联合预测-检测-修正框架的长期目标跟踪算法

Country Status (1)

Country Link
CN (1) CN111291630A (zh)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107424177A (zh) * 2017-08-11 2017-12-01 哈尔滨工业大学(威海) 基于连续相关滤波器的定位修正长程跟踪算法
CN108090919A (zh) * 2018-01-02 2018-05-29 华南理工大学 一种基于超像素光流和自适应学习因子改进的核相关滤波跟踪方法
CN108460786A (zh) * 2018-01-30 2018-08-28 中国航天电子技术研究院 一种无人机侦察目标的高速跟踪方法
CN108846854A (zh) * 2018-05-07 2018-11-20 中国科学院声学研究所 一种基于运动预测与多特征融合的车辆跟踪方法
CN110335293A (zh) * 2019-07-12 2019-10-15 东北大学 一种基于tld框架的长时间目标跟踪方法
CN110688987A (zh) * 2019-10-16 2020-01-14 山东建筑大学 一种行人位置检测与跟踪方法及系统

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107424177A (zh) * 2017-08-11 2017-12-01 哈尔滨工业大学(威海) 基于连续相关滤波器的定位修正长程跟踪算法
CN108090919A (zh) * 2018-01-02 2018-05-29 华南理工大学 一种基于超像素光流和自适应学习因子改进的核相关滤波跟踪方法
CN108460786A (zh) * 2018-01-30 2018-08-28 中国航天电子技术研究院 一种无人机侦察目标的高速跟踪方法
CN108846854A (zh) * 2018-05-07 2018-11-20 中国科学院声学研究所 一种基于运动预测与多特征融合的车辆跟踪方法
CN110335293A (zh) * 2019-07-12 2019-10-15 东北大学 一种基于tld框架的长时间目标跟踪方法
CN110688987A (zh) * 2019-10-16 2020-01-14 山东建筑大学 一种行人位置检测与跟踪方法及系统

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
WANG YANGPING ET AL.: "Augmented Reality Tracking Registration Based on Improved KCF Tracking and ORB Feature Detection", 《 2019 7TH INTERNATIONAL CONFERENCE ON INFORMATION, COMMUNICATION AND NETWORKS (ICICN)》 *
张微 等: "相关滤波目标跟踪进展综述", 《中国图象图形学报》 *

Similar Documents

Publication Publication Date Title
Qiao et al. Learning discriminative trajectorylet detector sets for accurate skeleton-based action recognition
CN108573496B (zh) 基于lstm网络和深度增强学习的多目标跟踪方法
CN107481264A (zh) 一种自适应尺度的视频目标跟踪方法
JP5604256B2 (ja) 人物動作検出装置およびそのプログラム
Schwarz et al. Manifold learning for tof-based human body tracking and activity recognition.
CN107067410B (zh) 一种基于增广样本的流形正则化相关滤波目标跟踪方法
CN103886325A (zh) 一种分块的循环矩阵视频跟踪方法
Wang et al. Immersive human–computer interactive virtual environment using large-scale display system
CN111582349A (zh) 一种基于YOLOv3和核相关滤波改进的目标跟踪算法
Jin et al. Towards stabilizing facial landmark detection and tracking via hierarchical filtering: A new method
Liu et al. Robust tracking and redetection: Collaboratively modeling the target and its context
Xiao et al. MeMu: Metric correlation Siamese network and multi-class negative sampling for visual tracking
Hu et al. Depth sensor based human detection for indoor surveillance
Zhang et al. Uncertain motion tracking based on convolutional net with semantics estimation and region proposals
Zhang et al. Residual memory inference network for regression tracking with weighted gradient harmonized loss
He et al. Adaptive model update strategy for correlation filter trackers
Dallel et al. A sliding window based approach with majority voting for online human action recognition using spatial temporal graph convolutional neural networks
CN114676756A (zh) 图像识别方法、装置及计算机存储介质
Li et al. Adaptive weighted CNN features integration for correlation filter tracking
Lu et al. Distracter-aware tracking via correlation filter
Cao et al. Learning spatio-temporal context via hierarchical features for visual tracking
Yang et al. Adaptive online learning based robust visual tracking
Ding et al. Visual tracking with online assessment and improved sampling strategy
Zhang et al. Robust visual tracking via multi-feature response maps fusion using a collaborative local-global layer visual model
CN111291630A (zh) 基于联合预测-检测-修正框架的长期目标跟踪算法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication

Application publication date: 20200616

RJ01 Rejection of invention patent application after publication