CN111914625B - 基于检测器与跟踪器数据关联的多目标车辆跟踪装置 - Google Patents
基于检测器与跟踪器数据关联的多目标车辆跟踪装置 Download PDFInfo
- Publication number
- CN111914625B CN111914625B CN202010561751.6A CN202010561751A CN111914625B CN 111914625 B CN111914625 B CN 111914625B CN 202010561751 A CN202010561751 A CN 202010561751A CN 111914625 B CN111914625 B CN 111914625B
- Authority
- CN
- China
- Prior art keywords
- target
- frame
- tracker
- detector
- data association
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/08—Detecting or categorising vehicles
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Molecular Biology (AREA)
- Evolutionary Computation (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Software Systems (AREA)
- General Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于检测器与跟踪器数据关联的多目标车辆跟踪装置,包括:多阶段目标检测器、相关滤波跟踪器、数据关联模块与人机交互界面。所述多阶段目标检测器,用于周期性地对输入视频帧中多尺度、实际航拍场景下的小型车辆目标进行检测,输出该帧所有小型车辆目标框;所述相关滤波跟踪器,利用多阶段目标检测器输出的各目标位置和尺寸,并行地初始化各个目标,之后逐帧地跟踪目标。所述数据关联模块,周期性地将检测结果与跟踪器预测结果进行关数据关联和匹配,用于维持每个目标的id,并对目标框进行修正。所述人机交互界面,用于使用者进行视频、算法模型的选择,查看评估指标,并在装置运行过程中与被跟踪目标进行交互。
Description
技术领域
本发明属于视频目标检测与跟踪技术领域,具体涉及一种基于检测器与跟踪器数据关联的多目标车辆跟踪装置。
背景技术
视频目标检测任务通过对视频的逐帧分析与处理,识别目标种类并确定目标位置;利用检测结果,在视频首帧初始化目标位置,之后使用跟踪算法逐帧预测目标的位置;在跟踪过程中,使用数据关联算法对检测结果与跟踪结果进行关联分析,在连续的帧中维持目标的id信息。
车辆是视频分析场景中关键的对象之一,对于视频序列中的车辆多目标检测与跟踪一直是该领域的重要研究方向,也是后续高层视觉任务如车牌识别、违章检测的重要基础。
近年来,在目标检测领域,基于深度学习的多阶段目标检测算法Cascade-RCNN[1]在第一阶段生成RoI区域,在后续阶段对RoI区域进行多级的分类与回归,大大提高了目标检测的准确率,但在无人机航拍的实际场景中,对大范围尺度跨度的车辆目标进行检测时存在漏检现象,在检测背景中与车辆目标相似性高的物体时存在误检现象。相关滤波器KCF[3]以其稳定性、高效性在单目标跟踪领域中引起了广泛的关注,如何将相关滤波跟踪器鲁棒且实时地应用到多目标跟踪任务是一项亟待关注的问题。基于IoU交并比和分配策略的SORT[2]算法为数据关联方法提供了思路,其利用检测结果对跟踪器预测结果进行修正,但该方法在跟踪多个目标时,易产生目标ID交换的现象,并且在目标短暂跟踪漂移后重新出现时,无法维持原有ID,并且随着新目标的出现与旧目标的消失,现有方法存在跟踪器不能及时创建与删除的现象。
发明内容
针对目前多目标检测与跟踪方法在无人机航拍的实际场景下进行车辆目标检测的局限性,本发明提供了一种基于检测器与跟踪器数据关联的多目标车辆跟踪装置。
本发明采用如下技术方案来实现:
基于检测器与跟踪器数据关联的多目标车辆跟踪装置,包括:
多阶段目标检测器,用于周期性地对输入视频帧中多尺度、实际航拍场景下的小型车辆目标进行检测,输出该帧所有小型车辆目标框以及置信度分数;
相关滤波跟踪器,利用多阶段目标检测器输出的各目标位置和尺寸,并行地初始化各个目标,之后逐帧地预测目标位置和尺寸,并跟踪目标;
数据关联模块,周期性地将检测结果与跟踪器预测结果进行关数据关联和匹配,用于维持每个目标的id,并对目标框进行修正;
人机交互界面,用于使用者进行视频、算法模型的选择,查看评估指标,并在装置运行过程中与被跟踪目标进行交互。
本发明进一步的改进在于,多阶段目标检测器中,在网络结构上,首先,检测器在特征金字塔FPN的基础上获取分辨率更高的池化特征、增加更小的anchor尺度以更精细地刻画小目标特征以及适应多尺度的目标分布;之后,设计FPN+RCB+SGE空间特征组语义信息增强结构,同时在取样时采取负样本挖掘策略;在训练手段上,检测器网络模型的骨干网络在ImageNet数据集上上进行预训练,在自创的基于无人机航拍的车辆目标检测数据集上进行迁移训练;在使用方法上,周期性地在视频帧中执行多阶段目标检测器,对多尺度、航拍实际场景下的小型车辆目标进行检测,输出该帧所有小型车辆目标框以及置信度分数。
本发明进一步的改进在于,相关滤波跟踪器中,当多阶段目标检测器在首帧检测出新目标时,以各目标位置、尺度和外观初始化多个相互独立的相关滤波跟踪器;在后续的逐帧中,基于KCF算法原理,使用目标周围的区域的循环矩阵采集正负样本,利用循环矩阵在傅立叶空间可对角化的性质将矩阵的运算转化为向量的Hadamad积,并利用脊回归在训练目标预测器,逐帧更新目标特征模板和滤波器系数,直至跟踪失败后释放该目标的相关滤波跟踪器。
本发明进一步的改进在于,数据关联模块中,输入为当前帧多个互相独立的相关滤波跟踪器的预测结果和多阶段目标检测器的检测结果;首先使用置信度评估的方法对每个相关滤波跟踪器的预测置信度进行判断,对于置信度高的相关滤波跟踪器,将其预测结果与检测结果执行基于IoU的第一步数据关联操作,对于置信度低的相关滤波跟踪器,将其预测结果与检测结果执行基于IoU+CN+Motion的第二步数据关联操作,之后使用匈牙利方法寻找检测结果和预测结果的最佳匹配对;对仍未匹配的相关滤波跟踪器,为其维持一定的寿命即帧数而不是立刻释放,在其寿命内,若匹配到合理的检测结果,则继续维持原有id,否则释放该相关滤波跟踪器。
本发明进一步的改进在于,人机交互界面中,以多线程的方式将多阶段目标检测器、相关滤波跟踪器和数据关联模块集成为统一的装置;首先进行算法选择、测试视频选择,之后在多目标跟踪的过程中,通过点击帧图像目标区域或输入目标id从而选定单一目标,实现感兴趣目标持续跟踪的功能;在任意帧,通过点击按钮选择评估指标,进行跟踪指标评估。
本发明至少具有以下有益的技术效果:
本发明设计了一种基于检测器与跟踪器数据关联的多目标车辆跟踪装置,有效地实现了在无人机航拍场景下,对输入视频中的多尺度的车辆目标进行检测、跟踪并维持每个目标的id信息,提高了检测的准度和跟踪的精度,在保证装置鲁棒的前提下达到实时,并且使用者能够通过人机交互界面与装置进行互动。
进一步,本发明中的多阶段目标检测器,骨干网络在ImageNet数据集上上进行预训练,在自创的基于无人机航拍的车辆目标检测数据集上进行迁移训练,满足了无人机航拍场景需要。本发明中的多阶段目标检测器在特征金字塔FPN的基础上获取分辨率更高的池化特征、增加更小的anchor尺度以更精细地刻画小目标特征以及适应多尺度的目标分布。之后,设计FPN+RCB+SGE空间特征组语义信息增强结构,同时使用负样本挖掘策略,提升了特征对前景特定语义的关注,忽略了相似背景的干扰。
进一步,本发明中的相关滤波跟踪器,基于KCF算法,保证了相关滤波跟踪器的速度和装置的实时性,在目标首次出现时独立地为每个目标创建一个相关滤波跟踪器,并在之后逐帧维护该相关滤波跟踪器,确保了装置的鲁棒性。
进一步,本发明中的数据关联模块,通过设计跟踪置信度评估策略和两步数据关联策略显著减少了id交换现象,通过设计跟踪器寿命维持策略,能够合理地释放和创建跟踪轨迹。
进一步,本发明中的人机交互界面。能够实现算法选择、测试视频选择等基本功能。能够实现在多目标跟踪的过程中手动或自动地选择单一目标,进而实现感兴趣目标持续跟踪的功能。能够以多线程的方式实现与被跟踪目标交互、跟踪结果实时展示以及评估指标的计算等功能。
从整体上说,本发明的基于检测器与跟踪器数据关联的多目标车辆跟踪装置在准确性和鲁棒性上有较为理想的提升并且具备较为完备的交互功能,具有良好的应用价值。
附图说明
图1为本发明一种基于检测器与跟踪器数据关联的多目标车辆跟踪装置结构图。
具体实施方式
下面结合附图对本发明进行详细阐述:
如图1所示,本发明提供的一种基于检测器与跟踪器数据关联的多目标车辆跟踪装置,包括以下几个功能或模块:多阶段目标检测器、相关滤波跟踪器、数据关联模块、人机交互界面。
所述多阶段目标检测器中,首先,创建了一个基于无人机航拍的车辆目标检测数据集,该数据集从已有的CarPark、UAVTD和VisDrone2018-DET数据集中选取部分包含车辆目标的无人机航拍图片,之后自行采集了部分实际场景下、多尺度目标和多角度视角的车辆目标图像。图片数目共5161张,目标数目共58236个(大、中、小目标分别占比8%、70%、22%),其中引用数据集和自行采集数据比例为1:1,包含的场景有停车场、集市、校园、街道、夜间等。接下来,基于Cascade-RCNN多阶段目标检测算法进行网络结构改进,该网络在ImageNet数据集进行预训练。针对多尺度目标尤其是小目标漏检的问题,本发明在自创多尺度目标数据集上进行训练,学习多尺度的目标特征与分布,在训练时冻结骨干网络ResNet的前三组残差块,从第四组开始训练调整参数。并且anchor尺寸范围的设置上增设更小的尺度下限,在RoI-Pooling阶段将目标感兴趣区域特征采样到细节更丰富的14x14尺寸。最终增加了模型对多尺度目标分布的适应能力,减少了小目标的漏检,如表1所示,测试集上的mAP指标尤其是小目标的mAP指标得到提升。针对相似性物体误检问题,本发明中的检测器在特征金字塔提取多尺度特征之后,增加了Relu-Conv-BN三层特征增强非线性和加快收敛,其中conv使用转置卷积提升减少计算量,最后将得到的多层特征分别送入SGE模块进行操作:SGE模块对特征进行通道维度的分组,使每组通道自主学到目标的特定的语义信息,对每组特征来说,进行全局平均池化得到全局信息向量,与特征组做点积,并进行通道维度的规范化,得到本组特征的空间维度上的掩码。对掩码做非线性处理,之后与原特征组点点相乘,最终得到空间特征组语义信息增强的特征。提升了特征对前景特定语义的关注,忽略了背景的干扰。如表1所示,测试集上的mAP指标尤其是小目标mAP得到提升。
表1本发明中检测器的各子模块在测试集上的mAP指标与基底方法对比结果
其中“+”代表指标提升
如表2所示,本发明中的多阶段检测器在自创数据集的测试集上,与其他4种开源目标检测器进行了mAP指标的对比,本发明中的多阶段检测器在所有目标mAP(74.0)、小目标mAP(51.6)指标上均高于其他4种检测器。
表2本发明中检测器与其他4种检测器在测试集上的mAP指标对比结果
所述相关滤波跟踪器中,本发明以多阶段检测器在视频首帧的检测结果,初始化多个独立的基于KCF的相关滤波跟踪器。KCF使用目标周围的区域的循环矩阵采集正负样本,利用脊回归训练目标预测器,并利用循环矩阵在傅立叶空间可对角化的性质将矩阵的运算转化为向量的Hadamad积,大大降低了运算量,提高了算法的运算速度。之后逐帧更新目标特征模板和滤波器系数,并且在执行数据关联模块时,使用多阶段检测器得到的检测结果对相关滤波跟踪器的预测结果进行修正。最后,当跟踪失效后,释放对应目标的相关滤波跟踪器。
所述数据关联模块中,在获取本帧的相关滤波跟踪器的预测结果后,首先进行跟踪器置信度评估,即在每个跟踪器内部,计算KCF的响应最大值,当归一化的响应最大值大于0.6时,认为该跟踪器在本帧置信度高,反之认为置信度低。之后进行数据关联,对置信度高的跟踪器使用第一步数据关联,即使用以IoU指标作为相似度测量的关联矩阵,对置信度低的跟踪器使用第二步数据关联,即使用基于位置模型(IoU)+颜色模型(CN)+运动模型(Motion)的数据关联矩阵。两步数据关联矩阵选定后,使用匈牙利方法寻找检测结果和跟踪结果的最佳匹配对。接下来,设计跟踪器寿命维持策略,以合理地创建和释放跟踪器。对于两步数据关联仍未匹配到的低置信度跟踪轨迹,维持该跟踪器寿命但不进行显示,在寿命耗尽前,若出现匹配的检测结果,继续以原ID进行轨迹显示与跟踪;若仍没有匹配的检测结果,则释放该跟踪器。对于两步数据关联仍未匹配到的检测结果,我们认为有很大可能是因为该跟踪轨迹置信度低,此时我们对该检测结果计算特征模板,与正在维护区的跟踪器进行模板匹配,若匹配到,则继续以原ID进行轨迹显示与跟踪;若未匹配到,认为新目标出现,则创建新跟踪器。
所述人机交互界面中,首先,设计了多种功能动作:包括开始/停止(START/STOP)、暂停/继续(PAUSE/CONTINUE)、单目标跟踪(SINGLE)、重启多目标跟踪(RESTART)、通过菜单选择评估指标(Evaluate)、选择测试视频(Choose Video)、通过菜单选择检测器(ChooseAlgorithm),其中评估指标包括MOTA、MOTP、FPS和Trajectory Num。接下来,可执行全局多目标检测和跟踪:输入一段720P 30FPS的视频,以多线程方式运行检测器与跟踪器,跟踪每一帧各目标位置矩形框并维持ID。之后,可自由切换多目标与单目标跟踪:在任意时刻通过手动点击帧中的感兴趣目标或输入目标ID以选取单一目标,在后续帧执行单目标跟踪。
参考文献
[1]Z.Cai and N.Vasconcelos,“Cascade R-CNN:Delving Into High QualityObject Detection”,Proc.IEEE Conference on Computer Vision and PatternRecognition,2018,pp.6154-6162.
[2]A.Bewley,et al.,“Simple online and realtime tracking,”in Proc.IEEEInternational Conference on Image Processing,2016,pp.3464-3468.
[3]J.F.Henriques,R.Caseiro,P.Martins,and J.Batista,"High-speedtracking with kernelized correlation filters,"IEEE Transactions on PatternAnalysis and Machine Intelligence,vol.37,no.3,pp.583-596,2015.
[4]S.Ren,K.He,R.Girshick and J.Sun,"Faster R-CNN:Towards Real-TimeObject Detection with Region Proposal Networks,"IEEE Transactions on PatternAnalysis and Machine Intelligence,vol.39,no.6,pp.1137-1149,2017.
[5]W.Liu,D.Anguelov,D.Erhan,C.Szegedy,S.Reed,C.Y.Fu,and A.C.Berg,“SSD:Single Shot MultiBox Detector,”European Conference on Computer Vision(ECCV),Amsterdam,vol.9905,pp.21-37,2015.
[6]T.Lin,P.Goyal,R.Girshick,K.He and P.Dollár,"Focal Loss for DenseObject Detection,"2017 IEEE International Conference on Computer Vision(ICCV),Venice,pp.2999-3007,2017
Claims (2)
1.基于检测器与跟踪器数据关联的多目标车辆跟踪装置,其特征在于,包括:
多阶段目标检测器,用于周期性地对输入视频帧中多尺度、实际航拍场景下的小型车辆目标进行检测,输出该帧所有小型车辆目标框以及置信度分数;在网络结构上,首先,检测器在特征金字塔FPN的基础上获取分辨率更高的池化特征、增加更小的anchor尺度以更精细地刻画小目标特征以及适应多尺度的目标分布;之后,设计FPN+RCB+SGE空间特征组语义信息增强结构,同时在取样时采取负样本挖掘策略;在训练手段上,检测器网络模型的骨干网络在ImageNet数据集上上进行预训练,在自创的基于无人机航拍的车辆目标检测数据集上进行迁移训练;在使用方法上,周期性地在视频帧中执行多阶段目标检测器,对多尺度、航拍实际场景下的小型车辆目标进行检测,输出该帧所有小型车辆目标框以及置信度分数;
相关滤波跟踪器,利用多阶段目标检测器输出的各目标位置和尺寸,并行地初始化各个目标,之后逐帧地预测目标位置和尺寸,并跟踪目标;当多阶段目标检测器在首帧检测出新目标时,以各目标位置、尺度和外观初始化多个相互独立的相关滤波跟踪器;在后续的逐帧中,基于KCF算法原理,使用目标周围的区域的循环矩阵采集正负样本,利用循环矩阵在傅立叶空间可对角化的性质将矩阵的运算转化为向量的Hadamad积,并利用脊回归在训练目标预测器,逐帧更新目标特征模板和滤波器系数,直至跟踪失败后释放该目标的相关滤波跟踪器;
数据关联模块,周期性地将检测结果与跟踪器预测结果进行关数据关联和匹配,用于维持每个目标的id,并对目标框进行修正;输入为当前帧多个互相独立的相关滤波跟踪器的预测结果和多阶段目标检测器的检测结果;首先使用置信度评估的方法对每个相关滤波跟踪器的预测置信度进行判断,对于置信度高的相关滤波跟踪器,将其预测结果与检测结果执行基于IoU的第一步数据关联操作,对于置信度低的相关滤波跟踪器,将其预测结果与检测结果执行基于IoU+CN+Motion的第二步数据关联操作,之后使用匈牙利方法寻找检测结果和预测结果的最佳匹配对;对仍未匹配的相关滤波跟踪器,为其维持一定的寿命即帧数而不是立刻释放,在其寿命内,若匹配到合理的检测结果,则继续维持原有id,否则释放该相关滤波跟踪器;
人机交互界面,用于使用者进行视频、算法模型的选择,查看评估指标,并在装置运行过程中与被跟踪目标进行交互。
2.根据权利要求1所述的基于检测器与跟踪器数据关联的多目标车辆跟踪装置,其特征在于,人机交互界面中,以多线程的方式将多阶段目标检测器、相关滤波跟踪器和数据关联模块集成为统一的装置;首先进行算法选择、测试视频选择,之后在多目标跟踪的过程中,通过点击帧图像目标区域或输入目标id从而选定单一目标,实现感兴趣目标持续跟踪的功能;在任意帧,通过点击按钮选择评估指标,进行跟踪指标评估。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010561751.6A CN111914625B (zh) | 2020-06-18 | 2020-06-18 | 基于检测器与跟踪器数据关联的多目标车辆跟踪装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010561751.6A CN111914625B (zh) | 2020-06-18 | 2020-06-18 | 基于检测器与跟踪器数据关联的多目标车辆跟踪装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111914625A CN111914625A (zh) | 2020-11-10 |
CN111914625B true CN111914625B (zh) | 2023-09-19 |
Family
ID=73237970
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010561751.6A Active CN111914625B (zh) | 2020-06-18 | 2020-06-18 | 基于检测器与跟踪器数据关联的多目标车辆跟踪装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111914625B (zh) |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109919974A (zh) * | 2019-02-21 | 2019-06-21 | 上海理工大学 | 基于r-fcn框架多候选关联的在线多目标跟踪方法 |
CN110472496A (zh) * | 2019-07-08 | 2019-11-19 | 长安大学 | 一种基于目标检测与跟踪的交通视频智能分析方法 |
CN110751096A (zh) * | 2019-10-21 | 2020-02-04 | 陕西师范大学 | 一种基于kcf轨迹置信度的多目标跟踪方法 |
AU2020100371A4 (en) * | 2020-03-12 | 2020-04-16 | Jilin University | Hierarchical multi-object tracking method based on saliency detection |
-
2020
- 2020-06-18 CN CN202010561751.6A patent/CN111914625B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109919974A (zh) * | 2019-02-21 | 2019-06-21 | 上海理工大学 | 基于r-fcn框架多候选关联的在线多目标跟踪方法 |
CN110472496A (zh) * | 2019-07-08 | 2019-11-19 | 长安大学 | 一种基于目标检测与跟踪的交通视频智能分析方法 |
CN110751096A (zh) * | 2019-10-21 | 2020-02-04 | 陕西师范大学 | 一种基于kcf轨迹置信度的多目标跟踪方法 |
AU2020100371A4 (en) * | 2020-03-12 | 2020-04-16 | Jilin University | Hierarchical multi-object tracking method based on saliency detection |
Non-Patent Citations (1)
Title |
---|
袁大龙 ; 纪庆革 ; .协同运动状态估计的多目标跟踪算法.计算机科学.2017,(S2),全文. * |
Also Published As
Publication number | Publication date |
---|---|
CN111914625A (zh) | 2020-11-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Zhu et al. | Detection and tracking meet drones challenge | |
Wen et al. | UA-DETRAC: A new benchmark and protocol for multi-object detection and tracking | |
Zhu et al. | VisDrone-VDT2018: The vision meets drone video detection and tracking challenge results | |
CN112257569B (zh) | 一种基于实时视频流的目标检测和识别方法 | |
CN110705412A (zh) | 一种基于运动历史图像的视频目标检测方法 | |
Jadhav et al. | Aerial multi-object tracking by detection using deep association networks | |
Wang et al. | Multi-target pedestrian tracking based on yolov5 and deepsort | |
CN116402850A (zh) | 一种面向智能驾驶的多目标跟踪方法 | |
Hammam et al. | Real-time multiple spatiotemporal action localization and prediction approach using deep learning | |
Li et al. | Finding action tubes with a sparse-to-dense framework | |
Wang et al. | Mpanet: Multi-patch attention for infrared small target object detection | |
Angelo | A novel approach on object detection and tracking using adaptive background subtraction method | |
CN114879891A (zh) | 一种自监督多目标跟踪下的多模态人机互动方法 | |
KR101492059B1 (ko) | 평균이동 알고리즘을 적용한 실시간 객체 추적방법 및 시스템 | |
CN113011399B (zh) | 基于生成协同判别网络的视频异常事件检测方法及系统 | |
CN111914625B (zh) | 基于检测器与跟踪器数据关联的多目标车辆跟踪装置 | |
Wang et al. | Summary of object detection based on convolutional neural network | |
Park et al. | Intensity classification background model based on the tracing scheme for deep learning based CCTV pedestrian detection | |
CN115512263A (zh) | 一种面向高空坠物的动态视觉监测方法及装置 | |
CN114821441A (zh) | 联合ads-b信息的基于深度学习的机场场面运动目标识别方法 | |
Tian et al. | Pedestrian multi-target tracking based on YOLOv3 | |
Zhong et al. | A New Method of Non-Deep Network for Fast Vehicle Detection | |
Gong et al. | A Modified Multi-Pedestrian Tracking System | |
Yao et al. | Cascaded based Adaptive R-CNN Network for Insulator Defect Detection | |
Xie et al. | Semantic-based traffic video retrieval using activity pattern analysis |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |