CN112132152B - 一种利用短程关联和长程修剪的多目标跟踪与分割方法 - Google Patents

一种利用短程关联和长程修剪的多目标跟踪与分割方法 Download PDF

Info

Publication number
CN112132152B
CN112132152B CN202010994613.7A CN202010994613A CN112132152B CN 112132152 B CN112132152 B CN 112132152B CN 202010994613 A CN202010994613 A CN 202010994613A CN 112132152 B CN112132152 B CN 112132152B
Authority
CN
China
Prior art keywords
instance
similarity
score
frame
target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202010994613.7A
Other languages
English (en)
Other versions
CN112132152A (zh
Inventor
王菡子
李玉磊
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Xiamen University
Original Assignee
Xiamen University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Xiamen University filed Critical Xiamen University
Priority to CN202010994613.7A priority Critical patent/CN112132152B/zh
Publication of CN112132152A publication Critical patent/CN112132152A/zh
Application granted granted Critical
Publication of CN112132152B publication Critical patent/CN112132152B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/26Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
    • G06V10/267Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion by performing operations on regions, e.g. growing, shrinking or watersheds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Abstract

一种利用短程关联和长程修剪的多目标跟踪与分割方法,涉及计算机视觉。训练用于分割和跟踪的卷积神经网络,将视频图片输入训练后的网络,得视频图片中每个目标实例对应的分割位置和实例表征向量;使用欧式距离度量不同实例之间表征向量的空间距离及实例掩码中心距离,度量转化成向量相似性得分和掩码中心相似性得分;用实例掩码和边缘框在相邻帧之间的传播得分得掩码相似性得分和边缘框相似性得分;利用四种相似性得分和匈牙利算法得视频中目标实例的运动轨迹;在目标实例轨迹中,使用先前帧的目标实例置信得分对当前帧目标实例置信得分进行调整,并清除实例置信得分低的运动轨迹,得到高置信得分的长程运动轨迹。具有较高精度和鲁棒性。

Description

一种利用短程关联和长程修剪的多目标跟踪与分割方法
技术领域
本发明涉及计算机视觉技术领域,尤其是涉及一种利用短程关联和长程修剪的多目标跟踪与分割方法。
背景技术
在计算机视觉领域,利用卷积神经网络进行多目标跟踪与分割取得了巨大成功。最近的多目标跟踪方法主要是应用先检测后跟踪的范式,通过应用数据关联算法将检测目标链接在一起来组成运动轨迹。而数据关联的性能高度依赖于相似性测量方法,但由于目标之间的频繁遮挡,相似性测量并不稳定。中国专利CN201910176113.X公开一种基于轨迹度量学习的在线多目标跟踪方法,用于解决现有在线多目标跟踪方法实用性差的技术问题。首先使用现有的目标检测算法生成检测响应;然后,将现有轨迹集合分割为高置信集合和低置信集合,使用静态特征和传统度量方法来处理高置信集合与下一时刻检测响应的数据连接问题,使用相似性度量矩阵增强针对低置信集合的数据连接能力,得到最终结果。以现有轨迹信息为训练样本集,在线学习轨迹与检测响应间的相似性度量矩阵,增强轨迹判别的分辨能力。
多目标跟踪与分割任务通过结合实例分割和多目标跟踪,扩展了多目标跟踪任务。最近的多目标跟踪与分割方法主要通过减小相同轨迹中的实例之间的距离(即,轨迹内距离)并同时增加不同轨迹中的实例之间的距离(即,轨迹间距离)来利用全局轨迹信息学习实例表征。然而,由于缺乏在相邻帧中的时空信息(即,局部轨迹信息,对构造短程轨迹有利),因此难以获得高置信度的长程轨迹。
发明内容
本发明的目的在于为了有效地利用运动轨迹信息,获得高置信度的长程运动轨迹,提供可实现对视频图像中目标实例的分割、目标实例的轨迹关联和目标实例的轨迹修剪,并最终得到高置信度长程运动轨迹的一种利用短程关联和长程修剪的多目标跟踪与分割方法。
本发明包括以下步骤:
1)在给定的包含分割和轨迹标号标签的数据集上训练好一个用于分割和跟踪的卷积神经网络,将视频图片输入训练后的分割和跟踪的卷积神经网络,得到视频图片中每个目标实例对应的分割位置和实例表征向量;
2)使用欧式距离度量不同实例之间表征向量的空间距离以及实例掩码中心距离,并将空间距离和实例掩码中心距离度量转化成向量相似性得分和掩码中心相似性得分;使用实例掩码和边缘框在相邻帧之间的传播得分得到掩码相似性得分和边缘框相似性得分;
3)利用步骤2)所得四种相似性得分和匈牙利算法得到视频中目标实例的运动轨迹;
4)在目标实例轨迹中,使用先前帧的目标实例置信得分对当前帧目标实例置信得分进行调整,并清除实例置信得分低的运动轨迹,最终得到高置信得分的长程运动轨迹。
在步骤1)中,所述训练好一个用于分割和跟踪的卷积神经网络的具体方法可为:
通过训练实例表征分支网络并预测外观向量,并用于关联视频中目标实例;可通过最小化以下短程关联损失函数来训练:
LSA=λLbatch-hard+(1-λ)Lframe-wise (1)
其中,Lbatch-hard是全局损失函数,Lframe-wise是局部损失函数,λ是权重参数;
Figure BDA0002692116810000021
其中,I表示分割网络检测到的目标实例集;d,e和g是检测到的目标实例;It表示当前第t帧中检测到的目标实例集;
Figure BDA0002692116810000022
是目标类别为cl的实例d的实例表征向量;实例d具有被分配的轨迹标号idd;γ是余量参数;f∈F表示帧间间隔;对于It中的实例d,在先前的视频帧t-f中的存在有目标实例e和g;实例d和e位于相同的轨迹上(即idd=ide),而实例d和g位于不同的轨迹上(即idd≠idg),使用目标实例d,e和g的实例表征向量
Figure BDA0002692116810000023
Figure BDA0002692116810000024
Figure BDA0002692116810000025
来测量d,e和g之间的欧式距离。
在步骤2)中,所述将空间距离和实例掩码中心距离度量转化成向量相似性得分和掩码中心相似性得分;使用实例掩码和边缘框在相邻帧之间的传播得分得到掩码相似性得分和边缘框相似性得分的具体步骤可为:
(2.1)基于向量距离的相似性度量
基于实例表征向量,通过计算两个实例的表征向量的欧式距离并在其中应用距离相似性转换函数,从而获得两个实例之间的相似性得分;通过计算当前第t帧中检测到的实例与先前Nt帧中实例的所有相似性得分,从而得到基于向量距离的相似性矩阵;
(2.2)基于实例掩码距离的相似性度量
基于实例掩码,通过计算两个实例掩码中心的欧式距离并在其中应用距离相似性转换函数,从而获得两个实例之间的相似性得分;通过计算当前第t帧中检测到的实例与先前Nt帧中实例的所有相似性得分,从而得到基于实例掩码距离的相似性矩阵;
(2.3)基于实例掩码传播得分的相似性度量
基于实例掩码,通过计算两个实例掩码在相邻帧之间的传播得分,从而获得两个实例之间的相似性得分,通过计算当前第t帧中检测到的实例与先前Nt帧中实例的所有相似性得分,从而得到基于实例掩码传播得分的相似性矩阵;
(2.4)基于实例边缘框传播得分的相似性度量
基于实例边缘框,通过计算两个实例边缘框在相邻帧之间的传播得分,从而获得两个实例之间的相似性得分,通过计算当前第t帧中检测到的实例与先前Nt帧中实例的所有相似性得分,从而得到基于实例边缘框传播得分的相似性矩阵。
在步骤3)中,所述利用步骤2)所得四种相似性得分和匈牙利算法得到视频中目标实例的运动轨迹的具体方法是:
(3.1)为了有效地利用四种相似性得分,将四个相似性矩阵组合在一起:
Figure BDA0002692116810000031
其中,q属于相似性度量集合Q:{基于向量距离的相似性度量,基于实例掩码距离的相似性度量,基于实例掩码传播得分的相似性度量,基于实例边缘框传播得分的相似性度量},sq表示q的相似性矩阵,∑qcq=1,cq≥0;
(3.2)将相似性矩阵输入到匈牙利算法中,从而得到当前帧目标实例与先前帧中已关联轨迹的最佳匹配,然后将所有未关联到已有轨迹的实例且实例置信得分大于阈值δ,开启新的轨迹。
在步骤4)中,所述使用先前帧的目标实例置信得分对当前帧目标实例置信得分进行调整,并清除实例置信得分低的运动轨迹,最终得到高置信得分的长程运动轨迹的具体方法可为:使用置信分数传递函数(式4)将先前(超出短程轨迹限制)帧中的实例的置信得分加到当前帧中实例的置信得分上:
Figure BDA0002692116810000041
其中,
Figure BDA0002692116810000042
表示类别为cl的实例d在当前帧中的置信得分。α表示
Figure BDA0002692116810000043
的权重;N是当前实例d所在轨迹中的实例数量。ITr表示当前轨迹中的一组实例;然后剔除置信得分低于修剪阈值
Figure BDA0002692116810000044
的低置信度轨迹,并将高置信度的长程轨迹作为最终的跟踪结果。
本发明中视频实例分割和跟踪方法包含对视频中目标实例的分割、目标实例的轨迹关联和目标实例的轨迹修剪。本发明公开的视频目标实例分割、轨迹关联和修剪方法是通用的,应用于多目标跟踪等计算机视觉任务,具有较高的精度和鲁棒性,尤其是在包含多个类别目标,且目标数量较多的实际交通或街道场景中能够展现出出色的结果。
附图说明
图1为本发明的整体流程图。
图2为本发明的短程关联和长程修剪部分的流程图。
具体实施方式
以下实施例将结合附图对本发明作进一步的说明。
参见图1,本发明实施例包括以下步骤:
在图中,t、t-2、t-3、t-4分别代表视频中的连续四帧。在训练过程中,在给定的包含分割和轨迹标号标签的数据集上,利用真实标签短程轨迹和所提出的短程关联损失函数,共同训练一个带有实例表征分支的用于分割和跟踪的实例分割网络。测试过程中,先将视频图片输入训练后的分割和跟踪的卷积神经网络,得到视频图片中每个目标实例对应的分割掩码和实例表征向量,然后使用短程数据关联算法预测短程目标轨迹。最后,在目标实例轨迹中,使用长程修剪算法使用先前帧的目标实例置信得分对当前帧目标实例置信得分进行调整,并剔除短程低置信得分轨迹,最终得到高置信得分的长程高置信轨迹。
参加图2,所述短程关联和长程修剪部分,具体包含以下步骤:
在图中,t、t-2、t-3、t-4分别代表视频中的连续四帧。
1)实例表征
通过训练实例表征分支网络并预测外观向量,并用于关联视频中目标实例。
通过最小化以下短程关联损失函数来训练实例表征分支网络:
LSA=λLbatch-hard+(1-λ)Lframe-wise (1)
其中Lbatch-hard是全局损失函数,Lframe-wise是局部损失函数。λ是权重参数。
Figure BDA0002692116810000051
其中,I表示分割网络检测到的目标实例集。d,e和g是检测到的目标实例。It表示当前第t帧中检测到的目标实例集。
Figure BDA0002692116810000052
是目标类别为cl的实例d的实例表征向量。实例d具有被分配的轨迹标号idd。γ是余量参数。f∈F表示帧间间隔。对于It中的实例d,在先前的视频帧t-f中的存在有目标实例e和g。实例d和e位于相同的轨迹上(即idd=ide),而实例d和g位于不同的轨迹上(即idd≠idg)。使用它们的实例表征向量
Figure BDA0002692116810000053
Figure BDA0002692116810000054
Figure BDA0002692116810000055
来测量d,e和g之间的欧式距离。
通过使用短程关联损失函数训练实例表征分支,该分支可以输出适合短程数据关联的实例表征向量。视频图片输入训练后的分割和跟踪的卷积神经网络,得到视频图片中每个目标实例对应的目标分割掩码和实例表征向量。
2)相似性度量
2.1)基于向量距离的相似性度量
基于实例表征向量,通过计算两个实例的表征向量的欧式距离并在其中应用距离相似性转换函数,从而获得两个实例之间的相似性得分。通过计算当前第t帧中检测到的实例与先前Nt帧中实例的所有相似性得分,从而得到基于向量距离的相似性矩阵。
2.2)基于实例掩码距离的相似性度量
基于实例掩码,通过计算两个实例掩码中心的欧式距离并在其中应用距离相似性转换函数,从而获得两个实例之间的相似性得分。通过计算当前第t帧中检测到的实例与先前Nt帧中实例的所有相似性得分,从而得到基于实例掩码距离的相似性矩阵。
2.3)基于实例掩码传播得分的相似性度量
基于实例掩码,通过计算两个实例掩码在相邻帧之间的传播得分,从而获得两个实例之间的相似性得分。通过计算当前第t帧中检测到的实例与先前Nt帧中实例的所有相似性得分,从而得到基于实例掩码传播得分的相似性矩阵。
2.4)基于实例边缘框传播得分的相似性度量
基于实例边缘框,通过计算两个实例边缘框在相邻帧之间的传播得分,从而获得两个实例之间的相似性得分。通过计算当前第t帧中检测到的实例与先前Nt帧中实例的所有相似性得分,从而得到基于实例边缘框传播得分的相似性矩阵。
2.4)融合相似性度量
为了有效地利用上述相似性度量,将四个相似性矩阵组合在一起:
Figure BDA0002692116810000061
其中,q属于相似性度量集合Q:{基于向量距离的相似性度量,基于实例掩码距离的相似性度量,基于实例掩码传播得分的相似性度量,基于实例边缘框传播得分的相似性度量}。sq表示q的相似性矩阵,∑qcq=1,cq≥0。
3)短程目标实例关联
将相似性矩阵输入到匈牙利算法中预测短程轨迹,从而得到当前帧目标实例与先前帧中已关联轨迹的最佳匹配。然后,所有未关联到已有轨迹的实例且实例置信得分大于阈值δ,开启新的轨迹。
4)长程轨迹修剪
调整置信得分:使用置信分数传递函数(式4)将先前(超出短程轨迹限制)帧中的实例的置信得分加到当前帧中实例的置信得分上:
Figure BDA0002692116810000062
其中,
Figure BDA0002692116810000063
表示类别为cl的实例d在当前帧中的置信得分。α表示
Figure BDA0002692116810000064
的权重。N是当前实例d所在轨迹中的实例数量。ITr表示当前轨迹中的一组实例。
剔除短程低置信度轨迹:剔除置信得分低于修剪阈值
Figure BDA0002692116810000065
的低置信度轨迹,并将长程高置信度的轨迹作为最终的跟踪结果。
进一步,根据实际应用中具体任务的要求,检测区域和运动轨迹可以直接以分割的形式输出,即输出分割的掩码和跟踪标号,或者将检测区域和运动轨迹以边缘框的形式输出,即输出矩形框定位坐标和跟踪标号。

Claims (3)

1.一种利用短程关联和长程修剪的多目标跟踪与分割方法,其特征在于包括以下步骤:
1)在给定的包含分割和轨迹标号标签的数据集上训练好一个用于分割和跟踪的卷积神经网络,将视频图片输入训练后的分割和跟踪的卷积神经网络,得到视频图片中每个目标实例对应的分割位置和实例表征向量;
2)使用欧式距离度量不同实例之间表征向量的空间距离以及实例掩码中心距离,并将空间距离和实例掩码中心距离度量转化成向量相似性得分和掩码中心相似性得分;使用实例掩码和边缘框在相邻帧之间的传播得分得到掩码相似性得分和边缘框相似性得分;
3)利用步骤2)所得四种相似性得分和匈牙利算法得到视频中目标实例的运动轨迹,具体方法是:
(3.1)为了有效地利用四种相似性得分,将四个相似性矩阵组合在一起:
Figure FDA0003585260730000011
其中,q属于相似性度量集合Q:{基于向量距离的相似性度量,基于实例掩码距离的相似性度量,基于实例掩码传播得分的相似性度量,基于实例边缘框传播得分的相似性度量},sq表示q的相似性矩阵,∑qcq=1,cq≥0;
(3.2)将相似性矩阵输入到匈牙利算法中,从而得到当前帧目标实例与先前帧中已关联轨迹的最佳匹配,然后将所有未关联到已有轨迹的实例且实例置信得分大于阈值δ,开启新的轨迹;
4)在目标实例轨迹中,使用先前帧的目标实例置信得分对当前帧目标实例置信得分进行调整,并清除实例置信得分低的运动轨迹,最终得到高置信得分的长程运动轨迹,具体方法为:使用置信分数传递函数将超出短程轨迹限制帧中的实例的置信得分加到当前帧中实例的置信得分上:
Figure FDA0003585260730000012
其中,
Figure FDA0003585260730000013
表示类别为cl的实例d在当前帧中的置信得分;α表示
Figure FDA0003585260730000014
的权重;N是当前实例d所在轨迹中的实例数量;ITr表示当前轨迹中的一组实例;然后剔除置信得分低于修剪阈值
Figure FDA0003585260730000015
的低置信度轨迹,并将高置信度的长程轨迹作为最终的跟踪结果。
2.如权利要求1所述一种利用短程关联和长程修剪的多目标跟踪与分割方法,其特征在于在步骤1)中,所述训练好一个用于分割和跟踪的卷积神经网络的具体方法为:
通过训练实例表征分支网络并预测外观向量,并用于关联视频中目标实例;通过最小化以下短程关联损失函数来训练:
LSA=λLbatch-hard+(1-λ)Lframe-wise (1)
其中,Lbatch-hard是全局损失函数,Lframe-wise是局部损失函数,λ是权重参数;
Figure FDA0003585260730000021
其中,I表示分割网络检测到的目标实例集;d,e和g是检测到的目标实例;It表示当前第t帧中检测到的目标实例集;
Figure FDA0003585260730000022
是目标类别为cl的实例d的实例表征向量;实例d具有被分配的轨迹标号idd;γ是余量参数;f∈F表示帧间间隔;对于It中的实例d,在先前的视频帧t-f中的存在有目标实例e和g;实例d和e位于相同的轨迹上,即idd=ide,而实例d和g位于不同的轨迹上,即idd≠idg,使用目标实例d,e和g的实例表征向量
Figure FDA0003585260730000023
Figure FDA0003585260730000024
来测量d,e和g之间的欧式距离。
3.如权利要求1所述一种利用短程关联和长程修剪的多目标跟踪与分割方法,其特征在于在步骤2)中,所述将空间距离和实例掩码中心距离度量转化成向量相似性得分和掩码中心相似性得分;使用实例掩码和边缘框在相邻帧之间的传播得分得到掩码相似性得分和边缘框相似性得分的具体步骤为:
(2.1)基于向量距离的相似性度量
基于实例表征向量,通过计算两个实例的表征向量的欧式距离并在其中应用距离相似性转换函数,从而获得两个实例之间的相似性得分;通过计算当前第t帧中检测到的实例与先前Nt帧中实例的所有相似性得分,从而得到基于向量距离的相似性矩阵;
(2.2)基于实例掩码距离的相似性度量
基于实例掩码,通过计算两个实例掩码中心的欧式距离并在其中应用距离相似性转换函数,从而获得两个实例之间的相似性得分;通过计算当前第t帧中检测到的实例与先前Nt帧中实例的所有相似性得分,从而得到基于实例掩码距离的相似性矩阵;
(2.3)基于实例掩码传播得分的相似性度量
基于实例掩码,通过计算两个实例掩码在相邻帧之间的传播得分,从而获得两个实例之间的相似性得分,通过计算当前第t帧中检测到的实例与先前Nt帧中实例的所有相似性得分,从而得到基于实例掩码传播得分的相似性矩阵;
(2.4)基于实例边缘框传播得分的相似性度量
基于实例边缘框,通过计算两个实例边缘框在相邻帧之间的传播得分,从而获得两个实例之间的相似性得分,通过计算当前第t帧中检测到的实例与先前Nt帧中实例的所有相似性得分,从而得到基于实例边缘框传播得分的相似性矩阵。
CN202010994613.7A 2020-09-21 2020-09-21 一种利用短程关联和长程修剪的多目标跟踪与分割方法 Active CN112132152B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010994613.7A CN112132152B (zh) 2020-09-21 2020-09-21 一种利用短程关联和长程修剪的多目标跟踪与分割方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010994613.7A CN112132152B (zh) 2020-09-21 2020-09-21 一种利用短程关联和长程修剪的多目标跟踪与分割方法

Publications (2)

Publication Number Publication Date
CN112132152A CN112132152A (zh) 2020-12-25
CN112132152B true CN112132152B (zh) 2022-05-27

Family

ID=73841534

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010994613.7A Active CN112132152B (zh) 2020-09-21 2020-09-21 一种利用短程关联和长程修剪的多目标跟踪与分割方法

Country Status (1)

Country Link
CN (1) CN112132152B (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117315530B (zh) * 2023-09-19 2024-07-12 天津大学 基于多帧信息的实例匹配方法
CN118297989B (zh) * 2024-06-05 2024-08-09 中国工程物理研究院流体物理研究所 一种半监督高鲁棒性红外小目标跟踪方法及系统

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106022220A (zh) * 2016-05-09 2016-10-12 西安北升信息科技有限公司 一种体育视频中对参赛运动员进行多人脸跟踪的方法
CN107169989A (zh) * 2017-04-17 2017-09-15 南京邮电大学 一种基于数据关联与轨迹评估的多目标跟踪方法
CN110135314A (zh) * 2019-05-07 2019-08-16 电子科技大学 一种基于深度轨迹预测的多目标跟踪方法
CN110660083A (zh) * 2019-09-27 2020-01-07 国网江苏省电力工程咨询有限公司 一种结合视频场景特征感知的多目标跟踪方法
CN111639551A (zh) * 2020-05-12 2020-09-08 华中科技大学 基于孪生网络和长短期线索的在线多目标跟踪方法和系统

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106022220A (zh) * 2016-05-09 2016-10-12 西安北升信息科技有限公司 一种体育视频中对参赛运动员进行多人脸跟踪的方法
CN107169989A (zh) * 2017-04-17 2017-09-15 南京邮电大学 一种基于数据关联与轨迹评估的多目标跟踪方法
CN110135314A (zh) * 2019-05-07 2019-08-16 电子科技大学 一种基于深度轨迹预测的多目标跟踪方法
CN110660083A (zh) * 2019-09-27 2020-01-07 国网江苏省电力工程咨询有限公司 一种结合视频场景特征感知的多目标跟踪方法
CN111639551A (zh) * 2020-05-12 2020-09-08 华中科技大学 基于孪生网络和长短期线索的在线多目标跟踪方法和系统

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Correlation Filter Tracking with Adaptive Proposal Selection for Accurate Scale Estimation;Luo Xiong et al.;《arXiv》;20200714;全文 *
基于条件随机场的多目标跟踪算法研究;曾宪明;《中国优秀博硕士学位论文全文数据库(硕士)信息科技辑》;20200515;全文 *

Also Published As

Publication number Publication date
CN112132152A (zh) 2020-12-25

Similar Documents

Publication Publication Date Title
CN113034548B (zh) 一种适用于嵌入式终端的多目标跟踪方法及其系统
Ma et al. Trajectory factory: Tracklet cleaving and re-connection by deep siamese bi-gru for multiple object tracking
Tang et al. Moana: An online learned adaptive appearance model for robust multiple object tracking in 3d
CN110276264B (zh) 一种基于前景分割图的人群密度估计方法
CN111161315B (zh) 一种基于图神经网络的多目标跟踪方法和系统
CN104680559B (zh) 基于运动行为模式的多视角室内行人跟踪方法
CN111882586B (zh) 一种面向剧场环境的多演员目标跟踪方法
CN112488061B (zh) 一种联合ads-b信息的多航空器检测与跟踪方法
CN112132152B (zh) 一种利用短程关联和长程修剪的多目标跟踪与分割方法
CN104200488A (zh) 一种基于图表示和匹配的多目标跟踪方法
CN108986143B (zh) 一种视频中目标检测跟踪方法
CN113744311A (zh) 基于全连接注意力模块的孪生神经网络运动目标跟踪方法
CN113763427B (zh) 一种基于从粗到精遮挡处理的多目标跟踪方法
CN116630376A (zh) 基于ByteTrack的无人机多目标跟踪方法
CN115565157A (zh) 一种多摄像头多目标车辆跟踪方法及系统
CN108320301A (zh) 一种基于跟踪学习检测的目标跟踪优化方法
Jiang et al. Surveillance from above: A detection-and-prediction based multiple target tracking method on aerial videos
Liu et al. Online multi-object tracking under moving unmanned aerial vehicle platform based on object detection and feature extraction network
CN115100565B (zh) 一种基于空间相关性与光流配准的多目标跟踪方法
CN116843719A (zh) 一种基于独立搜索孪生神经网络的目标跟踪方法
CN114820723B (zh) 一种基于联合检测和关联的在线多目标跟踪方法
CN116310482A (zh) 基于国产芯片多目标实时跟踪的目标检测识别方法及系统
Liu et al. Multipedestrian online tracking based on social force-predicted deformable key-points mapping via compressive sensing
Zuo Visualization of Football Tactics with Deep Learning Models
CN112529938A (zh) 一种基于视频理解的智慧学堂监测方法和系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant