CN113487653A - 一种基于轨迹预测的自适应图跟踪方法 - Google Patents

一种基于轨迹预测的自适应图跟踪方法 Download PDF

Info

Publication number
CN113487653A
CN113487653A CN202110704517.9A CN202110704517A CN113487653A CN 113487653 A CN113487653 A CN 113487653A CN 202110704517 A CN202110704517 A CN 202110704517A CN 113487653 A CN113487653 A CN 113487653A
Authority
CN
China
Prior art keywords
matrix
targets
target
neural network
feature
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202110704517.9A
Other languages
English (en)
Other versions
CN113487653B (zh
Inventor
单超炳
李特
危春波
余小康
王亚鸽
方骏
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhejiang Lab
Original Assignee
Zhejiang Lab
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhejiang Lab filed Critical Zhejiang Lab
Priority to CN202110704517.9A priority Critical patent/CN113487653B/zh
Publication of CN113487653A publication Critical patent/CN113487653A/zh
Application granted granted Critical
Publication of CN113487653B publication Critical patent/CN113487653B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/048Activation functions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30241Trajectory

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Biomedical Technology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于轨迹预测的自适应图跟踪方法,该方法在估计轨迹的位移之后,在当前帧重新提取轨迹的特征,使得相同目标的特征尽可能保持一致。本发明融合了位置、外观和历史信息,在自适应图神经网络中更新特征,用以区分不同目标以及学习目标重要的部位。本发明提出了balanced MSE LOSS,用以平衡样本分布,让神经网络自动学习区分不同类型目标(如新出现的或消失的目标)。本发明可以应用于自动驾驶中输出多个目标的轨迹,还能够预测视频目标的行为,并且可以提高交通管理效率以及预防事故的发生。

Description

一种基于轨迹预测的自适应图跟踪方法
技术领域
本发明属于计算机视觉和模式识别领域,尤其涉及一种基于轨迹预测的自适应图跟踪方法。
背景技术
目标追踪一直是计算机视觉中很重要的研究方向,在自动驾驶、视频目标行为预测、交通管理及预防中有很大的应用。很多视频涵盖了从清晰到模糊、光照强度从白天到黑夜、视角从高到低、镜头从静止到移动的不同场景,并且视频中有较多的目标自遮挡、互遮挡现象。而即使是同一个目标,在运动的过程中可能会发生姿态、角度等的变换,甚至会发生光照强度的变化,那么目标的特征会发生较大的变化,这些都给多目标跟踪带来了极大的挑战。
现在主流的方法如利用卡尔曼滤波器预测历史目标在当前帧的位置,并用匈牙利算法进行匹配,或用CNN或变分方法预测历史目标到当前帧的光流,用简单的贪婪算法完成匹配;FairMOT方法加入一个Re-id分支,用以提取更精细的目标特征,并用特征余弦距离加IOU(Intersection over Union)的方式组成相似度矩阵,再用匈牙利算法完成匹配。尽管这些方法在多目标跟踪领域取得了不错的进展,但它们仍存在以下缺点:
(1)目标在运动过程中的特征不一致。因为即使是同一个目标,在运动的过程中可能会发生姿态、角度等的变换,甚至会发生光照强度的变化,那么这一目标在不同帧上提取出来的特征可能会有较大不同,因此在关联匹配的时候会降低跟踪的准确率;
(2)没有充分利用信息。大多数方法在特征时,只利用了外观信息,没有用到位置关系,也没用到历史目标的特征信息;
(3)样本分布不平衡。
发明内容
本发明的目的在于针对现有技术中目标在运动过程中的特征不一致、提取特征时未充分利用时空信息、样本分布不平衡的不足,提供一种基于轨迹预测的自适应图跟踪方法。
本发明的目的是通过以下技术方案来实现的:一种基于轨迹预测的自适应图跟踪方法,包括以下步骤:
步骤一:基于轨迹预测的特征重提取:当前帧It通过ResNet101-fpn网络转化成特征图,被检测到的M个目标边框用ROI Align提取区域特征,这些特征通过全连接层转化为特征向量;同时,用pyramid-LK算法预测前一帧It-1的目标在当前帧的位置,再加上除了It-1帧的前k帧,共N个历史目标,同样都在当前帧的特征图上重新提取特征向量。这些初始外观特征向量和边框位置都作为自适应图神经网络的输入。
步骤二:在自适应图神经网络AGNN中通过融合外观、位置、历史信息,AGNN能够更新历史和当前目标的特征,可以学习区分不同目标以及学习目标重要的部位用来重新识别被遮挡过的目标,最后通过AGNN输出相似度矩阵Sout∈RM×N,在训练阶段转到步骤三,在测试阶段转到步骤四。
步骤三:使用balanced MSE Loss平衡样本分布,进行反向传播,更新神经网络参数。balanced MSE Loss为:
Figure BDA0003131665670000021
Figure BDA0003131665670000022
Figure BDA0003131665670000023
Figure BDA0003131665670000024
Figure BDA0003131665670000025
其中,α,β,γ,δ,ε是超参数。Ec0代表连续负样本损失项,Ec1代表连续正样本损失项,Ene代表新出现的样本损失项,Ed代表消失样本损失项,Ew代表正则损失项。
Figure BDA0003131665670000026
代表神经网络输出值,Si,j是标签值,
Figure BDA0003131665670000027
表示神经网络中所有参数的L2损失。
步骤四:将输出的相似度矩阵扩成增广矩阵:在矩阵的右端添加尺寸为M×M,元素全为阈值π的矩阵,即Sout=[Sout,π×1M×M],再通过匈牙利算法直接输出最佳匹配结果,完成轨迹更新。假设匈牙利算法输出的结果匹配对是(i,j),i是行号,j是列号。若j<N,那么i和j匹配成功,并且目标j对应的id分配给目标i。否则,i被认为是一个新出现的目标,分配给目标i的id为max{id}+1。
进一步地,所述步骤二包括以下步骤:
(2.1)计算初始特征相似度矩阵:
Figure BDA0003131665670000028
Figure BDA0003131665670000031
Sft=[Si,j]M×N,i=1,…,M,j=1,…,N
其中,
Figure BDA0003131665670000032
代表当前帧第i个被检测到的目标,ft j代表第j个历史目标,S′i,j代表
Figure BDA0003131665670000033
与ft j的相似度,Si,j为对S′i,j逐行归一化后的相似度。
(2.2)计算边框的交并比IOU,加上步骤(2.1)的结果组成先验相似度矩阵:
E=w×IOU+(1-w)×Sft
其中,w为权重参数。
(2.3)利用自适应权重融合特征:
Figure BDA0003131665670000034
Figure BDA0003131665670000035
Figure BDA00031316656700000317
Figure BDA00031316656700000318
其中,Fd
Figure BDA0003131665670000036
组成的M行矩阵,Ft是ft j组成的N行矩阵,W1、W2、Wa为神经网络中可训练参数矩阵,Sigmoid为激活函数;⊙是点乘。H′d是当前帧所有目标的特征嵌入向量构成的矩阵,H′t是N个历史目标的特征嵌入向量构成的矩阵。
(2.4)输出相似度矩阵:
Figure BDA0003131665670000037
其中,
Figure BDA0003131665670000038
是H′d的第i行,代表当前帧第i个目标更新后的特征,
Figure BDA0003131665670000039
是H′t的第j行,代表第j个历史目标更新后的特征;||||2表示求2范数;
Figure BDA00031316656700000310
为对
Figure BDA00031316656700000311
逐行归一化后的特征,
Figure BDA00031316656700000312
为对
Figure BDA00031316656700000313
逐行归一化后的特征;Hd
Figure BDA00031316656700000314
组成的M行矩阵,Ht
Figure BDA00031316656700000315
组成的N行矩阵。
进一步地,步骤(2.2)中,权重参数w初始值设为0.5。
进一步地,步骤(2.3)中,激活函数
Figure BDA00031316656700000316
本发明的有益效果是:本发明首先预测历史目标的运动并在当前帧提取特征,所以相同目标的特征能够保持一致。然后将这些特征与新检测目标得到的特征一起输入自适应图神经网络,AGNN能够聚合轨迹和检测目标的位置和外观信息来更新特征,这是学习各个目标最重要部位的关键。本发明还在训练阶段提出了balanced MSE Loss,使得网络能够学习到更好的数据分布。本发明在MOT数据集上的跟踪准确率大大优于现有技术中最先进的方法。
附图说明
图1是基于轨迹预测的自适应图跟踪方法流程图;
图2是使用光流预估计的效果示意图;
图3是样本分布不平衡的解读示意图。
具体实施方式
下面根据附图详细说明本发明。
如图1所示,本发明一种基于轨迹预测的自适应图跟踪(TPAGT:TrackletsPredicting Based Adaptive Graph Tracking)方法,包括以下步骤:
步骤一:基于轨迹预测的特征重提取:当前帧It通过ResNet101-fpn网络转化成特征图,被检测到的M个目标边框用ROI Align提取区域特征,这些特征通过全连接层转化为特征向量;同时,用pyramid-LK算法预测前一帧It-1的目标在当前帧的位置,再加上前k帧(除了It-1帧),共N个历史目标,同样都根据预测的位置在当前帧的特征图上重新提取特征向量。这些初始外观特征向量和边框位置都作为自适应图神经网络的输入。
图2是pyramid-LK算法的作用,(a)(b)(c)三张图片是当前帧图像It。其中,(a)中的边框来自于It-1。(b)使用了pyramid-LK算法预测目标的运动,所以能得到边框在当前帧的中心坐标(边框的高度和宽度保持不变)。(c)是当前帧标签边框,可见(b)与(c)几乎是一致的。
步骤二:在自适应图神经网络AGNN中通过融合外观、位置、历史信息,AGNN能够更新历史和当前目标的特征,可以学习区分不同目标以及学习目标重要的部位用来重新识别被遮挡过的目标,最后通过AGNN输出相似度矩阵Sout∈RM×N,在训练阶段转到步骤三,在测试阶段转到步骤四。具体地,通过以下子步骤来实现:
(1)计算初始特征相似度矩阵Sft
Figure BDA0003131665670000041
Figure BDA0003131665670000042
Sft=[Si,j]M×N,i=1,…,M,j=1,…,N
其中,
Figure BDA0003131665670000043
代表当前帧第i个被检测到的目标,ft j代表第j个历史目标,S′i,j代表
Figure BDA0003131665670000044
与ft j的相似度,Si,j为对S′i,j逐行归一化后的相似度。
(2)计算边框的交并比IOU,加上步骤(2)的结果Sft组成先验相似度矩阵E:
E=w×IOU+(1-w)×Sft
其中,参数w衡量了位置信息与外观信息的相对重要程度,初始值设为0.5。
(3)利用自适应权重融合特征:
Figure BDA0003131665670000051
Figure BDA0003131665670000052
Figure BDA0003131665670000053
Figure BDA0003131665670000054
其中,Fd
Figure BDA0003131665670000055
组成的M行矩阵,Ft是ft j组成的N行矩阵,W1、W2、Wa为神经网络中可训练参数矩阵,
Figure BDA0003131665670000056
为激活函数,⊙是点乘,目标特征向量不同维度上的值代表该目标被抓取的不同部位上的信息,而不同部位就是我们区分目标的关键。因此在聚合特征时我们需要给不同维度上的值加权,如何加权是需要根据输入的特征来确定,因此我们称Wa为适应性参数,称Sigmoid(FtWa)、Sigmoid(FdWa)为适应性权重。这是我们把这个网络叫做自适应图神经网络的原因。H′d是当前帧所有目标的特征嵌入向量构成的矩阵,H′t是N个历史目标的特征嵌入向量构成的矩阵。
(4)输出相似度矩阵Sout
Figure BDA0003131665670000057
其中,
Figure BDA0003131665670000058
是H′d的第i行,代表当前帧第i个目标更新后的特征,
Figure BDA0003131665670000059
是H′t的第j行,代表第j个历史目标更新后的特征;||||2表示求2范数;
Figure BDA00031316656700000510
为对
Figure BDA00031316656700000511
逐行归一化后的特征,
Figure BDA00031316656700000512
为对
Figure BDA00031316656700000513
逐行归一化后的特征;Hd
Figure BDA00031316656700000514
组成的M行矩阵,Ht
Figure BDA00031316656700000515
组成的N行矩阵。
步骤三:使用balanced MSE Loss平衡样本分布,进行反向传播,更新神经网络参数。损失函数
Figure BDA00031316656700000516
为:
Figure BDA00031316656700000517
Figure BDA00031316656700000518
Figure BDA00031316656700000519
Figure BDA00031316656700000521
Figure BDA00031316656700000520
其中,α,β,γ,δ,ε是超参数,Ec0代表连续负样本损失项,Ec1代表连续正样本损失项,Ene代表新出现的样本损失项,Ed代表消失样本损失项,Ew代表正则损失项。
Figure BDA0003131665670000061
代表神经网络输出值,Si,j是标签值,
Figure BDA0003131665670000062
表示神经网络中所有参数的L2损失。
在计算完相似度矩阵之后,同一个目标的标签应为1,不同目标的标签应为0。如图3,每一行代表当前帧被检测到的目标,每一列代表历史目标。若某一列全为0,那就代表此目标消失。若某一行全为0,则代表此目标为新出现的目标。其他情况下,值为1代表目标匹配上,称作连续正样本,值为0代表目标不匹配,称为连续负样本。
步骤四:将输出的相似度矩阵Sout扩成增广矩阵:在矩阵的右端添加尺寸为M×M,元素全为阈值π的矩阵,即Sout=[Sout,π×1M×M],再通过匈牙利算法直接输出最佳匹配结果,完成轨迹更新。假设匈牙利算法输出的结果匹配对是(i,j),i是行号,j是列号。若j<N,那么i和j匹配成功,并且目标j对应的id分配给目标i。否则,i被认为是一个新出现的目标,分配给目标i的id为max{id}+1。其中,max{id}表示当前最大的id。

Claims (4)

1.一种基于轨迹预测的自适应图跟踪方法,其特征在于,包括以下步骤:
步骤一:基于轨迹预测的特征重提取:当前帧It通过ResNet101-fpn网络转化成特征图,被检测到的M个目标边框用ROIAlign提取区域特征,这些特征通过全连接层转化为特征向量;同时,用pyramid-LK算法预测前一帧It-1的目标在当前帧的位置,再加上除了It-1帧的前k帧,共N个历史目标,同样都在当前帧的特征图上重新提取特征向量。这些初始外观特征向量和边框位置都作为自适应图神经网络的输入。
步骤二:在自适应图神经网络AGNN中通过融合外观、位置、历史信息,AGNN能够更新历史和当前目标的特征,可以学习区分不同目标以及学习目标重要的部位用来重新识别被遮挡过的目标,最后通过AGNN输出相似度矩阵Sout∈RM×N,在训练阶段转到步骤三,在测试阶段转到步骤四。
步骤三:使用balanced MSE Loss平衡样本分布,进行反向传播,更新神经网络参数。balanced MSE Loss为:
Figure FDA0003131665660000011
Figure FDA0003131665660000012
Figure FDA0003131665660000013
Figure FDA0003131665660000014
Figure FDA0003131665660000015
其中,α,β,γ,δ,ε是超参数。Ec0代表连续负样本损失项,Ec1代表连续正样本损失项,Ene代表新出现的样本损失项,Ed代表消失样本损失项,Ew代表正则损失项。
Figure FDA0003131665660000016
代表神经网络输出值,Si,j是标签值,
Figure FDA0003131665660000017
表示神经网络中所有参数的L2损失。
步骤四:将输出的相似度矩阵扩成增广矩阵:在矩阵的右端添加尺寸为M×M,元素全为阈值π的矩阵,即Sout[Sout,π×1M×M],再通过匈牙利算法直接输出最佳匹配结果,完成轨迹更新。假设匈牙利算法输出的结果匹配对是(i,j),i是行号,j是列号。若j<N,那么i和j匹配成功,并且目标j对应的id分配给目标i。否则,i被认为是一个新出现的目标,分配给目标i的id为max{id}+1。
2.根据权利要求1所述基于轨迹预测的自适应图跟踪方法,其特征在于,所述步骤二包括以下步骤:
(2.1)计算初始特征相似度矩阵:
Figure FDA0003131665660000021
Figure FDA0003131665660000022
Sft=[Si,j]M×N,i=1,…,M,j=1,…,N
其中,
Figure FDA0003131665660000023
代表当前帧第i个被检测到的目标,
Figure FDA0003131665660000024
代表第j个历史目标,S′i,j代表
Figure FDA0003131665660000025
Figure FDA0003131665660000026
的相似度,Si,j为对S′i,j逐行归一化后的相似度。
(2.2)计算边框的交并比IOU,加上步骤(2.1)的结果组成先验相似度矩阵:
E=w×IOU+(1-w)×Sft
其中,w为权重参数。
(2.3)利用自适应权重融合特征:
Figure FDA0003131665660000027
Figure FDA0003131665660000028
Figure FDA0003131665660000029
Figure FDA00031316656600000210
其中,Fd
Figure FDA00031316656600000211
组成的M行矩阵,Ft
Figure FDA00031316656600000212
组成的N行矩阵,W1、W2、Wa为神经网络中可训练参数矩阵,Sigmoid为激活函数;⊙是点乘。H′d是当前帧所有目标的特征嵌入向量构成的矩阵,H′t是N个历史目标的特征嵌入向量构成的矩阵。
(2.4)输出相似度矩阵:
Figure FDA00031316656600000213
其中,
Figure FDA00031316656600000214
是H′d的第i行,代表当前帧第i个目标更新后的特征,
Figure FDA00031316656600000215
是H′t的第j行,代表第j个历史目标更新后的特征;||||2表示求2范数;
Figure FDA00031316656600000216
为对
Figure FDA00031316656600000217
逐行归一化后的特征,
Figure FDA00031316656600000218
为对
Figure FDA00031316656600000219
逐行归一化后的特征;Hd
Figure FDA00031316656600000220
组成的M行矩阵,Ht是
Figure FDA00031316656600000221
组成的N行矩阵。
3.根据权利要求2所述基于轨迹预测的自适应图跟踪方法,其特征在于,步骤(2.2)中,权重参数w初始值设为0.5。
4.根据权利要求2所述基于轨迹预测的自适应图跟踪方法,其特征在于,步骤(2.3)中,激活函数
Figure FDA0003131665660000031
CN202110704517.9A 2021-06-24 2021-06-24 一种基于轨迹预测的自适应图跟踪方法 Active CN113487653B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110704517.9A CN113487653B (zh) 2021-06-24 2021-06-24 一种基于轨迹预测的自适应图跟踪方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110704517.9A CN113487653B (zh) 2021-06-24 2021-06-24 一种基于轨迹预测的自适应图跟踪方法

Publications (2)

Publication Number Publication Date
CN113487653A true CN113487653A (zh) 2021-10-08
CN113487653B CN113487653B (zh) 2024-03-26

Family

ID=77936122

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110704517.9A Active CN113487653B (zh) 2021-06-24 2021-06-24 一种基于轨迹预测的自适应图跟踪方法

Country Status (1)

Country Link
CN (1) CN113487653B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116523970A (zh) * 2023-07-05 2023-08-01 之江实验室 基于二次隐式匹配的动态三维目标跟踪方法及装置

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109919981A (zh) * 2019-03-11 2019-06-21 南京邮电大学 一种基于卡尔曼滤波辅助的多特征融合的多目标跟踪方法
WO2020155873A1 (zh) * 2019-02-02 2020-08-06 福州大学 一种基于深度表观特征和自适应聚合网络的多人脸跟踪方法
CN111652903A (zh) * 2020-05-22 2020-09-11 重庆理工大学 一种自动驾驶场景下基于卷积关联网络的行人目标跟踪方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020155873A1 (zh) * 2019-02-02 2020-08-06 福州大学 一种基于深度表观特征和自适应聚合网络的多人脸跟踪方法
CN109919981A (zh) * 2019-03-11 2019-06-21 南京邮电大学 一种基于卡尔曼滤波辅助的多特征融合的多目标跟踪方法
CN111652903A (zh) * 2020-05-22 2020-09-11 重庆理工大学 一种自动驾驶场景下基于卷积关联网络的行人目标跟踪方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
任珈民;宫宁生;韩镇阳;: "基于YOLOv3与卡尔曼滤波的多目标跟踪算法", 计算机应用与软件, no. 05, 31 May 2020 (2020-05-31), pages 169 - 176 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116523970A (zh) * 2023-07-05 2023-08-01 之江实验室 基于二次隐式匹配的动态三维目标跟踪方法及装置
CN116523970B (zh) * 2023-07-05 2023-10-20 之江实验室 基于二次隐式匹配的动态三维目标跟踪方法及装置

Also Published As

Publication number Publication date
CN113487653B (zh) 2024-03-26

Similar Documents

Publication Publication Date Title
CN110163187B (zh) 基于f-rcnn的远距离交通标志检测识别方法
Zheng et al. A novel background subtraction algorithm based on parallel vision and Bayesian GANs
CN112396027B (zh) 基于图卷积神经网络的车辆重识别方法
CN111310583B (zh) 一种基于改进的长短期记忆网络的车辆异常行为识别方法
CN109859238B (zh) 一种基于多特征最优关联的在线多目标跟踪方法
CN110796168A (zh) 一种基于改进YOLOv3的车辆检测方法
CN110533695A (zh) 一种基于ds证据理论的轨迹预测装置及方法
CN109409252A (zh) 一种基于改进型ssd网络的车辆行人多目标检测方法
CN109598268A (zh) 一种基于单流深度网络的rgb-d显著目标检测方法
CN108791302B (zh) 驾驶员行为建模系统
CN114724392B (zh) 一种快速路出口匝道与邻接交叉口动态信号控制方法
CN108920805B (zh) 具有状态特征提取功能的驾驶员行为建模系统
CN102663429A (zh) 运动目标的运动模式分类和动作识别的方法
CN108345866B (zh) 一种基于深度特征学习的行人再识别方法
CN110956158A (zh) 一种基于教师学生学习框架的遮挡行人再标识方法
CN114419151A (zh) 一种基于对比学习的多目标跟踪方法
CN111666860A (zh) 一种车牌信息与车辆特征融合的车辆轨迹跟踪方法
CN117036397A (zh) 一种基于融合信息关联和相机运动补偿的多目标跟踪方法
CN106127766A (zh) 基于空间耦合关系和历史模型的目标跟踪方法
CN113487653A (zh) 一种基于轨迹预测的自适应图跟踪方法
CN108944940B (zh) 基于神经网络的驾驶员行为建模方法
Ganapathy et al. An intelligent video surveillance system for detecting the vehicles on road using refined yolov4
Masmoudi et al. Autonomous car-following approach based on real-time video frames processing
CN116777956A (zh) 基于多尺度航迹管理的运动目标筛选方法
CN116453012A (zh) 一种面向高速公路交通监控场景的车辆检测与跟踪方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant