CN113487653A - 一种基于轨迹预测的自适应图跟踪方法 - Google Patents
一种基于轨迹预测的自适应图跟踪方法 Download PDFInfo
- Publication number
- CN113487653A CN113487653A CN202110704517.9A CN202110704517A CN113487653A CN 113487653 A CN113487653 A CN 113487653A CN 202110704517 A CN202110704517 A CN 202110704517A CN 113487653 A CN113487653 A CN 113487653A
- Authority
- CN
- China
- Prior art keywords
- matrix
- targets
- target
- neural network
- feature
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000003044 adaptive effect Effects 0.000 title claims abstract description 26
- 238000000034 method Methods 0.000 title claims abstract description 24
- 238000013528 artificial neural network Methods 0.000 claims abstract description 23
- 239000011159 matrix material Substances 0.000 claims description 47
- 239000013598 vector Substances 0.000 claims description 19
- 238000010606 normalization Methods 0.000 claims description 9
- 230000004913 activation Effects 0.000 claims description 3
- 230000003321 amplification Effects 0.000 claims description 3
- 239000000470 constituent Substances 0.000 claims description 3
- 238000000605 extraction Methods 0.000 claims description 3
- 238000003199 nucleic acid amplification method Methods 0.000 claims description 3
- 239000000203 mixture Substances 0.000 claims description 2
- 238000006073 displacement reaction Methods 0.000 abstract 1
- 230000006870 function Effects 0.000 description 3
- 238000005286 illumination Methods 0.000 description 3
- 230000008859 change Effects 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000003909 pattern recognition Methods 0.000 description 1
- 230000002265 prevention Effects 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/048—Activation functions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30241—Trajectory
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Biomedical Technology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于轨迹预测的自适应图跟踪方法,该方法在估计轨迹的位移之后,在当前帧重新提取轨迹的特征,使得相同目标的特征尽可能保持一致。本发明融合了位置、外观和历史信息,在自适应图神经网络中更新特征,用以区分不同目标以及学习目标重要的部位。本发明提出了balanced MSE LOSS,用以平衡样本分布,让神经网络自动学习区分不同类型目标(如新出现的或消失的目标)。本发明可以应用于自动驾驶中输出多个目标的轨迹,还能够预测视频目标的行为,并且可以提高交通管理效率以及预防事故的发生。
Description
技术领域
本发明属于计算机视觉和模式识别领域,尤其涉及一种基于轨迹预测的自适应图跟踪方法。
背景技术
目标追踪一直是计算机视觉中很重要的研究方向,在自动驾驶、视频目标行为预测、交通管理及预防中有很大的应用。很多视频涵盖了从清晰到模糊、光照强度从白天到黑夜、视角从高到低、镜头从静止到移动的不同场景,并且视频中有较多的目标自遮挡、互遮挡现象。而即使是同一个目标,在运动的过程中可能会发生姿态、角度等的变换,甚至会发生光照强度的变化,那么目标的特征会发生较大的变化,这些都给多目标跟踪带来了极大的挑战。
现在主流的方法如利用卡尔曼滤波器预测历史目标在当前帧的位置,并用匈牙利算法进行匹配,或用CNN或变分方法预测历史目标到当前帧的光流,用简单的贪婪算法完成匹配;FairMOT方法加入一个Re-id分支,用以提取更精细的目标特征,并用特征余弦距离加IOU(Intersection over Union)的方式组成相似度矩阵,再用匈牙利算法完成匹配。尽管这些方法在多目标跟踪领域取得了不错的进展,但它们仍存在以下缺点:
(1)目标在运动过程中的特征不一致。因为即使是同一个目标,在运动的过程中可能会发生姿态、角度等的变换,甚至会发生光照强度的变化,那么这一目标在不同帧上提取出来的特征可能会有较大不同,因此在关联匹配的时候会降低跟踪的准确率;
(2)没有充分利用信息。大多数方法在特征时,只利用了外观信息,没有用到位置关系,也没用到历史目标的特征信息;
(3)样本分布不平衡。
发明内容
本发明的目的在于针对现有技术中目标在运动过程中的特征不一致、提取特征时未充分利用时空信息、样本分布不平衡的不足,提供一种基于轨迹预测的自适应图跟踪方法。
本发明的目的是通过以下技术方案来实现的:一种基于轨迹预测的自适应图跟踪方法,包括以下步骤:
步骤一:基于轨迹预测的特征重提取:当前帧It通过ResNet101-fpn网络转化成特征图,被检测到的M个目标边框用ROI Align提取区域特征,这些特征通过全连接层转化为特征向量;同时,用pyramid-LK算法预测前一帧It-1的目标在当前帧的位置,再加上除了It-1帧的前k帧,共N个历史目标,同样都在当前帧的特征图上重新提取特征向量。这些初始外观特征向量和边框位置都作为自适应图神经网络的输入。
步骤二:在自适应图神经网络AGNN中通过融合外观、位置、历史信息,AGNN能够更新历史和当前目标的特征,可以学习区分不同目标以及学习目标重要的部位用来重新识别被遮挡过的目标,最后通过AGNN输出相似度矩阵Sout∈RM×N,在训练阶段转到步骤三,在测试阶段转到步骤四。
步骤三:使用balanced MSE Loss平衡样本分布,进行反向传播,更新神经网络参数。balanced MSE Loss为:
其中,α,β,γ,δ,ε是超参数。Ec0代表连续负样本损失项,Ec1代表连续正样本损失项,Ene代表新出现的样本损失项,Ed代表消失样本损失项,Ew代表正则损失项。代表神经网络输出值,Si,j是标签值,表示神经网络中所有参数的L2损失。
步骤四:将输出的相似度矩阵扩成增广矩阵:在矩阵的右端添加尺寸为M×M,元素全为阈值π的矩阵,即Sout=[Sout,π×1M×M],再通过匈牙利算法直接输出最佳匹配结果,完成轨迹更新。假设匈牙利算法输出的结果匹配对是(i,j),i是行号,j是列号。若j<N,那么i和j匹配成功,并且目标j对应的id分配给目标i。否则,i被认为是一个新出现的目标,分配给目标i的id为max{id}+1。
进一步地,所述步骤二包括以下步骤:
(2.1)计算初始特征相似度矩阵:
Sft=[Si,j]M×N,i=1,…,M,j=1,…,N
(2.2)计算边框的交并比IOU,加上步骤(2.1)的结果组成先验相似度矩阵:
E=w×IOU+(1-w)×Sft
其中,w为权重参数。
(2.3)利用自适应权重融合特征:
其中,Fd是组成的M行矩阵,Ft是ft j组成的N行矩阵,W1、W2、Wa为神经网络中可训练参数矩阵,Sigmoid为激活函数;⊙是点乘。H′d是当前帧所有目标的特征嵌入向量构成的矩阵,H′t是N个历史目标的特征嵌入向量构成的矩阵。
(2.4)输出相似度矩阵:
其中,是H′d的第i行,代表当前帧第i个目标更新后的特征,是H′t的第j行,代表第j个历史目标更新后的特征;||||2表示求2范数;为对逐行归一化后的特征,为对逐行归一化后的特征;Hd是组成的M行矩阵,Ht是组成的N行矩阵。
进一步地,步骤(2.2)中,权重参数w初始值设为0.5。
本发明的有益效果是:本发明首先预测历史目标的运动并在当前帧提取特征,所以相同目标的特征能够保持一致。然后将这些特征与新检测目标得到的特征一起输入自适应图神经网络,AGNN能够聚合轨迹和检测目标的位置和外观信息来更新特征,这是学习各个目标最重要部位的关键。本发明还在训练阶段提出了balanced MSE Loss,使得网络能够学习到更好的数据分布。本发明在MOT数据集上的跟踪准确率大大优于现有技术中最先进的方法。
附图说明
图1是基于轨迹预测的自适应图跟踪方法流程图;
图2是使用光流预估计的效果示意图;
图3是样本分布不平衡的解读示意图。
具体实施方式
下面根据附图详细说明本发明。
如图1所示,本发明一种基于轨迹预测的自适应图跟踪(TPAGT:TrackletsPredicting Based Adaptive Graph Tracking)方法,包括以下步骤:
步骤一:基于轨迹预测的特征重提取:当前帧It通过ResNet101-fpn网络转化成特征图,被检测到的M个目标边框用ROI Align提取区域特征,这些特征通过全连接层转化为特征向量;同时,用pyramid-LK算法预测前一帧It-1的目标在当前帧的位置,再加上前k帧(除了It-1帧),共N个历史目标,同样都根据预测的位置在当前帧的特征图上重新提取特征向量。这些初始外观特征向量和边框位置都作为自适应图神经网络的输入。
图2是pyramid-LK算法的作用,(a)(b)(c)三张图片是当前帧图像It。其中,(a)中的边框来自于It-1。(b)使用了pyramid-LK算法预测目标的运动,所以能得到边框在当前帧的中心坐标(边框的高度和宽度保持不变)。(c)是当前帧标签边框,可见(b)与(c)几乎是一致的。
步骤二:在自适应图神经网络AGNN中通过融合外观、位置、历史信息,AGNN能够更新历史和当前目标的特征,可以学习区分不同目标以及学习目标重要的部位用来重新识别被遮挡过的目标,最后通过AGNN输出相似度矩阵Sout∈RM×N,在训练阶段转到步骤三,在测试阶段转到步骤四。具体地,通过以下子步骤来实现:
(1)计算初始特征相似度矩阵Sft:
Sft=[Si,j]M×N,i=1,…,M,j=1,…,N
(2)计算边框的交并比IOU,加上步骤(2)的结果Sft组成先验相似度矩阵E:
E=w×IOU+(1-w)×Sft
其中,参数w衡量了位置信息与外观信息的相对重要程度,初始值设为0.5。
(3)利用自适应权重融合特征:
其中,Fd是组成的M行矩阵,Ft是ft j组成的N行矩阵,W1、W2、Wa为神经网络中可训练参数矩阵,为激活函数,⊙是点乘,目标特征向量不同维度上的值代表该目标被抓取的不同部位上的信息,而不同部位就是我们区分目标的关键。因此在聚合特征时我们需要给不同维度上的值加权,如何加权是需要根据输入的特征来确定,因此我们称Wa为适应性参数,称Sigmoid(FtWa)、Sigmoid(FdWa)为适应性权重。这是我们把这个网络叫做自适应图神经网络的原因。H′d是当前帧所有目标的特征嵌入向量构成的矩阵,H′t是N个历史目标的特征嵌入向量构成的矩阵。
(4)输出相似度矩阵Sout:
其中,是H′d的第i行,代表当前帧第i个目标更新后的特征,是H′t的第j行,代表第j个历史目标更新后的特征;||||2表示求2范数;为对逐行归一化后的特征,为对逐行归一化后的特征;Hd是组成的M行矩阵,Ht是组成的N行矩阵。
其中,α,β,γ,δ,ε是超参数,Ec0代表连续负样本损失项,Ec1代表连续正样本损失项,Ene代表新出现的样本损失项,Ed代表消失样本损失项,Ew代表正则损失项。代表神经网络输出值,Si,j是标签值,表示神经网络中所有参数的L2损失。
在计算完相似度矩阵之后,同一个目标的标签应为1,不同目标的标签应为0。如图3,每一行代表当前帧被检测到的目标,每一列代表历史目标。若某一列全为0,那就代表此目标消失。若某一行全为0,则代表此目标为新出现的目标。其他情况下,值为1代表目标匹配上,称作连续正样本,值为0代表目标不匹配,称为连续负样本。
步骤四:将输出的相似度矩阵Sout扩成增广矩阵:在矩阵的右端添加尺寸为M×M,元素全为阈值π的矩阵,即Sout=[Sout,π×1M×M],再通过匈牙利算法直接输出最佳匹配结果,完成轨迹更新。假设匈牙利算法输出的结果匹配对是(i,j),i是行号,j是列号。若j<N,那么i和j匹配成功,并且目标j对应的id分配给目标i。否则,i被认为是一个新出现的目标,分配给目标i的id为max{id}+1。其中,max{id}表示当前最大的id。
Claims (4)
1.一种基于轨迹预测的自适应图跟踪方法,其特征在于,包括以下步骤:
步骤一:基于轨迹预测的特征重提取:当前帧It通过ResNet101-fpn网络转化成特征图,被检测到的M个目标边框用ROIAlign提取区域特征,这些特征通过全连接层转化为特征向量;同时,用pyramid-LK算法预测前一帧It-1的目标在当前帧的位置,再加上除了It-1帧的前k帧,共N个历史目标,同样都在当前帧的特征图上重新提取特征向量。这些初始外观特征向量和边框位置都作为自适应图神经网络的输入。
步骤二:在自适应图神经网络AGNN中通过融合外观、位置、历史信息,AGNN能够更新历史和当前目标的特征,可以学习区分不同目标以及学习目标重要的部位用来重新识别被遮挡过的目标,最后通过AGNN输出相似度矩阵Sout∈RM×N,在训练阶段转到步骤三,在测试阶段转到步骤四。
步骤三:使用balanced MSE Loss平衡样本分布,进行反向传播,更新神经网络参数。balanced MSE Loss为:
其中,α,β,γ,δ,ε是超参数。Ec0代表连续负样本损失项,Ec1代表连续正样本损失项,Ene代表新出现的样本损失项,Ed代表消失样本损失项,Ew代表正则损失项。代表神经网络输出值,Si,j是标签值,表示神经网络中所有参数的L2损失。
步骤四:将输出的相似度矩阵扩成增广矩阵:在矩阵的右端添加尺寸为M×M,元素全为阈值π的矩阵,即Sout[Sout,π×1M×M],再通过匈牙利算法直接输出最佳匹配结果,完成轨迹更新。假设匈牙利算法输出的结果匹配对是(i,j),i是行号,j是列号。若j<N,那么i和j匹配成功,并且目标j对应的id分配给目标i。否则,i被认为是一个新出现的目标,分配给目标i的id为max{id}+1。
2.根据权利要求1所述基于轨迹预测的自适应图跟踪方法,其特征在于,所述步骤二包括以下步骤:
(2.1)计算初始特征相似度矩阵:
Sft=[Si,j]M×N,i=1,…,M,j=1,…,N
(2.2)计算边框的交并比IOU,加上步骤(2.1)的结果组成先验相似度矩阵:
E=w×IOU+(1-w)×Sft
其中,w为权重参数。
(2.3)利用自适应权重融合特征:
其中,Fd是组成的M行矩阵,Ft是组成的N行矩阵,W1、W2、Wa为神经网络中可训练参数矩阵,Sigmoid为激活函数;⊙是点乘。H′d是当前帧所有目标的特征嵌入向量构成的矩阵,H′t是N个历史目标的特征嵌入向量构成的矩阵。
(2.4)输出相似度矩阵:
3.根据权利要求2所述基于轨迹预测的自适应图跟踪方法,其特征在于,步骤(2.2)中,权重参数w初始值设为0.5。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110704517.9A CN113487653B (zh) | 2021-06-24 | 2021-06-24 | 一种基于轨迹预测的自适应图跟踪方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110704517.9A CN113487653B (zh) | 2021-06-24 | 2021-06-24 | 一种基于轨迹预测的自适应图跟踪方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113487653A true CN113487653A (zh) | 2021-10-08 |
CN113487653B CN113487653B (zh) | 2024-03-26 |
Family
ID=77936122
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110704517.9A Active CN113487653B (zh) | 2021-06-24 | 2021-06-24 | 一种基于轨迹预测的自适应图跟踪方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113487653B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116523970A (zh) * | 2023-07-05 | 2023-08-01 | 之江实验室 | 基于二次隐式匹配的动态三维目标跟踪方法及装置 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109919981A (zh) * | 2019-03-11 | 2019-06-21 | 南京邮电大学 | 一种基于卡尔曼滤波辅助的多特征融合的多目标跟踪方法 |
WO2020155873A1 (zh) * | 2019-02-02 | 2020-08-06 | 福州大学 | 一种基于深度表观特征和自适应聚合网络的多人脸跟踪方法 |
CN111652903A (zh) * | 2020-05-22 | 2020-09-11 | 重庆理工大学 | 一种自动驾驶场景下基于卷积关联网络的行人目标跟踪方法 |
-
2021
- 2021-06-24 CN CN202110704517.9A patent/CN113487653B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020155873A1 (zh) * | 2019-02-02 | 2020-08-06 | 福州大学 | 一种基于深度表观特征和自适应聚合网络的多人脸跟踪方法 |
CN109919981A (zh) * | 2019-03-11 | 2019-06-21 | 南京邮电大学 | 一种基于卡尔曼滤波辅助的多特征融合的多目标跟踪方法 |
CN111652903A (zh) * | 2020-05-22 | 2020-09-11 | 重庆理工大学 | 一种自动驾驶场景下基于卷积关联网络的行人目标跟踪方法 |
Non-Patent Citations (1)
Title |
---|
任珈民;宫宁生;韩镇阳;: "基于YOLOv3与卡尔曼滤波的多目标跟踪算法", 计算机应用与软件, no. 05, 31 May 2020 (2020-05-31), pages 169 - 176 * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116523970A (zh) * | 2023-07-05 | 2023-08-01 | 之江实验室 | 基于二次隐式匹配的动态三维目标跟踪方法及装置 |
CN116523970B (zh) * | 2023-07-05 | 2023-10-20 | 之江实验室 | 基于二次隐式匹配的动态三维目标跟踪方法及装置 |
Also Published As
Publication number | Publication date |
---|---|
CN113487653B (zh) | 2024-03-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110163187B (zh) | 基于f-rcnn的远距离交通标志检测识别方法 | |
Zheng et al. | A novel background subtraction algorithm based on parallel vision and Bayesian GANs | |
CN112396027B (zh) | 基于图卷积神经网络的车辆重识别方法 | |
CN111310583B (zh) | 一种基于改进的长短期记忆网络的车辆异常行为识别方法 | |
CN109859238B (zh) | 一种基于多特征最优关联的在线多目标跟踪方法 | |
CN110796168A (zh) | 一种基于改进YOLOv3的车辆检测方法 | |
CN110533695A (zh) | 一种基于ds证据理论的轨迹预测装置及方法 | |
CN109409252A (zh) | 一种基于改进型ssd网络的车辆行人多目标检测方法 | |
CN109598268A (zh) | 一种基于单流深度网络的rgb-d显著目标检测方法 | |
CN108791302B (zh) | 驾驶员行为建模系统 | |
CN114724392B (zh) | 一种快速路出口匝道与邻接交叉口动态信号控制方法 | |
CN108920805B (zh) | 具有状态特征提取功能的驾驶员行为建模系统 | |
CN102663429A (zh) | 运动目标的运动模式分类和动作识别的方法 | |
CN108345866B (zh) | 一种基于深度特征学习的行人再识别方法 | |
CN110956158A (zh) | 一种基于教师学生学习框架的遮挡行人再标识方法 | |
CN114419151A (zh) | 一种基于对比学习的多目标跟踪方法 | |
CN111666860A (zh) | 一种车牌信息与车辆特征融合的车辆轨迹跟踪方法 | |
CN117036397A (zh) | 一种基于融合信息关联和相机运动补偿的多目标跟踪方法 | |
CN106127766A (zh) | 基于空间耦合关系和历史模型的目标跟踪方法 | |
CN113487653A (zh) | 一种基于轨迹预测的自适应图跟踪方法 | |
CN108944940B (zh) | 基于神经网络的驾驶员行为建模方法 | |
Ganapathy et al. | An intelligent video surveillance system for detecting the vehicles on road using refined yolov4 | |
Masmoudi et al. | Autonomous car-following approach based on real-time video frames processing | |
CN116777956A (zh) | 基于多尺度航迹管理的运动目标筛选方法 | |
CN116453012A (zh) | 一种面向高速公路交通监控场景的车辆检测与跟踪方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |