CN116152297A - 一种适应车辆运动特点的多目标跟踪方法 - Google Patents

一种适应车辆运动特点的多目标跟踪方法 Download PDF

Info

Publication number
CN116152297A
CN116152297A CN202310275705.3A CN202310275705A CN116152297A CN 116152297 A CN116152297 A CN 116152297A CN 202310275705 A CN202310275705 A CN 202310275705A CN 116152297 A CN116152297 A CN 116152297A
Authority
CN
China
Prior art keywords
detection
target
track
appearance
frame
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202310275705.3A
Other languages
English (en)
Inventor
王海
丁玉轩
蔡英凤
陈龙
李祎承
刘擎超
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Jiangsu University
Original Assignee
Jiangsu University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Jiangsu University filed Critical Jiangsu University
Priority to CN202310275705.3A priority Critical patent/CN116152297A/zh
Publication of CN116152297A publication Critical patent/CN116152297A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Image Analysis (AREA)

Abstract

一种适应车辆运动特点的多目标跟踪方法,其特征是:它包括多信息提取主干模块构建、多任务平衡模块构建、卡尔曼滤波运动模型设置、代价矩阵以及多级联跟踪器设置;本发明围绕主干网络设计,运动模型调整以及跟踪器跟踪流程对模型进行了改进,提出了适应车辆运动特点的多跟踪算法。通过引入High‑Resolution Net作为主干网络以及使用多任务平衡模块对检测分支与外观信息提取分支做进一步的解耦,有效的平衡了检测与外观信息提取两个任务在网络训练时的竞争。通过对卡尔曼滤波运动模型的状态向量调整,使得模型能够适应车辆在转弯时出现的横纵比变化。通过级联的跟踪器流程设计,有效的防止了对较低置信度的目标跟踪的失效。

Description

一种适应车辆运动特点的多目标跟踪方法
技术领域
本发明涉及一种智能汽车技术,尤其是一种智能汽车的多任务联合的目标跟踪方法,具体地说是一种适应车辆运动特点的多目标跟踪方法。
背景技术
基于相机传感器的多目标跟踪是智能驾驶感知的关键内容之一,其目的是维护视频序列中每一个目标的时空轨迹。多目标跟踪不仅可以平滑目标检测输出的几何信息,一定程度上消除漏检、误检,更重要的是多目标跟踪描述每个目标的运动轨迹,从而将自动驾驶的感知信息丰富到时间维度上。
主流的跟踪算法大多采用卡尔曼滤波进行目标的运动建模,这种基于线性运动假设的方法速度快,且被证明对于跟踪有益。然而,基于相机传感器的感知系统严重依赖当前帧相机采集的图像信息,驾驶场景中车辆往往处于快速移动状态,跟踪对象的运动与相机运动叠加,在像素层上的目标运动轨迹具有更大的噪声和非线性特点。这种现象在自车转弯或目标车辆横向移动情况下更加明显。因此,基于线性运动模型的传统跟踪方法一直无法较好的应用在驾驶场景下。
近年来,随着深度学习的发展,结合深度外观表征的多目标跟踪方法有效的弥补了单纯使用线性运动模型的跟踪存在的弊端。简单来说,将多目标跟踪视为一个重识别任务,在当前帧上提取目标的身份信息编码后与历史跟踪轨迹的身份信息做匹配,完成视频流的跟踪。然而,这类方法大都分两步进行,外观特征提取网络严重增加了模型整体运行时间,无法满足实时性的需求。
目前,单纯采用运动模型或者外观模型的跟踪算法在驾驶场景下存在上述不足。同时,多目标跟踪方法大多以行人这类柔性非刚体作为跟踪对象,这类基准中相机运动较为缓慢甚至静止,针对动态场景车辆这类高速刚性物体的跟踪方法研究较少。于是,结合驾驶场景下车辆运动特点,联合外观模型与运动模型的多目标跟踪方法是一个值得研究的方向。
发明内容
本发明的目的是针对现有的将多目标跟踪视为一个重识别任务,在当前帧上提取目标的身份信息编码后与历史跟踪轨迹的身份信息做匹配,完成视频流的跟踪需要分两步进行,外观特征提取网络严重增加了模型整体运行时间,无法满足实时性的需求的问题,发明一种适应车辆运动特点的多目标跟踪算法,它联合深度外观模型与卡尔曼滤波运动模型,从而兼顾多目标跟踪算法的精度和速度,提升模型在驾驶场景下对车辆的跟踪效果。
本发明的技术方案是:
一种适应车辆运动特点的多目标跟踪算法,其特征是它包括多信息提取主干模块构建、多任务平衡模块构建、卡尔曼滤波运动模型设置、代价矩阵以及级联跟踪器设置;其中:
所述的多信息提取主干模块构建时联合学习检测与外观的特征权重,通过共享的特征权重预测目标的检测置信度,边界框以及深度外观表征。为了解决目标检测与外观信息提取之间的冲突,引入了High-Resolution Net作为主干网路。HRNet由并行的high-to-low分辨率子网组成,同时,对于不同分辨率子网通过上采样或者下采样后拼接的方式实现多尺度信息融合。输出特征图保持高分辨率,其尺度为原图的四分之一,满足了外观信息提取的需求,而多尺度融合的方式使得输出特征图也具有更丰富的语义信息,这满足了目标检测的需求。
所述的多任务平衡模块构建是为了进一步平衡目标检测与外观信息在学习时对主干的竞争。该模块对检测分支与外观信息提取分支做了进一步的解耦,使用两个完全相同的通道注意力结构,分别输出检测特征图以及外观特征图,对于检测特征图通过三个完全相同的检测头分别预测当前帧目标的中心点位置,目标的中心点位置偏移以及目标宽高。对于外观特征图,使用与检测分支相同结构的头部生成每个目标的128维度深度外观信息。
所述的卡尔曼滤波运动模型设置是将状态向量调整为
Figure BDA0004136182620000021
以适应驾驶场景中目标车辆转弯时在相机传感器的像素层上对应目标的横纵比发生线性变化的特点。跟踪器通过在构建好的代价矩阵上应用匈牙利算法完成前后帧上目标的关联。
所述的代价矩阵以及级联跟踪器设置是:
当车辆发生遮挡时,网络输出的深度外观特征不能较好的描述车辆目标的实际外观,因此针对代价矩阵,同时使用了基于运动的iou距离度量以及基于外观的最小余弦距离度量。具体而言,构建了一个检测置信度变量score相关的函数以求出加权因子λ,该加权因子调整外观与运动作为代价矩阵的权重。本发明有效的弥补了遮挡场景下深度外观特征的失真。在跟踪器的关联流程上,为了防止当前帧上有用的目标检测信息由于检测置信度较低导致滤除;在关联过程中根据检测置信度阈值τdet将检测出的目标分成两部分,对于高于τdet的检测框,采用上述联合外观与运动的关联逻辑进行当前帧上轨迹的关联,当前关联为第一次关联。对于当前帧上的低置信度检测框,将他们与第一次关联中未能匹配的轨迹进行基于运动模型的关联,此时为第二次关联。
本发明的有益效果是:
本发明针对现有的联合多任务的多目标跟踪模型用于车辆目标跟踪时,没有充分考虑到驾驶场景下车辆运动特点,从而导致跟踪精度下降的问题,本发明围绕主干网络设计,运动模型调整以及跟踪器跟踪流程对多目标跟踪模型进行了改进,提出了适应车辆运动特点的多目标跟踪算法。通过引入High-Resolution Net作为主干网络以及使用多任务平衡模块对检测分支与外观信息提取分支做进一步的解耦,有效的平衡了检测与外观信息提取两个任务在网络训练时的竞争。通过对卡尔曼滤波运动模型的状态向量调整,使得模型能够适应车辆在转弯时出现的横纵比变化。通过级联的跟踪器流程设计,有效的防止了对较低置信度的目标跟踪的失效。
附图说明
图1是本发明的流程图。
图2是本发明的主干模块网络结构图。
图3是本发明的多任务平衡模块的结构图。
图4是本发明的检测分支与外观提取分支结构图。
图5是本发明的检测器检测流程图。
图6是本发明的跟踪器跟踪流程图。
具体实施方式
下面结合附图和实施例对本发明作进一步说明。
如图1所示,本发明的实施包含以下步骤:
步骤1当前帧图像信息输入;
在模型的训练阶段,本发明选用KITTI数据集以及BDD数据集训练模型权重,对于数据集标签,保留车辆目标的id以及边界框参数(x/img,y/Himg,w/Wimg,h/Himg),其中,x,y为边界框的中心点坐标,w,h为边界框的宽高,Wimg以及Himg对应图像的宽度和高度。选用颜色抖动,随机尺度以及随机裁剪实现数据增强。对于测试阶段,本发明不适用任何数据增强方式,应在模型中逐帧输入图像。
步骤2深度信息提取;
本发明的主干网络选择使用High-Resolution Net结构,如图2所示。Hing-Resolution Net主要由一系列Transition结构以及Stage结构组成。每通过一个Transition结构都会对当前特征图进行降采样以新增一个尺度分支,HRNet中共计新增三个尺度分支,分别为原图尺寸的1/8,1/16以及1/32。图中方框结构为Stage结构,框图右上角为该结构的重复次数。Stage中对于每个尺度分支先通过4个ResNet中的Basic Block以提取丰富的语义信息,随后通过上采样结构以及下采样结构在各个尺度分支上融合其他分支的信息。最终输出特征图尺度为原图的1/4。输出特征图保持高分辨率,满足了深度外观信息提取任务的需求,同时,多尺度融合的方式使得输出特征图也具有更丰富的语义信息,这满足了检测任务的需求。
步骤3多任务平衡模块;
为了缓和检测任务以及外观信息提取任务的竞争,防止模型表达能力下降,本发明采用多任务平衡模块对模型做了进一步的解耦,其结构如图3所示。将主干网络输出的特征图通过两个完全相同的通道注意力结构,分别输出检测特征图以及外观特征图。具体而言,将主干网络提取的深度信息进行全局平均池化,对池化后的输出进行两次全连接,为了避免过多的计算,将第一个全连接层的输出通道调整为输入通道的1/4。通过sigmod激活函数调整后的注意力参数RCx1x1与输入特征图进行点乘,为了防止模型的退化,本发明使用残差结构。
步骤4检测分支与外观提取分支;
检测分支与外观提取分支结构图如图4所示。检测分支上,检测特征图上接有三个结构相同的头部,分别用于预测当前帧的中心点位置,目标的宽高以及中心点位置偏移。将多任务平衡模块输出的检测特征图分别通过三个卷积核大小为3×3的卷积将特征图的通道由480调整至256。随后使用ReLU激活函数增强分支的表达能力。对于目标的高宽预测,使用卷积核大小为1×1的卷积,输出通道设置为2。对于目标中心点位置预测,使用卷积核大小为1×1的卷积,输出通道设置为1。为了弥补下采样导致的中心点位置偏移,引入中心点位置偏置的补偿,使用卷积核大小为1×1的卷积,输出通道设置为2。外观提取分支采用与检测分支相同的头部,为了输出目标中心点的128维度外观信息编码,使用卷积核大小为1×1的卷积,输出通道设置为128。检测的流程图如图5所示。
步骤5跟踪器第一次关联;
本发明采用指数移动平均特征进行跟踪目标的身份特征的表示。该方法能使目标的身份特征表示更加的稳定,不会因为最近几帧的遮挡、模糊而导致目标外观失效,同时,这种方式也减少了关联所需的计算量。我们的目标身份特征表示计算方法如下。
Figure BDA0004136182620000041
针对跟踪器的第一次关联,本发明结合外观信息与运动信息构造第一次关联所需的代价矩阵。本发明构造了一个检测置信度scorej相关的函数,用来计算当前目标j的权重因子λ,加权因子λ用于调整外观与运动作为代价矩阵的权重。scorej由检测模型预测得出。当出现遮挡时,该方法能够给予代价矩阵更大的运动相关的权重,从而有效的弥补了遮挡时外观特征无法较好的描述车辆真实外观而导致关联失效的问题,检测置信度相关的函数如下所示。
Figure BDA0004136182620000051
最终构建的代价矩阵C的计算公式如下。
Figure BDA0004136182620000052
其中,Ci,j为矩阵C的第(i,j)个元素,
Figure BDA0004136182620000053
为轨迹i的指数移动平均特征与当前帧上目标j的外观特征两者之间的余弦距离,/>
Figure BDA0004136182620000054
为轨迹i通过卡尔曼滤波预测的位置与当前帧上目标j的检测位置两者之间的iou距离。
步骤6跟踪器第二次关联;
本发明将第一次关联中失配的跟踪轨迹与当前帧上低于检测置信度τdet的初始轨迹进行匹配,由于低置信度的外观特征不可信,我们没有将外观纳入关联矩阵的计算。而直接采用iou构建第二次关联所需要的代价矩阵。
步骤7跟踪器后处理;
跟踪器的后处理阶段包括三个部分,分别为关联轨迹信息的更新,剔除消亡轨迹以及初始化新的轨迹。对于成功关联当前帧上检测信息的跟踪轨迹,将当前帧的检测信息作为测量值,对卡尔曼滤波预测的状态向量以及协方差矩阵进行更新。本发明为了适应驾驶场景的需求,将卡尔曼滤波模型的状态向量调整为
Figure BDA0004136182620000055
其中,u,v为目标中心的水平位置、垂直位置,w,h表示边界框的宽高。/>
Figure BDA0004136182620000056
分别表示对应参数对时间的微商,反映其变化速度。这样的设计,很好的适应了车辆运动的特点,即场景中车辆转弯时,相机传感器上对应目标的宽高都会发生明显的变化。同时,将第k帧所对应卡尔曼滤波算法的过程噪声协方差Qk以及观测噪声协方差Rk设计为随时间变化的函数,公式如下所示。/>
Figure BDA0004136182620000057
Figure BDA0004136182620000058
式中:σw为运动的噪声因子,设为0.07。σv为速度的噪声因子,设为0.01。σm为观测的噪声因子,设为0.07。wk-1为第k-1帧边界框的宽,hk-1为第k-1帧边界框的高。
对于未能成功关联当前帧上检测信息的跟踪轨迹,本发明没有立即销毁该轨迹,而是在其内部记录了一个累加未关联帧数的累加器,累加器从0开始记录连续关联失败的帧数,一旦当前帧关联失败,则加1。这些标记为未关联的轨迹在后续帧上依然逐帧进行卡尔曼滤波的预测并与检测信息进行基于代价矩阵的关联,如果该轨迹在后续帧中重新关联上当前帧的轨迹信息,则标记为跟踪状态,一旦轨迹超过设定的最大允许未关联帧数,则将该轨迹销毁。
对于初始化轨迹部分,其目的是处理视频流中新出现的车辆,将所有未能与历史轨迹关联的检测信息初始化为一个轨迹。为了防止由于检测器误检导致产生错误的轨迹信息,本发明初始化轨迹的逻辑为只有在当前帧初始化并且在下一帧能够完成关联的轨迹能够参与后续的轨迹关联,而未能在下一帧完成关联的轨迹则直接视为检测器的误检进行滤除。特殊地,本发明直接将第一帧检测出来的目标进行轨迹初始化并参与后续的轨迹关联。跟踪的流程图如图6所示。
综上所述为本发明提出的一种适应车辆运动特点的多目标跟踪算法。
上文所列出的一系列的详细说明仅仅是针对本发明的可行性实施方式的具体说明,它们并非用以限制本发明的保护范围,凡未脱离本发明技术所创的等效方式或变更均应包含在本发明的保护范围之内。
本发明未涉及部分与现有技术相同或可采用现有技术加以实现。

Claims (6)

1.一种适应车辆运动特点的多目标跟踪方法,其特征是:它包括多信息提取主干模块构建、多任务平衡模块构建、卡尔曼滤波运动模型设置、代价矩阵以及多级联跟踪器设置;它围绕主干网络设计,运动模型调整以及跟踪器跟踪流程对多目标跟踪模型进行了改进;通过引入High-Resolution Net作为主干网络以及使用多任务平衡模块对检测分支与外观信息提取分支做进一步的解耦,有效的平衡了检测与外观信息提取两个任务在网络训练时的竞争;通过对卡尔曼滤波运动模型的状态向量调整,使得多目标跟踪模型能够适应车辆在转弯时出现的横纵比变化;通过级联的跟踪器流程设计防止对较低置信度的目标跟踪的失效;其中:
所述的多信息提取主干模块构建时联合学习检测与外观的特征权重,通过共享的特征权重预测目标的检测置信度,边界框以及深度外观表征;
所述的多任务平衡模块构建是为了进一步平衡目标检测与外观信息在学习时对主干的竞争;对检测分支与外观信息提取分支进行解耦,使用两个完全相同的通道注意力结构,分别输出检测特征图以及外观特征图,对于检测特征图通过三个完全相同的检测头分别预测当前帧目标的中心点位置,目标的中心点位置偏移以及目标宽高;对于外观特征图,使用与检测分支相同结构的头部生成每个目标的128维度深度外观信息;
所述的卡尔曼滤波运动模型设置是将状态向量调整为
Figure FDA0004136182600000011
以适应驾驶场景中目标车辆转弯时在相机传感器的像素层上对应目标的横纵比发生线性变化的特点;
所述的代价矩阵以及多级联跟踪器设置是:
当车辆发生遮挡时,网络输出的深度外观特征不能较好的描述车辆目标的实际外观,因此针对代价矩阵,同时使用了基于运动的iou距离度量以及基于外观的最小余弦距离度量进行跟踪。
2.根据权利要求1所述的方法,其特征是:为了解决目标检测与外观信息提取之间的冲突,引入了High-Resolution Net作为主干网路;HRNet由并行的high-to-low分辨率子网组成,同时,对于不同分辨率子网通过上采样或者下采样后拼接的方式实现多尺度信息融合;输出特征图保持高分辨率,其尺度为原图的四分之一,以满足外观信息提取的需求,而多尺度融合的方式使得输出特征图也具有更丰富的语义信息,满足了目标检测的需求。
3.根据权利要求1所述的方法,其特征是:跟踪器通过在构建好的代价矩阵上应用匈牙利算法完成前后帧上目标的关联。
4.根据权利要求1所述的方法,其特征是:构建了一个检测置信度变量score相关的函数以求出加权因子λ,该加权因子调整外观与运动作为代价矩阵的权重。
5.根据权利要求1所述的方法,其特征是:为有效的弥补遮挡场景下深度外观特征的失真,在跟踪器的关联流程上,为了防止当前帧上有用的目标检测信息由于检测置信度较低导致滤除;在关联过程中根据检测置信度阈值τdet将检测出的目标分成两部分,对于高于τdet的检测框,采用上述联合外观与运动的关联逻辑进行当前帧上轨迹的关联,当前关联为第一次关联;对于当前帧上的低置信度检测框,将他们与第一次关联中未能匹配的轨迹进行基于运动模型的关联,此时为第二次关联。
6.根据权利要求1或5所述的方法,其特征是:所述的跟踪器还包括后处理;跟踪器的后处理包括三个部分,分别为关联轨迹信息的更新,剔除消亡轨迹以及初始化新的轨迹;对于成功关联当前帧上检测信息的跟踪轨迹,将当前帧的检测信息作为测量值,对卡尔曼滤波预测的状态向量以及协方差矩阵进行更新;为了适应驾驶场景的需求,将卡尔曼滤波模型的状态向量调整为
Figure FDA0004136182600000021
其中,u,v为目标中心的水平位置、垂直位置,q,h表示边界框的宽高;/>
Figure FDA0004136182600000022
分别表示对应参数对时间的微商,反映其变化速度;以适应车辆运动的特点,即场景中车辆转弯时,相机传感器上对应目标的宽高都会发生明显的变化;同时,将第k帧所对应卡尔曼滤波算法的过程噪声协方差Qk以及观测噪声协方差Rk设计为随时间变化的函数,公式如下所示:
Figure FDA0004136182600000023
Figure FDA0004136182600000024
式中:σw为运动的噪声因子,设为0.07。σv为速度的噪声因子,设为0.01。σm为观测的噪声因子,设为0.07。wk-1为第k-1帧边界框的宽,hk-1为第k-1帧边界框的高。
对于未能成功关联当前帧上检测信息的跟踪轨迹,不立即销毁该轨迹,而是在其内部记录一个累加未关联帧数的累加器,累加器从0开始记录连续关联失败的帧数,一旦当前帧关联失败,则加1;这些标记为未关联的轨迹在后续帧上依然逐帧进行卡尔曼滤波的预测并与检测信息进行基于代价矩阵的关联,如果该轨迹在后续帧中重新关联上当前帧的轨迹信息,则标记为跟踪状态,一旦轨迹超过设定的最大允许未关联帧数,则将该轨迹销毁;
对于初始化轨迹部分,其目的是处理视频流中新出现的车辆,将所有未能与历史轨迹关联的检测信息初始化为一个轨迹;为了防止由于检测器误检导致产生错误的轨迹信息,初始化轨迹的逻辑为只有在当前帧初始化并且在下一帧能够完成关联的轨迹能够参与后续的轨迹关联,而未能在下一帧完成关联的轨迹则直接视为检测器的误检进行滤除或直接将第一帧检测出来的目标进行轨迹初始化并参与后续的轨迹关联。
CN202310275705.3A 2023-03-21 2023-03-21 一种适应车辆运动特点的多目标跟踪方法 Pending CN116152297A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202310275705.3A CN116152297A (zh) 2023-03-21 2023-03-21 一种适应车辆运动特点的多目标跟踪方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202310275705.3A CN116152297A (zh) 2023-03-21 2023-03-21 一种适应车辆运动特点的多目标跟踪方法

Publications (1)

Publication Number Publication Date
CN116152297A true CN116152297A (zh) 2023-05-23

Family

ID=86354452

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202310275705.3A Pending CN116152297A (zh) 2023-03-21 2023-03-21 一种适应车辆运动特点的多目标跟踪方法

Country Status (1)

Country Link
CN (1) CN116152297A (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116883458A (zh) * 2023-09-06 2023-10-13 中国科学技术大学 基于Transformer并融合以观测为中心运动特征的多目标跟踪系统
CN116993779A (zh) * 2023-08-03 2023-11-03 重庆大学 一种适于监控视频下的车辆目标跟踪方法
CN117495917A (zh) * 2024-01-03 2024-02-02 山东科技大学 基于jde多任务网络模型的多目标跟踪方法

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116993779A (zh) * 2023-08-03 2023-11-03 重庆大学 一种适于监控视频下的车辆目标跟踪方法
CN116993779B (zh) * 2023-08-03 2024-05-14 重庆大学 一种适于监控视频下的车辆目标跟踪方法
CN116883458A (zh) * 2023-09-06 2023-10-13 中国科学技术大学 基于Transformer并融合以观测为中心运动特征的多目标跟踪系统
CN116883458B (zh) * 2023-09-06 2024-01-09 中国科学技术大学 基于Transformer并融合以观测为中心运动特征的多目标跟踪系统
CN117495917A (zh) * 2024-01-03 2024-02-02 山东科技大学 基于jde多任务网络模型的多目标跟踪方法
CN117495917B (zh) * 2024-01-03 2024-03-26 山东科技大学 基于jde多任务网络模型的多目标跟踪方法

Similar Documents

Publication Publication Date Title
CN111460926B (zh) 一种融合多目标跟踪线索的视频行人检测方法
CN116152297A (zh) 一种适应车辆运动特点的多目标跟踪方法
CN113807187B (zh) 基于注意力特征融合的无人机视频多目标跟踪方法
Cui et al. Remote sensing object tracking with deep reinforcement learning under occlusion
CN111260738A (zh) 基于相关滤波和自适应特征融合的多尺度目标跟踪方法
CN113409361B (zh) 一种多目标跟踪方法、装置、计算机及存储介质
Kampelmühler et al. Camera-based vehicle velocity estimation from monocular video
CN105913459B (zh) 基于高分辨率连拍图像的运动目标检测方法
CN105374049B (zh) 一种基于稀疏光流法的多角点跟踪方法及装置
CN112507845B (zh) 基于CenterNet与深度关联矩阵的行人多目标跟踪方法
Pavel et al. Recurrent convolutional neural networks for object-class segmentation of RGB-D video
CN114049382A (zh) 一种智能网联环境下目标融合跟踪方法、系统和介质
Wu et al. Multivehicle object tracking in satellite video enhanced by slow features and motion features
CN114973112A (zh) 一种基于对抗学习网络的尺度自适应密集人群计数方法
CN117036397A (zh) 一种基于融合信息关联和相机运动补偿的多目标跟踪方法
Li et al. A bottom-up and top-down integration framework for online object tracking
CN114926859A (zh) 一种结合头部跟踪的密集场景下行人多目标跟踪方法
Li et al. A collaborative learning tracking network for remote sensing videos
Ahad et al. Motion history image
CN115100565B (zh) 一种基于空间相关性与光流配准的多目标跟踪方法
CN116777956A (zh) 基于多尺度航迹管理的运动目标筛选方法
CN110147768B (zh) 一种目标跟踪方法及装置
CN117252908A (zh) 一种基于注意力的抗遮挡多目标跟踪方法
Liu et al. Find small objects in UAV images by feature mining and attention
US20070217654A1 (en) Video data tracker

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination