CN113034545A - 一种基于CenterNet多目标跟踪算法的车辆跟踪方法 - Google Patents

一种基于CenterNet多目标跟踪算法的车辆跟踪方法 Download PDF

Info

Publication number
CN113034545A
CN113034545A CN202110326193.XA CN202110326193A CN113034545A CN 113034545 A CN113034545 A CN 113034545A CN 202110326193 A CN202110326193 A CN 202110326193A CN 113034545 A CN113034545 A CN 113034545A
Authority
CN
China
Prior art keywords
network
vehicle
tracking
convolution
target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
CN202110326193.XA
Other languages
English (en)
Inventor
卢新彪
唐紫婷
刘雅童
杭帆
李亦秦
李芳�
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hohai University HHU
Original Assignee
Hohai University HHU
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hohai University HHU filed Critical Hohai University HHU
Priority to CN202110326193.XA priority Critical patent/CN113034545A/zh
Publication of CN113034545A publication Critical patent/CN113034545A/zh
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/277Analysis of motion involving stochastic approaches, e.g. using Kalman filters
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/07Target detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/08Detecting or categorising vehicles

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Biomedical Technology (AREA)
  • Mathematical Physics (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于CenterNet多目标跟踪算法的车辆跟踪方法,包括以下步骤:S1:拍摄车辆图片并标注得到车辆数据集;S2:将车辆数据集转换得到标签文档,将该文档及拍摄的图片作为新数据集,划分训练集和测试集;S3:基于FairMOT框架,采用HRnet网络作为目标检测CenterNet的主干网络,引入注意力机制ECA‑Net,构建FairMOT的目标检测和重识别网络;S4:将目标检测和重识别网络得到的检测结果送入FairMOT的跟踪网络,并使用训练集对整体网络进行训练,在训练时采用Lookahead和Adam结合的方法进行优化,网络参数收敛后得到训练完成的目标跟踪模型;S5:使用测试集对训练好的目标跟踪模型进行测试,输出目标车辆跟踪结果。本发明有效地降低了损失,提高了精度。

Description

一种基于CenterNet多目标跟踪算法的车辆跟踪方法
技术领域
本发明涉及计算机视觉相关技术领域,具体是一种基于CenterNet多目标跟踪算法的车辆跟踪方法。
背景技术
多目标跟踪已经成为计算机视觉领域的一个研究热点,在动作识别,公共安全,运动视频分析,老人护理和人机交互等方面有着广泛的应用。近年来,目标跟踪的方法大多基于深度学习,根据学习特征进行跟踪,如表观特征的深度学习、相似性度量的深度学习、高阶特征匹配的深度学习等。这些方法虽然可以准确跟踪目标,提高算法的准确性,但模型的过度复杂会导致跟踪算法无法满足实时性。
多目标跟踪主要是估计视频中多个感兴趣对象的轨迹,现有方法通常通过两个单独的模型解决该问题:检测模型首先通过每一帧的bbox来定位感兴趣物体,常见的算法有RCNN系列、yolo系列和CenterNet等,然后关联模型为每个边界框提取重识别特征,常见的算法有sort、deepsort和KCF等。近年来,分别在目标检测和重识别上取得了显著进步,这又提高了跟踪性能。但是,因为两个网络不共享特征并且在视频中需要为每一个bbox提供重识别模型,所以这些方法无法在有大量物体的时候实时执行推理。
随着多任务学习的成熟,联合检测和重识别的一键式(one-shot)方法开始引起人们的更多关注。Voigtlaender等人提出在Mask R-CNN顶部添加re-ID分支来获得使用ROI-Align得到的proposals的re-ID特征,为re-ID网络重新使用backbone特征减少了推理时间。然而,与两阶段相比,跟踪准确率显著下降。特别地,ID变换大大增加。主要有两个方面的原因:1、锚造成的不公平:级联模型先从检测框中收集特征,这使得重识别特征质量依赖于先前的任务。基于锚的方法通常使用ROI-Pool或ROI-Align来采样特征,但是大多数采样位置可能属于其他干扰实例或背景。所以最好的采样位置是在对象的中心。2、特征造成的不公平:对于单网络追踪器而言,大多数特征在目标识别和重检测任务之间共享。然而,这两个任务对特征的要求大相径庭,目标检测需要深层的抽象特征来取得最好的效果,而重标记任务需要的是浅层的外观特征以区分不同的实体。多层特征聚合是解决这一矛盾的有效方法,它允许两个任务(网络分支)从多层聚合的特征中提取出它们需要的任何特征。
对于上述问题的解决,许多学者研究已经做了很多较好的研究成果,FairMOT(ASimple Baseline for Multi-Object Tracking)在无锚目标检测方法的基础上,引进了一个框架来平衡检测和重识别任务,同时提出一种自监督学习方法在大规模检测数据集上训练FairMOT来提高泛化能力。虽然实施效果很好,但是,其仍然存在着一些问题,比如损失值偏高同时损失值下降的速度慢,对车辆的跟踪可能存在漏帧等情况。
发明内容
本发明的目的是为了解决FairMOT训练过程中损失值偏高同时下降的速度慢,及车辆的跟踪可能存在漏帧的问题,对CenterNet的主干网络HRnet进行改进,增加注意力机制ECA-Net来进一步提取出网络的深层特征,同时对优化器进行改进,使用了Lookahead和Adam结合的方法来进行优化,提高网络的训练速度和精度,降低了损失。
本发明为实现上述目的,采用如下技术方案:一种基于CenterNet多目标跟踪算法的车辆跟踪方法,包括以下步骤:
S1:拍摄不同场景、角度和距离的车辆图片,并在图片上标注车辆的名称,车辆id,左上角坐标和右下角坐标,得到标注的车辆数据集;
S2:将S1得到的车辆数据集进行转换,得到包括车辆id,中心点坐标和长宽的文档,将该文档及拍摄的图片作为新的数据集,并划分训练集和测试集;
S3:基于FairMOT框架,采用HRnet网络作为目标检测CenterNet的主干网络,引入注意力机制ECA-Net对该网络进行改进,构建FairMOT的目标检测和重识别网络;
S4:将目标检测和重识别网络得到的检测结果输入FairMOT的跟踪网络,使用训练集对整体网络进行训练,在训练时采用Lookahead和Adam结合的方法进行优化,网络参数收敛后得到训练完成的目标跟踪模型;
S5:使用测试集对训练好的目标跟踪模型进行测试,输出目标车辆跟踪结果。
进一步的,步骤S3中,构建目标检测网络,方法如下:
HRnet网络的输入为车辆图片和相应文档,读取图片的像素,同时将文档信息转化为热力图;HRnet网络输出高分辨率特征图;HRnet网络包括三个模块:基本模块、高分辨率模块和整合模块;基本模块包括BasicBlock和Bottleneck;
在BasicBlock中,每个卷积块后面进行归一化,同时在残差连接前的3×3卷积之后接入归一化,不使用ReLU,当模块输入和残差支路的通道数一致时,直接相加;当两者通道不一致时,对模块输入特征使用1×1卷积进行升/降维,之后再进行归一化;
在Bottleneck中,使用1×1卷积先降维,再使用3×3卷积进行特征提取,最后再使用1×1卷积将维度回升;每个卷积块后面进行归一化,同时在残差连接前的3×3卷积之后接入归一化,不使用ReLU,当模块输入和残差支路的通道数一致时,直接相加;当两者通道不一致时,对模块输入特征使用1×1卷积进行升/降维,之后再进行归一化;
在HRnet的残差网络中引入注意力机制ECA-Net,读取输入特征图的通道数和卷积核的大小;ECA-Net在每次残差相加前进行操作,通过不降维的局部跨信道交互策略和自适应选择一维卷积核大小的方法,避免特征维度的缩减和增加通道信息间的交互;在ECA-Net中,利用矩阵Wk来学习通道注意力,Wk表示如下:
Figure BDA0002994764080000031
式中wi,j表示i通道与j通道之间的信息传递矩阵,c为通道数,k为卷积核,下标odd表示最近的奇数,γ=2,b=1;通过全局最大池化得到1*1*c的向量,然后通过一维卷积来实现跨通道间的信息交互,其中一维卷积核的大小通过矩阵Wk自适应。
进一步的,步骤S4中,改变训练时的优化器,使用Lookahead和Adam结合的方法进行优化,Adam算法基于训练数据迭代地更新神经网络权重;Lookahead算法迭代地更新两组权重,通过提前观察Adam优化器生成的权重序列,来选择搜索方向;两组权重具体如下:
(1)fast weights快权重,由内循环优化器生成k次序列权重,内循环优化器即Adam优化器,给定优化器A,目标函数L,当前训练的小批次样本d,更新规则为:
θt,i+1=θt,i+A(L,θt,i-1,d),i=1,2,…,k
式中θt,i为t时刻第i步的快权重的输入,将该轮循环的k次权重用序列保存下来;
(2)slow weights慢权重,在每轮内循环结束后,根据本轮的i次权重,采用指数移动平均得到slow weights,计算公式如下:
Figure BDA0002994764080000032
其中
Figure BDA0002994764080000033
为t时刻慢权重的输入,
Figure BDA0002994764080000034
为慢权重的步长。
有益效果:与现有技术相比,本发明改进的HRnet网络对于深度特征提取效果更佳,由于自制数据集的数量有限,采用了数据增强的方法,进一步提高了模型的精确度;使用Lookahead结合Adam优化器实现更快的收敛、更好的泛化性能,且模型对超参数改变的鲁棒性更强,训练时的loss从原来的2.4%降至1.5%,有效地降低了损失,提高了精度。
附图说明
图1是本发明方法的总流程图;
图2是HRnet基本模块流程图;
图3是跟踪算法流程图;
图4是训练原算法和修改优化器后的训练效果对比图;
图5是训练原算法和修改优化器以及加入注意力机制后的训练效果对比图;
图6是本发明方法在单摄像头的场景下对单辆智能车跟踪效果图;
图7是本发明方法在单摄像头的场景下对两辆智能车跟踪效果图;
图8是本发明方法在单摄像头的场景下对三辆智能车跟踪效果图。
具体实施方式
为使本发明实施方式的目的、技术方案和优点更加清楚,下面将结合附图对本发明实施方式中的技术方案进行清楚、完整地描述,显然,所描述的实施方式是本发明一部分实施方式,而不是全部的实施方式。
本发明所述的基于CenterNet多目标跟踪算法的车辆跟踪方法,包括以下步骤:
S1:拍摄不同场景、角度和距离的车辆图片,并在图片上标注车辆的名称,车辆id,左上角坐标和右下角坐标,得到标注的车辆数据集。
目标检测和重识别的效果与数据集息息相关,因此,数据集必须足够充分。在数据集制作的过程中,需要考虑到智能车在场景中可能出现的所有情况。
本实施例中采用的数据集为实验室自制智能小车数据集,目标跟踪对象是一辆或者多辆小车。从不同的角度、距离、场景拍摄小车图片,得到包含小车的560张图片和50个视频,将视频剪成帧后共2790张图片。每个图像或视频中包含的小车数量、大小、角度都不同,最后用数据集标注软件,标注图片中的小车,得到每个图片对应的标签文件,获得标注的车辆数据集。
S2:将S1得到的车辆数据集进行转换,得到包括车辆id,中心点坐标和长宽的文档,将该文档及拍摄的图片作为新的数据集,用于目标检测和重识别;数据集中取90%作为训练集,再取最后的10%作为测试集。
S3:基于FairMOT框架,采用HRnet网络作为目标检测CenterNet算法中的主干网络,引入注意力机制ECA-Net对该主干网络进行改进,通过考虑每个通道及其近邻来实现跨通道交互,构建FairMOT的目标检测和重识别网络。
HRnet着重于输出可靠的高分辨率表征,能在整个过程中都保持着高分辨率的表征。从高分辨率子网络作为第一阶段开始,逐步增加高分辨率到低分辨率的子网,形成更多的阶段,并将多分辨率子网并行连接,进行多次多尺度融合,使得每个高分辨率到低分辨率的表征都可从其他并行中反复接受信息,从而得到丰富的高分辨率表征,所以将其用在目标检测和重识别网络中,用其提取到的高分辨率特征图来进行检测和重识别。然后,本发明在HRnet的Resnet(残差)块中引入了ECA-Net,只用读取输入特征图的通道数和卷积核的大小便可以达到两个目的:1、避免特征维度的缩减;2、增加通道间信息的交互,在降低复杂度的同时保持良好的性能。
HRnet网络的输入为车辆图片和含有车辆id,中心点坐标和长宽信息的文档,读取图片的像素,同时将文档信息转化为热力图;HRnet网络输出高分辨率特征图;HRnet网络包括三个模块:基本模块、高分辨率模块和整合模块;改进的模块在基本模块,基本模块包括BasicBlock和Bottleneck;
在BasicBlock中,如图2(a)所示,每个卷积块后面进行归一化,同时在残差连接前的3×3卷积之后接入归一化,不使用ReLU,避免加和之后的特征皆为正,保持特征的多样;当模块输入和残差支路的通道数一致时,直接相加;当两者通道不一致时,对模块输入特征使用1×1卷积进行升/降维,之后再进行归一化;
在Bottleneck中,如图2(b)所示,使用1×1卷积先降维,再使用3×3卷积进行特征提取,最后再使用1×1卷积将维度回升;与BasicBlock相似,每个卷积块后面进行归一化,同时在残差连接前的3×3卷积之后接入归一化,不使用ReLU,避免加和之后的特征皆为正,保持特征的多样;当模块输入和残差支路的通道数一致时,直接相加;当两者通道不一致时,对模块输入特征使用1×1卷积进行升/降维,之后再进行归一化;
在HRnet的残差网络中引入注意力机制ECA-Net,读取输入特征图的通道数和卷积核的大小;ECA-Net在每次残差相加前进行操作,通过不降维的局部跨信道交互策略(ECA模块)和自适应选择一维卷积核大小的方法,避免特征维度的缩减和增加通道信息间的交互;在ECA-Net中,利用矩阵Wk来学习通道注意力,Wk表示如下:
Figure BDA0002994764080000051
式中wi,j表示i通道与j通道之间的信息传递矩阵,c为通道数,k为卷积核,下标odd表示最近的奇数,γ=2,b=1;通过全局最大池化得到1*1*c的向量,然后通过一维卷积来实现跨通道间的信息交互,其中一维卷积核的大小通过矩阵Wk自适应,使得通道数较大的层可以更多地进行跨通道间的交互。
S4:将目标检测和重识别网络得到的检测结果输入FairMOT的跟踪网络,使用训练集对整体网络进行训练,在训练时采用Lookahead和Adam结合的方法进行优化,网络参数收敛后得到训练完成的目标跟踪模型。
改变训练时的优化器,使用Lookahead和Adam结合的方法进行优化,实现更快的收敛、更好的泛化性能,且模型对超参数改变的鲁棒性更强。Adam优化算法是一种可以替代传统随机梯度下降过程的一阶优化算法,它基于训练数据迭代地更新神经网络权重;Lookahead算法迭代地更新两组权重,通过提前观察Adam优化器生成的权重序列来选择搜索方向,能够提升学习稳定性,不仅降低了调参需要的时间,同时还提升收敛速度与效果;两组权重具体如下:
(1)fast weights快权重,由内循环优化器生成k次序列权重,内循环优化器即Adam优化器,给定优化器A,目标函数L,当前训练的小批次样本d,更新规则为:
θt,i+1=θt,i+A(L,θt,i-1,d),i=1,2,…,k
式中θt,i为t时刻第i步的快权重的输入,将该轮循环的k次权重用序列保存下来;
(2)slow weights慢权重,在每轮内循环结束后,根据本轮的i次权重,采用指数移动平均得到slow weights,计算公式如下:
Figure BDA0002994764080000061
其中
Figure BDA0002994764080000062
为t时刻慢权重的输入,
Figure BDA0002994764080000063
为慢权重的步长。
Lookahead算法与Adam算法相结合对内部循环优化器、fast weight更新次数以及slow weights学习率的改变具备鲁棒性。fast weights和slow weights的结合改进了高曲率方向上的学习,降低了方差,并且使得Lookahead可以实现更快的收敛。
跟踪算法流程如图3所示,本发明采用的FairMOT框架包括目标检测和重识别网络及跟踪网络,检测框架采用CenterNet。输入智能车图片和含有智能车id,中心点坐标和长宽信息的文本文件确定得到初始帧,然后同时进行目标检测和重识别,目标检测会得到热力图、中心点偏移量和检测框的大小。将目标检测得到的特征值输入重识别中进行特征提取,判断目标属于哪一类。将目标检测和重识别网络得到的目标框输入跟踪网络,跟踪网络包括卡尔曼滤波、距离代价函数和匈牙利匹配。用卡尔曼滤波预测新位置,卡尔曼滤波可以在含有不确定信息的动态系统中对下一步的走向做出有根据的预测,但只是粗糙的预测;距离代价函数包括余弦距离矩阵和马氏距离矩阵,首先计算跟踪框和检测框的余弦距离矩阵,计算第i个物体跟踪的所有特征向量和第j个物体检测的之间的最小余弦距离。如果距离小于指定的阈值,那么这个关联就是成功的。阈值是从训练集训练里得到的数值。计算马氏距离矩阵,看追踪和检测的状态向量的前四维度的接近程度。由于上下帧之间移动距离不会相差太远,所以坐标越接近就越可能是同一个目标。接着进行匈牙利匹配,解决分配问题,找到一个最优分配,使得完成所有任务的代价最小。即,在卡尔曼滤波的基础上使用匈牙利算法将卡尔曼滤波预测的值与物体检测的值进行匹配,选择合适的检测框作为下一时刻物体跟踪的框。最后,更新追踪系统,确定最终的目标位置。
S5:使用测试集对训练好的目标跟踪模型进行测试,输出目标车辆跟踪结果。
本实施例记录改进前后的网络训练时间以及loss值,如图4和图5,本发明使用自制数据集训练原算法和修改优化器Lookahead+Adam后的训练效果对比以及使用自制数据集训练原算法和修改优化器Lookahead+Adam以及主干网络加入注意力机制ECA-Net后的训练效果对比,可以看出优化后的算法收敛速度更快且loss值更低,说明优化后的算法具有更快的收敛速度且损失值降低。通过在测试集上的测试可得,原算法的准确率为0.9837,而改进后的算法的准确率为0.9892,准确率得到了一定的提高。最后通过对拍摄的智能车视频进行跟踪,发现改进后的算法不存在漏帧的情况,且能实现对一辆或者多辆智能车的跟踪。本实施例采用本发明改进的方法在单摄像头的场景下对单辆和多辆智能车跟踪效果分别如图6~图8所示,随机截取了两帧的结果来显示出跟踪的效果,图6(a)和6(b)分别是第17帧和31帧的跟踪效果,图7(a)和7(b)分别是第12帧和32帧的跟踪效果,图8(a)和8(b)分别是第10帧和36帧的跟踪效果。
本发明的工作原理是:首先,通过拍摄各个角度智能车照片,并在照片上标注,得到小车的数据集;然后将标注得到的智能车数据集进行转换,得到包括id,中心点坐标和长宽的文档,并将该文档用于目标检测和重识别;再对于目标检测CenterNet中的主干网络HRnet网络进行改进,引入了注意力机制ECA-Net,增加通道间信息的交互,在降低复杂度的同时保持良好的性能;同时优化训练时的优化器,使用了Lookahead和Adam结合的方法来进行优化,实现更快的收敛、更好的泛化性能,且模型对超参数改变的鲁棒性更强;最后记录改进前后的网络训练时间以及loss值,收敛速度更快且loss值更低,准确率得到了一定的提高。通过对拍摄的智能车视频进行跟踪,发现改进后的算法不存在漏帧的情况,且能实现对一辆或者多辆智能车的跟踪。
最后应说明的是:以上所述仅为本发明的优选实施例而已,并不用于限制本发明,尽管参照前述实施例对本发明进行了详细的说明,对于本领域的技术人员来说,其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换。凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

Claims (3)

1.一种基于CenterNet多目标跟踪算法的车辆跟踪方法,其特征在于:该方法包括以下步骤:
S1:拍摄不同场景、角度和距离的车辆图片,并在图片上标注车辆的名称,车辆id,左上角坐标和右下角坐标,得到标注的车辆数据集;
S2:将S1得到的车辆数据集进行转换,得到包括车辆id,中心点坐标和长宽的文档,将该文档及拍摄的图片作为新的数据集,并划分训练集和测试集;
S3:基于FairMOT框架,采用HRnet网络作为目标检测CenterNet的主干网络,引入注意力机制ECA-Net对该网络进行改进,构建FairMOT的目标检测和重识别网络;
S4:将目标检测和重识别网络得到的检测结果输入FairMOT的跟踪网络,使用训练集对整体网络进行训练,在训练时采用Lookahead和Adam结合的方法进行优化,网络参数收敛后得到训练完成的目标跟踪模型;
S5:使用测试集对训练好的目标跟踪模型进行测试,输出目标车辆跟踪结果。
2.根据权利要求1所述的基于CenterNet多目标跟踪算法的车辆跟踪方法,其特征在于:步骤S3中,构建目标检测网络,方法如下:
HRnet网络的输入为车辆图片和相应文档,读取图片的像素,同时将文档信息转化为热力图;HRnet网络输出高分辨率特征图;HRnet网络包括三个模块:基本模块、高分辨率模块和整合模块;基本模块包括BasicBlock和Bottleneck;
在BasicBlock中,每个卷积块后面进行归一化,同时在残差连接前的3×3卷积之后接入归一化,不使用ReLU,当模块输入和残差支路的通道数一致时,直接相加;当两者通道不一致时,对模块输入特征使用1×1卷积进行升/降维,之后再进行归一化;
在Bottleneck中,使用1×1卷积先降维,再使用3×3卷积进行特征提取,最后再使用1×1卷积将维度回升;每个卷积块后面进行归一化,同时在残差连接前的3×3卷积之后接入归一化,不使用ReLU,当模块输入和残差支路的通道数一致时,直接相加;当两者通道不一致时,对模块输入特征使用1×1卷积进行升/降维,之后再进行归一化;
在HRnet的残差网络中引入注意力机制ECA-Net,读取输入特征图的通道数和卷积核的大小;ECA-Net在每次残差相加前进行操作,通过不降维的局部跨信道交互策略和自适应选择一维卷积核大小的方法,避免特征维度的缩减和增加通道信息间的交互;在ECA-Net中,利用矩阵Wk来学习通道注意力,Wk表示如下:
Figure FDA0002994764070000011
c=2(γ*k-b)
Figure FDA0002994764070000012
式中wi,j表示i通道与j通道之间的信息传递矩阵,c为通道数,k为卷积核,下标odd表示最近的奇数,γ=2,b=1;通过全局最大池化得到1*1*c的向量,然后通过一维卷积来实现跨通道间的信息交互,其中一维卷积核的大小通过矩阵Wk自适应。
3.根据权利要求1或2所述的基于CenterNet多目标跟踪算法的车辆跟踪方法,其特征在于:步骤S4中,改变训练时的优化器,使用Lookahead和Adam结合的方法进行优化,Adam算法基于训练数据迭代地更新神经网络权重;Lookahead算法迭代地更新两组权重,通过提前观察Adam优化器生成的权重序列,来选择搜索方向;两组权重具体如下:
(1)fast weights快权重,由内循环优化器生成k次序列权重,内循环优化器即Adam优化器,给定优化器A,目标函数L,当前训练的小批次样本d,更新规则为:
θt,i+1=θt,i+A(L,θt,i-1,d),i=1,2,…,k
式中θt,i为t时刻第i步的快权重的输入,将该轮循环的k次权重用序列保存下来;
(2)slow weights慢权重,在每轮内循环结束后,根据本轮的i次权重,采用指数移动平均得到slow weights,计算公式如下:
Figure FDA0002994764070000021
其中
Figure FDA0002994764070000022
为t时刻慢权重的输入,
Figure FDA0002994764070000023
为慢权重的步长。
CN202110326193.XA 2021-03-26 2021-03-26 一种基于CenterNet多目标跟踪算法的车辆跟踪方法 Withdrawn CN113034545A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110326193.XA CN113034545A (zh) 2021-03-26 2021-03-26 一种基于CenterNet多目标跟踪算法的车辆跟踪方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110326193.XA CN113034545A (zh) 2021-03-26 2021-03-26 一种基于CenterNet多目标跟踪算法的车辆跟踪方法

Publications (1)

Publication Number Publication Date
CN113034545A true CN113034545A (zh) 2021-06-25

Family

ID=76474206

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110326193.XA Withdrawn CN113034545A (zh) 2021-03-26 2021-03-26 一种基于CenterNet多目标跟踪算法的车辆跟踪方法

Country Status (1)

Country Link
CN (1) CN113034545A (zh)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113538523A (zh) * 2021-09-17 2021-10-22 魔视智能科技(上海)有限公司 车位检测跟踪方法、电子设备及车辆
CN113724293A (zh) * 2021-08-23 2021-11-30 上海电科智能系统股份有限公司 一种基于视觉的智能网联公交场景下目标跟踪方法及系统
CN113888528A (zh) * 2021-10-22 2022-01-04 山东省计算中心(国家超级计算济南中心) 基于改进CenterNet的瓶底模点识别方法及系统
CN113887328A (zh) * 2021-09-10 2022-01-04 天津理工大学 一种eca-cnn融合双通道rnn并行提取光子晶体空间透射谱时空特征的方法
CN114241053A (zh) * 2021-12-31 2022-03-25 北京工业大学 基于改进的注意力机制FairMOT多类别跟踪方法
CN114882380A (zh) * 2022-07-08 2022-08-09 山东省国土测绘院 一种基于改进hrnet模型的湿地资源遥感识别算法
CN114937239A (zh) * 2022-05-25 2022-08-23 青岛科技大学 行人多目标跟踪识别方法及跟踪识别装置
CN115131760A (zh) * 2022-07-17 2022-09-30 西北工业大学 一种基于改进特征匹配策略的轻量级车辆追踪方法
CN115690545A (zh) * 2021-12-03 2023-02-03 北京百度网讯科技有限公司 训练目标跟踪模型和目标跟踪的方法和装置
CN115830078A (zh) * 2023-02-13 2023-03-21 山东科技大学 生猪多目标跟踪及行为识别方法、计算机设备与存储介质
CN115841681A (zh) * 2022-11-01 2023-03-24 南通大学 一种基于通道注意力的行人再识别对抗攻击方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20200065976A1 (en) * 2018-08-23 2020-02-27 Seoul National University R&Db Foundation Method and system for real-time target tracking based on deep learning
CN111476184A (zh) * 2020-04-13 2020-07-31 河南理工大学 一种基于双注意力机制的人体关键点检测方法
CN112270213A (zh) * 2020-10-12 2021-01-26 萱闱(北京)生物科技有限公司 一种基于注意力机制的改进HRnet

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20200065976A1 (en) * 2018-08-23 2020-02-27 Seoul National University R&Db Foundation Method and system for real-time target tracking based on deep learning
CN111476184A (zh) * 2020-04-13 2020-07-31 河南理工大学 一种基于双注意力机制的人体关键点检测方法
CN112270213A (zh) * 2020-10-12 2021-01-26 萱闱(北京)生物科技有限公司 一种基于注意力机制的改进HRnet

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
斌斌有礼: "《基于FairMOT训练的多人脸跟踪(Multi-face tracking)速度和精度都非常好》", 《HTTPS://ZHUANLAN.ZHIHU.COM/P/269778725?UTM_SOURCE=WECHAT_SESSION》 *
机器之心PRO: "《Adam作者大革新,联合Hinton等人推出全新优化方法Lookahead》", 《HTTPS://BAIJIAHAO.BAIDU.COM/S?ID=1640010808881590625&WFR=SPIDER&FOR=PC》 *

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113724293A (zh) * 2021-08-23 2021-11-30 上海电科智能系统股份有限公司 一种基于视觉的智能网联公交场景下目标跟踪方法及系统
CN113887328A (zh) * 2021-09-10 2022-01-04 天津理工大学 一种eca-cnn融合双通道rnn并行提取光子晶体空间透射谱时空特征的方法
CN113538523B (zh) * 2021-09-17 2021-12-31 魔视智能科技(上海)有限公司 车位检测跟踪方法、电子设备及车辆
CN113538523A (zh) * 2021-09-17 2021-10-22 魔视智能科技(上海)有限公司 车位检测跟踪方法、电子设备及车辆
CN113888528A (zh) * 2021-10-22 2022-01-04 山东省计算中心(国家超级计算济南中心) 基于改进CenterNet的瓶底模点识别方法及系统
CN115690545A (zh) * 2021-12-03 2023-02-03 北京百度网讯科技有限公司 训练目标跟踪模型和目标跟踪的方法和装置
CN115690545B (zh) * 2021-12-03 2024-06-11 北京百度网讯科技有限公司 训练目标跟踪模型和目标跟踪的方法和装置
CN114241053B (zh) * 2021-12-31 2024-05-28 北京工业大学 基于改进的注意力机制FairMOT多类别跟踪方法
CN114241053A (zh) * 2021-12-31 2022-03-25 北京工业大学 基于改进的注意力机制FairMOT多类别跟踪方法
CN114937239A (zh) * 2022-05-25 2022-08-23 青岛科技大学 行人多目标跟踪识别方法及跟踪识别装置
CN114937239B (zh) * 2022-05-25 2024-09-17 青岛科技大学 行人多目标跟踪识别方法及跟踪识别装置
CN114882380A (zh) * 2022-07-08 2022-08-09 山东省国土测绘院 一种基于改进hrnet模型的湿地资源遥感识别算法
CN115131760A (zh) * 2022-07-17 2022-09-30 西北工业大学 一种基于改进特征匹配策略的轻量级车辆追踪方法
CN115131760B (zh) * 2022-07-17 2024-04-19 西北工业大学 一种基于改进特征匹配策略的轻量级车辆追踪方法
CN115841681A (zh) * 2022-11-01 2023-03-24 南通大学 一种基于通道注意力的行人再识别对抗攻击方法
CN115830078A (zh) * 2023-02-13 2023-03-21 山东科技大学 生猪多目标跟踪及行为识别方法、计算机设备与存储介质

Similar Documents

Publication Publication Date Title
CN113034545A (zh) 一种基于CenterNet多目标跟踪算法的车辆跟踪方法
CN110298404B (zh) 一种基于三重孪生哈希网络学习的目标跟踪方法
CN108062574B (zh) 一种基于特定类别空间约束的弱监督目标检测方法
CN110120064B (zh) 一种基于互强化与多注意机制学习的深度相关目标跟踪算法
CN111639564B (zh) 一种基于多注意力异构网络的视频行人重识别方法
CN111259786A (zh) 一种基于视频的外观和运动信息同步增强的行人重识别方法
CN111079847B (zh) 一种基于深度学习的遥感影像自动标注方法
CN110728694B (zh) 一种基于持续学习的长时视觉目标跟踪方法
CN113076871A (zh) 一种基于目标遮挡补偿的鱼群自动检测方法
CN113808166B (zh) 基于聚类差分和深度孪生卷积神经网络的单目标跟踪方法
CN110263855B (zh) 一种利用共基胶囊投影进行图像分类的方法
CN111027377A (zh) 一种双流神经网络时序动作定位方法
CN112528845A (zh) 一种基于深度学习的物理电路图识别方法及其应用
CN112507896A (zh) 一种采用改进的yolo-v4模型对樱桃果实进行检测的方法
CN111582178A (zh) 基于多方位信息和多分支神经网络车辆重识别方法及系统
CN114022837A (zh) 车站遗留物品检测方法、装置、电子设备及存储介质
CN112785626A (zh) 一种基于多尺度特征融合的孪生网络小目标跟踪方法
CN114187506B (zh) 视点意识的动态路由胶囊网络的遥感图像场景分类方法
CN115439884A (zh) 一种基于双分支自注意力网络的行人属性识别方法
Abdullah et al. Vehicle counting using deep learning models: a comparative study
CN111444816A (zh) 一种基于Faster RCNN的多尺度密集行人检测方法
CN117079024A (zh) 融合不确定度估计和增量阶段判别的图像类增量学习算法
CN107273478A (zh) 一种基于Group Lasso的半监督哈希图像搜索方法
CN114820723B (zh) 一种基于联合检测和关联的在线多目标跟踪方法
CN114429648B (zh) 一种基于对比特征的行人重识别方法及系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
WW01 Invention patent application withdrawn after publication

Application publication date: 20210625

WW01 Invention patent application withdrawn after publication