CN114241053A - 基于改进的注意力机制FairMOT多类别跟踪方法 - Google Patents

基于改进的注意力机制FairMOT多类别跟踪方法 Download PDF

Info

Publication number
CN114241053A
CN114241053A CN202111662790.6A CN202111662790A CN114241053A CN 114241053 A CN114241053 A CN 114241053A CN 202111662790 A CN202111662790 A CN 202111662790A CN 114241053 A CN114241053 A CN 114241053A
Authority
CN
China
Prior art keywords
target
network
branch
detection head
detection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202111662790.6A
Other languages
English (en)
Other versions
CN114241053B (zh
Inventor
杨志伟
同磊
段娟
肖创柏
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing University of Technology
Original Assignee
Beijing University of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing University of Technology filed Critical Beijing University of Technology
Priority to CN202111662790.6A priority Critical patent/CN114241053B/zh
Publication of CN114241053A publication Critical patent/CN114241053A/zh
Application granted granted Critical
Publication of CN114241053B publication Critical patent/CN114241053B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/75Determining position or orientation of objects or cameras using feature-based methods involving models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/253Fusion techniques of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/048Activation functions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30241Trajectory

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Mathematical Physics (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Biology (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了基于改进的注意力机制FairMOT多类别跟踪方法,本发明充分利用无人机拍摄的视频,通过引入通道和空间注意力机制的多目标多类别目标追踪算法,对无人机拍摄的视频序列中存在的目标进行追踪及其运动轨迹可视化显示。具体包括如下步骤,首先对无人机数据集进行预处理;构建模型;训练网络;多类别多目标追踪算法的性能评估;在FairMOT的DL34‑base的基础上添加了注意力机制,使网络更好的学习图像中的语义信息和空间信息。还对网络的其它结构进行了修改,在目标检测分支中修改heatmap检测头与box size检测头,使得目标检测分支对于目标中心点位置和目标尺寸的预测的精确度更高,进而对整个模型的追踪性能有了不错的提升,本发明具有更高的追踪精准度。

Description

基于改进的注意力机制FairMOT多类别跟踪方法
技术领域
本发明涉及计算机视觉中多目标追踪领域,具体属于一种对无人机视频进行多类别多目标追踪的方法。
背景技术
随着智慧城市的建设,日益密集的摄像头分布使得我国的视频监控系统逐渐变得成熟化和产业化,视频数据的急剧增加,使得当前的高性能数据分析技术逐渐应用在视频监控系统中。当前,无论是在学校、商场、道路和小区等公共区域,还是家庭、办公室等私密性场所,摄像头基本全部覆盖,来保障个人财产安全和社会的有序发展。这些摄像机所起到的作用大多仅限于拍摄监控录像,在监控摄像头的背后,视频监控系统对视频场景内容进行处理和分析,对突发事件进行过程监控并及时存储有效数据,使后台决策系统可以高效地进行指挥调度。然而,视频分析技术中最关键的就是目标的提取与跟踪,目标跟踪就是对视频中的人物、车辆或其它移动的物体进行实时定位,以便工作人员或者视频分析系统能够更好的理解视频内容所能表达的语义信息,做出精准的决策。
目标跟踪作为计算机视觉研究领域的热点之一,过去几十年以来,目标跟踪的研究取得了长足的发展。从基于Mean shift、粒子滤波和Kalman Filter的经典跟踪方法,到基于检测(TrackBy Detection)或相关滤波(Correlation Filter)的方法,到最近几年来出现的深度学习相关方法。每年在几个主要跟踪数据集上的竞赛非常激烈,方法也越来越多。尽管近年来受到了广泛研究,目标跟踪问题本身的高难度、高质量数据的稀少,研究热度比目标检测、语义分割等基本视觉任务略低一些。深度学习的发展和GPU计算能力的增强带来了视觉算法性能的突飞猛进,而在目标跟踪领域中基于深度神经网络的方法在近几年逐渐成为众多研究学者研究的主要方向。
无人驾驶飞机简称“无人机”,英文缩写为“UAV”,是利用无线电遥控设备和自备的程序控制装置操纵的不载人飞机。无人机按照应用领域,可分为军用与民用。军用方面,无人机分为侦察机和靶机。民用方面,无人机+行业应用,是无人机真正的刚需。目前无人机在航拍、农业、植保、微型自拍、快递运输、灾难救援、观察野生动物、监控传染病、测绘、新闻报道、电力巡检、救灾、影视拍摄、制造浪漫等等领域的应用,大大的拓展了无人机本身的用途。
近几年来,随着科技有限公司等无人机研发公司在民用无人机上的不断创新与研发,性能优越,价格亲民的无人机开始走进日常生活。现在可以使用无人机进行无接触快递配送、图像视频拍摄、航拍以及灾难救援等等。智能化的无人机在的日常生活中扮演越来越多的角色,给生活带来了极大的便利。更好的将无人机的优势与基于卷积神经网络的目标追踪算法进行结合,将会给生活质量带来巨大的改变和提升。
虽然无人机的飞行性能与拍摄性能得到很大的提升,但是基于卷积神经网络的目标追踪算法对无人机拍摄的视频进行追踪时却面临着一些困难和挑战需要去克服。因为无人机拍摄的视频存在着目标尺寸小、密度大,以及无人机在飞行的过程中存在镜头的旋转以及抖动等情况,导致拍摄出来的视频序列给当前的基于卷积神经网络的目标追踪算法的追踪准确性带来了极大的挑战。
发明内容
本发明旨在解决上述问题,在现有多目标追踪算法FairMOT的基础上提出了一种基于改进的注意力机制FairMOT多类别跟踪方法。本发明可以充分利用无人机拍摄的视频,通过引入通道和空间注意力机制的多目标多类别目标追踪算法,对无人机拍摄的视频序列中存在的目标进行追踪及其运动轨迹可视化显示。
为了达到上述目的,本发明采用的技术方案以及实验步骤如下:
(1)首先对无人机数据集进行预处理。
公开的用于目标追踪的无人机数据集主要有两个,一个是VisDrone系列公开数据集,还有一个是UAVDT公开数据集。实验是在VisDrone2019和UAVDT这两个公开的无人机数据集上进行训练和测试的。
(1a)首先要对无人机数据集的标签进行转换,因为设计一种不仅仅局限于某一单一类别而是能够对多个类别同时进行追踪的算法,因此首先需要对上述两个无人机数据集进行标签转换以统一各个类别的标签。在原始的数据集中,UAVDT数据集一共有3个类别:0号类别代表car类,1号类别代表truck类,2号类别代表bus类;VisDrone2019数据集一共有12个类别:0号类别代表ignore regions,1号类别代表pedestrian类,2号类别代表people类,3号类别代表bicycle类,4号类别代表car类,5号类别代表van类,6号类别代表truck类,7号类别代表tricycle类,8号类别代表awning-tricycle类,9号类别代表bus类,10号类别代表motor类,11号类别代表others类。通过标签转换统一数据集的car类标签为3,truck类标签为5,bus类标签为8,其余类别标签在原标签基础上减1,ignore region类和others类被剔除。
(1b)由于UAVDT数据集缺少专门的测试数据集,在整个数据集中随机选取了七个序列(约占整个数据集的30%)作为的测试数据集,这些序列为:M0204、M0208、M0402、M0702、M1005、M1008以及M1302。
(1c)为了降低图像中的模糊区域或存在严重遮挡的目标对实验训练效果的影响,根据数据集的原始标签中每个目标的遮挡程度对数据集中遮挡严重的目标或区域进行了遮罩预处理(类似于数据增强中的Cutout),这样做不仅可以提升模型的鲁棒性而且还有助于加快模型训练的收敛速度。
(2)构建模型
在对数据进行预处理之后,接下来就是构建网络模型。网络模型主要由三部分构成,依次是:加入了卷积注意力机制模块(Convolutional Block Attention Module,CBAM)的encoder-decoder骨干网络、目标检测分支(object detection branch)以及重识别分支(re-ID branch)。
(2a)Encoder-decoder骨干网络由添加CBAM的DLA34-base卷积神经网络、DLAUP特征融合模块和IDAUP特征融合模块组成,其主要作用就是对输入的图像数据进行特征提取,获得输入图像的空间信息和语义信息,且在准确率和速度之间保持一个较好的平衡。
(2b)添加CBAM的DLA34-base卷积神经网络通过在卷积神经网络中引入空间注意力机制和通道注意力机制,使卷积神经网络的特征提取性能得到较大的提升,为后边的目标检测和重识别分支提供更加可靠的特征图。
(2c)DLAUP特征融合模块的主要作用是将骨干网络中不同模块间的特征进行融合,作用类似于ResNet的残差连接,这种操作可以提升网络的表达能力,降低随着网络深度的增加出现的网络“退化”问题。
(2d)IDAUP特征融合模块的主要作用是将骨干网络中不同层级间的特征进行融合,类似于DenseNet的Connection连接。
(2e)目标检测分支是建立在CenterNet之上的,主要负责对骨干网络输出的特征图进行目标检测,该分支由三个平行的检测头组成,这三个检测头分别为heatmap检测头,box size检测头以及center offset检测头。在的模型中,heatmap检测头、box size检测头以及center offset检测头使用的是TTFNet算法中的heatmap检测头与wh检测头,分别用来预测骨干网络输出的特征图中目标的中心点以及目标的边界框,center offset检测头则为本模型新添加的检测头,其结构同上述两个检测头一样,主要用来预测目标中心点的偏移量。
(2f)重识别分支的主要作用是根据目标检测分支检测到的目标中心点位置,到骨干网络中提取该目标的re-ID表征特征,再通过匈牙利算法和卡尔曼滤波算法,将相邻帧之间的同一目标进行匹配,为它们分配相同的ID值,进而形成其在连续图像序列中连贯的追踪轨迹。
(3)训练网络
数据和模型分别处理好之后开始进行训练。训练过程主要分为四步,即数据加载与增强、骨干网络的训练、目标检测分支的训练、重识别分支的训练。
(3a)首先加载数据并对数据进行增强。因为数据集是连续的视频序列抽取的帧,相邻的两帧之间存在着极高的相似度,如果按照正常的数据加载顺序加载数据并进行训练,那么提取到的特征的随机性很小,这样很有可能导致模型的收敛速度减慢或者陷入局部最优解的困扰。因此在本实验中,参照MCMOT算法的数据增强方法,预先为数据集设定了多组不同宽高的尺寸作为输入图像的缩放尺度,在加载数据的过程中随机选择预设尺度中的一组,将图像缩放到该指定尺寸之后再输入骨干网络,这样做的好处是使输入的图像具有不同的尺度,这样不仅可以提升模型对于物体尺度变化的鲁棒性,而且能够提升整个模型的特征提取能力。
(3b)对骨干网络的训练。骨干网络主要由加入了CBAM的DLA34-base网络、DLAUP特征融合模块和IDAUP特征融合模块构成。DLAUP特征融合模块与IDAUP特征融合模块与FairMOT模型中相同,而DLA-34网络中在原网络的Level0层之前与Level5层之后分别添加了一个CBAM注意力模块,这种注意力模块可以在通道和空间维度上进行attention,在level0层之前和level5层之后添加注意力模块既可以保证的模型能够使用预训练的权重又能将注意力机制引入的模型。通过将注意力机制引入的模型,图像数据能够在骨干网络中保持丰富的空间信息和语义信息,以供后边的目标检测分支和行人重识别分支使用。在骨干网络的训练中,加载使用FairMOT算法的预训练权重,将数据增强后的图像输入网络中,通过网络提取图像中丰富的特征信息,作为后续分支的输入数据。
(3c)对目标检测分支的训练。
目标检测分支的训练主要是将骨干网络输出的特征图作为本分支的输入,通过不同的检测头完成目标中心点、目标边界框以及目标中心点偏移量的预测。该分支主要由heatmap检测头、center offset检测头和box size检测头三个平行检测头构成。
Heatmap检测头分支主要负责估计对象中心的位置,这里采用的是基于热图的表示法,热图的尺寸为1×H×W,随着热图中位置和对象中心之间的距离,响应呈指数衰减。需要注意的是不同通道的heatmap能够预测不同的类别,即在car类对应通道的heatmap中,只负责估计car这一类对象的中心点的位置,而在的实验中,共有10类数据,因此在实验中设置heatmap检测头的输出通道数为10,即heatmap检测头输出的数据的尺度为10×H×W。Center offset检测头分支主要负责更精准地定位对象,re-ID功能与对象中心的对齐精准度对于性能至关重要。Box size检测头分支主要负责估计每个锚点位置的目标边界框的高度和宽度,与re-ID功能没有直接关系,但是其精度将影响对象检测性能的评估。
目标检测分支的主要训练流程是将骨干网络提取到的特征图传给目标检测分支的三个检测头,在heatmap检测头中每个通道的heatmap对特征图中可能存在的本类目标的中心点位置进行预测,以此预测当前特征图中该类别目标的个数及其中心点位置,然后将预测结果与真实标签的heatmap值进行比较,使用变形的focal loss损失函数求得heatmap检测头的损失值;center offset检测头负责更精确地定位对象,该检测头根据输入的特征图预测目标的中心点的偏移量,并将预测的结果与真实标签中目标的中心点位置进行比较,通过L1 loss损失函数计算中心点偏移量的损失值,作为center offset检测头的损失值;box size检测头负责根据特征图估计每个锚点处目标边界框的高度和宽度,通过将预测的高度和宽度与真实标签中的高度和宽度进行比较,通过L1 loss损失函数计算目标边框尺寸的损失值,作为box size检测头的损失值。在得到上述三个检测头的损失值后,通过求和计算出目标检测分支总损失值Ldetection,以便后续使用。
(3d)对重识别分支的训练。
重识别分支旨在生成能够区分不同目标的特性。理想情况下,不同目标之间的亲和力应该小于相同目标之间的亲和力。为了实现这一目标,应用了128个内核的卷积层在骨干特征之上提取每个目标的re-ID特征。表示得到的特征映射为E∈R128×W×H,从特征映射中可以提取以(x,y)为中心的目标的re-ID特征Ex,y∈R128。将得到的特征映射与标签中真实目标的特征映射进行比较,通过交叉熵损失函数计算得到行人重识别分支的损失值,以便后续使用。
(3e)反向传播进行网络权重更新
根据目标检测分支与行人重识别分支得到的损失值,按照预设的不同的权重值将两个模块得到的损失值加权求和并加上权重作为整个模型的损失值进行反向传播,以此来调整优化网络中的参数值。
(4)多类别多目标追踪算法的性能评估
模型训练完成之后进行测试。在测试过程中,将每一帧追踪到的目标的详细信息保存在一个txt文件中,然后根据这个txt文件中的信息,将追踪到的目标可视化,包含其所属类别、边界框、目标的id值以及显示其在连续图像序列中运动过的轨迹。此外通过将该txt追踪结果与真实标签进行比对,计算出追踪算法的相关评价指标的结果。
附图说明
图1是本发明的流程图。
图2是本发明的整体网络结构图。
图3是添加了CBAM的DLA-34骨干网络结构图。
图4是DLA34-base骨干网络结构图。
图5是DLA的设计思路图
图6是卷积模块的注意力机制模块(CBAM)的网络结构图
图7是CBAM中的通道注意力模块的网络结构图。
图8是CBAM中的空间注意力模块的网络结构图。
图9是特征融合模块中DLAUP特征融合模块结构图
图10是特征融合模块中IDAUP特征融合模块结构图。
图11是目标检测模块的结构图。
图12是重识别模块的结构图。
图13是各模型在UAVDT测试数据集上追踪效果的可视化效果图。
图14是各模型在VisDrone2019测试数据集上追踪效果的可视化效果图。
具体实施方式
下面结合附图对本发明做进一步的描述。
参照附图1,本发明的实验步骤如下所示:
步骤1,数据预处理
(1)统一两个数据集的标签
VisDrone2019无人机数据集一共有11个类别,UAVDT无人机数据集一共有3个类别,为了后续实验方便,将UAVDT数据集中每个类别的序号转换与VisDrone2019中的类别的序号一致。
(2)提取UAVDT数据集的测试集
由于UAVDT数据集缺少测试用的测试集,因此在对UAVDT数据集进行类别标签转换后随机选取了数据集中的8个序列作为测试数据集,这些序列具体为:M0204、M0208、M0402、M0702、M1005、M1008以及M1302,数据量约占整个数据集的30%。
(3)对图像进行遮罩处理
因为无人机数据集图像具有目标小的特点,因此在图像序列中有的目标存在着严重遮挡取的情况,且部分模糊区域的目标并未进行正确的标注,因此为了降低遮挡和模糊区域对训练过程造成不必要的影响,根据数据集的真实标签分别对原始图像及标签进行遮罩和过滤处理,将图像中遮挡严重的目标用黑块遮挡起来,对遮挡严重的目标的标签进行剔除。这种操作类似于数据增强中的Cutout方法,好处就是减少不确定目标对象对模型训练的干扰,一定程度上可以加快模型的收敛速度。
步骤2,构建模型
模型主要由三部分组成,分别是:encoder-decoder骨干网络、目标检测分支和行人重识别分支。
参照附图2,encoder-decoder骨干网络的主要功能是将输入的原始图像通过卷积神经网络将该图像中包含的空间信息以及语义信息提取成固定尺寸的特征图,供目标检测分支和行人重识别分支使用。假设输入图像的尺寸是Himage×Wimage,那么输出的特征图的尺寸是C×H×W,这里的H=Himage/4,W=Wimage/4。的encoder-decoder骨干网络也可以分为三个部分,分别为:加入了CBAM的DLA34-base网络、DLAUP特征融合模块和IDAUP特征融合模块。
参照附图3,的CBAM DLA34-base网络是在原DLA34-base网络的基础上通过添加CBAM注意力机制得到的。DLA的全称是Deep Layer Aggregation,被CenterNet,FairMOT等框架所采用,其效果很不错,准确率和模型复杂度平衡的也比较好。其网络结构如附图4所示,该结构能够迭代式的将网络结构的特征信息融合起来,让模型有更高的精度和更少的参数。附图5展示了DLA的设计思路,Dense Connection来自DenseNet,可以聚合语义信息(在通道方向进行的聚合,能够提高模型推断“是什么”的能力(what))。Feature Pyramids空间特征金字塔可以聚合空间信息(在分辨率和尺度方向的融合,能够提高模型推断“在哪里”的能力(where))。DLA则可以将两者更好地结合起来从而可以更好的获取what和where的信息。
虽然DLA可以很好的将两者更好地结合起来,但是发现DLA的骨干网络共有七层,随着网络深度的增加,特征在传递的过程中难免会产生损失,因此在DLA34-base网络中引入了CBAM注意力机制,如附图3所示,加入了CBAM注意力机制的DLA34-base网络。
CBAM是一种用于前馈神经网络的简单而有效的注意力模块。给定一个中间特征图,CBAM模块能够沿着通道和空间两个独立的维度依次推断注意力图,然后将注意力图与输入特征图相乘而进行自适应特征优化。如附图6所示是添加了CBAM模块后的整体结构。通过观察该结构图,可以看到,卷积层输出的结果会先通过一个通道注意力模块,得到加权结果之后,会再经过一个空间注意力模块,最终进行加权得到结果。
通道注意力模块网络结构如附图7所示。在该模块中,将输入的特征图分别经过基于宽(width)和高(height)的全局最大池化层(global max pooling)和全局平均池化层(global average pooling),然后分别经过共享全连接层。将共享全连接层输出的特征进行基于元素级(element-wise)的加权操作,再经过sigmoid激活操作,生成最终的通道注意力特征图(channel attention feature map)。将该通道注意力特征图(channelattention feature map)与输入特征图(input feature map)做元素级(element-wise)乘法操作,生成空间注意力(spatial attention)模块需要的特征输入。
通道注意力机制是将特征图在空间维度上进行压缩,得到一个一维矢量后再进行操作。在空间维度上进行压缩时,同时考虑到平均池化和最大池化。平均池化和最大池化可用来聚合特征映射的空间信息,送到一个共享网络,压缩输入特征图的空间维数,逐个元素求和合并,以产生通道注意力图。对于一张输入图像而言,通道注意力关注的是这张图上哪些内容是有重要作用的。平均池化对特征图上的每一个像素点都有反馈,最大池化再进行梯度方向传播时,只在特征图中响应最大的地方有梯度的反馈。通道注意力机制可以用公式表示为:
Figure BDA0003450123510000081
空间注意力模块网络结构如附图8所示。该模块将通道注意力(channelattention)模块输出的特征图作为本模块的输入特征图,首先对该输入特征图进行一个基于通道的全局最大池化(global max pooling)和全局平均池化(global averagepooling),然后将这两个池化后的结果基于通道做叠加(concat)操作。然后经过一个卷积操作,降维为1个通道。最后再经过sigmoid激活函数生成空间注意力特征图(spatialattention feature)。之后将该特征图与该模块最初的输入特征图做乘法,得到最终生成的特征。
空间注意力机制是对通道进行压缩,在通道维度分别进行了平均池化和最大池化。最大池化的操作就是在通道上提取最大值,提取的次数是高(height)乘以宽(width);平均池化的造作是在通道上提取平均值,提取的次数和最大池化的次数相同;接着将前面所提取到的特征图(通道数为1)合并到一个通道数为2的特征图。空间注意力机制可以用公式表示为:
Figure BDA0003450123510000091
上述公式中的σ为sigmoid操作,7×7表示卷积核的大小,可以选择3×3或7×7,实验表明7×7的卷积核比3×3的卷积核效果更好。
Encoder-decoder骨干网络的第二个构成部分是DLAUP特征融合模块,如附图9所示,该模块将DLA34-base网络的level3,level4,level5层的输出作为输入,每一个up模块使用两个Deformable Convolution即DCN可形变卷积并通过ConvTranspose2d反卷积进行上采样,类似于ResNet的残差连接,将不同模块之间的特征融合,最终得到三个输出out[0],out[1],out[2]。
Encoder-decoder骨干网络的第三个构成部分是IDAUP特征融合模块,如附图10所示,该模块的up模块中仅包含一个DCN可变性卷积和一个ConvTranspose2d反卷积。该模块将DLAUP的输出out[0],out[1]输入up模块进行处理,得到输出layer[1]和layer[2],然后将DLAUP的输出out[2]与layer[2]相加并通过DCN处理,将得到的输出再与layer[1]相加并通过DCN处理,至此得到骨干网络最终的输出结果。其效果如DenseNet的Connection连接,能够将不同层级间的特征融合。
参照附图11是目标检测分支的结构图,该分支是在Encoder-decoder骨干网络后附加了三个平行的检测头,依次为heatmap检测头、box size检测头及center offset检测头,分别用来预测物体中心的位置、物体边界框的大小和物体中心点的偏移量。下面分别介绍这三个检测头:
在模型中,heatmap检测头使用的是TTFNet的heatmap检测头,该头比原模型的头多一个ReLU层和Conv2d层,可以更好的提取输入特征图中的信息。这个检测头主要负责预测物体中心的位置。在原模型中热图的尺寸是1×H×W,每一个热图负责估计一类物体中心的位置,因为实验一共有10类,因此在的模型中,heatmap检测头的输出尺寸设为10×H×W。
对于图像中的每一个真实标签框
Figure BDA0003450123510000092
计算出该目标的中心点坐标
Figure BDA0003450123510000093
这里的
Figure BDA0003450123510000094
然后将中心点坐标除以步幅得到该目标在特征图中的中心点位置
Figure BDA0003450123510000095
然后坐标(x,y)的热图响应由公式
Figure BDA0003450123510000096
求得,其中N表示该图像中的目标的数量,σc表示标准差。则损失函数定义为像素逻辑回归的focal loss:
Figure BDA0003450123510000101
Figure BDA0003450123510000102
是估计的热图,α,β是focal loss预定义的参数。
在模型中box size检测头使用的是TTFNet模型中wh检测头,其网络结构与上述heatmap检测头的结构相同,相比原模型中的检测头多了一个ReLU层和Conv2d卷积层,可以更好的提取输入特征图中的信息,该检测头主要负责预测目标框在每个位置的高度和宽度。Center offset检测头的网络结构与box size检测头一样,旨在更精准地定位对象,由于最终特征图的步幅是4,那么将会带来多达四个像素的量化误差,这个分支估计每个像素相对于目标中心的连续偏移量,以减轻向下采样带来的影响。
假设box size检测头和center offset检测头的输出分别为为
Figure BDA0003450123510000103
对于原图像中的每一个真实标签框
Figure BDA0003450123510000104
计算其尺寸
Figure BDA0003450123510000105
其偏移值
Figure BDA0003450123510000106
假设在相应位置估计的尺寸和偏移量分别为
Figure BDA0003450123510000107
Figure BDA0003450123510000108
那么对这两个检测头执行l1损失:
Figure BDA0003450123510000109
附图12是重识别分支的结构图。该分支的目的是生成能够区分对象的特征。在实验中使用FairMOT原模型的重识别特征提取器,该重识别特征提取器由两层Conv2d卷积层和ReLU层构成,用于在骨干网络上提取每个位置的re-ID特征。该分支通过分类任务学习重识别特征。将训练集中所有具有相同身份的对象实例视为同一类。对于图像中的每一个真实标签框
Figure BDA00034501235100001010
在heatmap中获取它的目标中心点
Figure BDA00034501235100001011
提取行人重识别特征向量
Figure BDA00034501235100001012
并学会将其映射到一个类分布矢量P={P(k),k∈[1,K]}。假设该真实标签类的标签是Li(k),则重识别损失为:
Figure BDA00034501235100001013
公式中的k是数据集中类别的数量,在本实验中为10。在网络的训练过程中,只是用目标中心的身份嵌入向量进行训练,因为在测试中可以从目标热图中获得目标中心。
步骤3,训练网络
网络的训练主要包括目标检测分支的训练和行人重识别分支的训练
训练目标检测分支的损失函数为:
Ldetection=Lheat+Lbox (6)
整个网络的训练使用不确定性损失函数来自动平衡检测和重新识别任务,其损失函数定义如下:
Figure BDA0003450123510000111
其中w1,w2是平衡两个任务的可学习参数。具体来说,给定一幅图像,其中包含一些对象及其对应的IDs,生成热图、偏移量、边框尺寸以及对象的one-hot类。这些用于估计的数据进行比较以此来获得损失,进而训练整个网络。
在整个训练时,使用FairMOT模型在ImageNet上的预训练权重,然后在的数据集上进行微调,通过这种方法,获得最终的效果。
步骤4,多类别多目标追踪
模型训练好之后,将得到的训练权重加载,对无人机测试数据集进行追踪。追踪过程中会生成一个txt文件,该文件内保存了追踪的结果,通过此文件可以将追踪到的目标的边框、类别以及ID在原始视频序列中进行可视化,并且根据此文件能够生成每个目标在60帧以内的运动轨迹。
步骤5,算法性能评估
将追踪过程中生成的txt文件与真实标签进行比对,可以计算出追踪算法的相关评价指标。
实验以及分析
1.实验条件
本发明的硬件测试平台是:配置GeForce RTX 3090的服务器,显卡内存24GB;软件平台为Ubuntu 18.0操作系统和PyCharm 2019.编程语言是Python,使用PyTorch深度学习框架实现网络结构。
2.实验数据
本发明的性能评价主要用到两个数据集。UAVDT无人机数据集、VisDrone2019无人机数据集。
UAVDT无人机数据集是ICCV2018提出的一个数据集,数据集包含从100个视频序列中选择的80K带注释的帧,主要包含轿车、卡车和公共汽车三个类别的车辆,不仅可以用于目标跟踪,也可以用于目标检测等。
VisDrone2019数据集由天津大学机器学习与数据挖掘实验室的AISKYEYE团队收集。基准数据集由261,908帧和10,209张静态图像组成的288个视频片段组成,由各种安装在无人机上的摄像头捕获,涵盖了广泛的方面,包括位置(从中国相距数千公里的14个不同城市中拍摄),环境(城市和乡村),物体(行人,车辆,自行车等)和密度(稀疏和拥挤的场景)。此外,值得注意的是,该数据集是在各种情况下以及在各种天气和光照条件下使用各种无人机平台(即具有不同模型的无人机)收集的。
3.性能比较
本发明用到的技术对比方法如下:
(1)张等人在《A Simple Baseline for Multi-Object Tracking》提出的基于Anchor-free的one-shot多目标跟踪算法,简称为FairMOT方法。该方法采用基于anchor-free的检测头,用heatmap来预测目标的中心点,并使用one-shot的方法,让re-ID分支与detection分支共用骨干网络进行特征提取。
(2)在FairMOT基础上改进的FairMOT-TTFHead模型,该模型在FairMOT模型的基础上使用TTFNet模型的TTFHead检测头替换FairMOT的检测头得到,试图替换性能更加优异的检测头来提升模型的精准度。
(3)在FairMOT-TTFHead模型的基础上改进的FairMOT-NewTTFHead模型,该模型在FairMOT-TTFHead模型的基础上为目标检测分支添加了一个目标中心点偏移量预测的检测头,该检测头的引入能够更好的对齐目标中心的位置。
(4)在FairMOT-NewTTFHead模型的基础上改进的FairMOT-NewTTFHead_CBAM模型,该模型在FairMOT-NewTTFHead模型的基础上通过在骨干网络中引入CBAM注意力机制得到,能够更好的提取图像中的特征,供检测分支和重识别分支使用。
在实验中,采用以下九个指标来评价本发明的性能:
第一个评价指标是多目标跟踪的准确度(MOTA),体现在确定目标的个数,以及有关目标的相关属性方面的准确度,用于统计在跟踪中的误差积累情况。
第二个评价指标是ID F1得分(IDF1),正确识别的检测与地面真实和计算检测的平均数量之比。
第三个评价指标是大部分时间被跟踪的目标(MT),在各自的生命周期中至少80%的时间里,轨迹假设覆盖的地面真实轨迹的比例。
第四个评价指标是召回率(Rcll),正确检测与GTbox总数之比。
第五个评价指标是精确率(Prcn),TP与(TP+FP)之比。
第六个评价指标是大部分时间跟踪丢失的目标(ML),轨迹假设覆盖的地面真实轨迹的比例,最多占其各自寿命的20%。
第七个评价指标是缺失数(漏检数)(FP),即在第t帧中该目标没有假设位置与其匹配。
第八个评价指标是误判数(FN),即在第t帧中给出的假设位置没有跟踪目标与其匹配。
第九个评价指标是误配数(IDs),即在第t帧中跟踪目标发生ID切换的次数。
前五个评价指标值越高说明模型效果越好,后四个评价指标值越低说明模型的效果越好。
表4是本发明对UAVDT无人机数据集多目标追踪的准确率以及对比。
表5是本发明对VisDrone2019无人机数据集多目标追踪的准确率以及对比。
表4
Figure BDA0003450123510000131
表5
Figure BDA0003450123510000132
从表4、表5可以看出,对于同一个无人机数据集,本发明提出的基于改进的注意力机制FairMOT多类别跟踪方法,其效果要优于原始方法和其他版本的改进方法。对于UAVDT数据集来说,其只有三个类别,而VisDrone2019高达十二个类别,同数量级训练集规模下同样的训练轮数,更加集中的类别有助于模型训练的收敛,因此可以发现在测试集上,UAVDT数据集上的测试结果整体优于VisDrone2019数据集的测试结果。
另外图13和图14展示了两个数据集上追踪效果图(图13为UAVDT数据集上的追踪效果图,图14为VisDrone2019数据集上的追踪效果图),其可视化的追踪效果与表4,表5列出的结果一致。从结果的可视化来看,本发明实现的基于改进的注意力机制FairMOT多类别跟踪方法的效果更好。
综上所述,本发明提出了一种基于改进的注意力机制FairMOT多类别跟踪方法。在FairMOT的DL34-base的基础上添加了注意力机制,可以使网络更好的学习图像中的语义信息和空间信息。还对网络的其它结构进行了修改,在目标检测分支中修改heatmap检测头与box size检测头,使得目标检测分支对于目标中心点位置和目标尺寸的预测的精确度更高,进而对整个模型的追踪性能有了不错的提升。实验结果表明,本发明比现有技术具有更高的追踪精准度。

Claims (4)

1.基于改进的注意力机制FairMOT多类别跟踪方法,其特征在于:该方法包括如下步骤,
步骤1、首先对无人机数据集进行预处理;
无人机数据集为VisDrone系列公开数据集和UAVDT公开数据集;首先要对无人机数据集的标签进行转换;根据无人机数据集的原始标签中每个目标的遮挡程度对数据集中遮挡严重的目标或区域进行遮罩预处理;
步骤2、构建网络模型;
在对无人机数据集的数据进行预处理之后,构建网络模型;网络模型由三部分构成,依次是:加入了卷积注意力机制模块CBAM的encoder-decoder骨干网络、目标检测分支以及重识别分支;
Encoder-decoder骨干网络由添加CBAM的DLA34-base卷积神经网络、DLAUP特征融合模块和IDAUP特征融合模块组成,对输入的图像数据进行特征提取,获得输入图像的空间信息和语义信息,在准确率和速度之间保持平衡;
目标检测分支建立在CenterNet之上,对encoder-decoder骨干网络输出的特征图进行目标检测,由三个平行的检测头组成,分别为heatmap检测头、box size检测头以及centeroffset检测头;heatmap检测头、box size检测头以及center offset检测头使用的是TTFNet算法中的heatmap检测头与wh检测头,用来预测骨干网络输出的特征图中目标的中心点以及目标的边界框,center offset检测头则为本模型新添加的检测头,同上述两个检测头一样,用来预测目标中心点的偏移量;
重识别分支根据目标检测分支检测到的目标中心点位置,到encoder-decoder骨干网络中提取目标的re-ID表征特征,再通过匈牙利算法和卡尔曼滤波算法,将相邻帧之间的同一目标进行匹配,为它们分配相同的ID值,进而形成其在连续图像序列中连贯的追踪轨迹;
步骤3、训练网络;
数据和模型分别处理好之后开始进行训练;训练过程分为四步,即数据加载与增强、骨干网络的训练、目标检测分支的训练、重识别分支的训练;
步骤4、多类别多目标追踪算法的性能评估;
模型训练完成之后进行测试;在测试过程中,将每一帧追踪到的目标的详细信息保存在一个txt文件中,然后根据这个txt文件中的信息,将追踪到的目标可视化,包含其所属类别、边界框、目标的id值以及显示其在连续图像序列中运动过的轨迹;此外通过将该txt追踪结果与真实标签进行比对,计算出追踪算法的相关评价指标的结果。
2.根据权利要求1所述的基于改进的注意力机制FairMOT多类别跟踪方法,其特征在于:步骤1中具体包括:在原始的数据集中,UAVDT数据集一共有3个类别:0号类别代表car类,1号类别代表truck类,2号类别代表bus类;VisDrone2019数据集一共有12个类别:0号类别代表ignore regions,1号类别代表pedestrian类,2号类别代表people类,3号类别代表bicycle类,4号类别代表car类,5号类别代表van类,6号类别代表truck类,7号类别代表tricycle类,8号类别代表awning-tricycle类,9号类别代表bus类,10号类别代表motor类,11号类别代表others类;通过标签转换统一数据集的car类标签为3,truck类标签为5,bus类标签为8,其余类别标签在原标签基础上减1,ignore region类和others类被剔除;在UAVDT数据集中随机选取了七个序列作为的测试数据集,序列为:M0204、M0208、M0402、M0702、M1005、M1008以及M1302。
3.根据权利要求1所述的基于改进的注意力机制FairMOT多类别跟踪方法,其特征在于:步骤2中具体包括:添加CBAM的DLA34-base卷积神经网络通过在卷积神经网络中引入空间注意力机制和通道注意力机制,使卷积神经网络的特征提取性能提升,为目标检测和重识别分支提供特征图;
DLAUP特征融合模块的作用是将骨干网络中不同模块间的特征进行融合,提升网络模型表达能力,降低随着网络深度的增加出现的网络退化;IDAUP特征融合模块的作用是将骨干网络中不同层级间的特征进行融合。
4.根据权利要求1所述的基于改进的注意力机制FairMOT多类别跟踪方法,其特征在于:
步骤3中具体包括:(3a)首先加载数据并对数据进行增强;预先为无人机数据集设定多组不同宽高的尺寸作为输入图像的缩放尺度,在加载数据的过程中随机选择预设尺度中的一组,将图像缩放到该指定尺寸之后再输入骨干网络;
(3b)对骨干网络的训练;DLAUP特征融合模块与IDAUP特征融合模块与FairMOT模型中相同,而DLA-34网络中在原网络的Level0层之前与Level5层之后分别添加了一个CBAM注意力模块,注意力模块在通道和空间维度上进行attention,在level0层之前和level5层之后添加注意力模块既可以保证的模型能够使用预训练的权重又能将注意力机制引入的模型;通过将注意力机制引入的模型,图像数据能够在骨干网络中保持丰富的空间信息和语义信息,以供后边的目标检测分支和行人重识别分支使用;在骨干网络的训练中,加载使用FairMOT算法的预训练权重,将数据增强后的图像输入网络中,通过网络提取图像中丰富的特征信息,作为后续分支的输入数据;
(3c)对目标检测分支的训练;
目标检测分支的训练是将骨干网络输出的特征图作为本分支的输入,通过不同的检测头完成目标中心点、目标边界框以及目标中心点偏移量的预测;该分支由heatmap检测头、center offset检测头和box size检测头三个平行检测头构成;
Heatmap检测头分支负责估计对象中心的位置,采用基于热图的表示法;不同通道的heatmap能够预测不同的类别,即在car类对应通道的heatmap中,只负责估计car这一类对象的中心点的位置;Center offset检测头分支负责精准地定位对象,re-ID功能与对象中心的对齐精准度对于性能至关重要;Box size检测头分支负责估计每个锚点位置的目标边界框的高度和宽度;
目标检测分支的训练流程是将骨干网络提取到的特征图传给目标检测分支的三个检测头,在heatmap检测头中每个通道的heatmap对特征图中可能存在的本类目标的中心点位置进行预测,以此预测当前特征图中该类别目标的个数及其中心点位置,然后将预测结果与真实标签的heatmap值进行比较,使用变形的focal loss损失函数求得heatmap检测头的损失值;center offset检测头负责更精确地定位对象,该检测头根据输入的特征图预测目标的中心点的偏移量,并将预测的结果与真实标签中目标的中心点位置进行比较,通过L1loss损失函数计算中心点偏移量的损失值,作为center offset检测头的损失值;box size检测头负责根据特征图估计每个锚点处目标边界框的高度和宽度,通过将预测的高度和宽度与真实标签中的高度和宽度进行比较,通过L1 loss损失函数计算目标边框尺寸的损失值,作为box size检测头的损失值;在得到上述三个检测头的损失值后,通过求和计算出目标检测分支总损失值Ldetection,以便后续使用;
(3d)对重识别分支的训练;
应用128个内核的卷积层在骨干特征之上提取每个目标的re-ID特征,得到特征映射,从特征映射中提取目标的re-ID特征;将得到的特征映射与标签中真实目标的特征映射进行比较,通过交叉熵损失函数计算得到行人重识别分支的损失值;
(3e)反向传播进行网络权重更新
根据得到的损失值,按照预设的不同的权重值将两个模块得到的损失值加权求和并加上权重作为整个模型的损失值进行反向传播,调整优化网络中的参数值。
CN202111662790.6A 2021-12-31 2021-12-31 基于改进的注意力机制FairMOT多类别跟踪方法 Active CN114241053B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202111662790.6A CN114241053B (zh) 2021-12-31 2021-12-31 基于改进的注意力机制FairMOT多类别跟踪方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111662790.6A CN114241053B (zh) 2021-12-31 2021-12-31 基于改进的注意力机制FairMOT多类别跟踪方法

Publications (2)

Publication Number Publication Date
CN114241053A true CN114241053A (zh) 2022-03-25
CN114241053B CN114241053B (zh) 2024-05-28

Family

ID=80745164

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111662790.6A Active CN114241053B (zh) 2021-12-31 2021-12-31 基于改进的注意力机制FairMOT多类别跟踪方法

Country Status (1)

Country Link
CN (1) CN114241053B (zh)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115082517A (zh) * 2022-05-25 2022-09-20 华南理工大学 基于数据增强的赛马场景多目标追踪方法
CN115187919A (zh) * 2022-09-14 2022-10-14 深圳市万物云科技有限公司 一种基于多目标跟踪的高空抛物检测方法及相关组件
CN115661692A (zh) * 2022-11-01 2023-01-31 广东兆邦智能科技股份有限公司 一种基于改进CenterNet检测网络的无人机检测方法及系统
CN116311003A (zh) * 2023-05-23 2023-06-23 澳克多普有限公司 一种基于双通道加载机制的视频检测方法及系统
CN117406780A (zh) * 2023-11-20 2024-01-16 鸣飞伟业技术有限公司 一种无人机追逃方法及系统

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113034545A (zh) * 2021-03-26 2021-06-25 河海大学 一种基于CenterNet多目标跟踪算法的车辆跟踪方法
CN113221787A (zh) * 2021-05-18 2021-08-06 西安电子科技大学 基于多元差异性融合的行人多目标跟踪方法
CN113313736A (zh) * 2021-06-10 2021-08-27 厦门大学 统一目标运动感知和重识别网络的在线多目标跟踪方法
CN113807187A (zh) * 2021-08-20 2021-12-17 北京工业大学 基于注意力特征融合的无人机视频多目标跟踪方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113034545A (zh) * 2021-03-26 2021-06-25 河海大学 一种基于CenterNet多目标跟踪算法的车辆跟踪方法
CN113221787A (zh) * 2021-05-18 2021-08-06 西安电子科技大学 基于多元差异性融合的行人多目标跟踪方法
CN113313736A (zh) * 2021-06-10 2021-08-27 厦门大学 统一目标运动感知和重识别网络的在线多目标跟踪方法
CN113807187A (zh) * 2021-08-20 2021-12-17 北京工业大学 基于注意力特征融合的无人机视频多目标跟踪方法

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115082517A (zh) * 2022-05-25 2022-09-20 华南理工大学 基于数据增强的赛马场景多目标追踪方法
CN115082517B (zh) * 2022-05-25 2024-04-19 华南理工大学 基于数据增强的赛马场景多目标追踪方法
CN115187919A (zh) * 2022-09-14 2022-10-14 深圳市万物云科技有限公司 一种基于多目标跟踪的高空抛物检测方法及相关组件
CN115661692A (zh) * 2022-11-01 2023-01-31 广东兆邦智能科技股份有限公司 一种基于改进CenterNet检测网络的无人机检测方法及系统
CN116311003A (zh) * 2023-05-23 2023-06-23 澳克多普有限公司 一种基于双通道加载机制的视频检测方法及系统
CN116311003B (zh) * 2023-05-23 2023-08-01 澳克多普有限公司 一种基于双通道加载机制的视频检测方法及系统
CN117406780A (zh) * 2023-11-20 2024-01-16 鸣飞伟业技术有限公司 一种无人机追逃方法及系统
CN117406780B (zh) * 2023-11-20 2024-05-31 鸣飞伟业技术有限公司 一种无人机追逃方法及系统

Also Published As

Publication number Publication date
CN114241053B (zh) 2024-05-28

Similar Documents

Publication Publication Date Title
CN114241053B (zh) 基于改进的注意力机制FairMOT多类别跟踪方法
CN111709311A (zh) 一种基于多尺度卷积特征融合的行人重识别方法
CN114005096A (zh) 基于特征增强的车辆重识别方法
Mahaur et al. Road object detection: a comparative study of deep learning-based algorithms
CN113221641A (zh) 基于生成对抗网络和注意力机制的视频行人重识别方法
CN108416270B (zh) 一种基于多属性联合特征的交通标志识别方法
Ye et al. CT-Net: An efficient network for low-altitude object detection based on convolution and transformer
Zhang et al. Adaptive dense pyramid network for object detection in UAV imagery
Cao et al. Learning spatial-temporal representation for smoke vehicle detection
CN115063832A (zh) 一种基于全局与局部特征的对抗学习跨模态行人重识别方法
Sun et al. Siamohot: A lightweight dual siamese network for onboard hyperspectral object tracking via joint spatial-spectral knowledge distillation
CN114998993A (zh) 一种自动驾驶场景下联合行人目标检测与跟踪联合方法
Wu et al. Vehicle detection based on adaptive multi-modal feature fusion and cross-modal vehicle index using RGB-T images
Ajitha et al. Vehicle model classification using deep learning
Amudhan et al. RFSOD: a lightweight single-stage detector for real-time embedded applications to detect small-size objects
Meng et al. Fast-armored target detection based on multi-scale representation and guided anchor
Fadavi Amiri et al. Improving image segmentation using artificial neural networks and evolutionary algorithms
Mokalla et al. On designing MWIR and visible band based deepface detection models
Jabra et al. AI-based pilgrim detection using convolutional neural networks
CN115439926A (zh) 一种基于关键区域和场景深度的小样本异常行为识别方法
Khan et al. Detection and identification of vehicles from high-resolution aerial images using deep learning approaches with the tuned parameters
Xue et al. 2d-temporal convolution for target recognition of sar sequence image
Li et al. Research on efficient detection network method for remote sensing images based on self attention mechanism
Chen et al. A novel detection method based on DETR for drone aerial images
Wang et al. Attentional single-shot network with multi-scale feature fusion for object detection in aerial images

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant