CN114529799A - 一种基于改进型yolov5算法的飞机多目标跟踪方法 - Google Patents

一种基于改进型yolov5算法的飞机多目标跟踪方法 Download PDF

Info

Publication number
CN114529799A
CN114529799A CN202210009200.8A CN202210009200A CN114529799A CN 114529799 A CN114529799 A CN 114529799A CN 202210009200 A CN202210009200 A CN 202210009200A CN 114529799 A CN114529799 A CN 114529799A
Authority
CN
China
Prior art keywords
target
detection
yolov5
tracks
frame
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202210009200.8A
Other languages
English (en)
Inventor
周德龙
任威
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhejiang University of Technology ZJUT
Original Assignee
Zhejiang University of Technology ZJUT
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhejiang University of Technology ZJUT filed Critical Zhejiang University of Technology ZJUT
Priority to CN202210009200.8A priority Critical patent/CN114529799A/zh
Publication of CN114529799A publication Critical patent/CN114529799A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/253Fusion techniques of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/048Activation functions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/277Analysis of motion involving stochastic approaches, e.g. using Kalman filters
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20024Filtering details
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20076Probabilistic image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computing Systems (AREA)
  • Biomedical Technology (AREA)
  • General Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Molecular Biology (AREA)
  • Health & Medical Sciences (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Biology (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Abstract

一种基于改进型YOLOV5算法的飞机多目标跟踪方法,具体步骤如下:步骤1:收集与标注飞机目标数据集;步骤2:基于步骤1中的数据集对YOLOV5目标检测网络进行训练,并针对飞机目标进行改进;步骤3:构建DeepSORT跟踪器;步骤4:基于YOLOV5检测器与DeepSORT跟踪器结合进行飞机目标跟踪。本发明针对飞机多目标跟踪中存在的小目标漏检的问题,对YOLOV5检测模型进行改进,能够实现对多场景下飞机目标的检测与多目标跟踪。

Description

一种基于改进型YOLOV5算法的飞机多目标跟踪方法
技术领域
本发明可以实现对多种类飞机的多目标的实时检测与跟踪,其中针对多目标跟踪中飞机的小型目标容易漏检的问题提出了解决方法,针对YOLOV5的网络结构进行了针对性的改进,改善飞机在多目标跟踪时的检测精度进而改善整个跟踪方法的精准度。DeepSORT跟踪器与YOLOV5检测器的结合能够通过对前后帧检测与预测的结合实现对多目标的实时跟踪与检测,通过改善YOLO V5检测器的性能能够增强跟踪效果。YOLOV5检测器可以使用较小的模型能够快速且精准的对目标进行检测。本发明能够对机场的民航飞机、航展中各式飞机进行实时检测和跟踪,能够对辅助完成机场对飞机的精准调度以及能够辅助战斗机对各式飞机进行跟踪。
背景技术
实时多目标跟踪是在计算机视觉领域的一个重要分支,有很广泛的应用范围与价值。随着硬件设备的逐步更新,伴随着人工智能的兴起,出现越来越多的基于深度学习的跟踪算法。
目标跟踪对视频中的图像按照时间序列对感兴趣的运动目标进行检测,并提取器表观特征,以及进行匹配最后完成跟踪。多目标跟踪主要任务是对视频中的感兴趣的目标确定其位置,给其分配ID并一直维持以及记录目标的运动轨迹。
首先,针对机场的特殊环境会出现很多遮挡现象,导致飞机目标难以识别,以及摄像头的远近也影响着检测性能,出现过小飞机目标时会出现无法检测的情况;其次传统的目标检测算法在该情况下无法精准检测小型飞机目标,传统目标检测算法难以检测出现部分遮挡和环境光变化下的目标;最后飞机的多目标跟踪主要取决于检测器对目标检测的准确性,目标检测的精度会直接影响多目标跟踪的效果。在机场环境下利用摄像头读入图像与飞机多目标跟踪方法结合,可以对每架飞机进行精准检测与跟踪,而且能够保证跟踪的实时性,能够协助完成对每架飞机的调度。
发明内容
本发明要克服现有技术的上述缺点,提供一种基于改进型YOLO V5算法的飞机多目标检测方法,改进YOLOV5网络结构并使用在飞机多目标跟踪中。
为了实现以上目的,本发明所采用的技术方案是:
一种基于改进型YOLOV5算法的飞机多目标跟踪方法,其特征在于,包括以下步骤:
步骤1:收集与标注飞机目标数据集,具体包括:
收集飞机图像数据以及视频数据,使用标注工具Labelimg、Darklabel分别对图像和视频进行标注,并构建飞机图像数据集,将所述数据集划分成训练集、测试集以及验证集;
步骤2:基于步骤1中的数据集对YOLOV5目标检测网络进行训练,并针对飞机目标进行改进,具体包括:
步骤2.1:基于BiFPN结构进行多特征融合:
YOLOV5的主干网络由CONV模块、C3模块、SPPF模块结合构成,可以产生多尺度的特征图,利用BiFPN结构在head部分中加入多特征融合,针对飞机小目标的漏检问题,使用4种不同尺度下的特征检测图层,对大小不同的飞机目标进行检测。
步骤2.2:使用CBAM注意力机制模块增加YOLOV5模型检测精准度:
使用CBAM注意力机制,将通道注意力机制与空间注意力机制融合,使特征能够覆盖到检测物体的更多部位,最终使判断物体的几率提高,增强模型的检测精准度。
步骤2.3:获得YOLOV5检测模型:
YOLOV5网络包括主干网络backbone部分、head部分,首先对训练集中的图像数据预处理将所有图像统一分辨率,并将预处理后的图像输入到backbone部分中,获得不同尺度的特征图,然后将不同尺寸的特征图输入到head部分,在head部分中对特征图依次进行上采样、下采样以及基于通道维度的拼接操作产生多种尺度的特征图,并利用步骤2.1中的特征融合操作与步骤2.2的CBAM注意力机制获得不同尺度的特征图并输入到head部分中的Detect层,再将多种损失函数结合并进行反向传播对模型中的梯度进行更新调节权重参数,最后使用验证集对现有模型进行验证,获得YOLOV5目标检测模型。
步骤3:构建DeepSORT跟踪器对已检测的目标进行预测与跟踪,具体包括:
步骤3.1:构建DeepSORT跟踪器运动模型:
使用卡尔曼滤波对已检测到的飞机目标构建运动模型并进行预测,预测下一帧中飞机目标位置。
步骤3.2:获得DeepSORT跟踪器特征提取模块:
使用步骤1中Darklabel对视频进行标注的图像数据,并对图像进行裁剪,对所得到的飞机图像数据进行分类,最后对数据集划分训练集和验证集。将所得数据输入到ResNeXt50网络中,并得到ResNeXt50特征提取模型,并使用该特征检测模型对YOLOV5所检测到的飞机目标进行特征提取。
步骤3.3:针对DeepSORT跟踪器中目标前后帧跟踪轨迹与检测目标之间规定距离度量标准:
首先使用马氏距离表示运动模型之间的关联度并作为距离函数:
Figure BDA0003458283670000031
其中dj表示第j个YOLO V5检测到的目标位置,yi表示第i个DeepSORT跟踪器中所预测的目标位置,
Figure BDA0003458283670000032
表示跟踪到的目标位置与检测目标位置的协方差矩阵的逆矩阵,d(1)表示在多维运动状态数据中YOLOV5所检测到目标的检测框与卡尔曼滤波所得到的预测框的关联程度。
再加入特征之间的余弦距离,对检测到的目标特征与跟踪到的目标特征之间计算余弦距离:
Figure BDA0003458283670000033
其中rj表示第j个检测到所提取的目标特征并添加限制条件||rj||=1所得,
Figure BDA0003458283670000034
为每个跟踪目标构建一个轨迹,在其中存储每个跟踪目标在最近的M帧中关联成功的特征向量,
Figure BDA0003458283670000035
表示第k帧中第i个跟踪到的目标特征,d(2)表示第i个跟踪到的最近N个成功关联的特征集与当前帧中YOLOV5检测到的的目标特征之间的最小余弦距离,并对以上两种方法设定阈值,设定匹配时的度量标准,最终度量方式由二者的加权求和所得,公式如下:
ci,j=λd(1)(i,j)+(1-λ)d(2)(i,j) (3)
步骤3.4:基于匈牙利算法对多个检测目标与跟踪轨迹进行匹配:
使用匈牙利算法对DeepSORT跟踪器中的跟踪轨迹与YOLOV5当前所检测到的目标进行匹配,利用步骤3.2中的特征提取模块,以及步骤3.3中的距离度量标准组合成级联匹配,对跟踪轨迹与检测目标之间进行距离计算,并设定阈值过滤匹配结果,之后还需要在IOU匹配中使用匈牙利算法对跟踪轨迹与检测目标再进行一次匹配,最后利用匹配到的结果对当前所有轨迹分成三个状态确认态、未确认态、删除态。
步骤4:基于YOLOV5检测器与DeepSORT跟踪器结合进行飞机目标跟踪,具体包括:
从摄像头或者视频流中读入第一帧,第一帧中使用YOLOV5检测器对帧中的飞机物体进行识别,将所检测到的飞机目标的坐标信息、置信度以及飞机目标图像信息传递给DeepSORT跟踪器中,并设置置信度阈值对检测框进行过滤,删除置信度过小的检测框,第一帧中无跟踪目标,利用YOLOV5检测器对目标进行检测并在DeepSORT跟踪器中创建新的Tracker,将检测到的目标存入tracks中,并初始化卡尔曼滤波器状态,Tracker中的tracks状态初始化为未确认态。
读入第二帧,YOLOV5检测后将检测信息输入到DeepSORT跟踪器中,利用第一帧中创建的Tracker中的卡尔曼滤波器以及YOLOV5的坐标信息,获得当前帧中的预测信息,由于第一帧中无确认态的tracks,则对未匹配的tracks以及未匹配的检测目标再进行IOU匹配,计算出IOU最大的唯一匹配,最后对Tracker中各个tracks的状态进行更新,对于已匹配的tracks将所匹配目的特征保存到各个tracks的特征集中并更新卡尔曼滤波状态,对于未匹配的检测目标创建新的tracks并进行初始化,对于依然未匹配到的tracks直接删除。
读入第三帧,YOLOV5检测后将检测信息输入到DeepSORT跟踪器中,该帧中依然没有确认态的tracks,在完成前后两帧检测目标与跟踪轨迹之间的IOU匹配后对已经连续三帧确认匹配的tracks变更为确定态,对确定态的tracks进行特征更新,并对卡尔曼滤波状态进行更新,对于依然未匹配到的tracks直接删除,对未匹配到的检测目标创建新的tracks并进行初始化。
读入第四帧,YOLOV5检测后将检测信息输入到DeepSORT跟踪器中,并使用步骤3.2中的特征提取模块对YOLOV5检测到的目标进行特征提取,并利用tracks中的卡尔曼滤波信息以及特征信息,以及步骤3.4中马氏距离、余弦距离以及匈牙利算法组合的级联匹配算法,将处于确认态的tracks与当前帧中所提取到的目标特征进行匹配,对已匹配的之前为确认态的tracks更新特征集以及卡尔曼滤波状态,对已匹配的之前为未确认态的tracks匹配命中次数增加1,对未匹配的tracks以及未匹配的检测目标再进行IOU匹配,如果tracks仍未匹配且之前为确认态,需要经过max_age帧后依然没有完成匹配,则将tracks删除,如果tracks仍未匹配且之前的状态为未确认态,则直接删除tracks,对未匹配的检测目标创建新的tracks并进行初始化,在之后的每一帧中都与第四帧相同的方法进行匹配,最后将跟踪框结果输出到视频中,并将视频中的所跟踪到的飞机目标的坐标信息输出。
优选地,步骤3.3中的M和N都取值为70,步骤4的置信度阈值取值为0.3。
本发明的YOLOV5网络模型能够在密集场景下对飞机进行检测,并利用DeepSORT跟踪器进行实时跟踪。
本发明具有以下优点:
1.使用BiFPN多特征融合技术添加针对小目标的检测层,减少在检测阶段中对小目标的漏检问题。
2.使用多重注意力机制CBAM模块对YOLOV5网络模型进行优化,增强YOLOV5检测的准确性。
附图说明
图1本发明的Labelimg标注图片示意图。
图2本发明的Darklabel标注视频示意图。
图3本发明的基于BiFPN结构的多尺度特征融合结构图。
图4本发明的改进型YOLOV5目标检测网络结构图。
图5本发明的改进型YOLOV5目标检测模型训练结果评价图。
图6本发明的YOLOV5检测器与DeepSORT跟踪器结合流程图。
图7是本发明方法的流程图。
具体实施方式
为了能够清晰地说明本发明地技术方法,下面结合附图对本发明进一步说明。
本发明一种基于改进型YOLOV5算法的飞机多目标跟踪方法,步骤如下:
步骤1:收集与标注飞机目标数据集,过程如下:
收集飞机图像数据以及视频数据,使用标注工具Labelimg、Darklabel分别对图像和视频进行标注,并构建飞机图像数据集,将所述数据集划分成训练集、测试集以及验证集,其中使用Darklabel生成xml文件其中包含分类信息和坐标信息,并使用其所包含的分类和坐标信息将飞机目标从视频帧中裁剪出来,Labelimg首先生成包含分类信息和坐标信息的xml文件,再转换成符合YOLOV5训练格式的txt文件。
步骤2:基于步骤1中的数据集对YOLOV5网络进行训练,并针对飞机目标进行改进,过程如下:
步骤2.1:基于BiFPN结构进行多特征融合:
在YOLOV5模型的head部分中使用BiFPN结构进行多特征融合,该结构使用高效的双向交叉连接进行特征融合,例如输入图片大小为640*640的图片,普通的YOLOV5网络会输出3个不同大小的特征图层80*80、40*40、20*20,为了检测小型飞机目标增加尺度为160*160更大的特征检测图层,BiFPN结构首先对于YOLOV5主干网络中获得的特征图进行Upsample上采样获得不同尺度的特征图,再使用步长为2的CONV卷积层进行下采样,并利用Concat操作在通道维度上结合主干网络中的特征图获得4种不同检测尺度的特征图。
深层的特征图层携带有更强的语义特征,较弱的定位信息。而浅层的特征图层携带有较强的位置信息,和较弱的语义特征。通过BiFPN结构增强多个尺度上的语义表达以及定位能力。
步骤2.2:使用CBAM注意力机制模块增加YOLOV5模型检测精准度:
使用CBAM注意力机制,将通道注意力机制与空间注意力机制融合,通道注意力模块将特征图在空间维度上进行压缩,得到一个一维特征向量后再进行操作。将输入的特征图,分别经过基于宽和高的全局最大池化操作和全局平均池化操作,然后分别经过MLP。将MLP输出的特征进行基于按照对应元素逐个相加操作,再经过sigmoid激活操作,生成最终的通道注意力特征图。将该通道注意力特征图和输入的特征图按照对应元素逐个相乘。
空间注意力模块将通道注意力模块输出的特征图作为本模块的输入特征图。首先做一个基于通道维度的全局最大池化操作和全局平均池化操作,然后将这两个结果基于通道维度做Concat操作。然后经过一个卷积操作,降维为1个通道。再经过sigmoid生成空间注意力特征图。最后将该特征图和该模块的输入特征图做按照对应元素进行相乘,最终得到生成的特征。该注意力机制所得特征能够覆盖到检测物体的更多部位,最终使判断物体的几率更高,增强模型的检测精准度。
步骤2.3:获得YOLOV5检测模型:
YOLOV5网络包括主干网络backbone部分、head部分,主干网络backbone由CONV模块、C3模块、SPPF模块组成,其中CONV是由Conv2d卷积层、BN正则化层、Silu激活函数构成,C3模块是由3个CONV模块和多个Bottleneck模块并使用CSP结构所构成的模块,SPPF为金字塔结构的池化层,先使用使用1*1卷积核的CONV层并将通道数减半,再使用5*5的卷积核对已经经过CONV层的特征图进行三次最大池化操作,并依据次数获得3个特征图,最后将经过卷积层和池化操作所获得的4个特征图通过Concat操作在通道维度上进行拼接。
首先对飞机数据集进行预处理,其中预处理包含Mosaic数据增强、K-means算法优化锚框以及自适应调节图像尺度,再将图像输入到主干网络backbone部分产生多种尺寸的特征图,然后head部分依照步骤2.1的BiFPN结构,进行Upsample上采样操作、在CONV中设置步长为2的下采样操作以及Concat按照通道进行交叉拼接操作完成多特征融合,再经过CBAM注意力机制模块产生4种不同尺度大小的特征图,将4个不同尺度的特征图输入head部分的Detect层中,能够得到所要检测目标的检测框位置、类别以及置信度,再利用多个损失函数结合进行反向传播,并对YOLOV5模型中的梯度进行更新调节权重参数,最后利用验证集对每个阶段的模型进行验证,获得YOLOV5检测模型。
步骤3:构建DeepSORT跟踪器,过程如下:
步骤3.1:构建DeepSORT跟踪器运动模型:
使用卡尔曼滤波对已检测到的飞机目标构建运动模型并进行预测,预测下一帧中飞机目标位置,卡尔曼滤波适合用于解决线性问题,以及有预测结果的实时性,卡尔曼滤波可以只考虑当前帧下的飞机运动目标状态并预测下一帧中飞机的位置,更新时无需考虑之前帧中的检测值,只有上一帧中的预测值与当前帧中检测值相关。
步骤3.2:构建DeepSORT跟踪器特征提取模块:
使用步骤1中Darklabel对视频进行标注的图像数据,并对图像进行裁剪,对所得到的飞机图像数据进行分类,最后对数据集划分训练集和验证集。将所得数据输入到ResNeXt50网络中,并得到ResNeXt50特征提取模型,并使用该特征检测模型对YOLOV5所检测到的飞机目标进行特征提取。
步骤3.3:针对DeepSORT跟踪器中目标前后帧跟踪轨迹与检测目标之间规定距离度量标准:
首先使用马氏距离表示运动模型之间的关联度并作为距离函数:
Figure BDA0003458283670000081
其中dj表示第j个YOLO V5检测到的目标位置,yi表示第i个DeepSORT跟踪器中所预测的目标位置,
Figure BDA0003458283670000082
表示跟踪到的目标位置与检测目标位置的协方差矩阵的逆矩阵,d(1)表示在多维运动状态数据中YOLOV5所检测到目标的检测框与卡尔曼滤波所得到的预测框的关联程度。
再加入特征之间的余弦距离,对检测到的目标特征与跟踪到的目标特征之间计算余弦距离:
Figure BDA0003458283670000083
其中rj表示第j个检测到所提取的目标特征并添加限制条件||rj||=1所得,
Figure BDA0003458283670000084
为每个跟踪目标构建一个轨迹,在其中存储每个跟踪目标在最近的70帧中关联成功的特征向量,
Figure BDA0003458283670000085
表示第k帧中第i个跟踪到的目标特征,d(2)表示第i个跟踪到的最近70个成功关联的特征集与当前帧中YOLOV5检测到的的目标特征之间的最小余弦距离,并对以上两种方法设定阈值,设定匹配时的度量标准,最终度量方式由二者的加权求和所得,公式如下:
ci,j=λd(1)(i,j)+(1-λ)d(2)(i,j) (3)
步骤3.4:基于匈牙利算法对多个检测目标与跟踪轨迹进行匹配:
使用匈牙利算法对DeepSORT跟踪器中的跟踪轨迹与YOLOV5当前所检测到的目标进行匹配,利用步骤3.2中的特征提取模块,以及步骤3.3中的距离度量标准组合成级联匹配,对跟踪轨迹与检测目标之间进行距离计算,并设定阈值过滤匹配结果,之后还需要在IOU匹配中使用匈牙利算法对跟踪轨迹与检测目标再进行一次匹配,最后利用匹配到的结果对当前所有轨迹分成三个状态确认态、未确认态、删除态。
步骤4:基于YOLOV5检测器与DeepSORT跟踪器结合进行飞机目标跟踪:
从摄像头或者视频流中读入第一帧,第一帧中使用YOLOV5检测器对帧中的飞机物体进行识别,将所检测到的飞机目标的坐标信息、置信度以及飞机目标图像信息传递给DeepSORT跟踪器中,并设置0.3的置信度阈值对检测框进行过滤,删除置信度过小的检测框,第一帧中无跟踪目标,利用YOLOV5检测器对目标进行检测并在DeepSORT跟踪器中创建新的Tracker,将检测到的目标存入tracks中,并初始化卡尔曼滤波器状态,Tracker中的tracks状态初始化为未确认态。
读入第二帧,YOLOV5检测后将检测信息输入到DeepSORT跟踪器中,利用第一帧中创建的Tracker中的卡尔曼滤波器以及YOLOV5的坐标信息,获得当前帧中的预测信息,由于第一帧中无确认态的tracks,则对未匹配的tracks以及未匹配的检测目标再进行IOU匹配,计算出IOU最大的唯一匹配,最后对Tracker中各个tracks的状态进行更新,对于已匹配的tracks将所匹配目标特征保存到各个tracks的特征集中并更新卡尔曼滤波状态,对于未匹配的检测目标创建新的tracks并进行初始化,对于依然未匹配到的tracks直接删除。
读入第三帧,YOLOV5检测后将检测信息输入到DeepSORT跟踪器中,该帧中依然没有确认态的tracks,在完成前后两帧检测目标与跟踪轨迹之间的IOU匹配后对已经连续三帧确认匹配的tracks变更为确定态,对确定态的tracks进行特征更新,并对卡尔曼滤波状态进行更新,对于依然未匹配到的tracks直接删除,对未匹配到的检测目标创建新的tracks并进行初始化。
读入第四帧,YOLOV5检测后将检测信息输入到DeepSORT跟踪器中,并使用步骤3.2中的特征提取模块对YOLOV5检测到的目标进行特征提取,并利用tracks中的卡尔曼滤波信息以及特征信息,以及步骤3.4中马氏距离、余弦距离以及匈牙利算法组合的级联匹配算法,将处于确认态的tracks与当前帧中所提取到的目标特征进行匹配,对已匹配的之前为确认态的tracks更新特征集以及卡尔曼滤波状态,对已匹配的之前为未确认态的tracks匹配命中次数增加1,对未匹配的tracks以及未匹配的检测目标再进行IOU匹配,如果tracks仍未匹配且之前为确认态,需要经过max_age帧后依然没有完成匹配,则将tracks删除,如果tracks仍未匹配且之前的状态为未确认态,则直接删除tracks,对未匹配的检测目标创建新的tracks并进行初始化,在之后的每一帧中都与第四帧中相同的方法进行匹配,最后将跟踪框结果输出到视频中,并将视频中的所跟踪到的飞机目标的坐标信息输出。

Claims (2)

1.一种基于改进型YOLOV5算法的飞机多目标跟踪方法,其特征在于,包括以下步骤:
步骤1:收集与标注飞机目标数据集,具体包括:
收集飞机图像数据以及视频数据,使用标注工具Labelimg、Darklabel分别对图像和视频进行标注,并构建飞机图像数据集,将所述数据集划分成训练集、测试集以及验证集;
步骤2:基于步骤1中的数据集对YOLOV5目标检测网络进行训练,并针对飞机目标进行改进,具体包括:
步骤2.1:基于BiFPN结构进行多特征融合:
YOLOV5的主干网络由CONV模块、C3模块、SPPF模块结合构成,可以产生多尺度的特征图,利用BiFPN结构在head部分中加入多特征融合,针对飞机小目标的漏检问题,使用4种不同尺度下的特征检测图层,对大小不同的飞机目标进行检测;
步骤2.2:使用CBAM注意力机制模块增加YOLOV5模型检测精准度:
使用CBAM注意力机制,将通道注意力机制与空间注意力机制融合,使特征能够覆盖到检测物体的更多部位,最终使判断物体的几率提高,增强模型的检测精准度;
步骤2.3:获得YOLOV5检测模型:
YOLOV5网络包括主干网络backbone部分、head部分,首先对训练集中的图像数据预处理将所有图像统一分辨率,并将预处理后的图像输入到backbone部分中,获得不同尺度的特征图,然后将不同尺寸的特征图输入到head部分,在head部分中对特征图依次进行上采样、下采样以及基于通道维度的拼接操作产生多种尺度的特征图,并利用步骤2.1中的特征融合操作与步骤2.2的CBAM注意力机制获得不同尺度的特征图并输入到head部分中的Detect层,再将多种损失函数结合并进行反向传播对模型中的梯度进行更新调节权重参数,最后使用验证集对现有模型进行验证,获得YOLOV5目标检测模型;
步骤3:构建DeepSORT跟踪器,具体包括:
步骤3.1:构建DeepSORT跟踪器运动模型:
使用卡尔曼滤波对已检测到的飞机目标构建运动模型并进行预测,预测下一帧中飞机目标位置;
步骤3.2:构建DeepSORT跟踪器特征提取模块:
使用步骤1中Darklabel对视频进行标注的图像数据,并对图像进行裁剪,对所得到的飞机图像数据进行分类,最后对数据集划分训练集和验证集;将所得数据输入到ResNeXt50网络中,并得到ResNeXt50特征提取模型,并使用该特征检测模型对YOLOV5所检测到的飞机目标进行特征提取;
步骤3.3:针对DeepSORT跟踪器中目标前后帧跟踪轨迹与检测目标之间规定距离度量标准:
首先使用马氏距离表示运动模型之间的关联度并作为距离函数:
Figure FDA0003458283660000021
其中dj表示第j个YOLO V5检测到的目标位置,yi表示第i个DeepSORT跟踪器中所预测的目标位置,
Figure FDA0003458283660000022
表示跟踪到的目标位置与检测目标位置的协方差矩阵的逆矩阵,d(1)表示在多维运动状态数据中YOLOV5所检测到目标的检测框与卡尔曼滤波所得到的预测框的关联程度;
再加入特征之间的余弦距离,对检测到的目标特征与跟踪到的目标特征之间计算余弦距离:
Figure FDA0003458283660000023
其中rj表示第j个检测到所提取的目标特征并添加限制条件||rj||=1所得,
Figure FDA0003458283660000025
为每个跟踪目标构建一个轨迹,在其中存储每个跟踪目标在最近的M帧中关联成功的特征向量,
Figure FDA0003458283660000024
表示第k帧中第i个跟踪到的目标特征,d(2)表示第i个跟踪到的最近N个成功关联的特征集与当前帧中YOLOV5检测到的的目标特征之间的最小余弦距离,并对以上两种方法设定阈值,设定匹配时的度量标准,最终度量方式由二者的加权求和所得,公式如下:
ci,j=λd(1)(i,j)+(1-λ)d(2)(i,j) (3)
步骤3.4:基于匈牙利算法对多个检测目标与跟踪轨迹进行匹配:
使用匈牙利算法对DeepSORT跟踪器中的跟踪轨迹与YOLOV5当前所检测到的目标进行匹配,利用步骤3.2中的特征提取模块,以及步骤3.3中的距离度量标准组合成级联匹配,对跟踪轨迹与检测目标之间进行距离计算,并设定阈值过滤匹配结果,之后还需要在IOU匹配中使用匈牙利算法对跟踪轨迹与检测目标再进行一次匹配,最后利用匹配到的结果对当前所有轨迹分成三个状态确认态、未确认态、删除态;
步骤4:基于YOLOV5检测器与DeepSORT跟踪器结合进行飞机目标跟踪,具体包括:
从摄像头或者视频流中读入第一帧,第一帧中使用YOLOV5检测器对帧中的飞机物体进行识别,将所检测到的飞机目标的坐标信息、置信度以及飞机目标图像信息传递给DeepSORT跟踪器中,并设置置信度阈值对检测框进行过滤,删除置信度过小的检测框,第一帧中无跟踪目标,利用YOLOV5检测器对目标进行检测并在DeepSORT跟踪器中创建新的Tracker,将检测到的目标存入tracks中,并初始化卡尔曼滤波器状态,Tracker中的tracks状态初始化为未确认态;
读入第二帧,YOLOV5检测后将检测信息输入到DeepSORT跟踪器中,利用第一帧中创建的Tracker中的卡尔曼滤波器以及YOLOV5的坐标信息,获得当前帧中的预测信息,由于第一帧中无确认态的tracks,则对未匹配的tracks以及未匹配的检测目标再进行IOU匹配,计算出IOU最大的唯一匹配,最后对Tracker中各个tracks的状态进行更新,对于已匹配的tracks将所匹配目的特征保存到各个tracks的特征集中并更新卡尔曼滤波状态,对于未匹配的检测目标创建新的tracks并进行初始化,对于依然未匹配到的tracks直接删除;
读入第三帧,YOLOV5检测后将检测信息输入到DeepSORT跟踪器中,该帧中依然没有确认态的tracks,在完成前后两帧检测目标与跟踪轨迹之间的IOU匹配后对已经连续三帧确认匹配的tracks变更为确定态,对确定态的tracks进行特征更新,并对卡尔曼滤波状态进行更新,对于依然未匹配到的tracks直接删除,对未匹配到的检测目标创建新的tracks并进行初始化;
读入第四帧,YOLOV5检测后将检测信息输入到DeepSORT跟踪器中,并使用步骤3.2中的特征提取模块对YOLOV5检测到的目标进行特征提取,并利用tracks中的卡尔曼滤波信息以及特征信息,以及步骤3.4中马氏距离、余弦距离以及匈牙利算法组合的级联匹配算法,将处于确认态的tracks与当前帧中所提取到的目标特征进行匹配,对已匹配的之前为确认态的tracks更新特征集以及卡尔曼滤波状态,对已匹配的之前为未确认态的tracks匹配命中次数增加1,对未匹配的tracks以及未匹配的检测目标再进行IOU匹配,如果tracks仍未匹配且之前为确认态,需要经过max_age帧后依然没有完成匹配,则将tracks删除,如果tracks仍未匹配且之前的状态为未确认态,则直接删除tracks,对未匹配的到检测目标创建新的tracks并进行初始化,在之后的每一帧中都与第四帧相同的方法进行匹配,最后将跟踪框结果输出到视频中,并将视频中的所跟踪到的飞机目标的坐标信息输出。
2.如权利要求1所述的一种基于改进型YOLOV5算法的飞机多目标跟踪方法,其特征在于,步骤3.3中的M和N都取值为70,步骤4的置信度阈值取值为0.3。
CN202210009200.8A 2022-01-06 2022-01-06 一种基于改进型yolov5算法的飞机多目标跟踪方法 Pending CN114529799A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210009200.8A CN114529799A (zh) 2022-01-06 2022-01-06 一种基于改进型yolov5算法的飞机多目标跟踪方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210009200.8A CN114529799A (zh) 2022-01-06 2022-01-06 一种基于改进型yolov5算法的飞机多目标跟踪方法

Publications (1)

Publication Number Publication Date
CN114529799A true CN114529799A (zh) 2022-05-24

Family

ID=81620117

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210009200.8A Pending CN114529799A (zh) 2022-01-06 2022-01-06 一种基于改进型yolov5算法的飞机多目标跟踪方法

Country Status (1)

Country Link
CN (1) CN114529799A (zh)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114677597A (zh) * 2022-05-26 2022-06-28 武汉理工大学 基于改进YOLOv5网络的齿轮缺陷视觉检测方法及系统
CN114782437A (zh) * 2022-06-20 2022-07-22 西南石油大学 一种基于人工智能的电脑主板质量检测方法及系统
CN115272791A (zh) * 2022-07-22 2022-11-01 仲恺农业工程学院 一种基于YoloV5的茶叶用多目标检测定位方法
CN115409817A (zh) * 2022-08-30 2022-11-29 中南大学 一种基于yolo的轻量高效的检测网络
CN115620076A (zh) * 2022-09-08 2023-01-17 东南大学 一种智能变电站二次装置面板识别方法、设备及存储介质
CN115880646A (zh) * 2023-02-20 2023-03-31 中国民航大学 一种飞机入离位状态识别方法
CN116245916A (zh) * 2023-05-11 2023-06-09 中国人民解放军国防科技大学 一种面向无人艇的红外舰船目标跟踪方法及装置
CN116493735A (zh) * 2023-06-29 2023-07-28 武汉纺织大学 一种万瓦级超高功率激光焊接过程运动飞溅实时跟踪方法
CN116977367A (zh) * 2023-07-14 2023-10-31 陕西师范大学 基于Transformer与卡尔曼滤波的校园多目标跟踪方法
CN117953546A (zh) * 2024-03-27 2024-04-30 沈阳二一三电子科技有限公司 一种基于多目标跟踪的行人逆行判断方法
CN117953546B (zh) * 2024-03-27 2024-06-11 沈阳二一三电子科技有限公司 一种基于多目标跟踪的行人逆行判断方法

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114677597A (zh) * 2022-05-26 2022-06-28 武汉理工大学 基于改进YOLOv5网络的齿轮缺陷视觉检测方法及系统
CN114677597B (zh) * 2022-05-26 2022-10-11 武汉理工大学 基于改进YOLOv5网络的齿轮缺陷视觉检测方法及系统
CN114782437A (zh) * 2022-06-20 2022-07-22 西南石油大学 一种基于人工智能的电脑主板质量检测方法及系统
CN114782437B (zh) * 2022-06-20 2022-09-02 西南石油大学 一种基于人工智能的电脑主板质量检测方法及系统
CN115272791A (zh) * 2022-07-22 2022-11-01 仲恺农业工程学院 一种基于YoloV5的茶叶用多目标检测定位方法
CN115409817A (zh) * 2022-08-30 2022-11-29 中南大学 一种基于yolo的轻量高效的检测网络
CN115409817B (zh) * 2022-08-30 2024-01-26 中南大学 一种基于yolo的轻量高效的检测网络
CN115620076B (zh) * 2022-09-08 2023-12-15 东南大学 一种智能变电站二次装置面板识别方法、设备及存储介质
CN115620076A (zh) * 2022-09-08 2023-01-17 东南大学 一种智能变电站二次装置面板识别方法、设备及存储介质
CN115880646A (zh) * 2023-02-20 2023-03-31 中国民航大学 一种飞机入离位状态识别方法
CN116245916A (zh) * 2023-05-11 2023-06-09 中国人民解放军国防科技大学 一种面向无人艇的红外舰船目标跟踪方法及装置
CN116493735A (zh) * 2023-06-29 2023-07-28 武汉纺织大学 一种万瓦级超高功率激光焊接过程运动飞溅实时跟踪方法
CN116493735B (zh) * 2023-06-29 2023-09-12 武汉纺织大学 一种万瓦级超高功率激光焊接过程运动飞溅实时跟踪方法
CN116977367A (zh) * 2023-07-14 2023-10-31 陕西师范大学 基于Transformer与卡尔曼滤波的校园多目标跟踪方法
CN117953546A (zh) * 2024-03-27 2024-04-30 沈阳二一三电子科技有限公司 一种基于多目标跟踪的行人逆行判断方法
CN117953546B (zh) * 2024-03-27 2024-06-11 沈阳二一三电子科技有限公司 一种基于多目标跟踪的行人逆行判断方法

Similar Documents

Publication Publication Date Title
CN114529799A (zh) 一种基于改进型yolov5算法的飞机多目标跟踪方法
CN113705478B (zh) 一种基于改进YOLOv5的红树林单木目标检测方法
CN108520203B (zh) 基于融合自适应多外围框与十字池化特征的多目标特征提取方法
CN110490073A (zh) 目标检测方法、装置、设备及存储介质
CN110598586A (zh) 一种目标检测方法及系统
CN110018453A (zh) 基于飞机航迹特征的智能机型识别方法
CN107194950A (zh) 一种基于慢特征分析的多人跟踪方法
CN114283355A (zh) 一种基于小样本学习的多目标濒危动物跟踪方法
CN116964588A (zh) 一种目标检测方法、目标检测模型训练方法及装置
CN116580322A (zh) 一种地面背景下无人机红外小目标检测方法
CN114529552A (zh) 一种基于几何轮廓顶点预测的遥感影像建筑物分割方法
CN116935356A (zh) 基于弱监督的自动驾驶多模态图片和点云实例分割方法
CN116597326A (zh) 一种基于改进YOLOv7算法的无人机航拍小目标检测方法
Pillai et al. Fine-Tuned EfficientNetB4 Transfer Learning Model for Weather Classification
CN115327529A (zh) 一种融合毫米波雷达和激光雷达的3d目标检测与追踪方法
CN112614158B (zh) 一种采样框自适应的多特征融合在线目标跟踪方法
CN112069997B (zh) 一种基于DenseHR-Net的无人机自主着陆目标提取方法及装置
CN114419600A (zh) 一种基于ssd算法的车型目标检测网络及检测方法
CN113989920A (zh) 一种基于深度学习的运动员行为质量评估方法
Li et al. An object detection approach with residual feature fusion and second‐order term attention mechanism
CN113362372B (zh) 一种单目标追踪方法及计算机可读介质
Rozhbayani et al. Real-Time Human Detection and Tracking Based on Deep Learning Technique
CN113313091B (zh) 仓储物流下的基于多重注意力和拓扑约束的密度估计方法
CN116665015B (zh) 一种基于YOLOv5的红外序列图像弱小目标检测方法
CN113192093B (zh) 基于双流网络结构的快速显著性目标检测方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination