CN115359373A - 一种无人机视角下多目标车辆旋转框跟踪方法 - Google Patents

一种无人机视角下多目标车辆旋转框跟踪方法 Download PDF

Info

Publication number
CN115359373A
CN115359373A CN202210913619.6A CN202210913619A CN115359373A CN 115359373 A CN115359373 A CN 115359373A CN 202210913619 A CN202210913619 A CN 202210913619A CN 115359373 A CN115359373 A CN 115359373A
Authority
CN
China
Prior art keywords
vehicle
target
rotating frame
detection
unmanned aerial
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202210913619.6A
Other languages
English (en)
Inventor
周明龙
黎宁
缪力泽
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nanjing University of Aeronautics and Astronautics
Original Assignee
Nanjing University of Aeronautics and Astronautics
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nanjing University of Aeronautics and Astronautics filed Critical Nanjing University of Aeronautics and Astronautics
Priority to CN202210913619.6A priority Critical patent/CN115359373A/zh
Publication of CN115359373A publication Critical patent/CN115359373A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/17Terrestrial scenes taken from planes or by drones
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/082Learning methods modifying the architecture, e.g. adding, deleting or silencing nodes or connections
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/07Target detection

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Multimedia (AREA)
  • General Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Remote Sensing (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Molecular Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Image Analysis (AREA)

Abstract

本发明设计了一种无人机视角下多目标车辆旋转框跟踪方法,在原YOLOv5检测模型中增加CA注意力模块和Transformer预测头,同时提出基于底点坐标的旋转框表示方法,采用旋转框代替水平框来更好标识车辆目标,极大地提升了视觉效果;基于训练好的车辆检测网络和重识别网络,得到检测框信息和重识别特征,通过卡尔曼滤波和匈牙利算法实现轨迹预测和数据关联,从而实现多目标跟踪;鉴于无人机自身计算资源有限,通过FPGM剪枝技术,在保证跟踪精度和速度的前提下,对模型进行压缩。本发明可以很好对无人机视角下的车辆目标进行检测和跟踪,运用FPGM剪枝技术,很好地解决无人机自身计算资源有限的问题,在智能交通检测系统中具有良好的应用潜力。

Description

一种无人机视角下多目标车辆旋转框跟踪方法
技术领域
本发明涉及车辆目标跟踪领域,具体涉及一种无人机视角下多目标车辆旋转框跟踪方法。
背景技术
与载人飞机相比,无人机具有体积小,灵活性强、造价低、操作简单、作战环境要求低以及战场生存能力强等优势,使得无人机在军事领域对于未来空战有着重要的意义。除了军事领域,无人机在民用领域的应用也是极其广泛。目前在航拍、农业、植保、快递运输、电力巡检以及抢险救灾等领域都发挥着巨大价值。随着国民经济的飞速发展,居民可支配收入增多以及在交通强国、交通数字化转型等行业政策的引导之下,国内城市中汽车数量不断增多,2022年3月已突破4亿辆。智能交通检测系统成为了保证城市交通安全和提高交通设施运行效率的必要措施。对于车辆的检测与跟踪更是智能交通检测系统的主要任务。将无人机技术应用到车辆跟踪任务中,可以发挥无人机独特的优势的同时,无人机视角下的车辆跟踪也是亟待解决的重要问题。
跟踪主要应用于对视频或连续有语义关联的图像中任意目标,通过其外观特征和运动信息进行建模,通过对运动状态的预测,来实现对其空间位置和形状大小的获知。根据跟踪目标的不同,可以分为单目标跟踪和多目标跟踪;根据跟踪方法的不同可以分为生成类跟踪方法和判别类跟踪方法。生成类跟踪方法将更多的注意力放在目标本身,比较经典的方法有卡尔曼滤波、粒子滤波、均值漂移等;判别类滤波可以分别基于相关滤波和基于深度学习的方法,可以一定程度上解决样本不足的问题。
不同于常见的摄像机视角下地面车辆目标跟踪,在无人机视角下,车辆目标跟踪面临着以下几个挑战。
1)无人机拍摄时处于高空位置,视野广阔,背景复杂。感兴趣的车辆目标与其他物体、感兴趣目标与环境背景之间相互干扰,构造精准的目标检测器比较困难;
2)当无人机飞行到一定高度时,视野变大,图像分辨率变低,车辆目标的轮廓和纹理特征变得稀少,给目标检测与跟踪带来了新的挑战;
3)无人机在拍摄过程中,受光线、风力以及操作员的飞行控制影响,可能会出现相机抖动、运动模糊、车辆行驶方向快速变化等情况。
4)由于无人机自身结构特点,无法提供足够的计算资源,在保证精度的前提下,降低算法复杂度以及压缩模型大小,成为重中之重。
发明内容
无人机视角下的车辆目标存在背景复杂、目标较小、方向任意以及排列紧密等特点,给车辆检测与跟踪带来了一定的挑战。同时,由于无人机自身可携带计算资源有限,对于算法优化以及模型轻量化也提出了更高的要求。
为了解决上述问题,更好地实现对于无人机视角下的车辆目标跟踪,本发明拟解决的技术问题是提供一种无人机视角下多目标车辆旋转框跟踪方法,具体如下:
一种无人机视角下多目标车辆旋转框跟踪方法,包含如下步骤:
步骤1),车辆旋转框检测:制作无人机视角下的车辆数据集,搭建检测网络模型并进行训练,实现对车辆目标的旋转框检测;
步骤2),FPGM剪枝:基于几何中值卷积神经网络滤波器来修剪冗余的滤波器来实现对检测网络模型的压缩;
步骤3),重识别网络训练:构造车辆重识别数据集,训练重识别网络模型,得到目标的外观特征和运动特征,实现车辆目标的重识别;
步骤4),多目标车辆跟踪:将待检测视频输入检测网络模型,得到目标车辆检测框,通过重识别网络提取检测框的外观特征和运动特征,从而计算检测结果与卡尔曼滤波预测结果的相似度,最后通过匈牙利算法进行数据关联,从而实现多目标的跟踪。
作为本发明一种无人机视角下多目标车辆旋转框跟踪方法进一步的优化方案,所述步骤1)的具体步骤为:
步骤1.1),通过无人机在若干个交通要道以不同的飞行状态来对车辆目标进行拍摄,获得原始数据;再通过标注软件,人工地对每个车辆目标进行旋转框的标注;标注格式为(x1,y1,x2,y2,x3,y3,x4,y4,class),其中,(xi,yi)为第i个顶点坐标,1≤i≤4,class为车辆的类别,包含汽车(car)、公交车(bus)、卡车(truck)三类;
步骤1.2),对于N张原始图片,重复步骤1.1)得到N个对应的标签数据,再将(x1,y1,x2,y2,x3,y3,x4,y4,class)标注格式转化为(xcenter,ycenter,xbottom,ybottom,w,h,class)训练格式,其中,(xcenter,ycenter)表示旋转框中心点坐标,(xbottom,ybottom)表示旋转框底点坐标,w、h、class分别表示旋转框的宽、高、类别,最后将其分割为训练集和测试集;
步骤1.3),在原YOLOv5检测模型中增加CA注意力模块和Transformer预测头,修改模型的参数,搭建模型的运行环境;
步骤1.4),在操作系统为Ubuntu 16.04,显卡为NVIDIA RTX 2080Ti的工作站上,设置训练Batch Size大小为4,初始学习率为0.001,训练120个Epochs。
作为本发明一种无人机视角下多目标车辆旋转框跟踪方法进一步的优化方案,所述步骤2)的具体步骤为:
步骤2.1),加载模型参数到检测网络模型中,对于每一个卷积层,计算每个卷积核与所有的卷积核的欧式距离之和;
步骤2.2),对得到的所有欧式距离之和,按照从小到大排序,剪裁掉低于预定阈值μ所对应的卷积核;
步骤2.3),将剪裁掉的卷积核的梯度强制为零,对剪枝后的检测网络模型重新训练,重复裁剪和训练过程,直至检测网络模型收敛;
步骤2.4),去掉全零卷积核以及卷积核中的冗余通道,同时去掉BN层参数冗余数值,得到剪枝且去零的压缩的检测网络模型。
作为本发明一种无人机视角下多目标车辆旋转框跟踪方法进一步的优化方案,所述步骤3)的具体步骤为:
步骤3.1),构建车辆重识别数据集,完成对原始VeRi数据集的数据增强和容量扩展;
步骤3.2),基于余弦度量学习对重识别网络模型进行训练,使得重识别网络模型有良好的分类能力,准确实现对短暂消失又重新出现的车辆目标进行重识别。
作为本发明一种无人机视角下多目标车辆旋转框跟踪方法进一步的优化方案,所述步骤4)的具体步骤为:
步骤4.1),单帧图片车辆目标检测:从视频中获取单帧图片,送入检测网络模型中得到该图片中所有车辆的位置信息(x,y,w,h,theta)和置信度
Figure BDA0003774731100000031
其中,x、y分别为车辆旋转框中心点的横坐标、纵坐标;w、h分别为车辆旋转框的宽度、高度;theta为车辆旋转框的长边与水平线所成的角度;
步骤4.2),对于步骤4.1)中得到的检测框,通过训练好的重识别网络模型,得到其外观特征和运动特征;
步骤4.3),卡尔曼滤波预测:采用(x,y,w,h,theta,dx,dy,dw,dh,dtheta)作为状态估计模型的状态向量,采用匀速运动模型的卡尔曼滤波器预测轨迹,预测下一帧目标轨迹,其中,dx,dy,dw,dh,dtheta分别为x,y,w,h,theta的变化量;
步骤4.4),对卡尔曼滤波预测的确认态轨迹与目标检测器得到的检测框进行级联匹配;
步骤4.5),将卡尔曼滤波预测的不确认态轨迹与级联匹配产生的检测框失配和轨迹失配结果进行IOU匹配,通过匈牙利算法,得到最终的匹配结果;
步骤4.6),进行卡尔曼滤波参数更新;
步骤4.7),循环执行步骤4.1)至步骤4.6),直至视频结束,得到最终的跟踪结果。
本发明采用以上技术方案,可以实现对无人机视角下车辆目标的旋转框跟踪。针对无人机视角下,车辆目标较小、排列紧密、方向任意以及背景环境复杂等挑战,采用改进型YOLOv5目标检测器,提出基于底点坐标的旋转框表示方法,以旋转框代替水平框,实现更加准确的车辆目标检测,提升视觉辨识效果;通过DeepSort目标跟踪器可以实现对车辆目标的实时跟踪;同时,对网络模型进行FPGM剪枝,在保证跟踪精度和速度的同时,进一步压缩模型,旨在解决在无人机计算资源有限的问题。
附图说明
图1为本发明的方法流程图;
图2为基于底点坐标的旋转框表示方法示意图;
图3为改进型YOLOv5网络结构图;
图4为DeepSort目标跟踪流程图。
具体实施方式
下面给出本发明的具体实施例。具体实例仅用于进一步详细说明本发明,不限制本申请权利要求的保护范围。
结合附图对本发明作更进一步的说明。见参考图1,本发明提供了一种无人机视角下多目标车辆旋转框跟踪方法,具体实施步骤如下:
步骤1),车辆旋转框检测:制作无人机视角下的车辆数据集,搭建检测网络模型进行训练,实现对车辆目标的旋转框检测;
步骤1.1),通过无人机在若干个交通要道以不同的飞行状态来对车辆目标进行拍摄,获得原始数据;再通过标注软件,人工地为每个车辆目标进行旋转框的标注,标注格式为(x1,y1,x2,y2,x3,y3,x4,y4,class),其中,(xi,yi)(1≤i≤4)为第i个顶点坐标class为车辆的类别,包含汽车(car)、公交车(bus)、卡车(truck)三类;再将标注格式转化为(xcenter,ycenter,xbottom,ybottom,w,h,class)训练格式,其中,(xcenter,ycenter)表示旋转框中心点坐标,(xbottom,ybottom)表示旋转框底点坐标,w,h,class分别表示旋转框的宽高以及类别,通过旋转框的中心点坐标、底点坐标以及宽高,即可表示出一个完整旋转框,如图2所示;
步骤1.2),重复步骤1.1)得到1015组数据,并将其分割为训练集和测试集,训练集共828组数据,测试集187组数据;
步骤1.3),在原YOLOv5检测模型中增加CA注意力模块和Transformer预测头,修改模型的参数,搭建模型的运行环境,如参考图3所示;
步骤1.4),在操作系统为Ubuntu 16.04,显卡为NVIDIA RTX 2080Ti的工作站上,设置训练Batch Size大小为4,初始学习率为0.001,训练120个Epochs;
步骤2),FPGM剪枝:基于几何中值卷积神经网络滤波器来修剪冗余的滤波器来实现对检测网络模型的压缩;
步骤2.1),加载模型参数到检测网络模型中,对于每一个卷积层,计算每个卷积核与所有的卷积核的欧式距离之和;
步骤2.2),对得到的所有欧式距离之和,按照从小到大排序,剪裁掉低于预定阈值μ所对应的卷积核;
步骤2.3),将剪裁掉的卷积核的梯度强制为零,对剪枝后的检测网络模型重新训练,重复裁剪和训练过程,直至检测网络模型收敛;
步骤2.4),去掉全零卷积核以及卷积核中的冗余通道,同时去掉BN层参数冗余数值,得到剪枝且去零的压缩的检测网络模型;
步骤3),重识别网络训练:构造车辆重识别数据集,训练重识别网络模型,得到目标的外观特征和运动特征,实现车辆目标的重识别;
步骤3.1),构建车辆重识别网络训练数据集,通过编写脚本,加强车辆与背景区分度,并随机翻转和调节图像明暗度,完成对原始VeRi数据集的数据增强和容量扩展;
步骤3.2),基于余弦度量学习对重识别网络模型进行训练,设置Batch Size为32,学习率为0.001,在经过400000次迭代后,分类准确度可以达到94.5%,此时网络有良好的分类能力,可以准确实现对短暂消失又重新出现的车辆目标进行重识别;
步骤4),多目标车辆跟踪:将待检测视频输入检测网络模型,得到目标车辆检测框,通过重识别网络提取检测框的外观特征和运动特征,从而得到检测结果与卡尔曼滤波预测结果的相似度,最后通过匈牙利算法进行数据关联,从而实现多目标的跟踪,具体流程如图4所示;
步骤4.1),单帧图片车辆目标检测:从视频中获取单帧图片,送入检测网络模型中得到该图片中所有车辆的位置信息(x,y,w,h,theta)和置信度
Figure BDA0003774731100000051
其中,x、y分别为车辆旋转框中心点的横坐标、纵坐标;w、h分别为车辆旋转框的宽度、高度;theta为车辆旋转框的长边与水平线所成的角度;
步骤4.2),对于步骤4.1)中得到的检测框,通过训练好的重识别网络模型,得到其外观特征和运动特征;
步骤4.3),卡尔曼滤波预测:采用(x,y,w,h,theta,dx,dy,dw,dh,dtheta)作为状态估计模型的状态向量,采用匀速运动模型的卡尔曼滤波器预测轨迹,预测下一帧目标轨迹,其中,dx,dy,dw,dh,dtheta分别为x,y,w,h,theta的变化量;
步骤4.4),对卡尔曼滤波预测的确认态轨迹与目标检测器得到的检测框进行级联匹配;得到三种结果,分别为Tracks失配(Unmatched Tracks)、Detections失配(UnmatchedDetections)以及Tracks匹配(Tracks Matched);
步骤4.5),对于级联匹配结果是Tracks匹配,直接进行轨迹更新和ID维护;对于级联匹配结果是Detections失配和Tracks失配,以及卡尔曼滤波预测的不确认态轨迹,再次进行IOU匹配,计算代价矩阵,通过匈牙利算法,得到Tracks失配、Detections失配以及Tracks匹配三种匹配结果;
对于IOU匹配结果是Detections失配时,将添加一条新的轨迹信息和ID,并进行更新;对于IOU匹配结果是Tracks失配的不确认态轨迹,直接删除轨迹,不再更新轨迹和维护ID;对于IOU匹配结果是Tracks失配的确认态轨迹,当Tracks失配次数大于既定的最大生命周期时,将直接删除轨迹,当次数不大于最大生命周期时,继续更新轨迹参数和维护ID信息;
步骤4.6),进行卡尔曼滤波参数更新;
步骤4.7),循环执行步骤4.1)至步骤4.6),直至视频结束,得到最终的跟踪结果。
以上所述仅是本发明的优选实施方式,其目的在于让熟悉此项技术的人士了解本发明的内容并据以实施,并不能以此限制本发明的保护范围。应当指出:对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也应视为本发明的保护范围。

Claims (5)

1.一种无人机视角下多目标车辆旋转框跟踪方法,其特征在于,包含如下步骤:
步骤1),车辆旋转框检测:制作无人机视角下的车辆数据集,搭建检测网络模型并进行训练,实现对车辆目标的旋转框检测;
步骤2),FPGM剪枝:基于几何中值卷积神经网络滤波器来修剪冗余的滤波器来实现对检测网络模型的压缩;
步骤3),重识别网络训练:构造车辆重识别数据集,训练重识别网络模型,得到目标的外观特征和运动特征,实现车辆目标的重识别;
步骤4),多目标车辆跟踪:将待检测视频输入检测网络模型,得到目标车辆检测框,通过重识别网络提取检测框的外观特征和运动特征,从而计算检测结果与卡尔曼滤波预测结果的相似度,最后通过匈牙利算法进行数据关联,从而实现多目标的跟踪。
2.根据权利要求1所述的无人机视角下多目标车辆旋转框跟踪方法,其特征在于,所述步骤1)的具体步骤为:
步骤1.1),通过无人机在若干个交通要道以不同的飞行状态来对车辆目标进行拍摄,获得原始数据;再通过标注软件,人工地对每个车辆目标进行旋转框的标注;标注格式为(x1,y1,x2,y2,x3,y3,x4,y4,class),其中,(xi,yi)为第i个顶点坐标,1≤i≤4,class为车辆的类别,包含汽车(car)、公交车(bus)、卡车(truck)三类;
步骤1.2),对于N张原始图片,重复步骤1.1)得到N个对应的标签数据,再将(x1,y1,x2,y2,x3,y3,x4,y4,class)标注格式转化为(xcenter,ycenter,xbottom,ybottom,w,h,class)训练格式,其中,(xcenter,ycenter)表示旋转框中心点坐标,(xbottom,ybottom)表示旋转框底点坐标,w、h、class分别表示旋转框的宽、高、类别,最后将其分割为训练集和测试集;
步骤1.3),在原YOLOv5检测模型中增加CA注意力模块和Transformer预测头,修改模型的参数,搭建模型的运行环境;
步骤1.4),在操作系统为Ubuntu 16.04,显卡为NVIDIA RTX 2080 Ti的工作站上,设置训练Batch Size大小为4,初始学习率为0.001,训练120个Epochs。
3.根据权利要求2所述的无人机视角下多目标车辆旋转框跟踪方法,其特征在于,所述步骤2)的具体步骤为:
步骤2.1),加载模型参数到检测网络模型中,对于每一个卷积层,计算每个卷积核与所有的卷积核的欧式距离之和;
步骤2.2),对得到的所有欧式距离之和,按照从小到大排序,剪裁掉低于预定阈值μ所对应的卷积核;
步骤2.3),将剪裁掉的卷积核的梯度强制为零,对剪枝后的检测网络模型重新训练,重复裁剪和训练过程,直至检测网络模型收敛;
步骤2.4),去掉全零卷积核以及卷积核中的冗余通道,同时去掉BN层参数冗余数值,得到剪枝且去零的压缩的检测网络模型。
4.根据权利要求3所述的无人机视角下多目标车辆旋转框跟踪方法,其特征在于,所述步骤3)的具体步骤为:
步骤3.1),构建车辆重识别数据集,完成对原始VeRi数据集的数据增强和容量扩展;
步骤3.2),基于余弦度量学习对重识别网络模型进行训练,使得重识别网络模型有良好的分类能力,准确实现对短暂消失又重新出现的车辆目标进行重识别。
5.根据权利要求4所述无人机视角下多目标车辆旋转框跟踪方法,其特征在于,所述步骤4)的具体步骤为:
步骤4.1),单帧图片车辆目标检测:从视频中获取单帧图片,送入检测网络模型中得到该图片中所有车辆的位置信息(x,y,w,h,theta)和置信度
Figure FDA0003774731090000021
其中,x、y分别为车辆旋转框中心点的横坐标、纵坐标;w、h分别为车辆旋转框的宽度、高度;theta为车辆旋转框的长边与水平线所成的角度;
步骤4.2),对于步骤4.1)中得到的检测框,通过训练好的重识别网络模型,得到其外观特征和运动特征;
步骤4.3),卡尔曼滤波预测:采用(x,y,w,h,theta,dx,dy,dw,dh,dtheta)作为状态估计模型的状态向量,采用匀速运动模型的卡尔曼滤波器预测轨迹,预测下一帧目标轨迹,其中,dx,dy,dw,dh,dtheta分别为x,y,w,h,theta的变化量;
步骤4.4),对卡尔曼滤波预测的确认态轨迹与目标检测器得到的检测框进行级联匹配;
步骤4.5),将卡尔曼滤波预测的不确认态轨迹与级联匹配产生的检测框失配和轨迹失配结果进行IOU匹配,通过匈牙利算法,得到最终的匹配结果;
步骤4.6),进行卡尔曼滤波参数更新;
步骤4.7),循环执行步骤4.1)至步骤4.6),直至视频结束,得到最终的跟踪结果。
CN202210913619.6A 2022-08-01 2022-08-01 一种无人机视角下多目标车辆旋转框跟踪方法 Pending CN115359373A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210913619.6A CN115359373A (zh) 2022-08-01 2022-08-01 一种无人机视角下多目标车辆旋转框跟踪方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210913619.6A CN115359373A (zh) 2022-08-01 2022-08-01 一种无人机视角下多目标车辆旋转框跟踪方法

Publications (1)

Publication Number Publication Date
CN115359373A true CN115359373A (zh) 2022-11-18

Family

ID=84032795

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210913619.6A Pending CN115359373A (zh) 2022-08-01 2022-08-01 一种无人机视角下多目标车辆旋转框跟踪方法

Country Status (1)

Country Link
CN (1) CN115359373A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117095314A (zh) * 2023-08-22 2023-11-21 中国电子科技集团公司第五十四研究所 跨域多维空地环境下的目标检测与重识别方法

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117095314A (zh) * 2023-08-22 2023-11-21 中国电子科技集团公司第五十四研究所 跨域多维空地环境下的目标检测与重识别方法
CN117095314B (zh) * 2023-08-22 2024-03-26 中国电子科技集团公司第五十四研究所 跨域多维空地环境下的目标检测与重识别方法

Similar Documents

Publication Publication Date Title
Chen et al. Distribution line pole detection and counting based on YOLO using UAV inspection line video
CN111310861B (zh) 一种基于深度神经网络的车牌识别和定位方法
CN107563372B (zh) 一种基于深度学习ssd框架的车牌定位方法
CN109919072B (zh) 基于深度学习和轨迹跟踪的精细车型识别与流量统计方法
Al-qaness et al. An improved YOLO-based road traffic monitoring system
CN108171112B (zh) 基于卷积神经网络的车辆识别与跟踪方法
Nie et al. Pavement Crack Detection based on yolo v3
CN111709416B (zh) 车牌定位方法、装置、系统及存储介质
CN105354568A (zh) 基于卷积神经网络的车标识别方法
CN111553201B (zh) 一种基于YOLOv3优化算法的交通灯检测方法
Mahaur et al. Road object detection: a comparative study of deep learning-based algorithms
CN110287798B (zh) 基于特征模块化和上下文融合的矢量网络行人检测方法
CN110032952B (zh) 一种基于深度学习的道路边界点检测方法
CN113269040A (zh) 结合图象识别与激光雷达点云分割的驾驶环境感知方法
CN114488194A (zh) 一种智能驾驶车辆结构化道路下目标检测识别方法
CN110334584B (zh) 一种基于区域全卷积网络的手势识别方法
CN106327528A (zh) 无人机运动目标跟踪方法及无人机的工作方法
CN115861619A (zh) 一种递归残差双注意力核点卷积网络的机载LiDAR城市点云语义分割方法与系统
CN112232240A (zh) 一种基于优化交并比函数的道路抛洒物检测与识别方法
He et al. A novel multi-source vehicle detection algorithm based on deep learning
CN115359373A (zh) 一种无人机视角下多目标车辆旋转框跟踪方法
CN111354016A (zh) 基于深度学习和差异值哈希的无人机舰船跟踪方法及系统
CN116109950A (zh) 一种低空域反无人机视觉检测、识别与跟踪方法
Kong et al. Explicit points-of-interest driven Siamese transformer for 3D LiDAR place recognition in outdoor challenging environments
CN117456480A (zh) 一种基于多源信息融合的轻量化车辆再辨识方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination