CN114820702A - 一种基于yolov5的Deepsort无人机视角行人多目标跟踪方法 - Google Patents

一种基于yolov5的Deepsort无人机视角行人多目标跟踪方法 Download PDF

Info

Publication number
CN114820702A
CN114820702A CN202210388211.1A CN202210388211A CN114820702A CN 114820702 A CN114820702 A CN 114820702A CN 202210388211 A CN202210388211 A CN 202210388211A CN 114820702 A CN114820702 A CN 114820702A
Authority
CN
China
Prior art keywords
track
detection
frame
target
state
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202210388211.1A
Other languages
English (en)
Inventor
卢湖川
刘长青
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Dalian Weishi Technology Co ltd
Dalian University of Technology
Original Assignee
Dalian Weishi Technology Co ltd
Dalian University of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Dalian Weishi Technology Co ltd, Dalian University of Technology filed Critical Dalian Weishi Technology Co ltd
Priority to CN202210388211.1A priority Critical patent/CN114820702A/zh
Publication of CN114820702A publication Critical patent/CN114820702A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/277Analysis of motion involving stochastic approaches, e.g. using Kalman filters
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Biomedical Technology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)

Abstract

本发明属于机器学习、目标检测、目标跟踪领域,提供了一种基于yolov5的Deepsort无人机视角行人多目标跟踪方法。本发明的目标检测器使用轻量化yolov5检测器,对参数进行int8量化后,在保持较高精度的同时,降低模型的内存大小,提升检测速度。对检测网络部署在AI边缘设备的可行性大大提升。本发明采用DeepSort多目标跟踪跟踪算法,利用卡尔曼滤波、匈牙利算法来解决当前帧检测框与轨迹的关联问题,提高了数据关联的准确性,有效的降低了同类干扰物在跟踪过程中的影响。

Description

一种基于yolov5的Deepsort无人机视角行人多目标跟踪方法
技术领域
本发明属于机器学习、目标检测、目标跟踪领域,涉及轻量化目标检测器yolov5、多目标跟踪算法deepsort、卡尔曼滤波算法以及匈牙利算法。
背景技术
在目标跟踪领域中,视频的处理主要有摄像机视频捕获,视频图像帧的预处理,运动中目标的监测,运动目标的跟踪,运动目标的分类和目标行为描述与理解等步骤。其中,运动目标检测与跟踪是核心内容,主要对运动目标在复杂环境下进行持续的跟踪并以此为基础进行进一步的目标分析。
目标检测(object detection)在计算机视觉中处于核心的地位,伴随中卷积神经网络的发展,目标检测算法取得了极大的成就,Ross Girshick于2014提出的RCNN开辟了two-stage算法的先河,并在该算法的基础上不断完善,提出了fast-RCNN、faster-RCNN。与此同时,one-stage系列的算法也在近几年取得了飞速的发展,代表算法有yolo系列、retinanet等。作为计算机视觉中的核心任务,目前提出的SOTA算法距离落地还有较远的距离,但相比之前的传统算法已经取得了巨大的提升,在发展的过程中,这些算法所提及的一些idea、技巧也陆续辐射到计算机视觉的其他分支并对其产生了巨大影响,目标跟踪便是其中的一支。
目标跟踪(object tracking)是计算机视觉任务的一个分支,对图像序列中的运动目标进行检测、提取、识别和跟踪,获得运动目标的运动参数,如位置、速度、加速度和运动轨迹等,从而进行下一步的处理与分析,实现对运动目标的行为理解,以完成更高一级的检测任务。它和目标检测所要完成的任务有很多相似之处,但也有着很大的区别:
1、两者都要在图像中识别目标,并标注出边界框,但跟踪是以视频流为基础的,跟踪可以看成是一系列的检测;
2、目标检测要对检测目标进行分类,并且检测的目标类别已知;目标跟踪所识别的目标由视频的第一帧获取,并在后续视频流中识别持续跟踪第一帧标注的目标,跟踪器所跟踪的目标种类并未预先定义,可以是任何物体;
3、两者的算法均需要同时考虑速度与精度。
发明内容
本发明旨在提供一种基于轻量化yolov5检测器的DeepSort行人检测跟踪方法,解决现有多目标跟踪算法受到AI边缘运行设备内存容量限制的问题,同时对多目标跟踪过程中的相似目标干扰、ID交换等问题进行一定程度的解决。
本发明所述方法可部署在无人机相关边缘设备充当视觉模块进行行人多目标检测。
本发明的技术方案为:
一种基于yolov5的Deepsort无人机视角行人多目标跟踪方法,步骤如下:
步骤1:借助无人机上的摄像机获得检测区域的连续视频帧;
步骤2:输入连续视频流,通过轻量化的yolov5检测算法获取当前帧的行人目标检测框;具体为:
所述yolov5目标检测算法由特征提取网络和预测网络构成。特征提取网络的基础模块主要参考CSPNet,CPS模块进行堆叠加深网络深度,使用步长为2的卷积层进行下采样,构建起8倍、16倍、32倍下采样的特征金字塔。对特征金字塔的特征,使用FPN与PAN结构进行进一步融合,获得具有深层语义与浅层位置信息的特征。基于融合后的特征,使用预测网络预测置信分数与锚点框回归系数,从而得到当前帧行人目标检测框。
采用模型参数量化方法将yolov5检测器中的参数从float32转化为int8,从而压缩模型参数所占内存大小,达到模型加速与轻量化的目的。
轻量化yolov5检测算法处理视频帧获取目标检测框主要包括以下步骤:
(1)前处理:将输入图像进行补边、裁剪、缩放,使图片尺寸与网络输入尺寸相同。
(2)网络前向推理得到先验锚点的置信分数与回归系数。
(3)后处理:在步骤(2)中得到的所有目标检测框中,删除置信度低于0.3的检测框,并采用非最大值抑制方法删除冗余的检测框,将筛选后的锚点框通过预测回归系数进行解码得到当前帧中的最终目标检测框。
步骤3:对(2)中得到的检测框使用特征提取网络进行特征提取,得到每个行人检测框的256维特征向量。
步骤4:基于视频当前帧的目标检测框采用deepsort多目标跟踪算法,具体为:
(1)将第一帧次检测到的行人检测框并创建其对应的轨迹。将卡尔曼滤波的运动变量初始化,这时候的轨迹是不确认状态的。
用一个8维空间表示轨迹在某时刻的状态:
(u,v,γ,h,x,y,a,b)
其中(u,v)是bounding box的中心坐标,r是长宽比,h表示高度。其余四个变量表示对应的在图像坐标系中的速度信息。
(2)使用卡尔曼滤波算法,对上一帧中的轨迹在当前帧的位置进行预测,得到当前帧的预测框
(3)将当前帧目标检测的检测框和(2)中确认态轨迹的预测框进行级联匹配,使用匈牙利算法进行线性分配。匹配到的轨迹,根据当前帧的检测框对轨迹的状态进行更新。未匹配的检测框则与上一帧通过未确认态轨迹的预测框以及级联匹配未匹配轨迹的预测框进行IOU匹配,未匹配的检测框创建相应的新轨迹,并初始化相应状态以及未确认态;未匹配的轨迹根据其年龄更新内部状态;匹配到的轨迹根据检测框更新其的状态。
Deep sort使用检测框与跟踪器预测框之间的马氏距离来描述运动关联程度。
Figure BDA0003595686230000041
其中,dj表示第j个检测框的位置,yi表示第i个跟踪器对目标的预测位置,Si表示检测位置与平均跟踪位置之间的协方差矩阵。并对马氏距离进行阈值化处理:
Figure BDA0003595686230000042
目标外观关联方式为计算第i个跟踪器的最近100个成功关联的特征集与当前帧第j个检测结果的特征向量间的最小余弦距离。
Figure BDA0003595686230000043
其中,rj表示第j个检测框提取出的特征向量,
Figure BDA0003595686230000044
表示第i个轨迹的最近100个成功关联的特征集中的第k个。并通过以从逆χ2分布计算得来的95%置信区间对最小余弦距离进行阈值化处理。
Figure BDA0003595686230000045
使用两种度量方式的线性加权作为最终的度量:
ci,j=λd(1)(i,j)+(1-λ)d(2)(i,j)
(4)在(3)中未匹配的检测框则与(2)中未确认态轨迹的预测框以及级联匹配未匹配轨迹的预测框进行IOU匹配,使用匈牙利算法进行线性分配。未匹配的检测框创建相应的新轨迹,并初始化相应状态以及未确认态;未匹配的轨迹根据其年龄更新内部状态;匹配到的轨迹根据检测框更新其的状态。
(5)根据视频总帧数N,重复上述(2)-(4),直到获得第N帧下的行人目标跟踪框。
步骤5:根据多目标跟踪算法得到的多个行人轨迹的位置信息,指定相应的飞行策略,将坐标信息传送给无人机的飞行控制端,控制无人机对目标进行飞行跟踪。
本发明的有益效果:
(1)目标检测器使用轻量化yolov5检测器,对参数进行int8量化后,在保持高精度的同时,降低模型的内存大小,提升检测速度。对检测网络部署在AI边缘设备的可行性大大提升。
(2)采用DeepSort多目标跟踪跟踪算法,利用卡尔曼滤波、匈牙利算法来解决当前帧检测框与轨迹的关联问题,提高了数据关联的准确性,有效的降低了同类干扰物在跟踪过程中的影响。
附图说明
图1为yolov5检测器结构示意图。
图2为deepsort多目标跟踪算法流程图。
具体实施方式
下面结合附图和技术方案,进一步说明本发明的具体实施方式。
图1为yolov5检测器结构示意图,网络的基础卷积模块为CBS,由卷积层、BN层、SiLu激活函数组成;基础残差单元ResUnit由两个CBS模块和残差结构组成;基础残差模块C3由ResUnit单元重复构成。网络输入通过步长为2的CBS模块进行特征下采样,最终得到32倍下采样特征图。32倍下采样特征图经过SPPF模块进行进一步特征融合。骨干网络得到的特征金字塔经过FPN与PAN网络结构将浅层位置信息与深层语义信息进行进一步融合,然后经过检测头,得到输入图片锚点框的预测置信得分与回归系数。
图2为deepsort多目标跟踪算法流程图。将当前帧目标检测的检测框和上一帧中确认态轨迹的预测框进行级联匹配,使用匈牙利算法进行线性分配。匹配到的轨迹,根据当前帧的检测框对轨迹的状态进行更新。未匹配的检测框则与上一帧通过未确认态轨迹的预测框以及级联匹配未匹配轨迹的预测框进行IOU匹配,未匹配的检测框创建相应的新轨迹,并初始化相应状态以及未确认态;未匹配的轨迹根据其年龄更新内部状态;匹配到的轨迹根据检测框更新其的状态。
未匹配的检测框则与上一帧中未确认态轨迹的预测框以及级联匹配未匹配轨迹的预测框进行IOU匹配,使用匈牙利算法进行线性分配。未匹配的检测框创建相应的新轨迹,并初始化相应状态以及未确认态;未匹配的轨迹根据其年龄更新内部状态;匹配到的轨迹根据检测框更新其的状态。
Yolov5网络的训练集由MOT训练集、COCO数据集中的行人数据集、UAV行人数据集构成,数据集使用mosaic数据扩充方式进行数据增广。优化方式选择Adam优化方式,初始学习率设置为0.001,训练300个epoch,训练过程学习率逐渐衰减。
推理过程网络输入图片尺寸大小为416×416,置信度得分阈值为0.3,非极大抑制的阈值设置为0.4。
特征提取网络结构如下:
Figure BDA0003595686230000061
Figure BDA0003595686230000071

Claims (1)

1.一种基于yolov5的Deepsort无人机视角行人多目标跟踪方法,其特征在于,步骤如下:
步骤1:借助无人机上的摄像机获得检测区域的连续视频帧;
步骤2:输入连续视频流,通过轻量化的yolov5目标检测算法获取当前帧的行人目标检测框;
yolov5目标检测网络主要由特征提取网络和预测网络构成;特征提取网络使用步长为2的卷积模块得到2倍下采样特征,连续使用步长为2的卷积模块和残差模块得到4倍下采样特征、8倍下采样特征、16倍下采样特征,最后使用步长为2的卷积模块、残差模块、池化模块得到32倍下采样特征;使用8倍、16倍、32倍下采样特征构建特征金字塔;
预测网络对32倍下采样特征进行上采样得到16倍下采样特征,与特征金字塔的16倍下采样特征进行拼接,经过残差模块、卷积模块、上采样后,得到8倍下采样特征,与特征金字塔的8倍下采样进行拼接,再经过残差模块、卷积层、检测头部得到8倍下采样的置信分数与回归系数;将8倍下采样拼接后的残差模块的输出经过步长为2的卷积模块与16倍下采样的特征进行拼接,再经过残差模块、卷积层、检测头部得到16倍下采样的置信分数与回归系数;将16倍下采样拼接后的残差模块的输出经过步长为2的卷积模块与32倍下采样特征进行拼接,再次经过残差模块、卷积层、检测头部得到32倍下采样的置信分数与回归系数;
轻量化的yolov5目标检测算法处理视频帧获取行人目标检测框包括以下步骤:
(2.1)前处理:将输入图像进行补边、裁剪、缩放,使图像尺寸与网络输入尺寸相同;
(2.2)特征提取网络、预测前向推理得到先验锚点的置信分数与回归系数,将回归系数进行解码,得到行人目标检测框;
(2.3)后处理:在步骤(2.2)中得到的所有行人目标检测框中,删除置信分数低于0.3的检测框,并采用非最大值抑制方法删除冗余的检测框,筛选后的检测框即为最终的目标检测框;
步骤3:对步骤2中得到的最终目标检测框使用特征提取网络进行特征提取,得到每个行人检测框的256维特征向量;
步骤4:基于视频当前帧的目标检测框采用deepsort多目标跟踪算法,具体为:
(4.1)第一帧检测到的行人检测框并创建其对应的轨迹,并将轨迹状态设置为未确认态轨迹,匹配次数为1,将卡尔曼滤波的运动变量初始化,用一个8维空间表示轨迹在某时刻的状态:
(u,v,γ,h,x,y,a,b)
其中,(u,v)是bounding box的中心坐标,r是长宽比,h表示高度;其余四个变量表示对应的在图像坐标系中的速度信息;
(4.2)使用卡尔曼滤波算法,对上一帧中的轨迹在当前帧的位置进行预测,得到当前帧的轨迹;其中,匹配次数达到3次以上的轨迹为确认态轨迹,小于3次的轨迹为未确认态轨迹;
(4.3)将当前帧目标检测的检测框和步骤(4.2)中确认态轨迹使用匈牙利算法进行级联匹配;匹配到的轨迹,根据当前帧的检测框对轨迹状态进行更新,匹配次数加1;未匹配的检测框则与步骤(4.2)未确认态轨迹、级联匹配中的未匹配轨迹进行IOU匹配,未匹配的检测框创建相应的新轨迹,初始化相应状态并设置为未确认态;未匹配的轨迹根据其年龄更新内部状态;匹配到的轨迹根据检测框更新其的状态;
Deep sort使用检测框与跟踪器轨迹之间的马氏距离来描述运动关联程度;
Figure FDA0003595686220000031
其中,dj表示第j个检测框的位置,yi表示轨迹对目标的第i个预测位置,Si表示检测位置与轨迹位置之间的协方差矩阵;并对马氏距离进行阈值化处理:
Figure FDA0003595686220000032
目标外观关联方式为计算第i个轨迹的最近100个成功关联的特征集与当前帧第j个检测结果的特征向量间的最小余弦距离;
Figure FDA0003595686220000033
其中,rj表示第j个检测框提取出的特征向量,
Figure FDA0003595686220000034
表示第i个轨迹的最近100个成功关联的特征集中的第k个;并通过以从逆χ2分布计算得来的95%置信区间对最小余弦距离进行阈值化处理;
Figure FDA0003595686220000035
使用两种度量方式的线性加权作为最终的度量:
ci,j=λd(1)(i,j)+(1-λ)d(2)(i,j)
(4.4)根据视频总帧数N,重复上述步骤(4.2)-(4.3),直到获得第N帧下的行人目标轨迹;
步骤5:根据多目标跟踪算法得到的多个行人轨迹的位置信息,指定相应的飞行策略,将坐标信息传送给无人机的飞行控制端,控制无人机对目标进行飞行跟踪。
CN202210388211.1A 2022-04-14 2022-04-14 一种基于yolov5的Deepsort无人机视角行人多目标跟踪方法 Pending CN114820702A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210388211.1A CN114820702A (zh) 2022-04-14 2022-04-14 一种基于yolov5的Deepsort无人机视角行人多目标跟踪方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210388211.1A CN114820702A (zh) 2022-04-14 2022-04-14 一种基于yolov5的Deepsort无人机视角行人多目标跟踪方法

Publications (1)

Publication Number Publication Date
CN114820702A true CN114820702A (zh) 2022-07-29

Family

ID=82535720

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210388211.1A Pending CN114820702A (zh) 2022-04-14 2022-04-14 一种基于yolov5的Deepsort无人机视角行人多目标跟踪方法

Country Status (1)

Country Link
CN (1) CN114820702A (zh)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115294484A (zh) * 2022-09-29 2022-11-04 南京航空航天大学 一种多无人机协同目标检测的方法
CN115723152A (zh) * 2022-11-17 2023-03-03 中国人民解放军总医院第五医学中心 一种智能护理机器人
CN115761646A (zh) * 2022-12-06 2023-03-07 武汉纺织大学 一种面向工业园区的行人跟踪方法、设备及存储介质
CN115830075A (zh) * 2023-02-20 2023-03-21 武汉广银飞科技发展有限公司 一种面向行人多目标跟踪的分级关联匹配方法
CN115861860A (zh) * 2023-02-24 2023-03-28 杭州靖安科技有限公司 一种无人机的目标跟踪定位方法和系统
CN116091552A (zh) * 2023-04-04 2023-05-09 上海鉴智其迹科技有限公司 基于DeepSORT的目标跟踪方法、装置、设备及存储介质
CN116612493A (zh) * 2023-04-28 2023-08-18 深圳先进技术研究院 一种行人地理轨迹提取方法及设备
CN116863728A (zh) * 2023-07-21 2023-10-10 重庆交通大学 一种基于过街行人步速分类的信号配时方法与系统
CN117455955A (zh) * 2023-12-14 2024-01-26 武汉纺织大学 一种基于无人机视角下的行人多目标跟踪方法
CN117456407A (zh) * 2023-10-11 2024-01-26 中国人民解放军军事科学院系统工程研究院 一种多目标图像跟踪方法及装置
CN117455948A (zh) * 2023-08-09 2024-01-26 东南大学 基于深度学习算法的多视角行人轨迹提取分析方法

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115294484A (zh) * 2022-09-29 2022-11-04 南京航空航天大学 一种多无人机协同目标检测的方法
CN115723152B (zh) * 2022-11-17 2023-06-06 中国人民解放军总医院第五医学中心 一种智能护理机器人
CN115723152A (zh) * 2022-11-17 2023-03-03 中国人民解放军总医院第五医学中心 一种智能护理机器人
WO2024103733A1 (zh) * 2022-11-17 2024-05-23 中国人民解放军总医院第五医学中心 一种智能护理机器人
CN115761646A (zh) * 2022-12-06 2023-03-07 武汉纺织大学 一种面向工业园区的行人跟踪方法、设备及存储介质
CN115830075A (zh) * 2023-02-20 2023-03-21 武汉广银飞科技发展有限公司 一种面向行人多目标跟踪的分级关联匹配方法
CN115861860A (zh) * 2023-02-24 2023-03-28 杭州靖安科技有限公司 一种无人机的目标跟踪定位方法和系统
CN116091552A (zh) * 2023-04-04 2023-05-09 上海鉴智其迹科技有限公司 基于DeepSORT的目标跟踪方法、装置、设备及存储介质
CN116612493A (zh) * 2023-04-28 2023-08-18 深圳先进技术研究院 一种行人地理轨迹提取方法及设备
CN116863728A (zh) * 2023-07-21 2023-10-10 重庆交通大学 一种基于过街行人步速分类的信号配时方法与系统
CN117455948A (zh) * 2023-08-09 2024-01-26 东南大学 基于深度学习算法的多视角行人轨迹提取分析方法
CN117456407A (zh) * 2023-10-11 2024-01-26 中国人民解放军军事科学院系统工程研究院 一种多目标图像跟踪方法及装置
CN117456407B (zh) * 2023-10-11 2024-04-19 中国人民解放军军事科学院系统工程研究院 一种多目标图像跟踪方法及装置
CN117455955A (zh) * 2023-12-14 2024-01-26 武汉纺织大学 一种基于无人机视角下的行人多目标跟踪方法
CN117455955B (zh) * 2023-12-14 2024-03-08 武汉纺织大学 一种基于无人机视角下的行人多目标跟踪方法

Similar Documents

Publication Publication Date Title
CN114820702A (zh) 一种基于yolov5的Deepsort无人机视角行人多目标跟踪方法
CN109800689B (zh) 一种基于时空特征融合学习的目标跟踪方法
CN110059558B (zh) 一种基于改进ssd网络的果园障碍物实时检测方法
CN110569793B (zh) 一种无监督相似性判别学习的目标跟踪方法
US20210362596A1 (en) End-To-End Tracking of Objects
CN110232350B (zh) 一种基于在线学习的实时水面多运动目标检测跟踪方法
CN111161315B (zh) 一种基于图神经网络的多目标跟踪方法和系统
CN113807187A (zh) 基于注意力特征融合的无人机视频多目标跟踪方法
CN109993770B (zh) 一种自适应时空学习与状态识别的目标跟踪方法
CN113752255B (zh) 一种基于深度强化学习的机械臂六自由度实时抓取方法
CN106327528A (zh) 无人机运动目标跟踪方法及无人机的工作方法
CN112507859B (zh) 一种用于移动机器人的视觉跟踪方法
CN108537825B (zh) 一种基于迁移学习回归网络的目标跟踪方法
CN112927264A (zh) 一种无人机跟踪拍摄系统及其rgbd跟踪方法
CN115147790A (zh) 一种基于图神经网络的车辆未来轨迹预测方法
Yin Object Detection Based on Deep Learning: A Brief Review
Hwang et al. Object Detection for Cargo Unloading System Based on Fuzzy C Means.
CN114495050A (zh) 一种面向自动驾驶前向视觉检测的多任务集成检测方法
CN110111358B (zh) 一种基于多层时序滤波的目标跟踪方法
CN113379795A (zh) 一种基于条件卷积和光流特征的多目标跟踪与分割方法
CN117423157A (zh) 一种结合迁移学习、区域入侵的矿井下异常视频动作理解方法
CN114723782A (zh) 一种基于异构图学习的交通场景运动目标感知方法
CN113781521B (zh) 一种基于改进YOLO-DeepSort的仿生机器鱼检测跟踪方法
CN115311580A (zh) 基于图像识别的无人机威胁判定方法及相关设备
US20210287093A1 (en) Device and method for training a neuronal network

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination