CN111723747A - 一种应用于嵌入式平台轻量型高效率的目标检测方法 - Google Patents

一种应用于嵌入式平台轻量型高效率的目标检测方法 Download PDF

Info

Publication number
CN111723747A
CN111723747A CN202010575803.5A CN202010575803A CN111723747A CN 111723747 A CN111723747 A CN 111723747A CN 202010575803 A CN202010575803 A CN 202010575803A CN 111723747 A CN111723747 A CN 111723747A
Authority
CN
China
Prior art keywords
target
frame
network
target detection
algorithm
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202010575803.5A
Other languages
English (en)
Inventor
王浩同
石俊
熊杰
于孟晨
洪波
王辉
冯显航
王勇进
刘星
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Xian Technological University
Original Assignee
Xian Technological University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Xian Technological University filed Critical Xian Technological University
Priority to CN202010575803.5A priority Critical patent/CN111723747A/zh
Publication of CN111723747A publication Critical patent/CN111723747A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/13Satellite images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F17/00Digital computing or data processing equipment or methods, specially adapted for specific functions
    • G06F17/10Complex mathematical operations
    • G06F17/16Matrix or vector computation, e.g. matrix-matrix or matrix-vector multiplication, matrix factorization
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/277Analysis of motion involving stochastic approaches, e.g. using Kalman filters

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Data Mining & Analysis (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Computational Mathematics (AREA)
  • Molecular Biology (AREA)
  • Evolutionary Computation (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Pure & Applied Mathematics (AREA)
  • Mathematical Optimization (AREA)
  • Multimedia (AREA)
  • Mathematical Analysis (AREA)
  • General Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Remote Sensing (AREA)
  • Astronomy & Astrophysics (AREA)
  • Algebra (AREA)
  • Databases & Information Systems (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种应用于嵌入式平台轻量型高效率的目标检测方法,涉及目标检测技术领域,目前低空慢速小目标检测与跟踪一直是低空探测系统面临的难题,随着“低慢小”无人机的快速发展及应用,对一些重要目标,重点区域,重大活动的的威胁日益突出,沿用嵌入式平台轻量型DarkNet网络框架,引用深度残差网络思想改进现有Tiny‑YOLOV3算法。检测部分针对复杂背景采用改进后的Tiny‑YOLOV3算法提出一种效果好的检测器,跟踪部分使用Kalman滤波算法预测目标运动轨迹,提高复杂背景下目标检测失效后的跟踪效率。实验结果表明:改进Tiny‑YOLOV3算法后在同等训练集下目标在复杂背景中被检测到的效率有所提升,在加入跟踪算法后系统实时性依然能够稳定,保证视频流处理每秒13帧左右。

Description

一种应用于嵌入式平台轻量型高效率的目标检测方法
技术领域
本发明涉及目标检测技术领域,特别涉及一种应用于嵌入式平台轻量型高效率的目标检测方法。
背景技术
近几年来,计算机性能和硬件快速发展,无论是CPU性能还是GPU性能都得到大幅度提升,“大数据”时代使得数据量与日俱增,深度神经网络技术得到了前所未有的发展,神经网络模型也迅速增加,随着任务需求的不断扩大,网络规模也不断增加,使得效果优异的网络难以被应用在现有硬件平台上。对此,寻求一种小规模,高效率网络成为目前的主要任务。
现有的神经网络模型主要以递归神经网络,卷积神经网络,生成对抗网络为代表,在目标识别,目标检测,图像生成等领域各自发挥重要作用。目前主流的目标检测算法包括基于候选区域(Region Proposal)的R-CNN,Fast R-CNN,Faster R-CNN等两级目标检测算法和以YOLO(You Only Look Once)和SSD(Single Shot Multi-Sox Detector)为代表的单级目标检测算法。
目前视觉跟踪主要以传统相关滤波器为主,经典的以KCF(KernelizedCorrelation Filters)跟踪算法为主,使用目标周围区域的循环矩阵采集正负样本,利用脊回归训练目标检测器,降低了运算量,提高了运算速度。与此同时,深度学习在跟踪领域不断尝试可行方法,以深度学习方式代替传统滤波跟踪方法,在提高跟踪精度方向和跟踪目标尺度变化方向不断发展。
本申请提供了一种应用于嵌入式平台轻量型高效率的目标检测方法,利用卷积神经网络完成“低慢小”无人机目标检测,为满足处理实时性的需求,选用YOLOv3系列中Tiny-YOLOv3算法,引入深度残差网络思想改进原网络结构,提高目标复杂背景下的检测效率,准确定位目标框坐标。
发明内容
本发明的目的在于提供一种应用于嵌入式平台轻量型高效率的目标检测方法,利用卷积神经网络完成“低慢小”无人机目标检测,为满足处理实时性的需求,选用YOLOv3系列中Tiny-YOLOv3算法,引入深度残差网络思想改进原网络结构,提高目标复杂背景下的检测效率,精准确定位目标框坐标。
本发明提供了一种应用于嵌入式平台轻量型高效率的目标检测方法,包括以下步骤:
S1:采集不同复杂背景下无人机的图像数据,通过数据增强方式获取网络训练样本及测试样本;
S2:利用残差网络思想改进Tiny-YOLOv3算法,横向增加网络深度,对网络模型进行训练,获得复杂背景下无人机目标检测模型;
S3:利用kalman滤波原理设计目标跟踪算法,通过kalman滤波预测器短帧间隔内预测目标位置来补偿复杂背景或遮挡下目标检测丢失的情况;
S4:在无人机目标检测模型中融合kalman滤波预测算法,基于DarkNet框架部署在嵌入式平台;
S5:利用训练后的复杂背景下无人机目标检测模型权重对测试集逐帧采集的图片或机载摄像头采集到的视频图像进行测试,并给出测试结果。
进一步地,所述步骤S2具体为:
改进网络采用随机纠正线性单元作为激励,其激励函数为:
Figure BDA0002551314700000021
其中,kji~U(l,u),l<u and l,u∈[0,1)kji为均匀的分布U(I,u)中随机抽取的数值;
沿用YOLO原网络损失函数作为损失函数,利用均方和误差作为损失函数,如下式:
Figure BDA0002551314700000031
其中,
Figure BDA0002551314700000032
表示bounding box的坐标预测,
Figure BDA0002551314700000033
表示对于box是否含有目标的置信度预测,
Figure BDA0002551314700000034
表示类别预测。
进一步地,所述步骤S3中的kalman滤波预测器执行内容为:
S31:预测状态的协方差矩阵:
Figure BDA0002551314700000035
其中,F为状态转移矩阵,状态转移矩阵用于描述目标的平移、旋转等运动情况,
Figure BDA0002551314700000036
表示目标上一帧的状态信息,Wt-1为目标上一帧预测误差;
S32:实际状态的协方差矩阵:
Figure BDA0002551314700000037
其中,
Figure BDA0002551314700000038
为目标上一帧预测协方差矩阵,Qt表示系统噪声矩阵。
进一步地,所述步骤S4中融合步骤为:
Figure BDA0002551314700000039
其中:Zt描述目标运动的观测矩阵,H为量测矩阵,kt为滤波器更新过程中的关系矩阵;
Figure BDA00025513147000000310
其中,Rt为测量噪声矩阵。
Figure BDA00025513147000000311
Kalman滤波器完成更新,通过测量当前帧目标状态信息,更新状态值并作为滤波器下一帧的预测输入。
进一步地,所述步骤S1中训练样本数目为15000张,测试样本数目为5000张,所述测试样本为视频流文件逐帧截取获得。
与现有技术相比,本发明具有如下显著优点:
第一,本发明中改进的Tiny-YOLOV3网络保持以三通道RGB,像素大小为416*416的图像作为网络输入,经过多层网络特征提取,使得所能够提取到的不同层的特征越丰富,但简单的增加网络深度并不能够有效提高网络目标检测效率,会导致梯度爆炸,出现“退化问题”,因此采用了深度残差网络的思想,使得引入残差网络后的映射对输出的变化更加敏感,有效的解决了“退化问题”。原网络共经历了13层卷积,6层池化,最后经过YOLO算法将图像划分为不同尺度的网格,包括13*13单元网络和26*26单元网络完成目标检测。改进后网络将卷积层增加到了25层,并非纵向简单增加,而是横向增加网络层数,将提取到更多更抽象的特征,以及更多的语义信息,来实现轻量型网络高检测效率的突破。
第二,本发明以跟踪作为检测丢失的补偿,精度不需要过高,采用了实时性满足要求的Kalman滤波算法来预测目标下一帧运动轨迹,为下一帧目标检测提供损失补偿。
第三,本发明在补偿复杂背景或遮挡下目标检测丢失的情况下,提出Kalman滤波预测器来短帧间隔内跟踪目标。Kalman滤波器主要完成预测和更新,根据目标上一帧的状态信息估计目标在当前帧的状态信息,同时根据目标检测器校正目标当前帧的最优状态值。
附图说明
图1为本发明提供的改进Tiny-YOLOV3网络的结构图;
图2为本发明提供的检测器与跟踪器的关联图;
图3为本发明提供的Tiny-YOLO的loss曲线图;
图4为本发明提供的改进后的loss曲线图;
图5为本发明提供的Tiny-YOLO的IOU曲线图;
图6为本发明提供的改进后的IOU曲线图;
图7为本发明提供的目标检测置信度曲线图;
图8为本发明提供的低慢小目标检测与跟踪图。
具体实施方式
下面结合本发明中的附图,对本发明实施例的技术方案进行清楚、完整的描述,显然,所描述的实施例是本发明的一部分实施例,而不是全部实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动的前提下所获得的所有其他实施例,都应属于本发明保护的范围。
为了便于理解和说明,作出如下陈述,Tiny-YOLOV3其网络深度远远小于YOLOv3,相比较于YOLOv3轻盈,适合在嵌入式机器人平台部署。YOLOv3与SSD类似采用端到端的设计思想,一次性遍历整个输入图像,利用输入图像全局信息很好地辅助目标检测,YOLO v3网络将输入图像分割为S*S个单元网络(cell),每一个cell的主要任务是完成中心点落在该cell中的目标检测,对此,每个cell会预测B个bounding box,并给出置信度,其中boundingbox给出(x,y,w,h,c)来描述目标边界框的参数,其中(x,y)为目标中心点像素坐标,w和h为目标边界框与输入图像的宽高比,c为预测类别个数,每一个cell会给出各类的概率C,即每一个cell需要最终预测(B*5+C)个参数值。Tiny-YOLOV3作为YOLOv3系列中的一个分支,整体思想一致,仅仅省略了YOLO v3中残差网络思想,大幅缩小网络深度,提高整体运行速度。但由于网络规模大幅缩小,导致特征提取不够充分,在复杂背景下,目标检测效率低下,难以满足任务需求,需要在其基础上稍加改进。
改进网络任然以三通道RGB,像素大小为416*416的图像作为网络输入,经过多层网络特征提取,使得所能够提取到的不同层的特征越丰富,但简单的增加网络深度并不能够有效提高网络目标检测效率,会导致梯度爆炸,出现“退化问题”,因此采用了深度残差网络的思想,使得引入残差网络后的映射对输出的变化更加敏感,有效的解决了“退化问题”。原网络共经历了13层卷积,6层池化,最后经过YOLO算法将图像划分为不同尺度的网格,包括13*13单元网络和26*26单元网络完成目标检测。改进后网络将卷积层增加到了25层,并非纵向简单增加,而是横向增加网络层数,将提取到更多更抽象的特征,以及更多的语义信息,来实现轻量型网络高检测效率的突破。
如附图1-8所示,本发明提供了一种应用于嵌入式平台轻量型高效率的目标检测方法,包括以下步骤:
S1:采集不同复杂背景下无人机的图像数据,通过数据增强方式获取网络训练样本及测试样本;
S2:利用残差网络思想改进Tiny-YOLOv3算法,横向增加网络深度,对网络模型进行训练,获得复杂背景下无人机目标检测模型;
S3:利用kalman滤波原理设计目标跟踪算法,通过kalman滤波预测器短帧间隔内预测目标位置来补偿复杂背景或遮挡下目标检测丢失的情况;
S4:在无人机目标检测模型中融合kalman滤波预测算法,基于DarkNet框架部署在嵌入式平台;
S5:利用训练后的复杂背景下无人机目标检测模型权重对测试集逐帧采集的图片或机载摄像头采集到的视频图像进行测试,并给出测试结果。
其中,所述步骤S1中训练样本数目为15000张,测试样本数目为5000张,所述测试样本从视频流文件逐帧截取获得。
实施例1
所述步骤S2具体为:
改进网络采用随机纠正线性单元作为激励,与常见Relu函数不同的是随机纠正线性单元在训练环节中,使得网络在训练过程中防止梯度消失。其激励函数为:
Figure BDA0002551314700000071
其中,kji~U(l,u),l<u and l,u∈[0,1)kji为均匀的分布U(I,u)中随机抽取的数值;
沿用YOLO原网络损失函数作为损失函数,利用均方和误差作为损失函数,如下式:
Figure BDA0002551314700000072
其中,
Figure BDA0002551314700000073
表示bounding box的坐标预测,
Figure BDA0002551314700000074
表示对于box是否含有目标的置信度预测,
Figure BDA0002551314700000075
表示类别预测。
网络训练过程中,由于主要研究低空慢速小目标检测,基于DarkNet预训练的基础上,针对特殊类目标采集训练样本(COCO数据集格式),采集不同背景下,不同类目标(旋翼数目差异)不同姿态图像序列共5000张,其图像分辨率为640*480,经过随机化数据增强后,样本增加至15000张,包括近500类外观存在差异的低空慢速小无人机目标,最终进行人工标注,完成训练样本设计。经过网络多次训练,每次训练迭代次数超过100000次,通过损失值结果以及测试集测试表明改进后性能优于原网络。
实施例2
为补偿复杂背景或遮挡下目标检测丢失的情况,提出Kalman滤波预测器来短帧间隔内跟踪目标。Kalman滤波器主要完成预测和更新,根据目标上一帧的状态信息估计目标在当前帧的状态信息,同时根据目标检测器校正目标当前帧的最优状态值。
所述步骤S3中的kalman滤波预测器执行内容为:
S31:预测状态的协方差矩阵:
Figure BDA0002551314700000081
其中,F为状态转移矩阵,状态转移矩阵用于描述目标的平移、旋转等运动情况,
Figure BDA0002551314700000082
表示目标上一帧的状态信息,Wt-1为目标上一帧预测误差;
S32:实际状态的协方差矩阵:
Figure BDA0002551314700000083
其中,
Figure BDA0002551314700000084
为目标上一帧预测协方差矩阵,Qt表示系统噪声矩阵。
实施例3
所述步骤S4中融合步骤为:
Figure BDA0002551314700000085
其中:Zt描述目标运动的观测矩阵,H为量测矩阵,kt为滤波器更新过程中的关系矩阵;
Figure BDA0002551314700000086
其中,Rt为测量噪声矩阵。
Figure BDA0002551314700000087
Kalman滤波器完成更新,通过测量当前帧目标状态信息,更新状态值并作为滤波器下一帧的预测输入。
完成Kalman滤波器更新,通过测量当前帧目标状态信息,更新状态值并作为滤波器下一帧的预测输入。根据Kalman滤波器仅考虑前一个输入信号而不依赖于所有信号的特性,实现目标检测与目标跟踪的融合,实现目标跟踪特性对于复杂背景下检测丢失情况的补偿,具体流程参见图2所示。
实施例4
参照图3-6所示,对检测的结果进行分析:
(1)Loss,IOU曲线分析
通过对比原有Tiny-YOLO网络结构和基于ResNet改进后的网络结构从loss损失曲线和IOU曲线分析网络性能:
从loss曲线分析可知:保证相同训练集下,两个网络结构训练迭代次数相同,均为111665次,绘制loss曲线发现原网络结构100000次迭代后损失值稳定在1.2左右,继续试验经过450000次迭代后才收敛于0.2左右,改进后的网络loss损失收敛速度快,同时在100000次迭代后,loss损失值已经收敛于0.2左右。而且原网络结构明显较改进后的网络震荡幅度更大。
从IOU曲线分析,经过前1000次迭代基本可以保证IOU均值维持在1.0附近,相比较原网络结构更快的维持稳定在1.0左右,改进后的网络结构前期训练过程中容易出现震荡,但最终经过多次迭代后都能保证IOU均值稳定在1.0上。
总体性能与原网络相比较下,loss函数收敛快且收敛值更小,IOU均值在多次迭代下基本无差异,目前仅仅改变网络结构,后期也可通过不断调节超参数使得网络训练收敛更快,损失值更小。
(2)算法对比分析
实验采用统一测试集(分辨率为960*544的视频流文件),保证训练样本与测试样本不重复的条件下,针对低空慢速小目标(旋翼类无人机)分别在不同网络结构下进行目标检测测试,通过测试集前200帧测试结果表明,改进后网络检测目标给出的置信度明显高于原网络,具体见图7。
参照图7所示,在第65帧至70帧和185帧至190帧期间,改进后的网络也难以保证在复杂背景下依然可以实现目标检测,引入Kalman滤波预测器实现目标轨迹预测,在目标检测失效情况下补偿目标运动信息,保证目标一定程度上能够被实时锁定框选。具体效果如图8所示。
图8中第71帧、第133帧和第197帧展示了改进网络后的目标检测器能够在复杂背景下高效率检测出目标位置,其中红色框为目标检测结果。第67帧、第114帧和第197帧展示了融合Kalman滤波跟踪器后在检测器失效后能够跟踪到目标位置,其中蓝色框为目标跟踪结果。
本发明提出了一种可应用于嵌入式平台轻量型高效率的目标检测算法。在轻量型网络上引入深度残差网络思想横向加深网络深度,能够将复杂背景下的低空慢速小目标检测出来。同时基于Darknet框架融合Kalman滤波器跟踪算法,实现复杂背景下小目标检测器失效后补偿。
以上所述实施例仅为本发明较佳的具体实施方式,本发明的保护范围不限于此,任何熟悉本领域的技术人员在本发明披露的技术范围内,可显而易见地得到的技术方案的简单变化或等效替换,均属于本发明的保护范围。

Claims (5)

1.一种应用于嵌入式平台轻量型高效率的目标检测方法,其特征在于,包括以下步骤:
S1:采集不同复杂背景下无人机的图像数据,通过数据增强方式获取网络训练样本及测试样本;
S2:利用残差网络思想改进Tiny-YOLOv3算法,横向增加网络深度,对网络模型进行训练,获得复杂背景下无人机目标检测模型;
S3:利用kalman滤波原理设计目标跟踪算法,通过kalman滤波预测器短帧间隔内预测目标位置来补偿复杂背景或遮挡下目标检测丢失的情况;
S4:在无人机目标检测模型中融合kalman滤波预测算法,基于DarkNet框架部署在嵌入式平台;
S5:利用训练后的复杂背景下无人机目标检测模型权重对测试集逐帧采集的图片或机载摄像头采集到的视频图像进行测试,并给出测试结果。
2.如权利要求1所述的一种应用于嵌入式平台轻量型高效率的目标检测方法,其特征在于,所述步骤S2具体为:
改进网络采用随机纠正线性单元作为激励,其激励函数为:
Figure FDA0002551314690000011
其中,kji~U(l,u),l<u and l,u∈[0,1),kji为均匀的分布U(I,u)中随机抽取的数值;
沿用YOLO原网络损失函数作为损失函数,利用均方和误差作为损失函数,如下式:
Figure FDA0002551314690000012
其中,
Figure FDA0002551314690000013
表示bounding box的坐标预测,
Figure FDA0002551314690000014
表示对于box是否含有目标的置信度预测,
Figure FDA0002551314690000021
表示类别预测。
3.如权利要求1所述的一种应用于嵌入式平台轻量型高效率的目标检测方法,其特征在于,所述步骤S3中的kalman滤波预测器执行内容为:
S31:预测状态的协方差矩阵:
Figure FDA0002551314690000022
其中,F为状态转移矩阵,状态转移矩阵用于描述目标的平移、旋转等运动情况,
Figure FDA0002551314690000023
表示目标上一帧的状态信息,Wt-1为目标上一帧预测误差;
S32:实际状态的协方差矩阵:
Figure FDA0002551314690000024
其中,
Figure FDA0002551314690000025
为目标上一帧预测协方差矩阵,Qt表示系统噪声矩阵。
4.如权利要求1所述的一种应用于嵌入式平台轻量型高效率的目标检测方法,其特征在于,所述步骤S4中融合步骤为:
Figure FDA0002551314690000026
其中:Zt描述目标运动的观测矩阵,H为量测矩阵,kt为滤波器更新过程中的关系矩阵;
Figure FDA0002551314690000027
其中,Rt为测量噪声矩阵。
Figure FDA0002551314690000028
Kalman滤波器完成更新,通过测量当前帧目标状态信息,更新状态值并作为滤波器下一帧的预测输入。
5.如权利要求1所述的一种应用于嵌入式平台轻量型高效率的目标检测方法,其特征在于,所述步骤S1中训练样本数目为15000张,测试样本数目为5000张,所述测试样本为视频流文件逐帧截取获得。
CN202010575803.5A 2020-06-22 2020-06-22 一种应用于嵌入式平台轻量型高效率的目标检测方法 Pending CN111723747A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010575803.5A CN111723747A (zh) 2020-06-22 2020-06-22 一种应用于嵌入式平台轻量型高效率的目标检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010575803.5A CN111723747A (zh) 2020-06-22 2020-06-22 一种应用于嵌入式平台轻量型高效率的目标检测方法

Publications (1)

Publication Number Publication Date
CN111723747A true CN111723747A (zh) 2020-09-29

Family

ID=72568138

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010575803.5A Pending CN111723747A (zh) 2020-06-22 2020-06-22 一种应用于嵌入式平台轻量型高效率的目标检测方法

Country Status (1)

Country Link
CN (1) CN111723747A (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112364865A (zh) * 2020-11-12 2021-02-12 郑州大学 一种复杂场景中运动小目标的检测方法
CN112985439A (zh) * 2021-02-08 2021-06-18 青岛大学 一种基于YOLOv3与卡尔曼滤波的行人堵塞状态预测方法
CN113256688A (zh) * 2021-05-25 2021-08-13 长春理工大学 应用于自动导航的轻量级实时目标检测方法、系统、终端
CN113592912A (zh) * 2021-08-05 2021-11-02 南京航空航天大学 一种高集成度远距离舰载无人机回航运动轨迹实时检测跟踪方法及装置

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109087510A (zh) * 2018-09-29 2018-12-25 讯飞智元信息科技有限公司 交通监测方法及装置
WO2020037965A1 (zh) * 2018-08-21 2020-02-27 北京大学深圳研究生院 一种用于视频预测的多运动流深度卷积网络模型方法
CN110929577A (zh) * 2019-10-23 2020-03-27 桂林电子科技大学 一种基于YOLOv3的轻量级框架改进的目标识别方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020037965A1 (zh) * 2018-08-21 2020-02-27 北京大学深圳研究生院 一种用于视频预测的多运动流深度卷积网络模型方法
CN109087510A (zh) * 2018-09-29 2018-12-25 讯飞智元信息科技有限公司 交通监测方法及装置
CN110929577A (zh) * 2019-10-23 2020-03-27 桂林电子科技大学 一种基于YOLOv3的轻量级框架改进的目标识别方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
许洋等: "基于单目视觉的车辆检测与跟踪", 《激光杂志》, vol. 41, no. 5, pages 18 - 22 *
马立;巩笑天;欧阳航空;: "Tiny YOLOV3目标检测改进", 光学精密工程, no. 04, 15 April 2020 (2020-04-15) *

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112364865A (zh) * 2020-11-12 2021-02-12 郑州大学 一种复杂场景中运动小目标的检测方法
CN112985439A (zh) * 2021-02-08 2021-06-18 青岛大学 一种基于YOLOv3与卡尔曼滤波的行人堵塞状态预测方法
CN112985439B (zh) * 2021-02-08 2023-10-17 青岛大学 一种基于YOLOv3与卡尔曼滤波的行人堵塞状态预测方法
CN113256688A (zh) * 2021-05-25 2021-08-13 长春理工大学 应用于自动导航的轻量级实时目标检测方法、系统、终端
CN113592912A (zh) * 2021-08-05 2021-11-02 南京航空航天大学 一种高集成度远距离舰载无人机回航运动轨迹实时检测跟踪方法及装置

Similar Documents

Publication Publication Date Title
CN111862126B (zh) 深度学习与几何算法结合的非合作目标相对位姿估计方法
CN108596101B (zh) 一种基于卷积神经网络的遥感图像多目标检测方法
CN111723747A (zh) 一种应用于嵌入式平台轻量型高效率的目标检测方法
Yang et al. Concrete defects inspection and 3D mapping using CityFlyer quadrotor robot
CN113468968B (zh) 一种基于无锚框的遥感图像旋转目标检测方法
CN112347895A (zh) 一种基于边界优化神经网络的舰船遥感目标检测方法
CN111985325B (zh) 特高压环境评价中的航拍小目标快速识别方法
Cepni et al. Vehicle detection using different deep learning algorithms from image sequence
Sun et al. R4 Det: Refined single-stage detector with feature recursion and refinement for rotating object detection in aerial images
Guo et al. An anchor-free network with density map and attention mechanism for multiscale object detection in aerial images
CN112507845A (zh) 基于CenterNet与深度关联矩阵的行人多目标跟踪方法
CN114972423A (zh) 一种航拍视频运动目标检测方法及系统
CN115331127A (zh) 一种基于注意力机制的无人机移动目标侦测方法
CN117036404A (zh) 一种单目热成像同时定位与建图方法和系统
Chen et al. Coupled global–local object detection for large vhr aerial images
Yang et al. Real-Time object detector based MobileNetV3 for UAV applications
CN114463624A (zh) 一种应用于城市管理监督的违章建筑物检测方法及装置
CN112069997B (zh) 一种基于DenseHR-Net的无人机自主着陆目标提取方法及装置
Wei Small object detection based on deep learning
Jin et al. YOLOv7-Bw: A Dense Small Object Efficient Detector Based on Remote Sensing Image
Son et al. Partial convolutional LSTM for spatiotemporal prediction of incomplete data
Li et al. Driver drowsiness behavior detection and analysis using vision-based multimodal features for driving safety
Castellano et al. Crowd flow detection from drones with fully convolutional networks and clustering
CN116385876A (zh) 基于yolox的光学遥感影像地物检测方法
CN116823878A (zh) 融合范式的视觉多目标跟踪方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination