CN112465854A - 基于无锚点检测算法的无人机跟踪方法 - Google Patents

基于无锚点检测算法的无人机跟踪方法 Download PDF

Info

Publication number
CN112465854A
CN112465854A CN202011496128.3A CN202011496128A CN112465854A CN 112465854 A CN112465854 A CN 112465854A CN 202011496128 A CN202011496128 A CN 202011496128A CN 112465854 A CN112465854 A CN 112465854A
Authority
CN
China
Prior art keywords
unmanned aerial
aerial vehicle
loss function
method based
tracking method
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202011496128.3A
Other languages
English (en)
Inventor
杨光
霍光远
霍光开
刘来
封彬
杨朔
刘涛
陈猛
丛学志
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Sanchuan Weiwei Technology Co ltd
Original Assignee
Beijing Sanchuan Weiwei Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Sanchuan Weiwei Technology Co ltd filed Critical Beijing Sanchuan Weiwei Technology Co ltd
Priority to CN202011496128.3A priority Critical patent/CN112465854A/zh
Publication of CN112465854A publication Critical patent/CN112465854A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于无锚点检测算法的无人机跟踪方法,应用于无人机技术领域,具体步骤包括如下:获取数据步骤,获取原始视频,并对无人机进行标注;目标检测步骤,通过CenterNet算法进行目标检测,同时构建目标检测模型;模型训练步骤,对所述目标检测模型获取的中心点损失函数、区域框的长宽损失函数和中心点偏移损失函数进行预测;识别与追踪步骤,确定待识别的无人机,并基于deepsort算法进行跟踪。本发明不需要锚点的CenterNet检测器来对无人机进行检测;在相同速度的条件下,CenterNet的精度比YOLOv3提高了4个左右的点。总体来说,CenterNet结构优雅简单,直接检测目标的中心点和大小。

Description

基于无锚点检测算法的无人机跟踪方法
技术领域
本发明涉及无人机识别与跟踪技术领域,更具体的说是涉及一种基于无锚点检测算法的无人机跟踪方法。
背景技术
基于视频的运动目标检测和跟踪问题在科学技术发展和工程应用上有了一定的研究基础,在智能交通、智能监控以及人工智能研究领域都已经有了一些比较成熟的解决方法。现代无人机发挥着越来越重要的作用,目前已经受到各方的重视。随着人们对智能化提出更高的要求,无人机理所当然地被各行各业所青睐:演唱会现场的无人机录制、顺丰快递的无人机送货、户外探险的无人机拍摄等等,表明无人机已经较好地应用于人们的日常生活当中,为人们带来诸多便利。近几年,对无人机实现实时监控已经展现出巨大的军事及民用价值,引起了学术界及产业界的高度重视,作为典型的基于视频的运动目标检测与跟踪问题,如何将现有技术应用于无人机运动目标的视频监控,实现无人机目标的实时检测和跟踪,该技术在军事警戒、公共安保等许多方面都具有显著的经济效益与社会效益。
由于小型无人机目标具有尺寸小、飞行速度易变、飞行环境复杂等特点,因此仅仅使用雷达探测、无源定位等方法容易受其他信号杂波的影响,多产生虚警的结果,且获取到的可能只是几个像素的结果,仅仅获得了无人机目标的位置信息,不能高精度地监控无人机的飞行区域与飞行动机,无法为后续的干扰拦截提供精准的目标定位,所以难以有理想的结果。近年来出现基于光学图像处理的无人机识别与跟踪方法,但是效果并不尽如人意。
基于深度学习的目标识别方法使用卷积神经网络提取目标特征,算法模型是基于端到端的网络,不需要进行区域候选,直接对输入的图片进行分类识别。对于深度学习领域常见的目标检测数据集,YOLOv3所做的物体检测已经取得了很好的检测效果。而对于小型无人机目标,由于是远距离拍摄,在部分画面中无人机目标尺寸太小,YOLOv3的检测性能并不能达到最优。
另外,在很多实际的应用场景中,无人机的目标通常非常小,需要对无人机进行实时地检测和识别,导致很多基于深度学习的检测方法很难满足实时检测的目的,从而导致无人机难以跟踪。目前的方法无法很好地处理好该问题:
目前大多数方法都是基于fasterrcnn等有锚点的检测方法,这种方法需要提取很多Region Proposals,从而导致检测的时候无法实现实时检测。
目前大多数方法都是基于sort的方法去做无人机跟踪,然而只利用IOU的特征去匹配,很容易导致目前跟踪丢失。
因此,如何提供一种检测性能更优的基于无锚点检测算法的无人机跟踪方法是本领域技术人员亟需解决的问题。
发明内容
有鉴于此,本发明提供了一种基于无锚点检测算法的无人机跟踪方法,在实际场景中的无人机跟踪任务中,对无人机的实时要求比较高,所以对无人机检测网络的速度有较大要求,无需要锚点的检测器相对于需要锚点的检测,速度更快,精度更高,所以选择不需要锚点的CenterNet检测器来对无人机进行检测;在相同速度的条件下,CenterNet的精度比YOLOv3提高了4个左右的点。总体来说,CenterNet结构优雅简单,直接检测目标的中心点和大小。
为了达到上述目的,本发明采用如下技术方案:
一种基于无锚点检测算法的无人机跟踪方法,具体步骤包括如下:
获取数据步骤,获取原始视频,并对无人机进行标注;
目标检测步骤,通过centerNet算法进行目标检测,同时构建目标检测模型;
模型训练步骤,对所述目标检测模型获取的中心点损失函数、区域框的长宽损失函数和中心点偏移损失函数进行预测;
识别与追踪步骤,确定待识别的无人机,并基于deepsort算法进行跟踪。
优选的,在上述的基于无锚点检测算法的无人机跟踪方法中,所述获取数据步骤中,具体步骤包括:
获取无人机飞行视频;
对无人机飞行视频进行分帧处理,得到多帧图片集,并进行预处理;
对预处理后的图片集中的每帧图像标注出无人机区域框,并标注出所述无人机区域框内的类别信息和位置信息;其中,所述位置信息包括无人机区域框的中心点坐标、区域框的对角线两端点坐标。
优选的,在上述的基于无锚点检测算法的无人机跟踪方法中,所述目标检测步骤中,具体步骤包括:
输入图像为I∈RW×H×3,其中W和H分别为图像的宽和高;生成关键点热图
Figure BDA0002842209040000031
其中R是输出热图的缩小倍数;
对于
Figure BDA0002842209040000032
表示在当前(x,y)坐标中检测到无人机,而
Figure BDA0002842209040000033
表示在当前(x,y)坐标中没有检测到无人机。
优选的,在上述的基于无锚点检测算法的无人机跟踪方法中,所述模型训练步骤中,具体步骤包括:在整个的训练过程中,对于
Figure BDA0002842209040000041
标签图中的无人机,将真实关键点p∈R2计算出来用于训练,中心点的计算方式为
Figure BDA0002842209040000042
对于下采样后的坐标,设为
Figure BDA0002842209040000043
其中R是输出的特征图相比于输入图像缩小的倍数,计算出来的中心点是对应低分辨率的中心点;同时利用
Figure BDA0002842209040000044
来对图像进行标记,在下采样的输入图像中将GroundTruth点以
Figure BDA0002842209040000045
的形式,用一个高斯核
Figure BDA0002842209040000046
来将关键点分布到特征图上,其中σp是与目标大小相关的标准差。
优选的,在上述的基于无锚点检测算法的无人机跟踪方法中,所述模型训练步骤中,中心点预测损失函数如下:
Figure BDA0002842209040000047
其中,α和β是focal损失函数超参数,N是输入图像I的关键点数量。
优选的,在上述的基于无锚点检测算法的无人机跟踪方法中,所述模型训练步骤中,区域框的长宽损失函数:
Figure BDA0002842209040000048
其中,回归每一个目标的尺寸
Figure BDA0002842209040000049
同时预测一个尺寸特征图
Figure BDA00028422090400000410
优选的,在上述的基于无锚点检测算法的无人机跟踪方法中,所述模型训练步骤中,中心点偏移损失函数:
Figure BDA0002842209040000051
其中,
Figure BDA0002842209040000052
是预测出来的偏置,而
Figure BDA0002842209040000053
则是在训练过程中预先计算出来的数值。
优选的,在上述的基于无锚点检测算法的无人机跟踪方法中,所述模型训练步骤中,整个识别网络的训练目标为:
Ldet=LksizeLsizeoffLoff
其中,Lk表示中心点预测损失函数;Lsize表示区域框的长宽损失函数;Loff表示中心点偏移损失函数;λsize和Loff表示对应损失函数的权重。
优选的,在上述的基于无锚点检测算法的无人机跟踪方法中,实际场景的图像输入训练好的模型得到特征图里无人机的中心点峰值;检测所有值大于或等于其8个连接邻居的响应,并保留前100个峰值;并给出无人机预测的中心点
Figure BDA0002842209040000054
中心点偏移
Figure BDA0002842209040000055
以及预测的长宽
Figure BDA0002842209040000056
同时预测出边框的位置:
Figure BDA0002842209040000057
经由上述的技术方案可知,与现有技术相比,本发明公开提供了一种基于无锚点检测算法的无人机跟踪方法,在实际场景中的无人机跟踪任务中,对无人机的实时要求比较高,所以对无人机检测网络的速度有较大要求,无需要锚点的检测器相对于需要锚点的检测,速度更快,精度更高,所以选择不需要锚点的CenterNet检测器来对无人机进行检测;在相同速度的条件下,CenterNet的精度比YOLOv3提高了4个左右的点。总体来说,CenterNet结构优雅简单,直接检测目标的中心点和大小。采用的CenterNet不需要手动设定锚框,且实时性强,计算量小,节约计算资源,适用于无人机巡检的场景。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据提供的附图获得其他的附图。
图1附图为本发明的整体方法流程图;
图2附图为本发明的一种可选实施例获取数据步骤流程图;
图3附图为本发明的一种可选实施例目标检测步骤流程图;
图4附图为本发明的一种可选实施例模型训练步骤流程图。
具体实施方式
下面将对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
由背景技术可只现有技术中,对于利用无人机对另一无人机进行跟踪和定位中,目标检测算法比较流行的算法可以分为两类,一类是基于Region Proposal的R-CNN系算法(R-CNN,Fast R-CNN,Faster R-CNN等),它们是two-stage的,需要先算法产生目标候选框,也就是目标位置,然后再对候选框做分类与回归。而另一类是Yolo,SSD这类one-stage算法,其仅仅使用一个卷积神经网络CNN直接预测不同目标的类别与位置。第一类方法是准确度高一些,但是速度慢,但是第二类算法是速度快,但是准确性要低一些。
基于上述问题,本发明的实施例公开了一种基于无锚点检测算法的无人机跟踪方法,应用于无人机技术领域,方法包括:获取数据步骤,获取原始视频,并对无人机进行标注;目标检测步骤,通过centerNet算法进行目标检测,同时构建目标检测模型;模型训练步骤,对目标检测模型获取的中心点损失函数、区域框的长宽损失函数和中心点偏移损失函数进行预测;识别与追踪步骤,确定待识别的无人机,并基于deepsort算法进行跟踪。通过上述技术方案CenterNet不需要手动设定锚框,且实时性强,计算量小,节约计算资源,适用于无人机巡检的场景。
可以理解的是,本发明实施例所提供的一种基于无锚点检测算法的无人机跟踪方法,能够通过centerNet算法进行目标检测,能够提高检测的准确度,降低成本。请参考图1,图1是本发明实施例所提供的一种基于无锚点检测算法的无人机跟踪方法流程示意图。
S101获取数据步骤,获取原始视频,并对无人机进行标注。
具体地,参考图2,为本发明实施例中的获取数据步骤的一种可选的实施方式,具体包括:
S111原始视频数据获取。
具体地,无人机追无人机时,获取大量的原始视频,通过视频解析,采样得到不同帧的原始无人机视频帧。一般需要在各种不同场景下大约10,000张图像。
S112无人机框的标注。
具体地,标注无人机的区域框,只需要标注框的左上角和右下角,然后按照COCO的格式进行保存。
S102目标检测步骤,通过centerNet算法进行目标检测,同时构建目标检测模型。
在本发明一种可选的实施例中,如图3所示,具体步骤包括:
S121输入图像为I∈RW×H×3,其中W和H分别为图像的宽和高;生成关键点热图
Figure BDA0002842209040000071
其中R是输出热图的缩小倍数;
S122对于
Figure BDA0002842209040000072
表示在当前(x,y)坐标中检测到无人机,而
Figure BDA0002842209040000073
表示在当前(x,y)坐标中没有检测到无人机。
S103模型训练步骤,如图4所示,对目标检测模型获取的中心点损失函数、区域框的长宽损失函数和中心点偏移损失函数进行预测。
具体地,在整个的训练过程中,对于
Figure BDA0002842209040000081
标签图中的无人机,将真实关键点p∈R2计算出来用于训练,中心点的计算方式为
Figure BDA0002842209040000082
对于下采样后的坐标,设为
Figure BDA0002842209040000083
其中R是输出的特征图相比于输入图像缩小的倍数,计算出来的中心点是对应低分辨率的中心点;
同时利用
Figure BDA0002842209040000084
来对图像进行标记,在下采样的输入图像中将GroundTruth点以
Figure BDA0002842209040000085
的形式,用一个高斯核
Figure BDA0002842209040000086
来将关键点分布到特征图上,其中σp是与目标大小相关的标准差。
在本发明一种可选的实施方式中,模型训练步骤中,中心点预测损失函数如下:
Figure BDA0002842209040000087
其中,α和β是focal损失函数超参数,N是输入图像的I的关键点数量。
在本发明一种可选的实施方式中,模型训练步骤中,区域框的长宽损失函数:
Figure BDA0002842209040000088
其中,回归每一个目标的尺寸
Figure BDA0002842209040000089
同时预测一个尺寸特征图
Figure BDA00028422090400000810
在本发明一种可选的实施方式中,模型训练步骤中,中心点偏移损失函数:
Figure BDA0002842209040000091
其中,
Figure BDA0002842209040000092
是预测出来的偏置,而
Figure BDA0002842209040000093
则是在训练过程中预先计算出来的数值。综上,整个识别网络的训练目标为:
Ldet=LksizeLsizeoffLoff
其中,Lk表示中心点预测损失函数;Lsize表示区域框的长宽损失函数;Loff表示中心点偏移损失函数;λsize和Loff表示对应损失函数的权重。
S104识别与追踪步骤,确定待识别的无人机,并基于deepsort算法进行跟踪。
具体地,实际场景的图像输入训练好的模型得到特征图里无人机的中心点峰值;检测所有值大于或等于其8个连接邻居的响应,并保留前100个峰值;并给出无人机预测的中心点
Figure BDA0002842209040000094
中心点偏移
Figure BDA0002842209040000095
以及预测的长宽
Figure BDA0002842209040000096
同时预测出边框的位置:
Figure BDA0002842209040000097
本说明书中各个实施例采用递进的方式描述,每个实施例重点说明的都是与其他实施例的不同之处,各个实施例之间相同相似部分互相参见即可。
对所公开的实施例的上述说明,使本领域专业技术人员能够实现或使用本发明。对这些实施例的多种修改对本领域的专业技术人员来说将是显而易见的,本文中所定义的一般原理可以在不脱离本发明的精神或范围的情况下,在其它实施例中实现。因此,本发明将不会被限制于本文所示的这些实施例,而是要符合与本文所公开的原理和新颖特点相一致的最宽的范围。

Claims (9)

1.一种基于无锚点检测算法的无人机跟踪方法,其特征在于,具体步骤包括如下:
获取数据步骤,获取原始视频,并对无人机进行标注;
目标检测步骤,通过centerNet算法进行目标检测,同时构建目标检测模型;
模型训练步骤,对所述目标检测模型获取的中心点损失函数、区域框的长宽损失函数和中心点偏移损失函数进行预测;
识别与追踪步骤,确定待识别的无人机,并基于deepsort算法进行跟踪。
2.根据权利要求1所述的基于无锚点检测算法的无人机跟踪方法,其特征在于,所述获取数据步骤中,具体步骤包括:
获取无人机飞行视频;
对无人机飞行视频进行分帧处理,得到多帧图片集,并进行预处理;
对预处理后的图片集中的每帧图像标注出无人机区域框,并标注出所述无人机区域框内的类别信息和位置信息;其中,所述位置信息包括无人机区域框的中心点坐标、区域框的对角线两端点坐标。
3.根据权利要求1所述的基于无锚点检测算法的无人机跟踪方法,其特征在于,所述目标检测步骤中,具体步骤包括:
输入图像为I∈RW×H×3,其中W和H分别为图像的宽和高;生成关键点热图
Figure FDA0002842209030000011
其中R是输出热图的缩小倍数;
对于
Figure FDA0002842209030000012
表示在当前(x,y)坐标中检测到无人机,而
Figure FDA0002842209030000013
表示在当前(x,y)坐标中没有检测到无人机。
4.根据权利要求3所述的基于无锚点检测算法的无人机跟踪方法,其特征在于,所述模型训练步骤中,具体步骤包括:在整个的训练过程中,对于
Figure FDA0002842209030000021
标签图中的无人机,将真实关键点p∈R2计算出来用于训练,中心点的计算方式为
Figure FDA0002842209030000022
对于下采样后的坐标,设为
Figure FDA0002842209030000023
其中R是输出的特征图相比于输入图像缩小的倍数,计算出来的中心点是对应低分辨率的中心点;
同时利用
Figure FDA0002842209030000024
来对图像进行标记,在下采样的输入图像中将GroundTruth点以
Figure FDA0002842209030000025
的形式,用一个高斯核
Figure FDA0002842209030000026
来将关键点分布到特征图上,其中σp是与目标大小相关的标准差。
5.根据权利要求4所述的基于无锚点检测算法的无人机跟踪方法,其特征在于,所述模型训练步骤中,中心点预测损失函数如下:
Figure FDA0002842209030000027
其中,α和β是focal损失函数超参数,N是输入图像I的关键点数量。
6.根据权利要求4所述的基于无锚点检测算法的无人机跟踪方法,其特征在于,所述模型训练步骤中,区域框的长宽损失函数:
Figure FDA0002842209030000028
其中,回归每一个目标的尺寸
Figure FDA0002842209030000029
同时预测一个尺寸特征图
Figure FDA00028422090300000210
7.根据权利要求4所述的基于无锚点检测算法的无人机跟踪方法,其特征在于,所述模型训练步骤中,中心点偏移损失函数:
Figure FDA0002842209030000031
其中,
Figure FDA0002842209030000032
是预测出来的偏置,而
Figure FDA0002842209030000033
则是在训练过程中预先计算出来的数值。
8.根据权利要求1所述的基于无锚点检测算法的无人机跟踪方法,其特征在于,所述模型训练步骤中,整个识别网络的训练目标为:
Ldet=LksizeLsizeoffLoff
其中,Lk表示中心点预测损失函数;Lsize表示区域框的长宽损失函数;Loff表示中心点偏移损失函数;λsize和Loff表示对应损失函数的权重。
9.根据权利要求1所述的基于无锚点检测算法的无人机跟踪方法,其特征在于,实际场景的图像输入训练好的模型得到特征图里无人机的中心点峰值;检测所有值大于或等于其8个连接邻居的响应,并保留前100个峰值;并给出无人机预测的中心点
Figure FDA0002842209030000034
中心点偏移
Figure FDA0002842209030000035
以及预测的长宽
Figure FDA0002842209030000036
同时预测出边框的位置:
Figure FDA0002842209030000037
CN202011496128.3A 2020-12-17 2020-12-17 基于无锚点检测算法的无人机跟踪方法 Pending CN112465854A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011496128.3A CN112465854A (zh) 2020-12-17 2020-12-17 基于无锚点检测算法的无人机跟踪方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011496128.3A CN112465854A (zh) 2020-12-17 2020-12-17 基于无锚点检测算法的无人机跟踪方法

Publications (1)

Publication Number Publication Date
CN112465854A true CN112465854A (zh) 2021-03-09

Family

ID=74802898

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011496128.3A Pending CN112465854A (zh) 2020-12-17 2020-12-17 基于无锚点检测算法的无人机跟踪方法

Country Status (1)

Country Link
CN (1) CN112465854A (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113553943A (zh) * 2021-07-19 2021-10-26 江苏共知自动化科技有限公司 目标实时检测方法以及装置、存储介质、电子装置
CN113642558A (zh) * 2021-08-16 2021-11-12 云南电网有限责任公司电力科学研究院 耐张线夹压接缺陷的x射线图像识别方法及装置
CN113867415A (zh) * 2021-12-03 2021-12-31 重庆华悦生态环境工程研究院有限公司深圳分公司 水务系统设备监管方法、装置、设备及存储介质
CN113971688A (zh) * 2021-11-04 2022-01-25 匀熵教育科技(无锡)有限公司 一种增强id重识别的无锚多目标跟踪方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20170313439A1 (en) * 2016-04-29 2017-11-02 Jordan Holt Methods and syststems for obstruction detection during autonomous unmanned aerial vehicle landings
CN110782484A (zh) * 2019-10-25 2020-02-11 上海浦东临港智慧城市发展中心 一种无人机视频人员识别追踪的方法
CN111460968A (zh) * 2020-03-27 2020-07-28 上海大学 基于视频的无人机识别与跟踪方法及装置
CN111738206A (zh) * 2020-07-08 2020-10-02 浙江浙能天然气运行有限公司 基于CenterNet的用于无人机巡检的挖掘机检测方法
CN111797697A (zh) * 2020-06-10 2020-10-20 河海大学 基于改进CenterNet的有角度高分遥感图像目标检测方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20170313439A1 (en) * 2016-04-29 2017-11-02 Jordan Holt Methods and syststems for obstruction detection during autonomous unmanned aerial vehicle landings
CN110782484A (zh) * 2019-10-25 2020-02-11 上海浦东临港智慧城市发展中心 一种无人机视频人员识别追踪的方法
CN111460968A (zh) * 2020-03-27 2020-07-28 上海大学 基于视频的无人机识别与跟踪方法及装置
CN111797697A (zh) * 2020-06-10 2020-10-20 河海大学 基于改进CenterNet的有角度高分遥感图像目标检测方法
CN111738206A (zh) * 2020-07-08 2020-10-02 浙江浙能天然气运行有限公司 基于CenterNet的用于无人机巡检的挖掘机检测方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
XINGYI ZHOU等: "CenterNet:Objects as points", 《HTTPS://ARXIV.ORG/PDF/1904.07850.PDF》, pages 1 - 12 *

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113553943A (zh) * 2021-07-19 2021-10-26 江苏共知自动化科技有限公司 目标实时检测方法以及装置、存储介质、电子装置
CN113553943B (zh) * 2021-07-19 2024-04-30 江苏共知自动化科技有限公司 目标实时检测方法以及装置、存储介质、电子装置
CN113642558A (zh) * 2021-08-16 2021-11-12 云南电网有限责任公司电力科学研究院 耐张线夹压接缺陷的x射线图像识别方法及装置
CN113971688A (zh) * 2021-11-04 2022-01-25 匀熵教育科技(无锡)有限公司 一种增强id重识别的无锚多目标跟踪方法
CN113971688B (zh) * 2021-11-04 2023-09-26 匀熵智能科技(无锡)有限公司 一种增强id重识别的无锚多目标跟踪方法
CN113867415A (zh) * 2021-12-03 2021-12-31 重庆华悦生态环境工程研究院有限公司深圳分公司 水务系统设备监管方法、装置、设备及存储介质

Similar Documents

Publication Publication Date Title
Yu et al. A new spatial-oriented object detection framework for remote sensing images
CN109344787B (zh) 一种基于人脸识别与行人重识别的特定目标跟踪方法
Chen et al. Vehicle detection in high-resolution aerial images via sparse representation and superpixels
JP6709283B2 (ja) 低解像度リモートセンシング画像を用いた移動車両の検出及び分析
CN106096561B (zh) 基于图像块深度学习特征的红外行人检测方法
WO2021170030A1 (zh) 一种用于目标追踪的方法、设备及系统
CN109977782B (zh) 基于目标位置信息推理的跨店经营行为检测方法
CN112465854A (zh) 基于无锚点检测算法的无人机跟踪方法
CN104303193B (zh) 基于聚类的目标分类
CN104978567B (zh) 基于场景分类的车辆检测方法
CN108197604A (zh) 基于嵌入式设备的快速人脸定位跟踪方法
CN109033944B (zh) 一种全天空极光图像分类与关键局部结构定位方法及系统
CN110555420B (zh) 一种基于行人区域特征提取和重识别融合模型网络及方法
CN114241511B (zh) 一种弱监督行人检测方法、系统、介质、设备及处理终端
CN109034035A (zh) 基于显著性检测和特征融合的行人重识别方法
CN113808166B (zh) 基于聚类差分和深度孪生卷积神经网络的单目标跟踪方法
CN112818905B (zh) 一种基于注意力和时空信息的有限像素车辆目标检测方法
CN112434566B (zh) 客流统计方法、装置、电子设备及存储介质
CN111291587A (zh) 一种基于密集人群的行人检测方法、存储介质及处理器
CN111666860A (zh) 一种车牌信息与车辆特征融合的车辆轨迹跟踪方法
CN113012215A (zh) 一种空间定位的方法、系统及设备
CN113378675A (zh) 一种同时检测和特征提取的人脸识别方法
CN114973207A (zh) 一种基于目标检测的路标识别方法
CN110309810A (zh) 一种基于批次中心相似度的行人重识别方法
CN116311063A (zh) 监控视频下基于人脸识别的人员细粒度跟踪方法及系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination