CN108681718A - 一种无人机低空目标精准检测识别方法 - Google Patents
一种无人机低空目标精准检测识别方法 Download PDFInfo
- Publication number
- CN108681718A CN108681718A CN201810484717.6A CN201810484717A CN108681718A CN 108681718 A CN108681718 A CN 108681718A CN 201810484717 A CN201810484717 A CN 201810484717A CN 108681718 A CN108681718 A CN 108681718A
- Authority
- CN
- China
- Prior art keywords
- anchor
- target
- coordinate system
- pixel
- unmanned plane
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/75—Determining position or orientation of objects or cameras using feature-based methods involving models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/75—Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
- G06V10/751—Comparing pixel values or logical combinations thereof, or feature values having positional relevance, e.g. template matching
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/07—Target detection
Abstract
本发明公开一种无人机低空目标精准检测识别方法,根据全卷积网络(Fully Convolutional Networks,FCN),实现基于尺度估计模型的无人机低空目标精准检测识别;该方法依据低空目标车辆、摩托车、骑车的行人、行人存在明显尺度范围这一特点,通过模型计算出目标的像素尺度,同时计算出锚的参数,提高识别的精度。
Description
技术领域
本发明属于计算机视觉、人工智能领域。具体涉及一种无人机低空目标精准检测识别方法,用于提高低空目标检测识别精度及速度。
技术背景
目标检测需要定位出物体的位置并识别出物体的类别。目前通用目标检测以R-CNN、Faster-RCNN、R-FCN、R-FCN-3000框架为主。该系列框架核心思想在于在图像上选出候选框,并且通过CNN(卷积神经网络)进行学习。R-CNN框架在VOC2007数据集测试中取得了58.5%的平均精确度均值(mean Average Precision,mAP),Faster-RCNN框架在VOC2007上mAP能达到73%,利用NVIDIA Tesla K40GPU速度可以达到5fps(画面每秒传输帧数,FramePer Second),并成为目前目标检测识别算法主流。
但是在未经训练的真实数据上,面临精度、速度等问题。如R-FCN-3000利用NVIDIAP6000GPU在ImageNet数据集中速度可达30fps,但识别准确率仅有34.8%,同时会出现漏匹配和误匹配等问题。速度虽然比先前框架快,但对于复杂数据集的精度明显下降。本发明的特点在于,通过建立一套低空目标尺度估计模型,对视频目标像素尺度估算,计算出不同目标、不同拍摄参数下的锚框尺度,减少传统目标检测算法因不确定目标尺度带来的搜索范围较大、对不同尺度目标识别敏感度不同。主要解决有效提高目标搜索效率,增大目标检测识别精度,提高不同尺度目标的识别敏感度。
发明内容
本发明要解决的技术问题是,提供一种无人机低空目标精准检测识别方法,解决有效提高目标搜索效率,增大目标检测识别精度,提高不同尺度目标的识别敏感度
为实现上述目的,本发明采用如下的技术方案:
附图说明
图1本发明的相机成像坐标系示意图。
图2本发明的无人机拍摄示意图。
图3本发明的设计的整个网络架图。
具体实施方式
目前计算机视觉领域主流的R-FCN技术,速度虽然比先前Faster-RCNN框架快,但对于复杂数据集的精度明显下降。因其在锚(Anchor)、区域建议网络(Region ProposalNetwork,RPN)、感兴趣区域(Region of Interest,RoI)阶段是通过在卷积后得到的特征图(feature map)上,产生尺寸不同的锚实现的,并且根据锚给出目标可能存在的概率,RPN网络根据概率筛选出RoI,多次重复上述过程最终成功识别目标。经研究发现,对于车辆、摩托车、骑车的行人、行人等低空主要目标,存在实际尺度确定,在图像中的尺度有明显范围的特点。因此本发明旨在通过设计低空目标尺度估计模型,根据不同云台参数(如飞行高度、滚转、俯仰、偏航)、不同目标,计算出目标像素尺度,得到锚框(Anchor Box)尺度大小,减少传统目标检测算法因不确定目标尺度带来的搜索范围较大、对不同尺度目标识别敏感度不同。主要解决有效提高目标搜索效率,增大目标检测识别精度,提高不同尺度目标的识别敏感度。
为达到上述目的,本发明以全卷积网络(Fully Convolutional Networks,FCN),为理论基础,设计基于尺度估计模型的无人机低空目标精准检测识别方法。该方法依据低空主要目标车辆、摩托车、骑车的行人、行人等存在明显尺度范围这一特点,通过模型计算出目标的像素尺度。进一步的计算出锚的参数,进一步提高识别的精度。
如图3所示,本发明提供一种无人机低空目标精准检测识别方法,包括以下步骤:
步骤(1)推到无人机像素坐标系-世界坐标系的转换关系。根据相机的成像原理,如图1所示,我们可以将相机抽象成由上述四个坐标系下的模型。四个坐标系中我们可以得到如下式的像素坐标系-世界坐标系的转换关系:
其中,μ、v为像素坐标系下的坐标点,U、V、W为世界坐标系下的点。Mint矩阵为相机的内参数矩阵,该矩阵参数取决于相机本身,因此我们可以通过棋盘格标定的方法得到内参矩阵。Mext矩阵为云台相机的外参数矩阵,该矩阵取决于云台参数(如飞行高度、滚转、俯仰、偏航),与相机和物体之间的距离、高度、拍摄的俯仰角等因素有关。因此我们可以通过下面这个模型求得云台相机外参矩阵:
如图2所示,O-xyz为世界坐标系,O’-xy’z’为相机坐标系。我们设两坐标系原点O-O’之间只相差一个z方向上的h(飞机高度),而相机相当于扰x轴转动了α度(俯仰角)。因此根据上述模型及已知条件,我们可以求得外参矩阵为:
内参和外参我们都可通过上述模型求得,因此通过该模型我们可以得知无人机航拍图像像素坐标系和世界坐标系的关系。最终导出无人机像素坐标系-世界坐标系的转换关系:
μ为像素坐标系μ轴方向的坐标;
v为像素坐标系v轴方向的坐标;
aij为相机的内参参数;
f为相机的焦距;
h为无人机飞行高度;
α为无人机拍摄时的俯仰角;
U、V、W分别为世界坐标系下x、y、z三个方向的坐标。
步骤(2),计算统计目标实际尺寸。根据实际情况,计算并统计低空主要目标(包括但不限于)车辆、摩托车、自行车、行人等的实际尺寸,如长、宽、高等。我们将目标的实际尺度记为Lw,其中Lw∈(L0,L1)。
步骤(3),由于我们知道实际生活中的车辆、摩托车、骑车的行人、行人等的实际参数,所以我们可以通过步骤(1)中坐标转换关系,结合步骤(2)计算出的尺度的实际大小利用下面(4)式,共同建立低空目标检测的尺度估计模型。
根据前一步的计算的目标的实际尺度Lw在L0~L1之间。因此我们可以设目标的世界坐标为(X,d+Lw,1)和(X,d,1)。借此世界坐标我们可以利用(3)式计算出相应的像素坐标(μ1,v1)和(μ2,v2),并将世界坐标中的Lw分别带入为L0和L1,带入4式,分别计算出坐标对应的像素尺度为Li0和Li1。我们将得到的像素尺度统称为Li,其中Li∈(Li0,Li1)。
进一步地,我们利用上述低空目标检测的尺度估计模型,分别计算目标的像素宽度尺度和像素长度尺度。
进一步地,我们利用得到的像素宽度尺度和像素长度尺度,计算出不同目标的锚尺度。即像素宽度尺度就是锚的宽,而像素的长度尺度就是锚的长。同时我们根据统计数据可以得到一个相对合理和锚的长宽比:行人(骑车的行人)、小型车辆(如小轿车、SUV等)、大型车辆(如卡车、公交车等)的长宽比分别为α:1、β:1、γ:1。
步骤(4),我们利用步骤(3)中求得的目标的锚尺度,以像素点为中心建立不同的锚框。变换锚的长宽比,以一个像素为中心,我们可以加入9个不同尺度的锚,进而构成一个锚框。9个锚每三个为一组,每组内锚像素面积相等,但比例分别为α:1、β:1、γ:1,用于识别相应的行人、小汽车、公交车等目标。每一个锚框通过训练都可以回归出两组数据。一组数据是四维的锚框数据,另一组是带有锚的得分的数据。
传统的锚框求得的方法是利用通用区域建议网络(Region Proposal Network,RPN),该方法的锚框是值相对固定,搜索的区域也相对固定。而我们的锚框是根据统计规律和尺度模型得出的,因此相对更加准确。
步骤(5),不同的像素得到了不同锚框数据,我们将所有的锚框得分尽行比较排序,选出得分大于阈值的作为有效的锚框。并且将这些锚框合并到一起得到RPN网络。
步骤(6),将步骤(5)得到的RPN送入卷积神经网络,如附图3。利用锚框的得分,从RPN求出感兴趣区域(Region of Interest,RoI)。然后进行一步的利用卷积神经网络通过进行分类。在我们得到RoI并进行卷积和池化操作,然后将其进行Softmax回归操作。由于Softmax的取值可能会不一样,所以我们需要将其归一化到0至1区间,或者到-1至1区间。然后我们进一步的对其进行Average操作,取其平均。最终得到物体在大类下的概率Pcls。
步骤(7),将步骤(5)中得到的RPN根据长宽比分为两类,一类锚的长宽比小于1.5,将RoI映射到利用3*3的卷积模板进行卷积得到的K1层特征图上,用于识别人、骑车的人以及某些角度下的车辆;另一类Anchor的长宽比大于1.5,将RoI映射到利用3*5的卷积模板进行卷积得到的K2层特征图上,用于识别大型车,侧视角下的车辆等。然后同步骤(6)一样,进行Average和Softmax操作,分别得到概率为a①和a②。
步骤(8),将步骤(6)中得到的Pcls和对应的a①或a②进行矩阵乘法。根据乘法后得到的值,即可给出相应的候选框以及框内物体的种类及概率。因此在此时得到一套完整的能够精准检测识别无人机低空目标的网络。
我们将无人机航拍的视频或图像信息输入网络,即可输出带有目标信息(目标类别及概率)的视频或图像。
Claims (2)
1.一种无人机低空目标精准检测识别方法,其特征在于,包括以下步骤:
步骤(1)、推到无人机像素坐标系-世界坐标系的转换关系;
步骤(2)、计算统计低空目标实际尺寸,所述低空目标低空目标包括:车辆、摩托车、自行车、行人,将目标的实际尺度记为Lw,Lw∈(L0,L1);
步骤(3),通过步骤(1)中坐标转换关系,结合步骤(2)计算出的尺度的实际尺寸,建立低空目标检测的尺度估计模型,
根据前一步的计算的目标的实际尺度Lw在L0~L1之间,设目标的世界坐标为(X,d+Lw,1)和(X,d,1),根据世界坐标计算出相应的像素坐标(μ1,v1)和(μ2,v2),并将世界坐标中的Lw分别带入为L0和L1,带入低空目标检测的尺度估计模型,分别计算出坐标对应的像素尺度为Li0和Li1。将得到的像素尺度统称为Li,Li∈(Li0,Li1);
利用上述低空目标检测的尺度估计模型,分别计算目标的像素宽度尺度和像素长度尺度;
利用得到的像素宽度尺度和像素长度尺度,计算出不同目标的锚尺度,即像素宽度尺度为锚的宽,像素的长度尺度就是锚的长;
步骤(4),利用步骤(3)中求得的目标的锚尺度,以像素点为中心建立不同的锚框,变换锚的长宽比,以一个像素为中心,加入9个不同尺度的锚,进而构成一个锚框,9个锚每三个为一组,每组内锚像素面积相等,用于识别相应的行人、小汽车、公交车目标;每一个锚框通过训练可以回归出两组数据,一组数据是四维的锚框数据,另一组是带有锚的得分的数据;
步骤(5),将所有的锚框得分尽行比较排序,选出得分大于阈值的作为有效的锚框,并且将这些锚框合并到一起得到RPN网络。
步骤(6),将步骤(5)得到的RPN送入卷积神经网络,利用锚框的得分,从RPN求出感兴趣区域(Region of Interest,Rol);然后进行一步的利用卷积神经网络通过进行分类;在得到Rol并进行卷积和池化操作,然后将其进行Softmax回归操作;同时将其归一化到0至1区间,或者到-1至1区间;然后对其进行Average操作,取其平均,最终得到物体在大类下的概率Pcls。
步骤(7),将步骤(5)中得到的RPN根据长宽比分为两类,一类锚的长宽比小于1.5,将Rol映射到利用3*3的卷积模板进行卷积得到的K1层特征图上;另一类Anchor的长宽比大于1.5,将Rol映射到利用3*5的卷积模板进行卷积得到的K2层特征图上;然后同步骤(6)一样,进行Average和Softmax操作,分别得到概率为a①和a②;
步骤(8),将步骤(6)中得到的Pcls和对应的a①或a②进行矩阵乘法;根据乘法后得到的值,即可给出相应的候选框以及框内物体的种类及概率,在此时得到能够精准检测识别无人机低空目标的网络;将无人机航拍的视频或图像信息输入网络,即可输出带有目标信息的视频或图像。
2.如权利要求1所述的无人机低空目标精准检测识别方法,其特征在于,步骤(1)具体为:根据相机的成像原理,将相机抽象成由上述四个坐标系下的模型,四个坐标系中可以得到如下式的像素坐标系-世界坐标系的转换关系:
U、V、W为世界坐标系下的点,Mint矩阵为相机的内参数矩阵,Mext矩阵为云台相机的外参数矩阵,可以通过下面这个模型求得云台相机外参矩阵:
设O-xyz为世界坐标系,O’-xy’z’为相机坐标系,两坐标系原点O-O’之间只相差一个z方向上的h,h为飞机高度,而相机相当于扰x轴转动了α度,根据上述模型及已知条件,可以求得外参矩阵为:
内参和外参可通过上述模型求得,通过该模型可以得知无人机航拍图像像素坐标系和世界坐标系的关系,最终导出无人机像素坐标系-世界坐标系的转换关系:
μ为像素坐标系μ轴方向的坐标;
v为像素坐标系v轴方向的坐标;
aij为相机的内参参数;
f为相机的焦距;
h为无人机飞行高度;
α为无人机拍摄时的俯仰角;
U、V、W分别为世界坐标系下x、y、z三个方向的坐标。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810484717.6A CN108681718B (zh) | 2018-05-20 | 2018-05-20 | 一种无人机低空目标精准检测识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810484717.6A CN108681718B (zh) | 2018-05-20 | 2018-05-20 | 一种无人机低空目标精准检测识别方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN108681718A true CN108681718A (zh) | 2018-10-19 |
CN108681718B CN108681718B (zh) | 2021-08-06 |
Family
ID=63805799
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810484717.6A Active CN108681718B (zh) | 2018-05-20 | 2018-05-20 | 一种无人机低空目标精准检测识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN108681718B (zh) |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109711288A (zh) * | 2018-12-13 | 2019-05-03 | 西安电子科技大学 | 基于特征金字塔和距离约束fcn的遥感船舶检测方法 |
CN109886208A (zh) * | 2019-02-25 | 2019-06-14 | 北京达佳互联信息技术有限公司 | 物体检测的方法、装置、计算机设备及存储介质 |
CN110163836A (zh) * | 2018-11-14 | 2019-08-23 | 宁波大学 | 基于深度学习用于高空巡检下的挖掘机检测方法 |
CN110189255A (zh) * | 2019-05-29 | 2019-08-30 | 电子科技大学 | 基于两级检测的人脸检测方法 |
CN110674873A (zh) * | 2019-09-24 | 2020-01-10 | Oppo广东移动通信有限公司 | 图像分类方法、装置、移动终端及存储介质 |
CN111104838A (zh) * | 2018-10-26 | 2020-05-05 | 斯特拉德视觉公司 | 基于障碍物的下端线检测roi的方法和装置 |
CN111192318A (zh) * | 2018-11-15 | 2020-05-22 | 杭州海康机器人技术有限公司 | 确定无人机位置和飞行方向的方法、装置及无人机 |
WO2020186444A1 (zh) * | 2019-03-19 | 2020-09-24 | 深圳市大疆创新科技有限公司 | 物体检测方法、电子设备与计算机存储介质 |
CN112232132A (zh) * | 2020-09-18 | 2021-01-15 | 北京理工大学 | 一种融合导航信息的目标识别定位方法 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9164506B1 (en) * | 2014-07-30 | 2015-10-20 | SZ DJI Technology Co., Ltd | Systems and methods for target tracking |
CN106599939A (zh) * | 2016-12-30 | 2017-04-26 | 深圳市唯特视科技有限公司 | 一种基于区域卷积神经网络的实时目标检测方法 |
CN106874894A (zh) * | 2017-03-28 | 2017-06-20 | 电子科技大学 | 一种基于区域全卷积神经网络的人体目标检测方法 |
CN107463892A (zh) * | 2017-07-27 | 2017-12-12 | 北京大学深圳研究生院 | 一种结合上下文信息和多级特征的图像中行人检测方法 |
CN108009509A (zh) * | 2017-12-12 | 2018-05-08 | 河南工业大学 | 车辆目标检测方法 |
-
2018
- 2018-05-20 CN CN201810484717.6A patent/CN108681718B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9164506B1 (en) * | 2014-07-30 | 2015-10-20 | SZ DJI Technology Co., Ltd | Systems and methods for target tracking |
CN106599939A (zh) * | 2016-12-30 | 2017-04-26 | 深圳市唯特视科技有限公司 | 一种基于区域卷积神经网络的实时目标检测方法 |
CN106874894A (zh) * | 2017-03-28 | 2017-06-20 | 电子科技大学 | 一种基于区域全卷积神经网络的人体目标检测方法 |
CN107463892A (zh) * | 2017-07-27 | 2017-12-12 | 北京大学深圳研究生院 | 一种结合上下文信息和多级特征的图像中行人检测方法 |
CN108009509A (zh) * | 2017-12-12 | 2018-05-08 | 河南工业大学 | 车辆目标检测方法 |
Non-Patent Citations (1)
Title |
---|
曹宇剑: "基于旋转不变Faster R-CNN的低空装甲目标检测", 《激光与光电子学进展》 * |
Cited By (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111104838A (zh) * | 2018-10-26 | 2020-05-05 | 斯特拉德视觉公司 | 基于障碍物的下端线检测roi的方法和装置 |
CN111104838B (zh) * | 2018-10-26 | 2023-08-11 | 斯特拉德视觉公司 | 基于障碍物的下端线检测roi的方法和装置 |
CN110163836A (zh) * | 2018-11-14 | 2019-08-23 | 宁波大学 | 基于深度学习用于高空巡检下的挖掘机检测方法 |
CN110163836B (zh) * | 2018-11-14 | 2021-04-06 | 宁波大学 | 基于深度学习用于高空巡检下的挖掘机检测方法 |
CN111192318A (zh) * | 2018-11-15 | 2020-05-22 | 杭州海康机器人技术有限公司 | 确定无人机位置和飞行方向的方法、装置及无人机 |
CN111192318B (zh) * | 2018-11-15 | 2023-09-01 | 杭州海康威视数字技术股份有限公司 | 确定无人机位置和飞行方向的方法、装置及无人机 |
CN109711288A (zh) * | 2018-12-13 | 2019-05-03 | 西安电子科技大学 | 基于特征金字塔和距离约束fcn的遥感船舶检测方法 |
CN109711288B (zh) * | 2018-12-13 | 2021-05-04 | 西安电子科技大学 | 基于特征金字塔和距离约束fcn的遥感船舶检测方法 |
CN109886208A (zh) * | 2019-02-25 | 2019-06-14 | 北京达佳互联信息技术有限公司 | 物体检测的方法、装置、计算机设备及存储介质 |
WO2020186444A1 (zh) * | 2019-03-19 | 2020-09-24 | 深圳市大疆创新科技有限公司 | 物体检测方法、电子设备与计算机存储介质 |
CN110189255A (zh) * | 2019-05-29 | 2019-08-30 | 电子科技大学 | 基于两级检测的人脸检测方法 |
CN110674873A (zh) * | 2019-09-24 | 2020-01-10 | Oppo广东移动通信有限公司 | 图像分类方法、装置、移动终端及存储介质 |
CN110674873B (zh) * | 2019-09-24 | 2022-05-27 | Oppo广东移动通信有限公司 | 图像分类方法、装置、移动终端及存储介质 |
CN112232132A (zh) * | 2020-09-18 | 2021-01-15 | 北京理工大学 | 一种融合导航信息的目标识别定位方法 |
Also Published As
Publication number | Publication date |
---|---|
CN108681718B (zh) | 2021-08-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108681718A (zh) | 一种无人机低空目标精准检测识别方法 | |
WO2021142902A1 (zh) | 基于DANet的无人机海岸线漂浮垃圾巡检系统 | |
CN110163187B (zh) | 基于f-rcnn的远距离交通标志检测识别方法 | |
CN109190444B (zh) | 一种基于视频的收费车道车辆特征识别系统的实现方法 | |
CN111553201B (zh) | 一种基于YOLOv3优化算法的交通灯检测方法 | |
CN108171112A (zh) | 基于卷积神经网络的车辆识别与跟踪方法 | |
CN105354568A (zh) | 基于卷积神经网络的车标识别方法 | |
CN106127137A (zh) | 一种基于3d轨迹分析的目标检测识别算法 | |
CN108154102A (zh) | 一种道路交通标志识别方法 | |
CN106919902B (zh) | 一种基于cnn的车辆识别和轨迹追踪方法 | |
CN105404857A (zh) | 一种基于红外的夜间智能车前方行人检测方法 | |
CN107133610B (zh) | 一种复杂路况下行车流量视觉检测与计数方法 | |
CN107808376A (zh) | 一种基于深度学习的举手检测方法 | |
CN110378210A (zh) | 一种基于轻量化YOLOv3的车辆和车牌检测及长短焦融合测距方法 | |
Xiaozhu et al. | Object detection of armored vehicles based on deep learning in battlefield environment | |
CN111540203B (zh) | 基于Faster-RCNN调节绿灯通行时间的方法 | |
CN115331183A (zh) | 改进YOLOv5s的红外目标检测方法 | |
CN109165602A (zh) | 一种基于视频分析的黑烟车检测方法 | |
Zou et al. | Microarray camera image segmentation with Faster-RCNN | |
CN111738071B (zh) | 一种基于单目摄像机的运动变化的逆透视变换方法 | |
CN117409339A (zh) | 一种用于空地协同的无人机作物状态视觉识别方法 | |
CN114200442B (zh) | 一种基于毫米波雷达和视觉的道路目标检测与关联方法 | |
CN115294558A (zh) | 一种大角度车牌识别系统及其方法 | |
CN106529391B (zh) | 一种鲁棒的限速交通标志检测与识别方法 | |
CN109359545B (zh) | 复杂低空环境下一种协同监视方法与装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |