CN108647665A - 基于深度学习的航拍车辆实时检测方法 - Google Patents
基于深度学习的航拍车辆实时检测方法 Download PDFInfo
- Publication number
- CN108647665A CN108647665A CN201810479135.9A CN201810479135A CN108647665A CN 108647665 A CN108647665 A CN 108647665A CN 201810479135 A CN201810479135 A CN 201810479135A CN 108647665 A CN108647665 A CN 108647665A
- Authority
- CN
- China
- Prior art keywords
- layer
- real
- aerial vehicle
- time detection
- vehicle
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000011897 real-time detection Methods 0.000 title claims abstract description 65
- 238000000034 method Methods 0.000 title claims abstract description 37
- 238000013135 deep learning Methods 0.000 title claims abstract description 17
- 238000001514 detection method Methods 0.000 claims abstract description 63
- 238000012549 training Methods 0.000 claims abstract description 49
- 230000004927 fusion Effects 0.000 claims abstract description 48
- 230000006870 function Effects 0.000 claims abstract description 42
- 238000012360 testing method Methods 0.000 claims description 35
- 238000002372 labelling Methods 0.000 claims description 21
- 238000012937 correction Methods 0.000 claims description 19
- 238000010606 normalization Methods 0.000 claims description 16
- 238000004364 calculation method Methods 0.000 claims description 6
- 239000000654 additive Substances 0.000 claims description 5
- 230000000996 additive effect Effects 0.000 claims description 5
- 238000012986 modification Methods 0.000 claims description 2
- 230000004048 modification Effects 0.000 claims description 2
- 238000013480 data collection Methods 0.000 abstract 2
- 238000004422 calculation algorithm Methods 0.000 description 6
- 238000000605 extraction Methods 0.000 description 5
- 238000004088 simulation Methods 0.000 description 5
- 230000000694 effects Effects 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 3
- 238000010586 diagram Methods 0.000 description 2
- 238000007500 overflow downdraw method Methods 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 230000007123 defense Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 238000007689 inspection Methods 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 239000002904 solvent Substances 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 238000011269 treatment regimen Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
- G06V20/13—Satellite images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/253—Fusion techniques of extracted features
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Bioinformatics & Computational Biology (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Astronomy & Astrophysics (AREA)
- Remote Sensing (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
Abstract
本发明提出了一种基于深度学习的航拍车辆实时检测方法,主要解决现有技术难以在保证实时性的基础上对复杂场景下的航拍车辆目标进行精确检测的问题。实现步骤为:1.构建航拍车辆数据集;2.设计多尺度特征融合模块,结合该模块对基于深度学习的RefineDet实时目标检测网络进行优化,从而得到航拍车辆实时检测网络;3.利用交叉熵损失函数和焦点损失函数对航拍车辆实时检测网络依次进行训练;4.用训练好的检测模型对待检测的航拍车辆视频中的车辆进行检测。本发明设计的多尺度特征融合模块能够有效提高对航拍车辆目标的信息利用率,同时利用两个损失函数能够对航拍车辆数据集进行更为充分的训练,从而提高复杂场景下的航拍车辆目标的检测准确率。
Description
技术领域
本发明属于图像识别技术领域,涉及一种车辆实时检测方法,具体涉及一种基于深度学习的航拍车辆实时检测方法,可用于低空航拍场景下对道路行驶车辆的实时检测。
背景技术
车辆实时检测是指对视频或图像中的车辆目标进行实时检测,从而得到车辆目标的位置和类别信息的过程。航拍车辆实时检测是指在无人机航拍场景下对道路行驶车辆进行实时检测,它作为智能交通系统的重要环节对于实时路况的获取、高速公路巡查、违章停车处理等起到重要作用。目前,常用的航拍车辆检测方法可以分为以下几类:基于运动信息的航拍车辆检测、基于特征提取的航拍车辆检测和基于深度学习的航拍车辆检测。
基于运动信息的航拍车辆检测算法主要有帧间差分法、背景差分法和光流法。帧间差分法是一种简单常用的车辆检测方法,该方法基于视频序列中的背景不变性假设,利用相邻帧之间的差值找到运动车辆的位置。背景差分法是一种经典的车辆检测方法,其主要思想为通过对图像中的背景进行建模,检测图像与背景模型之间的差异找到目标所在位置。光流法能够计算出车辆的光流运动信息,从而对其进行检测。以上三种方法的共同优点是简单快速,但是由于在航拍场景下的车辆检测中相机是运动的,即背景并不是处于不变状态,容易引入背景噪声的干扰,并且当无人机与运动车辆相对静止时检测效果并不理想。
基于特征提取的航拍车辆检测算法能够在静止图像中对车辆进行检测识别,主要依靠的是对图像中的目标特征进行描述。其基本原理是对车辆特征的先验知识学习,从而利用提取到的特征训练分类器如SVM、Adaboost等对目标进行识别。比较常用的特征提取方法有Haar-like特征,HOG特征、SIFT特征以及基于字典学习提取到的特征等。在航拍图像中车辆的特征尺度较小、不清晰,容易与地面阴影等复杂背景混淆,因此传统的特征提取方式难以对车辆特征进行很好的描述。
随着深度学习的发展,目标检测领域取得了许多突破性的进展,为航拍车辆检测的研究带来了新的思路。这些方法以基于深度学习的目标检测网络为基础网络,利用多尺度特征融合方法对基础网络的特征提取方式进行改进,从而将航拍车辆目标的自身特征及其周围的上下文特征进行结合,使得改进后的基础网络提取到的特征更加丰富,然后利用训练集和损失函数对改进后的基础网络进行训练,得到可用于航拍视频中的车辆进行检测的网络模型。然而目前大多数的航拍车辆检测算法所采用的基础网络不能实现实时检测,如Fast RCNN、Faster RCNN等,因此这些航拍车辆检测算法难以做到实时检测。2017年,国防科技大学电子科学与工程学院的TianYu Tang等人在Remote Sensing withIntelligent Processing,2017International Workshop on上发表的《Fast VehicleDetection in UAV Images》中,公开了一种利用实时目标检测网络YOLOv2进行实时航拍车辆检测的方法。该方法以YOLOv2为基础网络,首先通过一个特征传递层将YOLOv2的最后两组卷积层提取到的特征进行融合,从而丰富了YOLOv2所提取到的航拍车辆特征,然后通过交叉熵损失函数对改进后的YOLOv2进行训练,得到可用于航拍车辆检测的网络模型。但是该方法进行特征融合时所使用的特征尺度较大,对较小的航拍车辆目标的信息利用率不高;并且该方法在训练时采用交叉熵损失函数,该损失函数对航拍车辆数据集中的所有训练样本采用统一对待的策略,导致困难车辆样本得不到充分训练,因而无法对复杂场景下(包含困难车辆样本)的航拍车辆目标进行精确检测。因此,如何在保证实时性的基础上进一步提高算法的检测精度仍是该领域一项亟待解决的问题。
发明内容
本发明的目的在于针对上述已有的航拍道路车辆检测技术的不足,提出一种基于深度学习的航拍车辆实时检测方法,在保证实时性的基础上提高复杂场景下航拍车辆目标的检测准确率。
本发明的技术思路是:首先构建航拍车辆数据集,其次结合多尺度特征融合方法对基于深度学习的RefineDet实时目标检测网络进行优化,从而得到航拍车辆实时检测网络,然后利用交叉熵损失函数和焦点损失函数对航拍车辆实时检测网络依次进行训练,最后利用训练好的航拍车辆实时检测网络对待检测的航拍车辆视频进行检测。
根据上述技术思路,实现本发明目的采取的技术方案包括如下步骤:
(1)构建航拍车辆数据集:
(1a)将无人机拍摄的道路行驶车辆的视频中的连续或非连续多帧图像以图片形式保存到JPEGImages文件夹中,并对各幅图片进行命名,其中视频的分辨率为1920×1080,JPEGImages文件夹中保存的图片的数量不少于1000幅;
(1b)对JPEGImages文件夹中每幅图片所包含的不同车辆目标的类别及位置坐标进行标注,并将每幅图片的标注信息以xml格式进行保存,得到多个由xml格式文件组成的Annotations文件夹,其中每个xml格式文件的名称与其包含的标注信息所对应的图片名称相同;
(1c)将JPEGImages文件夹中一半以上的图片作为训练样本集,其余的图片作为测试样本集,并将训练样本集中所有图片的名称写入ImageSets/Main文件夹下的trainval.txt文件中,将测试样本集中所有图片的名称写入ImageSets/Main文件夹下的test.txt文件中;(1d)从Annotations文件夹中选取与trainval.txt文件中每幅图片名称相同的xml文件作为训练样本集的标注信息集,同时选取与test.txt文件中每幅图片的名称相同的xml文件作为测试样本集的标注信息集;
(1e)将训练样本集及其标注信息集以lmdb格式保存为训练集,同时将测试样本集及其标注信息集以lmdb格式保存为测试集,所述训练集和测试集构成航拍车辆数据集;
(2)构建航拍车辆实时检测网络:
(2a)对RefineDet实时目标检测网络中的锚框修正模块ARM进行优化:在锚框修正模块ARM中添加conv3_3层所对应的目标预测层,得到优化后的锚框修正模块ARM;
(2b)设计四个具有相同结构的多尺度特征融合模块FFM1、FFM2、FFM3和FFM4:输入层F1→卷积层→线性整流层→卷积层→L2规范化层→输出层O1,输入层F2→反卷积层→线性整流层→卷积层→L2规范化层→输出层O2,输出层O1与输出层O2→相加型融合层→线性整流层→卷积层→线性整流层→输出层O3;
(2c)将锚框修正模块ARM中的conv3_3层输入到多尺度特征融合模块FFM1的输入层F1,将锚框修正模块ARM中的conv4_3层输入到多尺度特征融合模块FFM1的输入层F2及多尺度特征融合模块FFM2的输入层F1,将锚框修正模块ARM中的conv5_3层输入到多尺度特征融合模块FFM2的输入层F2及多尺度特征融合模块FFM3的输入层F1,将锚框修正模块ARM中的fc7层输入到多尺度特征融合模块FFM3的输入层F2及多尺度特征融合模块FFM4的输入层F1,将锚框修正模块ARM中的conv6_2层输入到多尺度特征融合模块FFM4的输入层F2,得到四个结构相同输入不同的多尺度特征融合模块FFM'1、FFM'2、FFM'3、和FFM'4;
(2d)对优化后的锚框修正模块ARM模块、四个多尺度特征融合模块FFM'1、FFM'2、FFM'3和FFM'4以及RefineDet实时目标检测网络中的目标检测模块ODM进行组合,得到优化后的RefineDet实时目标检测网络,并将其作为航拍车辆实时检测网络;
(3)利用交叉熵损失函数对航拍车辆实时检测网络进行训练:
(3a)对航拍车辆实时检测网络的训练参数进行初始化设置;
(3b)将航拍车辆数据集中的训练集作为航拍车辆实时检测网络的输入,并利用交叉熵损失函数对航拍车辆实时检测网络进行K1次迭代训练,K1≥80000,得到初步训练的航拍车辆实时检测网络;
(4)利用焦点损失函数对初步训练的航拍车辆实时检测网络进行训练:
(4a)采用控制变量法选择焦点损失函数的多个平衡因子α和多个调制因子γ,并对每个平衡因子α与每个调制因子γ进行组合,得到具有不同平衡因子α和调制因子γ的多个焦点损失函数,再利用每个焦点损失函数对初步训练的航拍车辆实时检测网络继续迭代训练K2次,K2≥1,得到多个训练后的航拍车辆实时检测网络;
(4b)将航拍车辆数据集中的测试集输入到每一个训练后的航拍车辆实时检测网络中进行前向计算,得到每个车辆目标的类别概率和位置坐标,以及每一个网络对测试集的平均检测准确率;
(4c)选择最高的平均检测准确率所对应的训练后的航拍车辆实时检测网络作为最终的航拍车辆实时检测网络;
(5)利用最终的航拍车辆实时检测网络对待检测的航拍车辆视频进行检测:
将待检测的航拍车辆视频输入到最终的航拍车辆实时检测网络中进行前向计算,得到车辆目标的检测结果。
本发明与现有技术相比,具有以下优点:
本发明首先对基于深度学习的RefineDet实时目标检测网络进行改进,通过设计多个多尺度特征融合模块将航拍车辆目标的自身特征及其周围的上下文特征进行结合,与现有技术只进行一次大尺度特征层的特征融合相比,本发明对大尺度特征层和小尺度特征层均进行了特征融合,因此提取到的车辆特征更加丰富,尤其是对较小车辆目标的信息利用率更高;其次,本发明利用交叉熵损失函数和焦点损失函数对航拍车辆实时检测网络依次进行训练,在适当时机使用焦点损失函数加大对困难车辆样本的训练权重,与现有技术只利用交叉熵损失函数进行训练的方式相比,本发明能够对航拍车辆数据集的所有样本进行更加充分地训练,从而提高复杂场景下的航拍车辆目标的检测准确率。
附图说明
图1为本发明的实现流程图;
图2为本发明中多尺度特征融合模块的结构示意图;
图3为本发明对多个场景下航拍车辆的检测效果图。
具体实施方式
下面将结合附图和具体实施例,对本发明进行详细说明。
参照图1,一种基于深度学习的航拍车辆实时检测方法,包括如下步骤:
步骤1)构建航拍车辆数据集:
步骤1a)将无人机拍摄的道路行驶车辆的视频中的连续帧图像每隔20帧提取一帧,以图片形式保存到JPEGImages文件夹中,并将各幅图片进行命名为不同的名字,其中视频的分辨率为1920×1080,JPEGImages文件夹中保存的图片的数量不少于1000幅;
步骤1b)对JPEGImages文件夹中每幅图片所包含的不同车辆目标进行标注:
步骤1b1)对车辆目标的类别c及位置坐标(x1,y1,x2,y2)进行标注,其中类别c属于小汽车、公交车、卡车、摩托车、自行车、油罐车六类车辆目标中的一种,x1和y1为图像中包含整个车辆目标的矩形框的左上角位置,x2和y2为图像中包含整个车辆目标的矩形框的右下角位置;
步骤1b2)将每幅图片中所有车辆目标的标注信息以xml格式进行保存,得到多个由xml格式文件组成的Annotations文件夹,其中每个xml格式文件的名称与其包含的标注信息所对应的图片名称相同,如图片image1.jpg所对应的标注信息文件名称为image1.xml;
步骤1c)将JPEGImages文件夹中的图片分为训练样本集和测试样本集两部分:
步骤1c1)将JPEGImages文件夹中的图片以2:1的比例分为训练样本集和测试样本集两部分;
步骤1c2)将训练样本集中所有图片的名称写入ImageSets/Main文件夹下的trainval.txt文件中,将测试样本集中所有图片的名称写入ImageSets/Main文件夹下的test.txt文件中,其中每幅图片的名称在trainval.txt文件和test.txt文件中作为一行;
步骤1d)从Annotations文件夹中选取与trainval.txt文件中每幅图片名称相同的xml文件作为训练样本集的标注信息集,同时选取与test.txt文件中每幅图片的名称相同的xml文件作为测试样本集的标注信息集;
步骤1e)将训练样本集及其标注信息集以lmdb格式保存为训练集,同时将测试样本集及其标注信息集以lmdb格式保存为测试集,所述训练集和测试集构成航拍车辆数据集;
步骤2)构建航拍车辆实时检测网络:
步骤2a)在RefineDet实时目标检测网络中的锚框修正模块ARM中添加conv3_3层所对应的目标预测层:
步骤2a1)在conv3_3层后面添加归一化层,层类型为“Normalize”,将该层命名为“conv3_3_norm”,输入层为“conv3_3”,输出层为“conv3_3_norm”,归一化参数value为20;
步骤2a2)设置conv3_3预测层的默认框参数:在conv3_3_norm层后面添加类型为“PriorBox”的层,该层输入层bottom为“conv3_3_norm”和“data”,输出层top为“conv3_3_norm_mbox_priorbox”,prior_box_param中的min_size为16,aspect_ratio为2,flip为true,clip为false,四个variance分别为0.1、0.1、0.2、0.2,step为4.0,offset为0.5;
步骤2a3)在conv3_3_norm层后面添加车辆目标的位置预测层“conv3_3_norm_mbox_loc”,该层输入层bottom设为“conv3_3_norm”,输出层top设为“conv3_3_norm_mbox_loc”,层类型type设为“convolution”,由于该层是完成对车辆位置坐标(x,y,w,h)的预测,且该层设置的默认框个数为3个,因此输出数量num_output设为12,卷积核大小为3×3,步长stride为1;
添加层conv3_3_norm_mbox_loc_perm,层类型为“Permute”,该层输入层bottom为“conv3_3_norm_mbox_loc”,输出层top为“conv3_3_norm_mbox_loc_perm”,参数permute_param中的四个order分别为0,2,3,1;
添加层conv3_3_norm_mbox_loc_flat,层类型为“Flatten”,该层输入层bottom为“conv3_3_norm”,输出层top为“conv3_3_norm_mbox_loc_flat”,参数flatten_param中的axis设为1;
步骤2a4)在conv3_3_norm层后面添加车辆目标的类别预测层“conv3_3_norm_mbox_conf”,该层输入层bottom设为“conv3_3_norm”,输出层top设为“conv3_3_norm_mbox_conf”,层类型type设为“convolution”,由于在ARM模块中该层是完成对车辆目标及背景(二分类)的预测,且该层设置的默认框个数为3个,因此输出数量num_output设为6,卷积核大小为3x3,步长stride为1;
添加层conv3_3_norm_mbox_conf_perm,层类型为“Permute”,该层输入层bottom为“conv3_3_norm_mbox_conf”,输出层top为“conv3_3_norm_mbox_conf_perm”,参数permute_param中的四个order分别为0,2,3,1;
添加层conv3_3_norm_mbox_conf_flat,层类型为“Flatten”,该层输入层bottom为“conv3_3_norm”,输出层top为“conv3_3_norm_mbox_conf_flat”,参数flatten_param中的axis设为1;
步骤2a5)在连接层arm_loc层中添加bottom为“conv3_3_norm_mbox_loc_flat”,在arm_conf中添加“conv3_3_norm_mbox_conf_flat”,在arm_priorbox中添加bottom为“conv3_3_mbox_priorbox”;
步骤2b)设计四个具有相同结构的多尺度特征融合模块FFM1、FFM2、FFM3和FFM4:
步骤2b1)参照图2,每个多尺度特征融合模块的结构为:输入层F1→卷积层→线性整流层→卷积层→L2规范化层→输出层O1,输入层F2→反卷积层→线性整流层→卷积层→L2规范化层→输出层O2,输出层O1与输出层O2→相加型融合层→线性整流层→卷积层→线性整流层→输出层O3;
步骤2b2)根据输入层F1的输入特征图大小l×l×ch1和输入层F2的输入特征图大小h×h×ch2来确定反卷积层参数:
计算插值因子:
计算卷积核大小:kernel_size=2×factor-factor%2,其中factor%2表示求factor除以2的余数;
计算边缘扩充:其中表示对的值向上取整,
设置步长stride与插值因子factor相等;
设置卷积核个数kernel_num与输入层2的通道数ch2相等;
设置分组group与输入层2的通道数ch2相等;
其中,l×l×ch1为输入层F1的长×宽×通道数,h×h×ch2为输入层F2的长×宽×通道数,factor为插值因子,kernel_size为卷积核大小,pad为边缘扩充参数;
步骤2b3)L2规范化层和L2规范化层分别用于对输入到L2规范化层和L2规范化层中的输入信号进行规范化,其规范化方式为:
记L2规范化层的输入信号Fi的维度为Ni,其中i∈{1,2},利用式(1)对输入信号Fi进行规范化:
其中,为Fi的规范化值,
步骤2b4)每个多尺度特征融合模块中每层参数设置如下:
卷积层的卷积核大小设置为3,步长设置为1,边缘扩充参数设置为1,特征映射图个数设置为256;
卷积层的卷积核大小设置为3,步长设置为1,边缘扩充参数设置为1,特征映射图个数设置为256;
反卷积层的卷积核大小设置为2,步长设置为2,边缘扩充参数设置为0,特征映射图个数设置为256;
卷积层的卷积核大小设置为3,步长设置为1,边缘扩充参数设置为1,特征映射图个数设置为256;
相加型融合层的操作参数operation设置为SUM;
卷积层的卷积核大小设置为3,步长设置为1,边缘扩充参数设置为1,特征映射图个数设置为256;
步骤2c)将锚框修正模块ARM中的conv3_3层输入到多尺度特征融合模块FFM1的输入层F1,将锚框修正模块ARM中的conv4_3层输入到多尺度特征融合模块FFM1的输入层F2及多尺度特征融合模块FFM2的输入层F1,将锚框修正模块ARM中的conv5_3层输入到多尺度特征融合模块FFM2的输入层F2及多尺度特征融合模块FFM3的输入层F1,将锚框修正模块ARM中的fc7层输入到多尺度特征融合模块FFM3的输入层F2及多尺度特征融合模块FFM4的输入层F1,将锚框修正模块ARM中的conv6_2层输入到多尺度特征融合模块FFM4的输入层F2,得到四个结构相同输入不同的多尺度特征融合模块FFM'1、FFM'2、FFM'3、和FFM'4;
步骤2d)对优化后的锚框修正模块ARM模块、四个多尺度特征融合模块FFM'1、FFM'2、FFM'3和FFM'4以及RefineDet实时目标检测网络中的目标检测模块ODM进行组合,得到优化后的RefineDet实时目标检测网络,并将其作为航拍车辆实时检测网络;
步骤3)采用交叉熵损失函数与SmoothL1损失函数构成的多任务损失函数L1对航拍车辆实时检测网络进行训练:
步骤3a)对航拍车辆实时检测网络的训练参数进行初始化设置:
修改文件solver.prototxt中训练集与测试集的路径,并将最大迭代次数max_iter设为100000次,图片批处理大小(batch_size)为16,初始学习率为10-3,80001次时学习率降为10-4;
步骤3b)利用交叉熵损失函数与SmoothL1损失函数对网络进行训练:
步骤3b1)将航拍车辆数据集中的训练集作为航拍车辆实时检测网络的输入:修改训练文件train.prototxt文件中训练集trainval_lmdb的路径;
步骤3b2)将train.prototxt中的损失函数参数中的conf_loss_type设置为SOFTMAX loc_loss_type设置为SmoothL1,运行训练程序,其中交叉熵损失函数SOFTMAX为:
CE(p,y)=-log(pt) (2)
其中p∈[0,1]是softmax分类函数对各类正样本(y≥1)的预测概率值,y∈{±1}是目标的类别标签c;
步骤4)采用焦点损失函数与SmoothL1损失函数构成的多任务损失函数对初步训练的航拍车辆实时检测网络进行训练:
步骤4a)对航拍车辆实时检测网络的训练参数进行初始化设置:
修改文件solver.prototxt中训练集与测试集的路径,并将最大迭代次数max_iter设为20000次,图片批处理大小(batch_size)为16,初始学习率为10-4,将train.prototxt中的损失函数参数中的conf_loss_type设置为FOCAL_LOSS,loc_loss_type设置为SmoothL1;
步骤4b)焦点损失函数的参数选择:
步骤4b1)采用控制变量法选择焦点损失函数的多个平衡因子α和多个调制因子γ,并对每个平衡因子α与每个调制因子γ进行组合,得到具有不同平衡因子α和调制因子γ的多个焦点损失函数,其中焦点损失函数为
FL(pt)=-α(1-pt)γlog(pt) (4)
其中α为平衡因子,γ为调制因子,pt与公式(3)相同;
步骤4b2)利用每个焦点损失函数与SmoothL1损失函数所构成的多任务损失函数对初步训练的航拍车辆实时检测网络继续迭代训练20000次,得到多个训练后的航拍车辆实时检测网络;
步骤4c)将航拍车辆数据集中的测试集输入到每一个训练后的航拍车辆实时检测网络中进行前向计算,得到每个车辆目标的类别概率和位置坐标,以及每一个网络对测试集的平均检测准确率mAP;
步骤4d)选择最高的平均检测准确率所对应的训练后的航拍车辆实时检测网络作为最终的航拍车辆实时检测网络;
步骤5)利用最终的航拍车辆实时检测网络对待检测的航拍车辆视频进行检测:
将待检测的航拍车辆视频输入到最终的航拍车辆实时检测网络中进行前向计算,得到车辆目标的检测结果。
以下结合仿真实验,对本发明的技术效果作进一步说明。
1.仿真条件和内容:
本发明的仿真实验是在GPU GeForce GTX 1080Ti,RAM 20G的硬件环境与Ubuntu16.04的软件环境下基于caffe平台实现的。实验中使用的航拍车辆视频数据来源于采用大疆无人机精灵4Pro实际拍摄的道路行驶车辆。
仿真实验:根据本发明构建航拍车辆数据集后,对训练集先利用交叉熵损失函数进行100000次迭代训练,然后在此基础上利用焦点损失函数进行20000次迭代训练得到最终的航拍车辆检测模型。将测试集输入到已训练好的航拍车辆检测模型中得到检测结果图,如图3所示。
2.仿真结果分析:
本发明所得到的航拍车辆检测结果与其他实时航拍车辆检测算法相比具有明显的优势,本发明对航拍车辆数据集中的测试集的平均检测准确率达到90.8%,而现有技术仅为53.7%。且由图3的检测结果可以明显的看出,本发明对各种复杂场景下的运动车辆都能够达到很好的检测效果,其中图3(a)为畅通道路、图3(b)为交叉路口、图3(c)为车辆密集情况、图3(d)为复杂环境。
Claims (4)
1.一种基于深度学习的航拍车辆实时检测方法,其特征在于包括如下步骤:
(1)构建航拍车辆数据集:
(1a)将无人机拍摄的道路行驶车辆的视频中的连续或非连续多帧图像以图片形式保存到JPEGImages文件夹中,并对各幅图片进行命名,其中视频的分辨率为1920×1080,JPEGImages文件夹中保存的图片的数量不少于1000幅;
(1b)对JPEGImages文件夹中每幅图片所包含的不同车辆目标的类别及位置坐标进行标注,并将每幅图片的标注信息以xml格式进行保存,得到多个由xml格式文件组成的Annotations文件夹,其中每个xml格式文件的名称与其包含的标注信息所对应的图片名称相同;
(1c)将JPEGImages文件夹中一半以上的图片作为训练样本集,其余的图片作为测试样本集,并将训练样本集中所有图片的名称写入ImageSets/Main文件夹下的trainval.txt文件中,将测试样本集中所有图片的名称写入ImageSets/Main文件夹下的test.txt文件中;
(1d)从Annotations文件夹中选取与trainval.txt文件中每幅图片名称相同的xml文件作为训练样本集的标注信息集,同时选取与test.txt文件中每幅图片的名称相同的xml文件作为测试样本集的标注信息集;
(1e)将训练样本集及其标注信息集以lmdb格式保存为训练集,同时将测试样本集及其标注信息集以lmdb格式保存为测试集,所述训练集和测试集构成航拍车辆数据集;
(2)构建航拍车辆实时检测网络:
(2a)对基于深度学习的RefineDet实时目标检测网络中的锚框修正模块ARM进行优化:在锚框修正模块ARM中添加与conv3_3层所对应的目标预测层;
(2b)设计四个具有相同结构的多尺度特征融合模块FFM1、FFM2、FFM3和FFM4:输入层F1→卷积层→线性整流层→卷积层→L2规范化层→输出层O1,输入层F2→反卷积层→线性整流层→卷积层→L2规范化层→输出层O2,输出层O1与输出层O2→相加型融合层→线性整流层→卷积层→线性整流层→输出层O3;
(2c)将锚框修正模块ARM中的conv3_3层输入到多尺度特征融合模块FFM1的输入层F1,将锚框修正模块ARM中的conv4_3层输入到多尺度特征融合模块FFM1的输入层F2及多尺度特征融合模块FFM2的输入层F1,将锚框修正模块ARM中的conv5_3层输入到多尺度特征融合模块FFM2的输入层F2及多尺度特征融合模块FFM3的输入层F1,将锚框修正模块ARM中的fc7层输入到多尺度特征融合模块FFM3的输入层F2及多尺度特征融合模块FFM4的输入层F1,将锚框修正模块ARM中的conv6_2层输入到多尺度特征融合模块FFM4的输入层F2,得到四个结构相同输入不同的多尺度特征融合模块FFM'1、FFM'2、FFM'3、和FFM'4;
(2d)对优化后的锚框修正模块ARM模块、四个多尺度特征融合模块FFM'1、FFM'2、FFM'3和FFM'4以及RefineDet实时目标检测网络中的目标检测模块ODM进行组合,得到优化后的RefineDet实时目标检测网络,并将其作为航拍车辆实时检测网络;
(3)利用交叉熵损失函数对航拍车辆实时检测网络进行训练:
(3a)对航拍车辆实时检测网络的训练参数进行初始化设置;
(3b)将航拍车辆数据集中的训练集作为航拍车辆实时检测网络的输入,并利用交叉熵损失函数对航拍车辆实时检测网络进行K1次迭代训练,K1≥80000,得到初步训练的航拍车辆实时检测网络;
(4)利用焦点损失函数对初步训练的航拍车辆实时检测网络进行训练:
(4a)采用控制变量法选择焦点损失函数的多个平衡因子α和多个调制因子γ,并对每个平衡因子α与每个调制因子γ进行组合,得到具有不同平衡因子α和调制因子γ的多个焦点损失函数,再利用每个焦点损失函数对初步训练的航拍车辆实时检测网络继续迭代训练K2次,K2≥1,得到多个训练后的航拍车辆实时检测网络;
(4b)将航拍车辆数据集中的测试集输入到每一个训练后的航拍车辆实时检测网络中进行前向计算,得到每个车辆目标的类别概率和位置坐标,以及每一个网络对测试集的平均检测准确率;
(4c)选择最高的平均检测准确率所对应的训练后的航拍车辆实时检测网络作为最终的航拍车辆实时检测网络;
(5)利用最终的航拍车辆实时检测网络对待检测的航拍车辆视频进行检测:
将待检测的航拍车辆视频输入到最终的航拍车辆实时检测网络中进行前向计算,得到车辆目标的检测结果。
2.根据权利要求1所述的基于深度学习的航拍车辆实时检测方法,其特征在于,步骤(2b)中所述的反卷积层其参数设置方法为:
根据输入层F1的输入大小l×l×ch1和输入层F2的输入大小h×h×ch2来确定反卷积层参数:
计算插值因子:
计算卷积核大小:kernel_size=2×factor-factor%2,其中factor%2表示求factor除以2的余数;
计算边缘扩充参数:其中表示对的值向上取整;
设置步长stride与插值因子factor相等;
设置卷积核个数kernel_num与输入层F2的通道数ch2相等;
设置分组group与输入层F2的通道数ch2相等;
其中,l×l×ch1为输入层F1的长×宽×通道数,h×h×ch2为输入层F2的长×宽×通道数,kernel_size为卷积核大小,pad为边缘扩充参数。
3.根据权利要求1所述的基于深度学习的航拍车辆实时检测方法,其特征在于,步骤(2b)中所述的L2规范化层和L2规范化层分别用于对输入到L2规范化层和L2规范化层中的输入信号进行规范:
将L2规范化层的维度为Ni的输入信号Fi记为其中i∈{1,2},利用式(1)对输入信号Fi进行规范:
其中,为Fi的规范化值,
4.根据权利要求1所述的基于深度学习的航拍车辆实时检测方法,其特征在于,步骤(2b)中的多尺度特征融合模块,每层参数设置如下:
卷积层的卷积核大小设置为3,步长设置为1,边缘扩充参数设置为1,特征映射图个数设置为256;
卷积层的卷积核大小设置为3,步长设置为1,边缘扩充参数设置为1,特征映射图个数设置为256;
反卷积层的卷积核大小设置为2,步长设置为2,边缘扩充参数设置为0,特征映射图个数设置为256;
卷积层的卷积核大小设置为3,步长设置为1,边缘扩充参数设置为1,特征映射图个数设置为256;
相加型融合层的操作参数operation设置为SUM;
卷积层的卷积核大小设置为3,步长设置为1,边缘扩充参数设置为1,特征映射图个数设置为256。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810479135.9A CN108647665B (zh) | 2018-05-18 | 2018-05-18 | 基于深度学习的航拍车辆实时检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810479135.9A CN108647665B (zh) | 2018-05-18 | 2018-05-18 | 基于深度学习的航拍车辆实时检测方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN108647665A true CN108647665A (zh) | 2018-10-12 |
CN108647665B CN108647665B (zh) | 2021-07-27 |
Family
ID=63756782
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810479135.9A Active CN108647665B (zh) | 2018-05-18 | 2018-05-18 | 基于深度学习的航拍车辆实时检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN108647665B (zh) |
Cited By (21)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109697459A (zh) * | 2018-12-04 | 2019-04-30 | 云南大学 | 一种面向光学相干断层图像斑块形态检测方法 |
CN109800807A (zh) * | 2019-01-18 | 2019-05-24 | 北京市商汤科技开发有限公司 | 分类网络的训练方法及分类方法和装置、电子设备 |
CN109902629A (zh) * | 2019-03-01 | 2019-06-18 | 成都康乔电子有限责任公司 | 一种复杂交通场景下的实时车辆目标检测模型 |
CN109934163A (zh) * | 2018-12-27 | 2019-06-25 | 北京航空航天大学 | 一种基于场景先验和特征再融合的航空图像车辆检测方法 |
CN109978035A (zh) * | 2019-03-18 | 2019-07-05 | 西安电子科技大学 | 基于改进的k-means和损失函数的行人检测方法 |
CN110135582A (zh) * | 2019-05-09 | 2019-08-16 | 北京市商汤科技开发有限公司 | 神经网络训练、图像处理方法及装置、存储介质 |
CN110245604A (zh) * | 2019-06-12 | 2019-09-17 | 西安电子科技大学 | 基于卷积神经网络的蚊虫识别方法 |
CN110321811A (zh) * | 2019-06-17 | 2019-10-11 | 中国工程物理研究院电子工程研究所 | 深度逆强化学习的无人机航拍视频中的目标检测方法 |
CN110516605A (zh) * | 2019-08-28 | 2019-11-29 | 北京观微科技有限公司 | 基于级联神经网络的任意方向舰船目标检测方法 |
CN110516686A (zh) * | 2019-07-11 | 2019-11-29 | 西安电子科技大学 | 三色rgb图像的蚊虫识别方法 |
CN110569887A (zh) * | 2019-08-20 | 2019-12-13 | 高新兴科技集团股份有限公司 | 基于预测层特征增强的目标检测方法、存储介质及设备 |
CN110717387A (zh) * | 2019-09-02 | 2020-01-21 | 东南大学 | 一种基于无人机平台的实时车辆检测方法 |
CN110992645A (zh) * | 2019-12-06 | 2020-04-10 | 江西洪都航空工业集团有限责任公司 | 一种动态场景中的流动摊贩检测与报警系统 |
CN111178213A (zh) * | 2019-12-23 | 2020-05-19 | 大连理工大学 | 一种基于深度学习的航拍车辆检测方法 |
CN111914911A (zh) * | 2020-07-16 | 2020-11-10 | 桂林电子科技大学 | 一种基于改进深度相对距离学习模型的车辆再识别方法 |
CN111985325A (zh) * | 2020-07-15 | 2020-11-24 | 国网河南省电力公司 | 特高压环境评价中的航拍小目标快速识别方法 |
CN112116584A (zh) * | 2020-09-28 | 2020-12-22 | 苏州巨能图像检测技术有限公司 | 一种起重机作业过程中箱孔定位方法 |
CN112528787A (zh) * | 2020-12-02 | 2021-03-19 | 博云视觉科技(青岛)有限公司 | 基于深度学习的信号灯故障检测方法 |
CN112668644A (zh) * | 2020-12-28 | 2021-04-16 | 燕山大学 | 一种基于ssd改进算法的无人机航拍目标检测方法 |
CN112949520A (zh) * | 2021-03-10 | 2021-06-11 | 华东师范大学 | 一种基于多尺度小样本的航拍车辆检测方法及检测系统 |
CN113610061A (zh) * | 2021-09-30 | 2021-11-05 | 国网浙江省电力有限公司电力科学研究院 | 基于目标检测和残差网络的导电线不受力识别方法及系统 |
Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20090216820A1 (en) * | 2006-05-11 | 2009-08-27 | Geistiges Eigentum, Inc. | Fast computation of compact poset isomorphism certificates |
WO2015030689A2 (en) * | 2013-08-27 | 2015-03-05 | Altun Halis | A tool and method for robust, scale and orientation invariant object detection and classification |
US20160112965A1 (en) * | 2008-08-11 | 2016-04-21 | Qualcomm Incorporated | Anchor carrier in a multiple carrier wirelss communication system |
CN106127204A (zh) * | 2016-06-30 | 2016-11-16 | 华南理工大学 | 一种全卷积神经网络的多方向水表读数区域检测算法 |
CN106297297A (zh) * | 2016-11-03 | 2017-01-04 | 成都通甲优博科技有限责任公司 | 基于深度学习的交通拥堵判别方法 |
CN106611162A (zh) * | 2016-12-20 | 2017-05-03 | 西安电子科技大学 | 基于深度学习ssd框架的道路车辆实时检测方法 |
CN106815604A (zh) * | 2017-01-16 | 2017-06-09 | 大连理工大学 | 基于多层信息融合的注视点检测方法 |
CN106846813A (zh) * | 2017-03-17 | 2017-06-13 | 西安电子科技大学 | 构建城市道路车辆图像数据库的方法 |
CN106935035A (zh) * | 2017-04-07 | 2017-07-07 | 西安电子科技大学 | 基于ssd神经网络的违章停车车辆实时检测方法 |
CN107134144A (zh) * | 2017-04-27 | 2017-09-05 | 武汉理工大学 | 一种用于交通监控的车辆检测方法 |
CN107729818A (zh) * | 2017-09-21 | 2018-02-23 | 北京航空航天大学 | 一种基于深度学习的多特征融合车辆重识别方法 |
CN107909093A (zh) * | 2017-10-27 | 2018-04-13 | 浙江大华技术股份有限公司 | 一种物品检测的方法及设备 |
-
2018
- 2018-05-18 CN CN201810479135.9A patent/CN108647665B/zh active Active
Patent Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20090216820A1 (en) * | 2006-05-11 | 2009-08-27 | Geistiges Eigentum, Inc. | Fast computation of compact poset isomorphism certificates |
US20160112965A1 (en) * | 2008-08-11 | 2016-04-21 | Qualcomm Incorporated | Anchor carrier in a multiple carrier wirelss communication system |
WO2015030689A2 (en) * | 2013-08-27 | 2015-03-05 | Altun Halis | A tool and method for robust, scale and orientation invariant object detection and classification |
CN106127204A (zh) * | 2016-06-30 | 2016-11-16 | 华南理工大学 | 一种全卷积神经网络的多方向水表读数区域检测算法 |
CN106297297A (zh) * | 2016-11-03 | 2017-01-04 | 成都通甲优博科技有限责任公司 | 基于深度学习的交通拥堵判别方法 |
CN106611162A (zh) * | 2016-12-20 | 2017-05-03 | 西安电子科技大学 | 基于深度学习ssd框架的道路车辆实时检测方法 |
CN106815604A (zh) * | 2017-01-16 | 2017-06-09 | 大连理工大学 | 基于多层信息融合的注视点检测方法 |
CN106846813A (zh) * | 2017-03-17 | 2017-06-13 | 西安电子科技大学 | 构建城市道路车辆图像数据库的方法 |
CN106935035A (zh) * | 2017-04-07 | 2017-07-07 | 西安电子科技大学 | 基于ssd神经网络的违章停车车辆实时检测方法 |
CN107134144A (zh) * | 2017-04-27 | 2017-09-05 | 武汉理工大学 | 一种用于交通监控的车辆检测方法 |
CN107729818A (zh) * | 2017-09-21 | 2018-02-23 | 北京航空航天大学 | 一种基于深度学习的多特征融合车辆重识别方法 |
CN107909093A (zh) * | 2017-10-27 | 2018-04-13 | 浙江大华技术股份有限公司 | 一种物品检测的方法及设备 |
Non-Patent Citations (3)
Title |
---|
SHIFENG ZHANG 等: "Single-Shot Refinement Neural Network for Object Detection", 《COMPUTER VISION AND PATTERN RECOGNITION》 * |
TSUNG-YI LIN 等: "Feature Pyramid Networks for Object Detection", 《COMPUTER VISION AND PATTERN RECOGNITION》 * |
王超 等: "基于增量维纳滤波的图像插值算法辨识", 《计算机工程》 * |
Cited By (34)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109697459A (zh) * | 2018-12-04 | 2019-04-30 | 云南大学 | 一种面向光学相干断层图像斑块形态检测方法 |
CN109934163A (zh) * | 2018-12-27 | 2019-06-25 | 北京航空航天大学 | 一种基于场景先验和特征再融合的航空图像车辆检测方法 |
CN109800807A (zh) * | 2019-01-18 | 2019-05-24 | 北京市商汤科技开发有限公司 | 分类网络的训练方法及分类方法和装置、电子设备 |
CN109800807B (zh) * | 2019-01-18 | 2021-08-31 | 北京市商汤科技开发有限公司 | 分类网络的训练方法及分类方法和装置、电子设备 |
CN109902629A (zh) * | 2019-03-01 | 2019-06-18 | 成都康乔电子有限责任公司 | 一种复杂交通场景下的实时车辆目标检测模型 |
CN109978035A (zh) * | 2019-03-18 | 2019-07-05 | 西安电子科技大学 | 基于改进的k-means和损失函数的行人检测方法 |
CN109978035B (zh) * | 2019-03-18 | 2021-04-02 | 西安电子科技大学 | 基于改进的k-means和损失函数的行人检测方法 |
CN110135582A (zh) * | 2019-05-09 | 2019-08-16 | 北京市商汤科技开发有限公司 | 神经网络训练、图像处理方法及装置、存储介质 |
CN110135582B (zh) * | 2019-05-09 | 2022-09-27 | 北京市商汤科技开发有限公司 | 神经网络训练、图像处理方法及装置、存储介质 |
CN110245604A (zh) * | 2019-06-12 | 2019-09-17 | 西安电子科技大学 | 基于卷积神经网络的蚊虫识别方法 |
CN110321811B (zh) * | 2019-06-17 | 2023-05-02 | 中国工程物理研究院电子工程研究所 | 深度逆强化学习的无人机航拍视频中的目标检测方法 |
CN110321811A (zh) * | 2019-06-17 | 2019-10-11 | 中国工程物理研究院电子工程研究所 | 深度逆强化学习的无人机航拍视频中的目标检测方法 |
CN110516686B (zh) * | 2019-07-11 | 2021-03-23 | 西安电子科技大学 | 三色rgb图像的蚊虫识别方法 |
CN110516686A (zh) * | 2019-07-11 | 2019-11-29 | 西安电子科技大学 | 三色rgb图像的蚊虫识别方法 |
CN110569887A (zh) * | 2019-08-20 | 2019-12-13 | 高新兴科技集团股份有限公司 | 基于预测层特征增强的目标检测方法、存储介质及设备 |
CN110569887B (zh) * | 2019-08-20 | 2022-07-29 | 高新兴科技集团股份有限公司 | 基于预测层特征增强的目标检测方法、存储介质及设备 |
CN110516605A (zh) * | 2019-08-28 | 2019-11-29 | 北京观微科技有限公司 | 基于级联神经网络的任意方向舰船目标检测方法 |
CN110717387A (zh) * | 2019-09-02 | 2020-01-21 | 东南大学 | 一种基于无人机平台的实时车辆检测方法 |
CN110717387B (zh) * | 2019-09-02 | 2022-07-08 | 东南大学 | 一种基于无人机平台的实时车辆检测方法 |
CN110992645A (zh) * | 2019-12-06 | 2020-04-10 | 江西洪都航空工业集团有限责任公司 | 一种动态场景中的流动摊贩检测与报警系统 |
CN111178213A (zh) * | 2019-12-23 | 2020-05-19 | 大连理工大学 | 一种基于深度学习的航拍车辆检测方法 |
CN111178213B (zh) * | 2019-12-23 | 2022-11-18 | 大连理工大学 | 一种基于深度学习的航拍车辆检测方法 |
CN111985325A (zh) * | 2020-07-15 | 2020-11-24 | 国网河南省电力公司 | 特高压环境评价中的航拍小目标快速识别方法 |
CN111985325B (zh) * | 2020-07-15 | 2023-04-07 | 国网河南省电力公司 | 特高压环境评价中的航拍小目标快速识别方法 |
CN111914911B (zh) * | 2020-07-16 | 2022-04-08 | 桂林电子科技大学 | 一种基于改进深度相对距离学习模型的车辆再识别方法 |
CN111914911A (zh) * | 2020-07-16 | 2020-11-10 | 桂林电子科技大学 | 一种基于改进深度相对距离学习模型的车辆再识别方法 |
CN112116584A (zh) * | 2020-09-28 | 2020-12-22 | 苏州巨能图像检测技术有限公司 | 一种起重机作业过程中箱孔定位方法 |
CN112116584B (zh) * | 2020-09-28 | 2023-10-31 | 苏州巨能图像检测技术有限公司 | 一种起重机作业过程中箱孔定位方法 |
CN112528787A (zh) * | 2020-12-02 | 2021-03-19 | 博云视觉科技(青岛)有限公司 | 基于深度学习的信号灯故障检测方法 |
CN112668644A (zh) * | 2020-12-28 | 2021-04-16 | 燕山大学 | 一种基于ssd改进算法的无人机航拍目标检测方法 |
CN112668644B (zh) * | 2020-12-28 | 2023-03-24 | 燕山大学 | 一种基于ssd改进算法的无人机航拍目标检测方法 |
CN112949520B (zh) * | 2021-03-10 | 2022-07-26 | 华东师范大学 | 一种基于多尺度小样本的航拍车辆检测方法及检测系统 |
CN112949520A (zh) * | 2021-03-10 | 2021-06-11 | 华东师范大学 | 一种基于多尺度小样本的航拍车辆检测方法及检测系统 |
CN113610061A (zh) * | 2021-09-30 | 2021-11-05 | 国网浙江省电力有限公司电力科学研究院 | 基于目标检测和残差网络的导电线不受力识别方法及系统 |
Also Published As
Publication number | Publication date |
---|---|
CN108647665B (zh) | 2021-07-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108647665B (zh) | 基于深度学习的航拍车辆实时检测方法 | |
Tang et al. | Fast vehicle detection in UAV images | |
CN108985186B (zh) | 一种基于改进YOLOv2的无人驾驶中行人检测方法 | |
CN109816024B (zh) | 一种基于多尺度特征融合与dcnn的实时车标检测方法 | |
CN108647694B (zh) | 基于上下文感知和自适应响应的相关滤波目标跟踪方法 | |
Li et al. | Stepwise domain adaptation (SDA) for object detection in autonomous vehicles using an adaptive CenterNet | |
CN114202672A (zh) | 一种基于注意力机制的小目标检测方法 | |
CN113420607A (zh) | 无人机多尺度目标检测识别方法 | |
CN110674741A (zh) | 一种基于双通道特征融合的机器视觉中手势识别方法 | |
CN108133235B (zh) | 一种基于神经网络多尺度特征图的行人检测方法 | |
Tang et al. | HIC-YOLOv5: Improved YOLOv5 for small object detection | |
CN114049572A (zh) | 识别小目标的检测方法 | |
Gao et al. | Traffic sign detection based on ssd | |
CN115115973A (zh) | 一种基于多感受野与深度特征的弱小目标检测方法 | |
Sun et al. | SES-YOLOv8n: automatic driving object detection algorithm based on improved YOLOv8 | |
CN116229406B (zh) | 车道线检测方法、系统、电子设备及存储介质 | |
Bhandary et al. | Robust classification of city roadway objects for traffic related applications | |
CN115731542A (zh) | 一种多模态弱监督三维目标检测方法、系统及设备 | |
CN113221604B (zh) | 目标识别方法、装置、存储介质及电子设备 | |
Rabecka et al. | Assessing the performance of advanced object detection techniques for autonomous cars | |
Yuan et al. | Vehicle detection based on area and proportion prior with faster-RCNN | |
CN115222940B (zh) | 一种语义分割方法、系统、设备和存储介质 | |
Huang et al. | A Perception Method Based on Point Cloud Processing in Autonomous Driving | |
CN118628891B (zh) | 基于YOLOv8n改进算法的目标检测方法及系统 | |
CN115272992B (zh) | 一种车辆姿态估计方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |