CN112257793A - 一种基于改进YOLO v3算法的远距离交通标志检测方法 - Google Patents
一种基于改进YOLO v3算法的远距离交通标志检测方法 Download PDFInfo
- Publication number
- CN112257793A CN112257793A CN202011159601.9A CN202011159601A CN112257793A CN 112257793 A CN112257793 A CN 112257793A CN 202011159601 A CN202011159601 A CN 202011159601A CN 112257793 A CN112257793 A CN 112257793A
- Authority
- CN
- China
- Prior art keywords
- training
- network
- error
- data
- model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 37
- 238000004422 calculation algorithm Methods 0.000 title claims abstract description 20
- 238000012549 training Methods 0.000 claims abstract description 68
- 238000000034 method Methods 0.000 claims abstract description 33
- 238000012795 verification Methods 0.000 claims abstract description 18
- 230000008569 process Effects 0.000 claims abstract description 16
- 238000007781 pre-processing Methods 0.000 claims abstract description 6
- 238000000605 extraction Methods 0.000 claims description 24
- 238000005070 sampling Methods 0.000 claims description 23
- 238000012360 testing method Methods 0.000 claims description 9
- 238000004364 calculation method Methods 0.000 claims description 7
- 230000006870 function Effects 0.000 claims description 7
- 208000037170 Delayed Emergence from Anesthesia Diseases 0.000 claims description 5
- 238000010200 validation analysis Methods 0.000 claims description 3
- 230000008859 change Effects 0.000 claims description 2
- 238000012544 monitoring process Methods 0.000 claims description 2
- 238000004883 computer application Methods 0.000 abstract description 2
- 238000010586 diagram Methods 0.000 description 7
- 238000002372 labelling Methods 0.000 description 5
- 238000013528 artificial neural network Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 230000003321 amplification Effects 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 238000003199 nucleic acid amplification method Methods 0.000 description 2
- 238000012216 screening Methods 0.000 description 2
- 206010039203 Road traffic accident Diseases 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000010790 dilution Methods 0.000 description 1
- 239000012895 dilution Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 239000000126 substance Substances 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
- G06V10/443—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
- G06V10/449—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
- G06V10/451—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
- G06V10/454—Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
- G06V20/54—Surveillance or monitoring of activities, e.g. for recognising suspicious objects of traffic, e.g. cars on the road, trains or boats
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
- G06V20/582—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of traffic signs
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/07—Target detection
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Multimedia (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Health & Medical Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Computational Linguistics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Biophysics (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Biodiversity & Conservation Biology (AREA)
- Image Analysis (AREA)
Abstract
一种基于改进YOLO v3算法的远距离交通标志检测方法,属于计算机应用技术领域。该方法首先对交通标志数据进行采集和预处理;然后改进YOLO v3算法模型,将数据集输入到网络中进行训练、验证,保存模型;调用模型检测图像,由网络的检测部分输出目标的分类预测结果和位置预测结果。本发明方法引入密集残差模块来提取小尺寸目标在深层网络中的特征,训练过程中利用CIoU误差计算目标的定位误差,对网络权重进行更新优化。本发明能够显著提高模型准确率,提高检测时的精度和检测速度。
Description
技术领域
本发明属于计算机应用技术领域,涉及到一种基于改进YOLO v3算法的远距离交通标志检测方法。
背景技术
随着社会经济的迅速发展,道路上的车辆不断增加,大量的车辆导致交通拥堵和交通事故发生频率越来越高。在此背景下,智能交通系统应用而生。交通标志检测方法作为领域内关键技术,在自动驾驶和智慧交通中起到关键作用,如何快速准确地获取前方交通标志信息是智慧交通领域内一个难点和热点。传统的交通标志检测算法需要人工设计特征,模型的检测效果很大程度上取决于设计出的特征,模型的泛化能力较差。近年来深度学习技术发展迅速,利用目标检测算法获取前方交通标志信息是深度学习一个重要的应用方向。
在当前通用的目标检测模型中,特征提取网络一般会经过多次下采样操作,由于远距离场景下小尺寸目标在原图上只有几十个像素大小,经过下采样后小尺寸目标在特征图上基本只有个位数像素大小;经过多次卷积提取特征后小尺寸目标的感受野映射回原图将大于小尺寸目标在原图的实际大小,从而导致小目标的特征被不断稀释。另外,神经网络在学习中往往被较大尺寸的目标主导,小尺寸目标在整个学习过程中容易被忽视,导致现有的通用目标检测算法对小尺寸目标的检测效果不佳。
发明内容
针对现有目标检测技术在远距离场景下小尺寸交通标志目标的检测效果不佳、模型泛化能力不强等问题,深入分析当前目标检测方法的不足之处,并结合小尺寸目标数据集的特点,本发明对YOLO v3模型结构进行改进,并引入CIoULoss,提出一种基于改进YOLOv3算法的远距离交通标志检测方法。
为了达到上述目的,本发明采用的技术方案为:
一种基于改进YOLO v3算法的远距离交通标志检测方法,包括以下步骤:
步骤1:数据采集及预处理
采集远距离场景下包含各种交通标志的图像数据,图像数据包含的交通标志分为禁止、指示、警告和其他4大类,且图像中交通标志清晰可见。整理采集的图片数据,对重复的图像和目标模糊的图像进行筛选删除,之后对于待处理的图像数据,使用LabelMe图片标注工具对图片进行标注,包括交通标志所属的类别和在图片中的位置信息,位置信息以交通标志的左上点和右下点坐标表示。最后将数据集制成VOC格式的数据集,并将所有标注完成的数据划分为两部分:第一部分再进一步划分为两个部分,分别用作模型的训练和验证;另一部分用作模型的测试。
步骤2:搭建改进YOLO v3算法网络模型
对原始YOLO v3算法的特征提取网络加以改进,搭建的基于改进YOLO v3方法的网络模型,用密集残差模块代替原始特征提取网络的最后一个残差块,以实现小目标特征在深层卷积层中的复用。特征提取网络输出不同尺寸的特征图,对特征图进行上采样和拼接操作后得到三个新的特征图。对提取出的三个尺度的特征图,分别利用一个卷积模块对提取的特征做进一步处理,调整输出通道数,得到预测框的置信度、位置信息和分类信息。
步骤3:检测网络训练之前,先使用Imagnet数据集首先对体征提取部分的网络进行预训练,得到特征提取网络的预训练模型,然后载入预训练模型权重,利用步骤1划分得到的训练数据、验证数据和测试数据继续训练学习模型参数。利用检测网络对目标进行预测得到预测框置信度、位置信息和分类信息,并计算预测值和真实之间的误差,置信度误差和分类误差采用交叉熵误差计算,训练过程中位置误差采用CIoU误差计算。
训练过程分为两个阶段:第一阶段采用较大的学习率,对预训练的特征提取网络最后几层参数进行更新,第二阶段采用较小的学习率,对整个网络参数进行更新。训练时利用学习率衰减和早停策略对训练过程进行监控,当误差变化率小于预先设定阈值时,将学习率减半;当模型在验证集上一个周期内的误差比上一次的训练结果差的时候停止训练。
步骤4:加载模型,对交通标志进行检测。加载模型对待检测图像进行检测,调整待检测图像大小为416x416,输入检测网络,网络输出检测结果。
进一步的,所述的步骤1中:处理完的图像数据以jpg格式存在在JPEGImages文件夹下,图像标注数据以xml格式存放在Annotations文件夹下。xml文件中主要包含图像的宽高、交通标志的类别和真实框坐标等信息。
进一步的,所述的步骤1中:所有标注完成的数据按照4:1的比例划分为训练用数据和测试用数据,训练用数据再按照9:1进一步划分为训练数据和验证数据。
进一步的,所述的步骤2中:特征提取网络输出8倍、16倍和32倍下采样的特征图,将其中32倍下采样特征图作为feat1,feat1经过一次2倍上采样后与16倍下采样特征图拼接得到feat2,feat2经过一次两倍上采样后与8倍下采样特征图拼接得到feat3。特征提取网络输出的三个特征图经过一组卷积操作后得到预测框的置信度、位置和分类信息。
进一步的,所述的步骤3中:对即将训练的数据,采用数据增强方法先对数据进行扩增,主要包括:随机扭曲、翻转、截取和加入噪音。
进一步的,所述的步骤3中:在步骤3中训练网络时,损失函数分为三部分:置信度误差Lconf,定位误差Lloc和分类误差Lcls。置信度误差和分类误差采用交叉熵误差计算,位置误差采用CIoU误差计算。CIoU误差计算步骤如下:
其中,I是预测框与真实框的交集,U是预测框与真实框的并集,IoU是预测框与真实框的交集和并集之比。
2)根据IoU定义目标定位损失为:
其中,b,bgt分别表示真实框B和预测框Bgt的中心点,ρ(·)表示欧氏距离,c表示B,Bgt最小外接矩形的对角线距离。αv是一个一个影响因子,该影响因子将预测框的宽高比和真实框的宽高比考虑到损失函数的计算中。
进一步的,所述的步骤3中:训练过程的两个阶段,即:训练过程中模型的参数调整包括以下步骤:
1)第一阶段采用较大的学习率,本次训练中取学习率0.001,预训练模型的模型结构保持不变,将模型前k个网络层权重锁定,保持不变,利用交通标志检测数据集,重新训练未锁定的层,网络在训练集上训练50轮,得到新的权重;
2)第二阶段训练过程采用学习率衰减和早停策略,对模型进行微调,设定较小的学习率,本次训练中,初始学习率取0.0001,解冻所有网络层,保持1)中得到的模型结构和参数权重,利用训练集继续训练150轮,不断调整参数使网络的损失越来越小,计算每个时间周期内模型在验证集上的误差,当模型在某个周期内在验证集上的误差大于上一个周期内验证集上的误差时,停止网络更新,保存网络模型;当网络在连续k个周期迭代后在验证集上的损失下降小于预先设定阈值时,则将学习率进行减半。
本发明的有益效果为:本发明能够显著提高模型准确率,提高检测时的精度和检测速度。
附图说明
图1是本方法的整体流程图;
图2是特征提取部分网络结构图;
图3是网络整体结构图;
图4是IoU示意图;
图5是预测框B与真实框Bgt参数计算示意图。
具体实施方式
为使本发明实力的目的及优点更加清楚,下面结合技术方案和附图,对本发明实施过程进行清楚完整的描述。
本发明公开的基于改进YOLO v3的交通标志检测方法,总体流程图如附图1所示,包括以下步骤:
步骤1:数据采集及预处理
1.1采集包含各种交通标志的图像数据,图像中包含4类交通标志,分别为禁止、指示、警告和其他四大类交通标志,图像中所有交通标志长边尺寸介于16到128像素之间。对重复的图像和目标模糊的图像进行筛选删除。
1.2将采集的图像数据制作成VOC格式的数据。使用LabelMe标注工具对图像进行标注,通过手工将图像中交通标志用矩形框标出得到目标检测框,得到xml格式文件,xml文件中包括目标检测框在图像中的宽度、高度、位置信息和类别信息,位置信息用目标检测框的左上角和右下角在整张图像中的坐标信息表示。
1.3处理完的图像数据以jpg格式存在在JPEGImages文件夹下,图像标注数据以xml格式存放在Annotations文件夹下。将标注完毕的所有数据,按照4:1的比例划分为训练集用数据和测试用数据,训练用数据进一步按照9:1的比例划分为训练集和验证集,测试用数据用作测试集。
步骤2:搭建改进YOLO v3网络模型:
2.1网络的特征提取部分对YOLO v3原始特征提取网络加以改进,本发明方法引入一个密集残差块代替darknet网络中的最后一个残差块,以减轻小尺寸目标在深层网络中的特征被稀释现象,提高小尺寸目标的在神层网络中特征表示能力。
2.2特征提取网络在第3个、第4个和最后一个密集残差块后,输出8倍、16倍和32倍下采样的特征图。将其中32倍下采样特征图作为第一个特征图,第一个特征图经过一次2倍上采样后与16倍下采样特征图拼接得到第二个特征图,第二个特征图经过一次两倍上采样后与8倍下采样特征图拼接得到第三个特征图。
特征提取部分的网络结构图如附图2所示。
2.3网络的检测分类部分利用特征提取网络提取的三个不同维度的特征层,对目标进行定位和分类。每个特征层经过一组卷积操作调整输出通道数,并得到相应特征层每个网格点对应的预测框的位置信息,置信度信息和类别信息。
位置信息为xmin,ymin,xmax,ymax表示预测框的左上点和右下点坐标;
置信度信息confidence表示每个网格点内是否存在待检测目标;
分类信息cls表示网格点中的目标属于每个种类的概率;
网络整体示意图如附图3所示。
步骤3:利用处理好的数据和搭建好的模型进行训练;
3.1打乱训练数据,每次从训练数据中随机选取一批图片,并对选取的图像进行数据扩增的预处理操作,包括随即缩放、平移、翻转图像和添加噪音。将经过数据扩增处理的图像数据送入模型,通过损失函数对数据的预测值和真实值之间的误差进行计算,反向传播时按照链式法则对神经网络权值进行优化更新。
3.2训练过程分为两个阶段,第一阶段利用在Imagenet数据集上的预训练模型,对特征提取网络最后几层网络参数进行更新,第二阶段对整个网络参数进行更新。
3.2.1训练第一阶段学习率取0.001,预训练模型的模型结构保持不变,将模型前k个网络层权重锁定,保持不变,利用交通标志检测数据集,重新训练未锁定的层,网络在训练集上训练50轮,得到新的权重;
3.2.2训练第二阶段采用学习率衰减和早停策略,对模型进行微调,初始学习率取0.0001,解冻所有网络层,保持训练上一阶段得到的模型结构和参数权重,利用训练集继续训练150轮,不断调整参数使网络的损失越来越小,计算每个时间周期内模型在验证集上的误差,当模型在某个周期内在验证集上的误差大于上一个周期内验证集上的误差时,停止网络更新,保存网络模型;当网络在连续k个周期迭代后在验证集上的损失下降小于预先设定阈值时,则将学习率进行减半。
训练过程中的损失函数设计如下:
Loss=Lconf+Lloc+Lcls
训练过程中的损失分为三个部分:置信度误差Lconf,定位误差Lloc和分类误差Lcls。
3.3训练过程中的置信度误差定义为:
其中,λnoobj,λobj代表对网格中没有目标和有目标时的惩罚参数;S代表特征图的尺寸大小,取值为13,26和52;当特征图的第i,j个网格中存在待检测目标时,取值为1,否则为0;当特征图的第i,j个网格中不存在待检测目标时,取值为1,否则为0;Ci为网格中anchor的预测类别;为网格中anchor的实际类别;
3.4训练过程中的分类误差定义为:
3.5目标定位损失Lloc采用CIoULoss,详细计算过程如下:
3.5.1求预测框与真实框的IoU。如附图4所示,p是图像真实框和预测框相交区域内的一个点,X是真实框面积,是预测框面积,I是预测框与真实框交集部分的面积,U是预测框与真实框并集的面积,IoU是预测框与真实框的交集和并集面积之比。
X=(xt+xb)*(xl+xr)
I=Ih*Iw
其中,xt,xb为真实框被p点分割得到的上下两部分长度,xl,xr分别为真实框被p点分割得到的左右两部分长度;为预测框被p点分割得到的上下两部分长度,分别为预测框被p点分割得到的左右两部分长度,Ih和Iw分别为真实框和预测框交集部分的高度和宽度。
3.5.2根据IoU定义目标定位损失为:
其中,
如附图5所示,其中,b,bgt分别表示B,Bgt的中心点,ρ(·)表示欧氏距离,c表示B,Bgt最小外接矩形的对角线距离。αv是一个影响因子,该影响因子将预测框的宽高比和真实框的宽高比考虑到损失函数的计算中,α是用于平衡IoU和宽高比的参数,v是用来衡量预测框和真实框宽高比一致性的参数。wgt为真实框的宽度,hgt为真实框的高度,w为预测框的宽度,h为预测框的高度。
步骤4:调用训练好的模型进行检测
对于待预测图像,首先将图像大小调整为416*416大小,然后将图像数据送入网络进行预测,得到目标的分类和位置信息。
本模型在GTSDB数据集上进行验证,模型准确率达到85.01%,相比原始网络模型准确率提升3.36%。在Win10,RTX2060环境下单张图片检测时间达到0.0535s,较原始模型单张检测时间0.0616s检测速度显著提升。
以上所述实施例仅表达本发明的实施方式,但并不能因此而理解为对本发明专利的范围的限制,应当指出,对于本领域的技术人员来说,在不脱离本发明构思的前提下,还可以做出若干变形和改进,这些均属于本发明的保护范围。
Claims (6)
1.一种基于改进YOLO v3算法的远距离交通标志检测方法,其特征在于,包括以下步骤:
步骤1:数据采集及预处理
采集远距离场景下包含各种交通标志的图像数据,图像数据包含的交通标志分为禁止、指示、警告和其他4大类;将数据集制成VOC格式的数据集,并将所有标注完成的数据划分为两部分:第一部分分为训练集、验证集;第二部分作为测试集;
步骤2:搭建改进YOLO v3算法网络模型
对原始YOLO v3算法的特征提取网络进行改进,用密集残差模块代替原始特征提取网络的最后一个残差块;特征提取网络输出不同尺寸的特征图,对特征图进行上采样和拼接操作后得到三个新的特征图;对提取出的三个尺度的特征图,分别利用一个卷积模块对提取的特征做进一步处理,调整输出通道数,得到预测框的置信度、位置信息和分类信息;
步骤3:检测网络训练之前,先使用Imagnet数据集首先对体征提取部分的网络进行预训练,得到特征提取网络的预训练模型,然后载入预训练模型权重,利用步骤1划分得到的训练数据、验证数据和测试数据继续训练学习模型参数;利用检测网络对目标进行预测得到预测框置信度、位置信息和分类信息,并计算预测值和真实之间的误差,置信度误差和分类误差采用交叉熵误差计算,训练过程中位置误差采用CIoU误差计算;
训练过程分为两个阶段:第一阶段对预训练的特征提取网络最后几层参数进行更新,第二阶段对整个网络参数进行更新;训练时利用学习率衰减和早停策略对训练过程进行监控,当误差变化率小于预先设定阈值时,将学习率减半;当模型在验证集上一个周期内的误差比上一次的训练结果差的时候停止训练;
在步骤3中训练网络时,损失函数分为三部分:置信度误差Lconf,定位误差Lloc和分类误差Lcls;置信度误差和分类误差采用交叉熵误差计算,位置误差采用CIoU误差计算;CIoU误差计算步骤如下:
其中,I是预测框与真实框的交集,U是预测框与真实框的并集,IoU是预测框与真实框的交集和并集之比;
2)根据IoU定义目标定位损失为:
其中,b,bgt分别表示真实框B和预测框Bgt的中心点,ρ(·)表示欧氏距离,c表示B,Bgt最小外接矩形的对角线距离;αv是一个一个影响因子,该影响因子将预测框的宽高比和真实框的宽高比考虑到损失函数的计算中;
步骤4:加载模型,对交通标志进行检测。
2.根据权利要求1所述的一种基于改进YOLO v3算法的远距离交通标志检测方法,其特征在于,所述步骤1中:处理完的图像数据以jpg格式存在在JPEGImages文件夹下,图像标注数据以xml格式存放在Annotations文件夹下;xml文件中主要包含图像的宽高、交通标志的类别和真实框坐标信息。
3.根据权利要求1所述的一种基于改进YOLO v3算法的远距离交通标志检测方法,其特征在于,所述步骤1中:所有标注完成的数据按照4:1的比例划分为训练用数据和测试用数据,训练用数据再按照9:1进一步划分为训练数据和验证数据。
4.根据权利要求1所述的一种基于改进YOLO v3算法的远距离交通标志检测方法,其特征在于,所述步骤2中:特征提取网络输出8倍、16倍和32倍下采样的特征图,将其中32倍下采样特征图作为feat1,feat1经过一次2倍上采样后与16倍下采样特征图拼接得到feat2,feat2经过一次两倍上采样后与8倍下采样特征图拼接得到feat3;特征提取网络输出的三个特征图经过一组卷积操作后得到预测框的置信度、位置和分类信息。
5.根据权利要求1所述的一种基于改进YOLO v3算法的远距离交通标志检测方法,其特征在于,所述的步骤3中:对即将训练的数据,采用数据增强方法先对数据进行扩增,主要包括:随机扭曲、翻转、截取和加入噪音。
6.根据权利要求1所述的一种基于改进YOLO v3算法的远距离交通标志检测方法,其特征在于,所述的步骤3中:训练过程的两个阶段具体为:
1)第一阶段训练过程中,取学习率0.001,预训练模型的模型结构保持不变,将模型前k个网络层权重锁定,保持不变,利用交通标志检测数据集,重新训练未锁定的层,网络在训练集上训练多轮,得到新的权重;
2)第二阶段训练过程采用学习率衰减和早停策略,对模型进行微调,设定较小的学习率,解冻所有网络层,保持1)中得到的模型结构和参数权重,利用训练集继续训练多轮,不断调整参数使网络的损失越来越小,计算每个时间周期内模型在验证集上的误差,当模型在某个周期内在验证集上的误差大于上一个周期内验证集上的误差时,停止网络更新,保存网络模型;当网络在连续k个周期迭代后在验证集上的损失下降小于预先设定阈值时,则将学习率进行减半。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011159601.9A CN112257793A (zh) | 2020-10-26 | 2020-10-26 | 一种基于改进YOLO v3算法的远距离交通标志检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011159601.9A CN112257793A (zh) | 2020-10-26 | 2020-10-26 | 一种基于改进YOLO v3算法的远距离交通标志检测方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN112257793A true CN112257793A (zh) | 2021-01-22 |
Family
ID=74263002
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011159601.9A Withdrawn CN112257793A (zh) | 2020-10-26 | 2020-10-26 | 一种基于改进YOLO v3算法的远距离交通标志检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112257793A (zh) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112766188A (zh) * | 2021-01-25 | 2021-05-07 | 浙江科技学院 | 一种基于改进yolo算法的小目标行人检测方法 |
CN113297900A (zh) * | 2021-04-02 | 2021-08-24 | 中国地质大学(武汉) | 基于yolo的视频流安全帽识别方法、装置、设备及存储介质 |
CN113486711A (zh) * | 2021-05-26 | 2021-10-08 | 上海应用技术大学 | 交通标志识别模型训练方法及系统 |
CN113822888A (zh) * | 2021-11-23 | 2021-12-21 | 中导光电设备股份有限公司 | 一种基于液晶屏幕检测区域的自动划分方法和系统 |
CN113822375A (zh) * | 2021-11-08 | 2021-12-21 | 北京工业大学 | 一种改进的交通图像目标检测方法 |
CN114155494A (zh) * | 2022-02-10 | 2022-03-08 | 力博重工科技股份有限公司 | 一种基于深度学习的带式输送机输送带跑偏监测方法 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
AU2019101142A4 (en) * | 2019-09-30 | 2019-10-31 | Dong, Qirui MR | A pedestrian detection method with lightweight backbone based on yolov3 network |
CN110660052A (zh) * | 2019-09-23 | 2020-01-07 | 武汉科技大学 | 一种基于深度学习的热轧带钢表面缺陷检测方法 |
CN111104906A (zh) * | 2019-12-19 | 2020-05-05 | 南京工程学院 | 一种基于yolo的输电塔鸟巢故障检测方法 |
CN111274970A (zh) * | 2020-01-21 | 2020-06-12 | 南京航空航天大学 | 一种基于改进YOLO v3算法的交通标志检测方法 |
CN111401410A (zh) * | 2020-02-27 | 2020-07-10 | 江苏大学 | 一种基于改进级联神经网络的交通标志检测方法 |
CN111428558A (zh) * | 2020-02-18 | 2020-07-17 | 东华大学 | 一种基于改进YOLOv3方法的车辆检测方法 |
CN111582007A (zh) * | 2019-02-19 | 2020-08-25 | 富士通株式会社 | 物体识别方法、装置和网络 |
-
2020
- 2020-10-26 CN CN202011159601.9A patent/CN112257793A/zh not_active Withdrawn
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111582007A (zh) * | 2019-02-19 | 2020-08-25 | 富士通株式会社 | 物体识别方法、装置和网络 |
CN110660052A (zh) * | 2019-09-23 | 2020-01-07 | 武汉科技大学 | 一种基于深度学习的热轧带钢表面缺陷检测方法 |
AU2019101142A4 (en) * | 2019-09-30 | 2019-10-31 | Dong, Qirui MR | A pedestrian detection method with lightweight backbone based on yolov3 network |
CN111104906A (zh) * | 2019-12-19 | 2020-05-05 | 南京工程学院 | 一种基于yolo的输电塔鸟巢故障检测方法 |
CN111274970A (zh) * | 2020-01-21 | 2020-06-12 | 南京航空航天大学 | 一种基于改进YOLO v3算法的交通标志检测方法 |
CN111428558A (zh) * | 2020-02-18 | 2020-07-17 | 东华大学 | 一种基于改进YOLOv3方法的车辆检测方法 |
CN111401410A (zh) * | 2020-02-27 | 2020-07-10 | 江苏大学 | 一种基于改进级联神经网络的交通标志检测方法 |
Non-Patent Citations (1)
Title |
---|
ZHAOHUI ZHENG 等: ""Distance-IoU Loss:Faster and Better Learning for Bounding Box Regression"", ARXIV:1911.08287V1, pages 1 - 5 * |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112766188A (zh) * | 2021-01-25 | 2021-05-07 | 浙江科技学院 | 一种基于改进yolo算法的小目标行人检测方法 |
CN112766188B (zh) * | 2021-01-25 | 2024-05-10 | 浙江科技学院 | 一种基于改进yolo算法的小目标行人检测方法 |
CN113297900A (zh) * | 2021-04-02 | 2021-08-24 | 中国地质大学(武汉) | 基于yolo的视频流安全帽识别方法、装置、设备及存储介质 |
CN113486711A (zh) * | 2021-05-26 | 2021-10-08 | 上海应用技术大学 | 交通标志识别模型训练方法及系统 |
CN113822375A (zh) * | 2021-11-08 | 2021-12-21 | 北京工业大学 | 一种改进的交通图像目标检测方法 |
CN113822375B (zh) * | 2021-11-08 | 2024-04-26 | 北京工业大学 | 一种改进的交通图像目标检测方法 |
CN113822888A (zh) * | 2021-11-23 | 2021-12-21 | 中导光电设备股份有限公司 | 一种基于液晶屏幕检测区域的自动划分方法和系统 |
CN114155494A (zh) * | 2022-02-10 | 2022-03-08 | 力博重工科技股份有限公司 | 一种基于深度学习的带式输送机输送带跑偏监测方法 |
CN114155494B (zh) * | 2022-02-10 | 2022-05-17 | 力博重工科技股份有限公司 | 一种基于深度学习的带式输送机输送带跑偏监测方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112257793A (zh) | 一种基于改进YOLO v3算法的远距离交通标志检测方法 | |
CN109902677B (zh) | 一种基于深度学习的车辆检测方法 | |
CN113076842B (zh) | 一种用于提升极端天气与环境下交通标志识别精度的方法 | |
CN111738111A (zh) | 基于多分支级联空洞空间金字塔的高分辨遥感图像的道路提取方法 | |
CN109840483B (zh) | 一种滑坡裂缝检测与识别的方法及装置 | |
CN109784283A (zh) | 基于场景识别任务下的遥感图像目标提取方法 | |
CN110263706A (zh) | 一种雾霾天气车载视频动态目标检测和识别的方法 | |
CN111027511B (zh) | 基于感兴趣区块提取的遥感图像舰船检测方法 | |
CN112233129B (zh) | 基于深度学习的并行多尺度注意力机制语义分割方法及装置 | |
CN113486764B (zh) | 一种基于改进的YOLOv3的坑洼检测方法 | |
CN113160062B (zh) | 一种红外图像目标检测方法、装置、设备及存储介质 | |
CN114841972A (zh) | 基于显著性图和语义嵌入特征金字塔的输电线路缺陷识别方法 | |
CN113591617B (zh) | 基于深度学习的水面小目标检测与分类方法 | |
CN113313706B (zh) | 基于检测参考点偏移分析的电力设备缺陷图像检测方法 | |
CN114627052A (zh) | 一种基于深度学习的红外图像漏气漏液检测方法及系统 | |
CN115082672A (zh) | 一种基于边界框回归的红外图像目标检测方法 | |
CN115578615A (zh) | 基于深度学习的夜间交通标志图像检测模型建立方法 | |
CN116665153A (zh) | 一种基于改进型Deeplabv3+网络模型的道路场景分割方法 | |
CN115937659A (zh) | 基于Mask-RCNN的室内复杂环境下多目标检测方法 | |
CN115880495A (zh) | 复杂环境下的舰船图像目标检测方法与系统 | |
CN113486819A (zh) | 一种基于YOLOv4算法的船舶目标检测方法 | |
CN115311508A (zh) | 一种基于深度u型网络的单帧图像红外弱小目标检测方法 | |
CN116342536A (zh) | 基于轻量化模型的铝带材表面缺陷检测方法、系统及设备 | |
CN113344110B (zh) | 一种基于超分辨率重建的模糊图像分类方法 | |
CN112818777B (zh) | 一种基于密集连接与特征增强的遥感图像目标检测方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WW01 | Invention patent application withdrawn after publication | ||
WW01 | Invention patent application withdrawn after publication |
Application publication date: 20210122 |