CN110443208A - 一种基于YOLOv2的车辆目标检测方法、系统及设备 - Google Patents
一种基于YOLOv2的车辆目标检测方法、系统及设备 Download PDFInfo
- Publication number
- CN110443208A CN110443208A CN201910727746.5A CN201910727746A CN110443208A CN 110443208 A CN110443208 A CN 110443208A CN 201910727746 A CN201910727746 A CN 201910727746A CN 110443208 A CN110443208 A CN 110443208A
- Authority
- CN
- China
- Prior art keywords
- yolov2
- model
- network
- layer
- grid
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/23—Clustering techniques
- G06F18/232—Non-hierarchical techniques
- G06F18/2321—Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
- G06F18/23213—Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions with fixed number of clusters, e.g. K-means clustering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
- G06V20/584—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of vehicle lights or traffic lights
Abstract
本发明提供了一种用于基于YOLOv2的车辆目标检测方法,步骤包括:采集图样数据并经处理获得样本数据集;构建改进的YOLOv2模型,对YOLOv2基础模型的网络结构进行改进;采用对比归一化的思想,设计损失函数;模型训练,整个网络的训练过程分为分类网络训练和检测网络训练;模型验证,使用验证数据集对训练得到的模型进行验证,测试其识别能力。并将本算法与最近比较流行的算法进行实验对比,验证算法的有效性。本发明建立的改进型YOLOv2模型能够提高对小尺度车辆目标的识别率。在各种复杂状况下,能够检测出大部分的目标车辆,识别速度和精度方面都要高于其他常规算法。
Description
技术领域
本发明涉及一种车辆目标检测方法、系统及设备,尤其针对复杂交通场景下的车辆进行识别、检测的方法。
背景技术
近年来,随着市场需求的增长以及人工智能的不断发展,自动驾驶逐步成为了各大学者研究的热点问题之一。车辆目标检测作为自动驾驶中的一个重要步骤,也是大家研究的主要问题之一。在智能交通监控视频中,目标检测技术也得到了广泛的应用,如车辆和行人的检测与定位以及收费站的自动收费系统等。目前已有应用的无人驾驶中,也是充分地利用了目标检测技术,该系统以视频和图像为研究对象,通过目标检测技术来检测、判断道路上是否有其他汽车,行人及障碍物等,同时对交通标志与信号灯进行检测判别,以此来控制车子的运行。在现实生活的交通场景中,车辆目标检测受到多种因素的干扰,如:光照、遮挡、角度等。如何快速地、准确地对复杂交通场景下的车辆进行检测、识别就成为了一个值得深入研究的课题了。
目前基于深度学习的车辆检测算法大多分为3个阶段:一是提取目标特征、二是生成候选区域、三是结果分类及边框回归。传统的基于CNN的方法进行车辆检测以及用FasterR-CNN模型进一步完成车辆检测等方法,在检测精度和检测速度方面依然不能达到实时检测车辆的要求。基于YOLO的检测算法,是一种基于回归思想的端到端的检测算法,在检测过程中可以直接从输入图像到检测输出,其省略了生成候选框这一步骤,极大的缩短了检测时间,标准YOLO模型的检测速度可以达到45f/s,但是其检测精度略低于FasterR-CNN。本发明使用YOLOv2模型,该算法是基于回归思想的端到端的检测算法,在检测过程中可以直接从输入图像到检测输出,省略了生成候选框这一步骤,极大的缩短了检测时间。在保持原有速度的同时,还可以保证较强的识别精度。但是YOLOv2模型对小目标的检测效果比较差,主要是因为图像经过卷积层、池化层的操作之后,图像变得比较小,小图像的特征就比较难提取,而这些特征对目标检测的精度影响也比较大,目标检测精度低。
发明内容
本发明的目的在于:提供一种改进的YOLOv2的算法进行车辆目标检测,可以在不同光照条件、不同行驶条件下,以及不同路况下,更加快速准确的对车辆进行识别、检测,实现对小尺度车辆目标的识别率。
为达到上述目的,本发明采用如下技术方案:
一种基于YOLOv2网络的车辆目标检测方法,包括如下步骤:
步骤1,采集图样数据并经处理获得样本数据集,将样本数据集分为训练数据集和测试数据集;
步骤2,基于YOLOv2模型搭建改进后的YOLOv2模型的网络结构,实现多尺度输入,改变网络结构图层的输出尺寸;
步骤3,基于对比归一化方法,建立YOLOv2模型的网络结构的损失函数;
步骤4,基于损失函数和驯良数据集,对YOLOv2模型进行训练,获得训练后YOLOv2网络结构模型;YOLOv2网络结构模型训练包括分类网络训练和检测网络训练;
步骤5,基于测试数据集对训练后YOLOv2网络结构模型进行验证,测试识别能力。
步骤2,基于YOLO V2模型搭建改进后的YOLOv2模型的网络结构具体包括以下步骤:
S201,将Darknet-19网络作为YOLOv2改进模型的特征提取前端网络;
S202,改进后的YOLOv2模型的网络结构包括卷积层、最大池化层、金字塔池化层和特征输出层;改进后的YOLOv2模型的网络结构包括19个卷积层和5个最大池化层;
S203,利用固定框(anchor boxes)来预测目标框(bounding boxes);
基于RPN网络(区域候选网络)的先验框(anchor boxes)策略对卷积神经网络(CNN)特征提取器得到的特征图(feature map),进行卷积来预测每个位置的边界框以及置信度(是否含有物体);利用k-means聚类算法对样本数据集中的真实目标边框进行聚类分析,选择anchor(格子或者锚点)的大小和数量。
S204,通过直通层重组高层低分辨率特征图与低层高分辨率的特征图。
基于改进后的YOLOv2模型实现多尺度输入,改变网络结构图层的输出尺寸具体包括以下步骤:
输入样本数据集待识别的图片,经过卷积层进行特征提取,卷积层使用3*3的卷积核,得到特征图;特征图经过2*2的最大池化层处理之后,特征图维度降低2倍同时将特征图的深度增加两倍;在3*3卷积层之间,Darknet-19网络使用1*1卷积来压缩特征图以降低模型计算量;将最后一层卷积层的输出作为金字塔池化层的输入,基于金字塔池化层保证网络输出的网格数是固定的,实现多尺度输入。
步骤3具体包括以下步骤:
改进后的YOLOv2模型的损失函数为;
其中,coordError、iouError和classError分别表示坐标定位误差、IOU误差和分类误差;
i表示第i个格子(锚点),s表示特征层的宽度;
将类概率和边框的误差加权为尺度因子λ,损失函数中采用对比归一化,损失函数如公式(2)所示:
c为confidence(置信度),(xi,yi)表示第i格子的边界框的相应的x轴和y轴坐标,(wi,hi)是指第i格子的边界框的宽度和高度,pi为第i格子中与groundtruth重合度最大框;
xi,yi,wi,hi,c,pi为对应参数的网络预测值;
为对应参数的标准值;
B表示每个网格中边界框的数量;
c(i)表示第i个格子的置信度,
pi(c)表示置信度c时,第i格子中与groundtruth重合度最大框;
其中λcoord为定位误差权重,设置λcoord=5,λnoobj为分类误差权重,λnoobj=0.5;Ii obj为目标落入格子i中,Iij obj为目标落入格子i的第j个边界框中;Iij noobj为目标未落入格子i的第j个边界框内。
步骤4具体包括:
分类网络训练具体包括以下步骤:
在分类的训练过程中,采用小批量梯度下降法MSGD(Mini-batch GradientDescent Scheme)来更新YOLOv2模型网络模型,直到损失函数收敛;
检测网络训练基于多尺度输入的方法,每训练n个批次(batch)之后,改变YOLOv2模型的输入尺寸继续训练,以此来增强YOLOv2模型对不同分辨率图像的有效性。
一种基于YOLOv2网络的车辆目标检测系统,包括数据采集单元、模型搭建单元、损失函数建立单元、模型训练单元和验证单元;
数据采集单元采集图样数据并经处理获得样本数据集,将样本数据集分为训练数据集和测试数据集;
模型搭建单元基于YOLOv2模型搭建改进后的YOLOv2模型的网络结构,实现多尺度输入,改变网络结构图层的输出尺寸;
损失函数建立单元基于对比归一化方法,建立YOLOv2模型的网络结构的损失函数;
模型训练单元基于损失函数和驯良数据集,对YOLOv2模型进行训练,获得训练后YOLOv2网络结构模型;YOLOv2网络结构模型训练包括分类网络训练和检测网络训练;
验证单元基于测试数据集对训练后YOLOv2网络结构模型进行验证,测试识别能力。
模型搭建单元基于YOLO V2模型搭建改进后的YOLOv2模型的网络结构具体包括以下步骤:
S201,将Darknet-19网络作为YOLOv2改进模型的特征提取前端网络;
S202,改进后的YOLOv2模型的网络结构包括卷积层、最大池化层、金字塔池化层和特征输出层;改进后的YOLOv2模型的网络结构包括19个卷积层和5个最大池化层;
S203,利用固定框(anchor boxes)来预测目标框(bounding boxes);
基于RPN网络(区域候选网络)的先验框(anchor boxes)策略对CNN特征提取器得到的特征图(feature map),进行卷积来预测每个位置的边界框以及置信度(是否含有物体);利用k-means聚类算法对样本数据集中的真实目标边框进行聚类分析,选择anchor(格子)的大小和数量。
S204,通过直通层重组高层低分辨率特征图与低层高分辨率的特征图;
基于改进后的YOLOv2模型实现多尺度输入,改变网络结构图层的输出尺寸具体包括以下步骤:输入样本数据集待识别的图片,经过卷积层进行特征提取,卷积层使用3*3的卷积核,得到特征图;特征图经过2*2的最大池化层处理之后,特征图维度降低2倍同时将特征图的深度增加两倍;在3*3卷积层之间,Darknet-19网络使用1*1卷积来压缩特征图以降低模型计算量;将最后一层卷积层的输出作为金字塔池化层的输入,基于金字塔池化层保证网络输出的网格数是固定的,实现多尺度输入。
未改进之前的网络最后十层的尺寸都是13×13的大小,根据图4改进之后,其中有5层图像的尺寸变成了26×26的大小,大尺寸的图像中具有很多的像素点,也就可以更好的表达图像的特征,小目标图像的特征也就更容易获取了。
损失函数建立单元工作过程具体包括以下步骤:
改进后的YOLOv2模型的损失函数为;
其中,coordError、iouError和classError分别表示坐标定位误差、IOU误差和分类误差;
i表示第i个格子,s表示特征层的宽度;
将类概率和边框的误差加权为尺度因子λ,损失函数中采用对比归一化,损失函数如公式(2)所示:
c为confidence(置信度),(xi,yi)表示第i格子的边界框的相应的x轴和y轴坐标,(wi,hi)是指第i格子的边界框的宽度和高度,pi为第i格子中与groundtruth重合度最大框;
xi,yi,wi,hi,c,pi为对应参数的网络预测值;
为对应参数的标准值;
B表示每个网格中边界框的数量;
c(i)表示第i个格子的置信度,
pi(c)表示置信度c时,第i格子中与groundtruth重合度最大框
其中λcoord为定位误差权重,设置λcoord=5,λnoobj为分类误差权重,λnoobj=0.5;Ii obj为目标落入格子i中,Iij obj为目标落入格子i的第j个边界框中;Iij noobj为目标未落入格子i的第j个边界框内;
模型训练单元对YOLOv2模型进行训练具体包分类网络训练和检测网络训练;
分类网络训练具体包括以下步骤:
在分类的训练过程中,采用小批量梯度下降法MSGD(Mini-batch GradientDescent Scheme)来更新YOLOv2模型网络模型,直到损失函数收敛;
检测网络训练基于多尺度输入的方法,每训练n个批次(batch)之后,改变YOLOv2模型的输入尺寸继续训练,以此来增强YOLOv2模型对不同分辨率图像的有效性。
一种计算设备,包括:一个或多个处理器、存储器以及一个或多个程序,其中一个或多个程序存储在所述存储器中并被配置为由所述一个或多个处理器执行,所述一个或多个程序包括用于执行一种用于基于YOLOv2的车辆目标检测方法的指令。
一种存储一个或多个程序的计算机可读存储介质,所述一个或多个程序包括指令,所述指令当由计算设备执行时,使得所述计算设备执行一种用于基于YOLOv2的车辆目标检测方法。
本发明公开一种用于基于YOLOv2的车辆目标检测方法,首先在网络结构上改变不同图层的输出尺寸,可以从多像素图像上提取更多目标特征;
本发明对YOLOv2基础模型网络结构的改进包括:(1)将最后一层池改为金字塔池化层(SPP);(2)改变网络中多个图层的输出尺寸。(3)增加一个单层的金字塔池化层,使目标图像可以保存原始信息;最后是优化损失函数等操作可以提高小目标检测精度和速度。因此本发明相较于基本YOLOv2模型可以提高对小尺度车辆目标的识别率,在各种复杂状况下,能够检测出的目标车辆,识别速度和精度方面都要高于其他现有算法。
本发明能够在不同光照条件、不同行驶条件下还有不同路况下,快速准确的检测出大部分的目标车辆,尤其是小尺寸的车辆也能较为准确的检测出来。另外,相比FasterR-CNN算法而言,本发明改进的算法虽在精度上与之相差不多,但在速度上却比之快很多。
附图说明
图1为本发明的一种用于基于YOLOv2的车辆目标检测方法流程图;
图2为增加了直通层的YOLOv2模型网络结构图;
图3为改进后的YOLOv2模型网络结构图;
图4为添加金字塔池化层的模型网络结构图;
图5为改变网络中多个图层的输出尺寸的模型网络结构图;
图6为车辆检测实验结果图。
具体实施方式
下面参照附图,对本方法的应用进行详细描述。
本发明解决现有的技术问题通过以下技术方案进行实现:
如图1所示,本发明公开一种基于YOLOv2网络的车辆目标检测方法,包括如下步骤:
步骤1,采集图样数据并经处理获得样本数据集;本实验数据集是从汽车行车记录仪拍摄视频中提取的,包含了大量的车辆目标;将样本数据集分为训练数据集和测试数据集,共8000张训练集图片,包含车辆目标35000多个;测试集图片2000张,包含9900多个车辆目标;
步骤2,基于YOLOv2模型搭建改进后的YOLOv2模型的网络结构,实现多尺度输入,改变网络结构图层的输出尺寸;
步骤3,基于对比归一化方法,建立YOLOv2模型的网络结构的损失函数;
步骤4,基于损失函数和驯良数据集,对YOLOv2模型进行训练,获得训练后YOLOv2网络结构模型;YOLOv2网络结构模型训练包括分类网络训练和检测网络训练;
步骤5,模型验证,使用测试数据集对训练得到的模型进行验证,测试识别能力。
步骤1具体包括以下步骤:采集不同光照条件下、不同路况下的车辆图像;为了验证本发明方法的有效性,选择在LVSH(Large Scale Variance Highway)数据集上进行实验,该数据集内含大量小尺寸目标车辆图像,正适合验证本发明改进的算法模型。
LVSH是建立好的一个车辆图片数据集。从这个数据集中选择图片,再用模型去检测图片中是否有车辆。
YOLOv2基础模型利用固定框(anchor boxes)来预测目标框(bounding boxes),其次利用k-means聚类算法对数据集中的真实目标边框进行聚类分析,自动地选择适合该方法的anchor的大小和数量。
如图2所示,YOLOv2模型还增加了一个直通层(passthrough layer)来重组高层低分辨率特征图与低层高分辨率的特征图。
如图3和4所示对YOLOv2基础模型网络结构的改进包括以下两个方面:(1)将最后一层池改为金字塔池化层(SPP)。(2)改变网络中多个图层的输出尺寸。本实施例使用Darknet-19中初始化的权重,因此网络的改进从20层开始的,使用第17层的输出作为第20的输入,图像大小为26×26,也就是改进后图像大小为之前的13×13输出的2倍。
YOLO(You only look once)是基于深度学习的端到端的目标检测算法。与大部分目标检测与识别方法将目标识别任务分类目标区域预测和类别预测等多个流程不同,YOLO将目标区域预测和目标类别预测整合于单个神经网络模型中,实现在准确率较高的情况下实时快速目标检测与识别。
YOLOv2模型引入BN(batchnormalization)(批量标准化)提升模型收敛速度,而且可以起到一定正则化效果,降低模型的过拟合。
YOLOv2模型基于Faster R-CNN中RPN网络(区域候选网络)的先验框(anchorboxes)策略。RPN对CNN特征提取器得到的特征图(feature map)进行卷积来预测每个位置的边界框以及置信度(是否含有物体),并且各个位置设置不同尺度和比例的先验框,所以RPN预测的是边界框相对于先验框的offsets值。所以YOLOv2移除了YOLOv1中的全连接层而采用了卷积和anchor boxes来预测边界框。在检测模型中,与其它网络略不同的是Yolo v2特意选了416x416的图形尺寸作为输入,这样经过前端的数个特征提取卷积层与pool层(池化层)后(步长为32),最终的特征图大小为13x13,恰是个奇数。这样它就可以有效地预测最中心位置的目标。
Darknet-19作为改进后的YOLOV2模型的特征提取前端网络;darknet-19包括19个Conv层与5个maxpooling层;用于稳定训练,加快收敛,同时防止模型过拟合。
改进后的YOLOv2模型网络结构如图2所示,改进后的YOLOV2模型实现多尺度输入,之前Yolo v1的固定图片输入大小为448x448,而Yolo v2因为Anchor box的引入从而将输入变为了416x416。进一步为了使得模型能够对各种尺度的图片进行有效检测,作者在训练Yolo v2时不再固定image size。
YOLO V2模型引入BN(batchnormalization)(批量标准化)提升模型收敛速度;
步骤2,基于YOLO V2模型搭建改进后的YOLOv2模型的网络结构具体包括以下步骤:
S201,将Darknet-19网络作为YOLOv2改进模型的特征提取前端网络;
S202,改进后的YOLOv2模型的网络结构包括卷积层、最大池化层、金字塔池化层和特征输出层;改进后的YOLOv2模型的网络结构包括19个卷积层和5个最大池化层;
如图2所示,YOLOv2基础模型中添加金字塔池化层(SPP),建改进后的YOLOv2模型的网络结构包括Conv layer(卷积层13层)、Maxpool layer(最大池化层4层)、Conv layer(卷积层7层)、金字塔池化层(SPP)、Conv layer(卷积层2层)和特征输出层。
本实施例基于改进后的YOLOv2模型实现多尺度输入,改变网络结构图层的输出尺寸具体包括以下步骤:输入样本数据集待识别的图片,经过卷积层进行特征提取,卷积层使用3*3的卷积核,得到特征图;特征图经过2*2的最大池化层处理之后,特征图维度降低2倍同时将特征图的深度增加两倍;在3*3卷积层之间,Darknet-19网络使用1*1卷积来压缩特征图以降低模型计算量;将最后一层卷积层的输出作为金字塔池化层的输入,利用金字塔池化层保证网络输出的网格数是固定的,实现真正意义上的多尺度输入。
YOLOv2模型的网络结构包括卷积层、最大池化层和金字塔池化层:(1)增加金字塔池化层(SPP):SPP层的输入为a×a,输出大小为n×n,则将窗口大小为ceil(a/n),阶跃的大小为floor(a/n);不仅实现对原始图像进行随机下采样,而且可以保证网络输出的网格数是固定的,实现真正意义上的多尺度输入。(2)改变网络中多个图层的输出尺寸。因为YOLOv2模型对小目标的检测效果比较差,所以扩大了网络中图像的输出尺寸可以提高目标检测的尺寸;本申请使用Darknet-19中初始化参数,因此网络的改进从20层开始的,使用第17层的输出作为第20的输入,图像大小为26×26,也就是改进后图像大小为之前的13×13输出的2倍。
S203,利用固定框(anchor boxes)来预测目标框(bounding boxes);
基于RPN网络(区域候选网络)的先验框(anchor boxes)策略对CNN特征提取器得到的特征图(feature map),进行卷积来预测每个位置的边界框以及置信度(是否含有物体);利用k-means聚类算法对样本数据集中的真实目标边框进行聚类分析,选择anchor(格子)的大小和数量。
S204,通过直通层(附图2中toute)重组高层低分辨率特征图与低层高分辨率的特征图。
.直通层并不是一个专用的层结构,它是在卷积层中优化的部分,将第13层卷积和第20层卷积的特征图连接起来作为第二十一层的输入。改进后的结构后面有附图。
步骤3具体包括以下步骤:
改进后的YOLOv2模型的损失函数为;
coordError、iouError和classError分别表示坐标定位误差、IOU误差和分类误差;
i表示第i个格子,s表示特征层的宽度;
将类概率和边框的误差加权为尺度因子λ,同时为了使大边框的补偿更小,采用边界框宽和高各子的平方根。但是该方法不适合用于训练数据中未包含扩展对象或长宽比不平衡的扩展对象。因为每幅图像中目标物体的都有大小不等的情况,在训练中这些尺寸的边框丢失情况对整个网络的影响也不同。因此,损失函数中采用对比归一化的思想,就是考虑到图像中目标物体大小不一的情况;损失函数如公式(2)所示:
c为confidence(置信度),(xi,yi)表示第i格子的边界框的相应的x轴和y轴坐标,(wi,hi)是指第i格子的边界框的宽度和高度,
pi为第i格子中与groundtruth重合度最大框;
xi,yi,wi,hi,c,pi为对应参数的网络预测值;
为对应参数的标准值;
B表示每个网格中边界框的数量;
c(i)表示第i个格子的置信度,
pi(c)表示置信度c时,第i格子中与groundtruth重合度最大框
B表示每个网格中bouding box的数量;将一幅图像分成S×S个网络(grid cell),如果某个object的中心落在这个网格中,则这个网格就负责预测这个object(5×B+C)。(B表示每个网格中bouding box的数量,C表示object的种类)每个bounding box(边界框)要预测(x,y,w,h)和confidence(置信度)共5个值。e.g.图像输入为448x448,取S=7,B=2,一共有20个类别(C=20)。则输出就是7x7x30。
c(i)表示第i个格子的置信度,
其中λcoord为定位误差权重,设置λcoord=5,λnoobj为分类误差权重,λnoobj=0.5;Ii obj为目标落入格子i中,Iij obj为目标落入格子i的第j个边界框中;Iij noobj为目标未落入格子i的第j个边界框内。
步骤4具体包括:
分类网络训练具体包括以下步骤:
在分类的训练过程中,采用小批量梯度下降法MSGD(Mini-batch GradientDescent Scheme)来更新YOLOv2模型网络模型,直到损失函数收敛,并结合冲量(动量)使训练收敛速度更快且收敛性较好。冲量,也叫动量,加入这个成分可以在梯度下降过程中达到加快收敛速度、抑制震荡发生的作用;
检测网络训练基于多尺度输入的方法,每训练10个批次(batch)之后,改变YOLOv2模型的输入尺寸继续训练,以此来增强YOLOv2模型对不同分辨率图像的有效性。
首先将一个输入图像划分为13×13的网格,总共输出13×13(2×5+1)=1859个目标窗口进行目标预测其边框信息。预测目标物是车辆的条件概率为Pr(car|object),则预测物为车辆的置信度为Conf(car)=Pr(car|object)×Pr(object)×IOU,当Conf(car)大于阈值0.24时,则输出车辆边界框;再经过NMS去除冗余窗口,定位车辆位置。检测示意图如图5所示。
步骤6中,本实施例能够在不同光照条件、不同行驶条件下以及不同路况下,快速准确的检测出大部分的目标车辆。小尺寸的车辆也能较为准确的检测出来。另外,相比于Faster R-CNN算法而言,本发明改进的算法虽在精度上与之差不多,但在速度上却比之快很多。
本发明能够在不同光照条件、不同行驶条件下还有不同路况下,快速准确的检测出大部分的目标车辆,尤其是小尺寸的车辆也能较为准确的检测出来。另外,相比FasterR-CNN算法而言,本发明改进的算法虽在精度上与之相差不多,但在速度上却比之快很多。
步骤5使用测试数据集验证模型的过程;取测试数据集中的图片,使用模型,可以检测出图片中的车辆。
一种基于YOLOv2网络的车辆目标检测系统,包括数据采集单元、模型搭建单元、损失函数建立单元、模型训练单元和验证单元;
数据采集单元采集图样数据并经处理获得样本数据集,将样本数据集分为训练数据集和测试数据集;
模型搭建单元基于YOLOv2模型搭建改进后的YOLOv2模型的网络结构,实现多尺度输入,改变网络结构图层的输出尺寸;
损失函数建立单元基于对比归一化方法,建立YOLOv2模型的网络结构的损失函数;
模型训练单元基于损失函数和驯良数据集,对YOLOv2模型进行训练,获得训练后YOLOv2网络结构模型;YOLOv2网络结构模型训练包括分类网络训练和检测网络训练;
验证单元基于测试数据集对训练后YOLOv2网络结构模型进行验证,测试识别能力。
模型搭建单元基于YOLO V2模型搭建改进后的YOLOv2模型的网络结构具体包括以下步骤:
S201,将Darknet-19网络作为YOLOv2改进模型的特征提取前端网络;
S202,改进后的YOLOv2模型的网络结构包括卷积层、最大池化层、金字塔池化层和特征输出层;改进后的YOLOv2模型的网络结构包括19个卷积层和5个最大池化层;
S203,利用固定框(anchor boxes)来预测目标框(bounding boxes);
基于RPN网络(区域候选网络)的先验框(anchor boxes)策略对CNN特征提取器得到的特征图(feature map),进行卷积来预测每个位置的边界框以及置信度(是否含有物体);利用k-means聚类算法对样本数据集中的真实目标边框进行聚类分析,选择anchor(格子)的大小和数量。
S204,通过直通层(附图2中toute)重组高层低分辨率特征图与低层高分辨率的特征图;
模型搭建单元基于改进后的YOLOv2模型实现多尺度输入,改变网络结构图层的输出尺寸具体包括以下步骤:
输入样本数据集待识别的图片,经过卷积层进行特征提取,卷积层使用3*3的卷积核,得到特征图;特征图经过2*2的最大池化层处理之后,特征图维度降低2倍同时将特征图的深度增加两倍;在3*3卷积层之间,Darknet-19网络使用1*1卷积来压缩特征图以降低模型计算量;将最后一层卷积层的输出作为金字塔池化层的输入,基于金字塔池化层保证网络输出的网格数是固定的,实现多尺度输入。
损失函数建立单元工作过程具体包括以下步骤:
改进后的YOLOv2模型的损失函数为;
其中,coordError、iouError和classError分别表示坐标定位误差、IOU误差和分类误差;
i表示第i个格子,s表示特征层的宽度;
将类概率和边框的误差加权为尺度因子λ,损失函数中采用对比归一化,损失函数如公式(2)所示:
c为confidence(置信度),(xi,yi)表示第i格子的边界框的相应的x轴和y轴坐标,(wi,hi)是指第i格子的边界框的宽度和高度,
pi为第i格子中与groundtruth重合度最大框;
xi,yi,wi,hi,c,pi为对应参数的网络预测值;
为对应参数的标准值;
c(i)表示第i个格子的置信度,
pi(c)表示置信度c时,第i格子中与groundtruth重合度最大框B表示每个网格中bouding box(边界框)的数量;
其中λcoord为定位误差权重,设置λcoord=5,λnoobj为分类误差权重,λnoobj=0.5;Ii obj为目标落入格子i中,Iij obj为目标落入格子i的第j个边界框中;Iij noobj为目标未落入格子i的第j个边界框内;
模型训练单元对YOLOv2模型进行训练具体包分类网络训练和检测网络训练;
分类网络训练具体包括以下步骤:
在分类的训练过程中,采用小批量梯度下降法MSGD(Mini-batch GradientDescentScheme)来更新YOLOv2模型网络模型,直到损失函数收敛;
检测网络训练基于多尺度输入的方法,每训练n个批次(batch)之后,改变YOLOv2模型的输入尺寸继续训练,以此来增强YOLOv2模型对不同分辨率图像的有效性。
一种计算设备,包括:一个或多个处理器、存储器以及一个或多个程序,其中一个或多个程序存储在所述存储器中并被配置为由所述一个或多个处理器执行,所述一个或多个程序包括用于执行一种用于基于YOLOv2的车辆目标检测方法的指令。
一种存储一个或多个程序的计算机可读存储介质,所述一个或多个程序包括指令,所述指令当由计算设备执行时,使得所述计算设备执行一种用于基于YOLOv2的车辆目标检测方法。
在此处所提供的说明书中,说明了大量具体细节。然而,能够理解,本发明的实施例可以在没有这些具体细节的情况下被实践。在一些实例中,并未详细示出公知的方法、结构和技术,以便不模糊对本说明书的理解。
类似地,应当理解,为了精简本公开并帮助理解各个发明方面中的一个或多个,在上面对本发明的示例性实施例的描述中,本发明的各个特征有时被一起分组到单个实施例、图、或者对其的描述中。然而,并不应将该公开的方法解释成反映如下意图:即所要求保护的本发明要求比在每个权利要求中所明确记载的特征更多特征。更确切地说,如权利要求书所反映的那样,发明方面在于少于前面公开的单个实施例的所有特征。因此,遵循具体实施方式的权利要求书由此明确地并入该具体实施方式,其中每个权利要求本身都作为本发明的单独实施例。
本领域那些技术人员应当理解在本文所公开的示例中的设备的模块或单元或组间可以布置在如该实施例中所描述的设备中,或者可替换地可以定位在与该示例中的设备不同的一个或多个设备中。前述示例中的模块可以组合为一个模块或者此外可以分成多个子模块。
本领域那些技术人员可以理解,可以对实施例中的设备中的模块进行自适应性地改变并且把它们设置在与该实施例不同的一个或多个设备中。可以把实施例中的模块或单元或组间组合成一个模块或单元或组间,以及此外可以把它们分成多个子模块或子单元或子组间。除了这样的特征和/或过程或者单元中的至少一些是相互排斥之外,可以采用任何组合对本说明书(包括伴随的权利要求、摘要和附图)中公开的所有特征以及如此公开的任何方法或者设备的所有过程或单元进行组合。除非另外明确陈述,本说明书(包括伴随的权利要求、摘要和附图)中公开的每个特征可以由提供相同、等同或相似目的的替代特征来代替。
此外,本领域的技术人员能够理解,尽管在此所述的一些实施例包括其它实施例中所包括的某些特征而不是其它特征,但是不同实施例的特征的组合意味着处于本发明的范围之内并且形成不同的实施例。例如,在下面的权利要求书中,所要求保护的实施例的任意之一都可以以任意的组合方式来使用。
此外,所述实施例中的一些在此被描述成可以由计算机系统的处理器或者由执行所述功能的其它装置实施的方法或方法元素的组合。因此,具有用于实施所述方法或方法元素的必要指令的处理器形成用于实施该方法或方法元素的装置。此外,装置实施例的在此所述的元素是如下装置的例子:该装置用于实施由为了实施该发明的目的的元素所执行的功能。
这里描述的各种技术可结合硬件或软件,或者它们的组合一起实现。从而,本发明的方法和设备,或者本发明的方法和设备的某些方面或部分可采取嵌入有形媒介,例如软盘、CD-ROM、硬盘驱动器或者其它任意机器可读的存储介质中的程序代码(即指令)的形式,其中当程序被载入诸如计算机之类的机器,并被所述机器执行时,所述机器变成实践本发明的设备。
在程序代码在可编程计算机上执行的情况下,计算设备一般包括处理器、处理器可读的存储介质(包括易失性和非易失性存储器和/或存储元件),至少一个输入装置,和至少一个输出装置。其中,存储器被配置用于存储程序代码;处理器被配置用于根据该存储器中存储的所述程序代码中的指令,执行本发明方法。
以示例而非限制的方式,计算机可读介质包括计算机存储介质和通信介质。计算机可读介质包括计算机存储介质和通信介质。计算机存储介质存储诸如计算机可读指令、数据结构、程序模块或其它数据等信息。通信介质一般以诸如载波或其它传输机制等已调制数据信号来体现计算机可读指令、数据结构、程序模块或其它数据,并且包括任何信息传递介质。以上的任一种的组合也包括在计算机可读介质的范围之内。
如在此所使用的那样,除非另行规定,使用序数词“第一”、“第二”、“第三”等等来描述普通对象仅仅表示涉及类似对象的不同实例,并且并不意图暗示这样被描述的对象必须具有时间上、空间上、排序方面或者以任意其它方式的给定顺序。
尽管根据有限数量的实施例描述了本发明,但是受益于上面的描述,本技术领域内的技术人员明白,在由此描述的本发明的范围内,可以设想其它实施例。此外,应当注意,本说明书中使用的语言主要是为了可读性和教导的目的而选择的,而不是为了解释或者限定本发明的主题而选择的。因此,在不偏离所附权利要求书的范围和精神的情况下,对于本技术领域的普通技术人员来说许多修改和变更都是显而易见的。对于本发明的范围,对本发明所做的公开是说明性的,而非限制性的,本发明的范围由所附权利要求书限定。
Claims (10)
1.一种基于YOLOv2网络的车辆目标检测方法,其特征包括如下步骤:
步骤1,采集图样数据并经处理获得样本数据集,将样本数据集分为训练数据集和测试数据集;
步骤2,基于YOLOv2模型搭建改进后的YOLOv2模型的网络结构,实现多尺度输入,改变网络结构中图层的输出尺寸;
步骤3,基于对比归一化方法,建立YOLOv2模型的网络结构的损失函数;
步骤4,基于损失函数,对YOLOv2模型进行训练,获得训练后YOLOv2网络结构模型;YOLOv2网络结构模型训练包括分类网络训练和检测网络训练;
步骤5,基于测试数据集对训练后YOLOv2网络结构模型进行验证,测试识别能力。
2.根据权利要求1所述的基于YOLOv2的车辆目标检测方法,其特征在于,
步骤2,基于YOLO V2模型搭建改进后的YOLOv2模型的网络结构具体包括以下步骤:
S201,将Darknet-19网络作为YOLOv2改进模型的特征提取前端网络;
S202,改进后的YOLOv2模型的网络结构包括卷积层、最大池化层、金字塔池化层和特征输出层;改进后的YOLOv2模型的网络结构包括19个卷积层和5个最大池化层;
S203,利用固定框预测目标框;
基于区域候选网络的先验框策略对卷积神经网络特征提取器得到的特征图,进行卷积预测每个位置的边界框以及置信度;利用k-means聚类算法对样本数据集中的真实目标边框进行聚类分析,选择格子的大小和数量;
S204,通过直通层重组高层低分辨率特征图与低层高分辨率的特征图。
3.根据权利要求1所述的基于YOLOv2的车辆目标检测方法,其特征在于,
基于改进后的YOLOv2模型实现多尺度输入,改变网络结构图层的输出尺寸具体包括以下步骤:
输入样本数据集待识别的图片,经过卷积层进行特征提取,卷积层使用3*3的卷积核,得到特征图;特征图经过2*2的最大池化层处理之后,特征图维度降低2倍同时将特征图的深度增加两倍;在3*3卷积层之间,Darknet-19网络使用1*1卷积来压缩特征图以降低模型计算量;将最后一层卷积层的输出作为金字塔池化层的输入,基于金字塔池化层保证网络输出的网格数是固定的,实现多尺度输入。
4.根据权利要求1所述的基于YOLOv2的车辆目标检测方法,其特征在于,
步骤3具体包括以下步骤:
改进后的YOLOv2模型的损失函数为;
其中,coordError、iouError和classError分别表示坐标定位误差、IOU误差和分类误差;
i表示第i个格子,s表示特征层的宽度;
将类概率和边框的误差加权为尺度因子λ,损失函数中采用对比归一化,损失函数如公式(2)所示:
c为置信度,(xi,yi)表示第i格子的边界框的相应的x轴和y轴坐标,(wi,hi)是指第i格子的边界框的宽度和高度,pi为第i格子中与groundtruth重合度最大框;
xi,yi,wi,hi,c,pi为对应参数的网络预测值;
为对应参数的标准值;
B表示每个网格中边界框的数量;
c(i)表示第i个格子的置信度,
pi(c)表示置信度c时,第i格子中与groundtruth重合度最大框其中λcoord为定位误差权重,设置λcoord=5,λnoobj为分类误差权重,λnoobj=0.5;Ii obj为目标落入格子i中,Iij obj为目标落入格子i的第j个边界框中;Iij noobj为目标未落入格子i的第j个边界框内。
5.根据权利要求1所述的基于YOLOv2的车辆目标检测方法,其特征在于,
步骤4具体包括:
分类网络训练具体包括以下步骤:
在分类的训练过程中,采用小批量梯度下降法更新YOLOv2模型网络模型,直到损失函数收敛;
检测网络训练基于多尺度输入的方法,每训练n个批次后,改变YOLOv2模型的输入尺寸继续训练。
6.一种基于YOLOv2网络的车辆目标检测系统,其特征包括数据采集单元、模型搭建单元、损失函数建立单元、模型训练单元和验证单元;
数据采集单元采集图样数据并经处理获得样本数据集,将样本数据集分为训练数据集和测试数据集;
模型搭建单元基于YOLOv2模型搭建改进后的YOLOv2模型的网络结构,实现多尺度输入,改变网络结构中图层的输出尺寸;
损失函数建立单元基于对比归一化方法,建立YOLOv2模型的网络结构的损失函数;
模型训练单元基于损失函数和驯良数据集,对YOLOv2模型进行训练,获得训练后YOLOv2网络结构模型;YOLOv2网络结构模型训练包括分类网络训练和检测网络训练;
验证单元基于测试数据集对训练后YOLOv2网络结构模型进行验证,测试识别能力。
7.根据权利要求6所述的基于YOLOv2的车辆目标检测方法,其特征在于,
模型搭建单元基于YOLO V2模型搭建改进后的YOLOv2模型的网络结构具体包括以下步骤:
S201,将Darknet-19网络作为YOLOv2改进模型的特征提取前端网络;
S202,改进后的YOLOv2模型的网络结构包括卷积层、最大池化层、金字塔池化层和特征输出层;改进后的YOLOv2模型的网络结构包括19个卷积层和5个最大池化层;
S203,利用固定框来预测目标框;
基于区域候选网络的先验框策略对卷积神经网络特征提取器得到的特征图,进行卷积来预测每个位置的边界框以及置信度;利用k-means聚类算法对样本数据集中的真实目标边框进行聚类分析,选择格子的大小和数量;
S204,通过直通层重组高层低分辨率特征图与低层高分辨率的特征图;
模型搭建单元基于改进后的YOLOv2模型实现多尺度输入,改变网络结构图层的输出尺寸具体包括以下步骤:输入样本数据集待识别的图片,经过卷积层进行特征提取,卷积层使用3*3的卷积核,得到特征图;特征图经过2*2的最大池化层处理之后,特征图维度降低2倍同时将特征图的深度增加两倍;在3*3卷积层之间,Darknet-19网络使用1*1卷积来压缩特征图以降低模型计算量;将最后一层卷积层的输出作为金字塔池化层的输入,基于金字塔池化层保证网络输出的网格数是固定的,实现多尺度输入。
8.根据权利要求6所述的基于YOLOv2的车辆目标检测系统,其特征在于,
损失函数建立单元工作过程具体包括以下步骤:
改进后的YOLOv2模型的损失函数为;
其中,coordError、iouError和classError分别表示坐标定位误差、IOU误差和分类误差;
i表示第i个格子,s表示特征层的宽度;
将类概率和边框的误差加权为尺度因子λ,损失函数中采用对比归一化,损失函数如公式(2)所示:
c为置信度,(xi,yi)表示第i格子的边界框的相应的x轴和y轴坐标,(wi,hi)是指第i格子的边界框的宽度和高度,pi为第i格子中与groundtruth重合度最大框;
xi,yi,wi,hi,c,pi为对应参数的网络预测值;
为对应参数的标准值;
B表示每个网格中边界框的数量;
c(i)表示第i个格子的置信度,
pi(c)表示置信度c时,第i格子中与groundtruth重合度最大框;
其中λcoord为定位误差权重,设置λcoord=5,λnoobj为分类误差权重,λnoobj=0.5;Ii obj为目标落入格子i中,Iij obj为目标落入格子i的第j个边界框中;Iij noobj为目标未落入格子i的第j个边界框内;
模型训练单元对YOLOv2模型进行训练具体包分类网络训练和检测网络训练;
分类网络训练具体包括以下步骤:
在分类的训练过程中,采用小批量梯度下降法更新YOLOv2模型网络模型,直到损失函数收敛;
检测网络训练基于多尺度输入的方法,每训练n个批次后,改变YOLOv2模型的输入尺寸继续训练。
9.一种计算设备,其特征在于,包括:
一个或多个处理器、存储器以及一个或多个程序,其中一个或多个程序存储在所述存储器中并被配置为由所述一个或多个处理器执行,所述一个或多个程序包括用于执行根据权利要求1至5所述的方法中的任一方法的指令。
10.一种存储一个或多个程序的计算机可读存储介质,其特征在于,所述一个或多个程序包括指令,所述指令当由计算设备执行时,使得所述计算设备执行根据权利要求1至5所述的方法中的任一方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910727746.5A CN110443208A (zh) | 2019-08-08 | 2019-08-08 | 一种基于YOLOv2的车辆目标检测方法、系统及设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910727746.5A CN110443208A (zh) | 2019-08-08 | 2019-08-08 | 一种基于YOLOv2的车辆目标检测方法、系统及设备 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN110443208A true CN110443208A (zh) | 2019-11-12 |
Family
ID=68433895
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910727746.5A Pending CN110443208A (zh) | 2019-08-08 | 2019-08-08 | 一种基于YOLOv2的车辆目标检测方法、系统及设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110443208A (zh) |
Cited By (36)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110853353A (zh) * | 2019-11-18 | 2020-02-28 | 山东大学 | 基于视觉的密度交通车辆计数和交通流量计算方法及系统 |
CN111062282A (zh) * | 2019-12-05 | 2020-04-24 | 武汉科技大学 | 基于改进yolov3模型的变电站指针式仪表识别方法 |
CN111079540A (zh) * | 2019-11-19 | 2020-04-28 | 北航航空航天产业研究院丹阳有限公司 | 一种基于目标特性的分层可重构车载视频目标检测方法 |
CN111178206A (zh) * | 2019-12-20 | 2020-05-19 | 山东大学 | 一种基于改进yolo的建筑预埋件检测方法及系统 |
CN111402211A (zh) * | 2020-03-04 | 2020-07-10 | 广西大学 | 一种基于深度学习的高速列车车底异物识别方法 |
CN111553406A (zh) * | 2020-04-24 | 2020-08-18 | 上海锘科智能科技有限公司 | 基于改进yolo-v3的目标检测系统、方法及终端 |
CN111582012A (zh) * | 2019-12-24 | 2020-08-25 | 珠海大横琴科技发展有限公司 | 一种检测小目标船只方法及装置 |
CN111597900A (zh) * | 2020-04-16 | 2020-08-28 | 浙江工业大学 | 非法遛狗识别方法 |
CN111597897A (zh) * | 2020-04-16 | 2020-08-28 | 浙江工业大学 | 高速服务区车位识别方法 |
CN111597902A (zh) * | 2020-04-16 | 2020-08-28 | 浙江工业大学 | 机动车违停监测方法 |
CN111709336A (zh) * | 2020-06-08 | 2020-09-25 | 杭州像素元科技有限公司 | 一种高速公路行人检测方法、设备及可读存储介质 |
CN111709381A (zh) * | 2020-06-19 | 2020-09-25 | 桂林电子科技大学 | 基于YOLOv3-SPP的道路环境目标检测方法 |
CN111723854A (zh) * | 2020-06-08 | 2020-09-29 | 杭州像素元科技有限公司 | 一种高速公路交通拥堵检测方法、设备及可读存储介质 |
CN111783700A (zh) * | 2020-07-06 | 2020-10-16 | 中国交通通信信息中心 | 一种路面异物自动识别预警方法和系统 |
CN111814621A (zh) * | 2020-06-29 | 2020-10-23 | 中国科学院合肥物质科学研究院 | 一种基于注意力机制的多尺度车辆行人检测方法及装置 |
CN111898685A (zh) * | 2020-08-03 | 2020-11-06 | 华南理工大学 | 一种基于长尾分布数据集的目标检测方法 |
CN111950527A (zh) * | 2020-08-31 | 2020-11-17 | 珠海大横琴科技发展有限公司 | 一种基于yolo v2神经网络的目标检测方法及装置 |
CN112200225A (zh) * | 2020-09-23 | 2021-01-08 | 西南交通大学 | 基于深度卷积神经网络的钢轨伤损b显图像识别方法 |
CN112200189A (zh) * | 2020-10-19 | 2021-01-08 | 平安国际智慧城市科技股份有限公司 | 基于SPP-YOLOv3的车型识别方法、装置及计算机可读存储介质 |
CN112270252A (zh) * | 2020-10-26 | 2021-01-26 | 西安工程大学 | 一种改进YOLOv2模型的多车辆目标识别方法 |
CN112364800A (zh) * | 2020-11-19 | 2021-02-12 | 金陵科技学院 | 一种基于人工智能的自动驾驶偏离处理方法 |
CN112380902A (zh) * | 2020-10-12 | 2021-02-19 | 中车南京浦镇车辆有限公司 | 一种基于机器视觉的城轨列车定位与测速方法 |
CN112749978A (zh) * | 2020-12-31 | 2021-05-04 | 百度在线网络技术(北京)有限公司 | 检测方法、装置、设备、存储介质以及程序产品 |
CN112906485A (zh) * | 2021-01-25 | 2021-06-04 | 杭州易享优智能科技有限公司 | 基于改进的yolo模型的视障人士辅助障碍物感知方法 |
CN112926681A (zh) * | 2021-03-29 | 2021-06-08 | 复旦大学 | 一种基于深度卷积神经网络的目标检测方法及装置 |
CN112950566A (zh) * | 2021-02-25 | 2021-06-11 | 哈尔滨市科佳通用机电股份有限公司 | 一种风挡破损故障检测方法 |
CN113033604A (zh) * | 2021-02-03 | 2021-06-25 | 淮阴工学院 | 一种基于SF-YOLOv4网络模型的车辆检测方法、系统及存储介质 |
CN113191403A (zh) * | 2021-04-16 | 2021-07-30 | 上海戏剧学院 | 一种剧场动态海报的生成与展示系统 |
CN113435324A (zh) * | 2021-06-25 | 2021-09-24 | 深圳大学 | 一种车辆目标检测方法、装置及计算机可读存储介质 |
CN113449611A (zh) * | 2021-06-15 | 2021-09-28 | 电子科技大学 | 一种基于yolo网络压缩算法的安全帽识别智能监控系统 |
CN113591936A (zh) * | 2021-07-09 | 2021-11-02 | 厦门市美亚柏科信息股份有限公司 | 一种车辆姿态估计方法、终端设备及存储介质 |
CN113657423A (zh) * | 2021-06-25 | 2021-11-16 | 上海师范大学 | 适用于小体积零件与堆叠零件的目标检测方法及其应用 |
CN113705423A (zh) * | 2021-08-25 | 2021-11-26 | 西安电子科技大学 | 基于改进YOLOv3算法的红外车辆快速检测方法 |
CN114220053A (zh) * | 2021-12-15 | 2022-03-22 | 北京建筑大学 | 一种基于车辆特征匹配的无人机视频车辆检索方法 |
CN115239946A (zh) * | 2022-06-30 | 2022-10-25 | 锋睿领创(珠海)科技有限公司 | 小样本迁移学习训练、目标检测方法、装置、设备和介质 |
CN111709336B (zh) * | 2020-06-08 | 2024-04-26 | 杭州像素元科技有限公司 | 一种高速公路行人检测方法、设备及可读存储介质 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109447034A (zh) * | 2018-11-14 | 2019-03-08 | 北京信息科技大学 | 基于YOLOv3网络的自动驾驶中交通标识检测方法 |
CN109685152A (zh) * | 2018-12-29 | 2019-04-26 | 北京化工大学 | 一种基于dc-spp-yolo的图像目标检测方法 |
-
2019
- 2019-08-08 CN CN201910727746.5A patent/CN110443208A/zh active Pending
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109447034A (zh) * | 2018-11-14 | 2019-03-08 | 北京信息科技大学 | 基于YOLOv3网络的自动驾驶中交通标识检测方法 |
CN109685152A (zh) * | 2018-12-29 | 2019-04-26 | 北京化工大学 | 一种基于dc-spp-yolo的图像目标检测方法 |
Non-Patent Citations (2)
Title |
---|
JOSEPH REDMON 等: "YOLO9000: Better, Faster, Stronger", 《ARXIV》 * |
王琳 等: "结合金字塔池化模块的YOLOv2的井下行人检测", 《中国学术期刊(网络版)》 * |
Cited By (58)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110853353B (zh) * | 2019-11-18 | 2020-10-16 | 山东大学 | 基于视觉的密度交通车辆计数和交通流量计算方法及系统 |
CN110853353A (zh) * | 2019-11-18 | 2020-02-28 | 山东大学 | 基于视觉的密度交通车辆计数和交通流量计算方法及系统 |
CN111079540A (zh) * | 2019-11-19 | 2020-04-28 | 北航航空航天产业研究院丹阳有限公司 | 一种基于目标特性的分层可重构车载视频目标检测方法 |
CN111079540B (zh) * | 2019-11-19 | 2024-03-19 | 北航航空航天产业研究院丹阳有限公司 | 一种基于目标特性的分层可重构车载视频目标检测方法 |
CN111062282A (zh) * | 2019-12-05 | 2020-04-24 | 武汉科技大学 | 基于改进yolov3模型的变电站指针式仪表识别方法 |
CN111062282B (zh) * | 2019-12-05 | 2023-09-29 | 武汉科技大学 | 基于改进yolov3模型的变电站指针式仪表识别方法 |
CN111178206A (zh) * | 2019-12-20 | 2020-05-19 | 山东大学 | 一种基于改进yolo的建筑预埋件检测方法及系统 |
CN111178206B (zh) * | 2019-12-20 | 2023-05-16 | 山东大学 | 一种基于改进yolo的建筑预埋件检测方法及系统 |
CN111582012A (zh) * | 2019-12-24 | 2020-08-25 | 珠海大横琴科技发展有限公司 | 一种检测小目标船只方法及装置 |
CN111402211A (zh) * | 2020-03-04 | 2020-07-10 | 广西大学 | 一种基于深度学习的高速列车车底异物识别方法 |
CN111402211B (zh) * | 2020-03-04 | 2022-11-11 | 广西大学 | 一种基于深度学习的高速列车车底异物识别方法 |
CN111597900B (zh) * | 2020-04-16 | 2023-10-24 | 浙江工业大学 | 非法遛狗识别方法 |
CN111597902A (zh) * | 2020-04-16 | 2020-08-28 | 浙江工业大学 | 机动车违停监测方法 |
CN111597897B (zh) * | 2020-04-16 | 2023-10-24 | 浙江工业大学 | 高速服务区车位识别方法 |
CN111597897A (zh) * | 2020-04-16 | 2020-08-28 | 浙江工业大学 | 高速服务区车位识别方法 |
CN111597900A (zh) * | 2020-04-16 | 2020-08-28 | 浙江工业大学 | 非法遛狗识别方法 |
CN111597902B (zh) * | 2020-04-16 | 2023-08-11 | 浙江工业大学 | 机动车违停监测方法 |
CN111553406A (zh) * | 2020-04-24 | 2020-08-18 | 上海锘科智能科技有限公司 | 基于改进yolo-v3的目标检测系统、方法及终端 |
CN111553406B (zh) * | 2020-04-24 | 2023-04-28 | 上海锘科智能科技有限公司 | 基于改进yolo-v3的目标检测系统、方法及终端 |
CN111723854A (zh) * | 2020-06-08 | 2020-09-29 | 杭州像素元科技有限公司 | 一种高速公路交通拥堵检测方法、设备及可读存储介质 |
CN111709336B (zh) * | 2020-06-08 | 2024-04-26 | 杭州像素元科技有限公司 | 一种高速公路行人检测方法、设备及可读存储介质 |
CN111709336A (zh) * | 2020-06-08 | 2020-09-25 | 杭州像素元科技有限公司 | 一种高速公路行人检测方法、设备及可读存储介质 |
CN111723854B (zh) * | 2020-06-08 | 2023-08-29 | 杭州像素元科技有限公司 | 一种高速公路交通拥堵检测方法、设备及可读存储介质 |
CN111709381A (zh) * | 2020-06-19 | 2020-09-25 | 桂林电子科技大学 | 基于YOLOv3-SPP的道路环境目标检测方法 |
CN111814621A (zh) * | 2020-06-29 | 2020-10-23 | 中国科学院合肥物质科学研究院 | 一种基于注意力机制的多尺度车辆行人检测方法及装置 |
CN111814621B (zh) * | 2020-06-29 | 2024-01-23 | 中国科学院合肥物质科学研究院 | 一种基于注意力机制的多尺度车辆行人检测方法及装置 |
CN111783700A (zh) * | 2020-07-06 | 2020-10-16 | 中国交通通信信息中心 | 一种路面异物自动识别预警方法和系统 |
CN111783700B (zh) * | 2020-07-06 | 2023-11-24 | 中国交通通信信息中心 | 一种路面异物自动识别预警方法和系统 |
CN111898685B (zh) * | 2020-08-03 | 2023-10-27 | 华南理工大学 | 一种基于长尾分布数据集的目标检测方法 |
CN111898685A (zh) * | 2020-08-03 | 2020-11-06 | 华南理工大学 | 一种基于长尾分布数据集的目标检测方法 |
CN111950527A (zh) * | 2020-08-31 | 2020-11-17 | 珠海大横琴科技发展有限公司 | 一种基于yolo v2神经网络的目标检测方法及装置 |
CN112200225A (zh) * | 2020-09-23 | 2021-01-08 | 西南交通大学 | 基于深度卷积神经网络的钢轨伤损b显图像识别方法 |
CN112380902A (zh) * | 2020-10-12 | 2021-02-19 | 中车南京浦镇车辆有限公司 | 一种基于机器视觉的城轨列车定位与测速方法 |
CN112200189B (zh) * | 2020-10-19 | 2024-04-19 | 平安国际智慧城市科技股份有限公司 | 基于SPP-YOLOv3的车型识别方法、装置及计算机可读存储介质 |
CN112200189A (zh) * | 2020-10-19 | 2021-01-08 | 平安国际智慧城市科技股份有限公司 | 基于SPP-YOLOv3的车型识别方法、装置及计算机可读存储介质 |
CN112270252A (zh) * | 2020-10-26 | 2021-01-26 | 西安工程大学 | 一种改进YOLOv2模型的多车辆目标识别方法 |
CN112364800A (zh) * | 2020-11-19 | 2021-02-12 | 金陵科技学院 | 一种基于人工智能的自动驾驶偏离处理方法 |
CN112364800B (zh) * | 2020-11-19 | 2023-07-14 | 金陵科技学院 | 一种基于人工智能的自动驾驶偏离处理方法 |
CN112749978A (zh) * | 2020-12-31 | 2021-05-04 | 百度在线网络技术(北京)有限公司 | 检测方法、装置、设备、存储介质以及程序产品 |
CN112749978B (zh) * | 2020-12-31 | 2024-02-06 | 百度在线网络技术(北京)有限公司 | 检测方法、装置、设备、存储介质以及程序产品 |
CN112906485B (zh) * | 2021-01-25 | 2023-01-31 | 杭州易享优智能科技有限公司 | 基于改进的yolo模型的视障人士辅助障碍物感知方法 |
CN112906485A (zh) * | 2021-01-25 | 2021-06-04 | 杭州易享优智能科技有限公司 | 基于改进的yolo模型的视障人士辅助障碍物感知方法 |
CN113033604A (zh) * | 2021-02-03 | 2021-06-25 | 淮阴工学院 | 一种基于SF-YOLOv4网络模型的车辆检测方法、系统及存储介质 |
CN112950566A (zh) * | 2021-02-25 | 2021-06-11 | 哈尔滨市科佳通用机电股份有限公司 | 一种风挡破损故障检测方法 |
CN112950566B (zh) * | 2021-02-25 | 2021-11-12 | 哈尔滨市科佳通用机电股份有限公司 | 一种风挡破损故障检测方法 |
CN112926681A (zh) * | 2021-03-29 | 2021-06-08 | 复旦大学 | 一种基于深度卷积神经网络的目标检测方法及装置 |
CN113191403A (zh) * | 2021-04-16 | 2021-07-30 | 上海戏剧学院 | 一种剧场动态海报的生成与展示系统 |
CN113449611A (zh) * | 2021-06-15 | 2021-09-28 | 电子科技大学 | 一种基于yolo网络压缩算法的安全帽识别智能监控系统 |
CN113449611B (zh) * | 2021-06-15 | 2023-07-07 | 电子科技大学 | 一种基于yolo网络压缩算法的安全帽识别智能监控系统 |
CN113435324A (zh) * | 2021-06-25 | 2021-09-24 | 深圳大学 | 一种车辆目标检测方法、装置及计算机可读存储介质 |
CN113435324B (zh) * | 2021-06-25 | 2023-10-13 | 深圳大学 | 一种车辆目标检测方法、装置及计算机可读存储介质 |
CN113657423A (zh) * | 2021-06-25 | 2021-11-16 | 上海师范大学 | 适用于小体积零件与堆叠零件的目标检测方法及其应用 |
CN113591936A (zh) * | 2021-07-09 | 2021-11-02 | 厦门市美亚柏科信息股份有限公司 | 一种车辆姿态估计方法、终端设备及存储介质 |
CN113591936B (zh) * | 2021-07-09 | 2022-09-09 | 厦门市美亚柏科信息股份有限公司 | 一种车辆姿态估计方法、终端设备及存储介质 |
CN113705423A (zh) * | 2021-08-25 | 2021-11-26 | 西安电子科技大学 | 基于改进YOLOv3算法的红外车辆快速检测方法 |
CN114220053A (zh) * | 2021-12-15 | 2022-03-22 | 北京建筑大学 | 一种基于车辆特征匹配的无人机视频车辆检索方法 |
CN114220053B (zh) * | 2021-12-15 | 2022-06-03 | 北京建筑大学 | 一种基于车辆特征匹配的无人机视频车辆检索方法 |
CN115239946A (zh) * | 2022-06-30 | 2022-10-25 | 锋睿领创(珠海)科技有限公司 | 小样本迁移学习训练、目标检测方法、装置、设备和介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110443208A (zh) | 一种基于YOLOv2的车辆目标检测方法、系统及设备 | |
US10346720B2 (en) | Rotation variant object detection in Deep Learning | |
CN105160309B (zh) | 基于图像形态学分割及区域生长的三车道检测方法 | |
CN108647585A (zh) | 一种基于多尺度循环注意力网络的交通标识符检测方法 | |
CN109635685A (zh) | 目标对象3d检测方法、装置、介质及设备 | |
CN109815997A (zh) | 基于深度学习的识别车辆损伤的方法和相关装置 | |
CN113420607A (zh) | 无人机多尺度目标检测识别方法 | |
KR102320985B1 (ko) | 멀티 카메라 시스템 내의 더블 임베딩 구성을 이용하여 도로 이용자 이벤트를 검출하기 위해 이용될 세그먼테이션 성능 향상을 위한 학습 방법 및 학습 장치 그리고 이를 이용한 테스팅 방법 및 테스팅 장치 | |
KR102337367B1 (ko) | 원거리 검출 또는 군사 목적을 위해, 이미지 컨캐터네이션을 이용한, cnn 기반의 하드웨어 최적화가 가능한 객체 검출기를 학습하는 방법 및 학습 장치, 이를 이용한 테스팅 방법 및 테스팅 장치 | |
CN103208008A (zh) | 基于机器视觉的交通视频监控目标检测快速适应方法 | |
CN113160062B (zh) | 一种红外图像目标检测方法、装置、设备及存储介质 | |
Wang et al. | Vehicle detection based on drone images with the improved faster R-CNN | |
CN106909886A (zh) | 一种基于深度学习的高精度交通标志检测方法及系统 | |
CN111508252B (zh) | 利用v2x信息集成技术更新高清地图的方法和装置 | |
CN109886147A (zh) | 一种基于单网络多任务学习的车辆多属性检测方法 | |
CN113808098A (zh) | 道路病害识别方法、装置、电子设备及可读存储介质 | |
CN112257799A (zh) | 一种生活垃圾目标检测的方法、系统及装置 | |
CN110245587B (zh) | 一种基于贝叶斯迁移学习的光学遥感图像目标检测方法 | |
CN109871789A (zh) | 一种基于轻量化神经网络的复杂环境下车辆检测方法 | |
Sun et al. | Adaptive saliency biased loss for object detection in aerial images | |
CN116563726A (zh) | 一种基于卷积神经网络的遥感图像舰船目标检测方法 | |
Moseva et al. | Development of a System for Fixing Road Markings in Real Time | |
CN116883859A (zh) | 一种基于YOLOv7-RS的遥感图像目标检测方法 | |
CN105528791B (zh) | 一种面向触摸屏手绘图像的质量评价装置及其评价方法 | |
CN114494893B (zh) | 基于语义重用上下文特征金字塔的遥感图像特征提取方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
CB03 | Change of inventor or designer information |
Inventor after: Yi Hui Inventor after: Liu Shuai Inventor after: Shi Jiapeng Inventor after: Zhang Jie Inventor before: Liu Shuai Inventor before: Yi Hui Inventor before: Shi Jiapeng Inventor before: Zhang Jie |
|
CB03 | Change of inventor or designer information | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20191112 |
|
RJ01 | Rejection of invention patent application after publication |