CN111553201B - 一种基于YOLOv3优化算法的交通灯检测方法 - Google Patents
一种基于YOLOv3优化算法的交通灯检测方法 Download PDFInfo
- Publication number
- CN111553201B CN111553201B CN202010269442.1A CN202010269442A CN111553201B CN 111553201 B CN111553201 B CN 111553201B CN 202010269442 A CN202010269442 A CN 202010269442A CN 111553201 B CN111553201 B CN 111553201B
- Authority
- CN
- China
- Prior art keywords
- representing
- detection
- yolov3
- grid
- traffic light
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 61
- 238000004422 calculation algorithm Methods 0.000 title claims abstract description 31
- 238000005457 optimization Methods 0.000 title claims abstract description 15
- 238000009826 distribution Methods 0.000 claims abstract description 14
- 238000000034 method Methods 0.000 claims abstract description 13
- 238000004364 calculation method Methods 0.000 claims description 7
- 238000013527 convolutional neural network Methods 0.000 claims description 7
- 238000012549 training Methods 0.000 claims description 7
- 238000007621 cluster analysis Methods 0.000 claims description 5
- 230000004927 fusion Effects 0.000 claims description 4
- 230000008034 disappearance Effects 0.000 claims description 3
- 238000000605 extraction Methods 0.000 claims description 3
- 238000013528 artificial neural network Methods 0.000 claims description 2
- 238000013461 design Methods 0.000 claims description 2
- 230000000694 effects Effects 0.000 claims 1
- 239000000284 extract Substances 0.000 abstract description 2
- 238000012795 verification Methods 0.000 abstract 1
- 238000012360 testing method Methods 0.000 description 6
- 238000005286 illumination Methods 0.000 description 2
- 230000003044 adaptive effect Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 239000003550 marker Substances 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 230000001629 suppression Effects 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
- G06V20/584—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of vehicle lights or traffic lights
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/23—Clustering techniques
- G06F18/232—Non-hierarchical techniques
- G06F18/2321—Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
- G06F18/23213—Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions with fixed number of clusters, e.g. K-means clustering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/46—Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
- G06V10/462—Salient features, e.g. scale invariant feature transforms [SIFT]
- G06V10/464—Salient features, e.g. scale invariant feature transforms [SIFT] using a plurality of salient features, e.g. bag-of-words [BoW] representations
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/07—Target detection
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Biophysics (AREA)
- Multimedia (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Biomedical Technology (AREA)
- Mathematical Physics (AREA)
- Computational Linguistics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Probability & Statistics with Applications (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Image Analysis (AREA)
- Traffic Control Systems (AREA)
Abstract
本发明公开了一种基于YOLOv3优化算法的交通灯检测方法,结合k‑means算法与标签统计的结果确定先验框,再通过简化的网络提取图像的特征,利用高斯分布特性增加对边界框准确度的判断。与原始的YOLOv3检测方法相比,本文提出的方法具有更优的检测速度和精度。本文采用BDD100K数据集进行结果验证,实验结果表明,YOLOv3优化算法的平均精准率提高9%,检测速度可达30fps,提高了交通灯检测的精度和速度对于自动驾驶车辆的安全行驶具有重要意义。
Description
技术领域
本发明属于目标检测(Object detection)技术领域,具体涉及一种基于YOLOv3优化算法的交通灯检测方法。
背景技术
随着计算机视觉相关技术的不断突破与创新,目标检测算法在自动驾驶领域取得了重大进展,行人、车辆、道路线等各类道路目标检测算法应运而生。交通灯是室外场景语义视觉定位的重要标识物,同时交通灯对于辅助自动驾驶及构建高精度地图有着重要意义。
2009年De等基于点光源的检测算法,研究了一种车载摄像头实时交通灯识别系统。2012年Siogkas等结合颜色预处理模块,利用快速径向对称变换检测交通灯。2016年清华大学张长水等采用自适应背景抑制算法研究了光照对交通灯检测的影响。传统基于颜色的交通灯检测方法易受到光照、车辆尾灯等影响。深度卷积神经网络由于能够自主完成对目标特征的学习,提取关键信息,因而具有较强的鲁棒性。近年来,主要利用目标候选框思想和回归思想基于卷积神经网络构成目标检测算法。R-CNN、Fast R-CNN、Faster R-CNN等基于目标候选框思想的Two-stage检测算法,首先提取目标候选框,再利用检测网络在目标候选框的基础上完成模型训练。SSD、YOLO、YOLOv3等One-stage检测算法基于回归思想,摒弃了提取目标候选框的步骤,直接利用检测网络产生目标的类别和位置信息,拥有更高的检测速度。
发明内容
为解决上述问题,本发明公开了一种基于YOLOv3优化算法的交通灯检测方法,简化了特征提取步骤,避免了随着网络的加深而导致的交通灯特征消失问题,增加了对边界框可靠性的判断,相较于YOLOv3原始算法,可以有效提升交通灯的检测速度和精度。
为达到上述目的,本发明的技术方案如下:
一种基于YOLOv3优化算法的交通灯检测方法,首先采用k-means算法对数据集进行聚类,结合聚类结果和对交通灯标签的统计,确定先验框的宽高比及其数量;然后,根据交通灯尺寸特点,精简网络结构,分别将8倍降采样信息、16倍降采样信息与高层语义信息进行融合,在两个尺度上建立特征目标检测层;同时,为了避免随着网络加深而产生的交通灯特征消失问题,分别减少两个目标检测层前的两组卷积层,简化特征提取步骤;最后,在损失函数中利用高斯分布特性增加对边界框准确度的判断。
步骤1.YOLOv3检测理论
YOLOv3将图像划分成S×S的网格,目标中心所在的网格负责完成对目标的预测。为完成对C类目标的检测,每个网格需要预测B个边界框及C个条件类别概率,并输出表征边界框中是否包含目标及输出边界框准确度的置信度信息。每个边界框对应的类别置信度计算方法如下所示:
式中,如果网格包含目标,也即目标的中心落在网格内,则Pr(object)的取值为1,否则为0。表示预测边界框与真实边界框的交并比。每个边界框属于某一类别的详细置信度信息由每个边界框的类别置信度与条件类别概率的乘积构成,计算方法如下所示:
式中,i=1,2,…,C.
预测得到的边界框中心坐标为(x0,y0),边界框的宽为w0,高为h0。为了增加网络的收敛速度,对边界框的中心坐标、宽和高参数进行归一化处理,计算公式如下所示:
式中,(xc,yc)代表中心点所在的网格坐标;(wimg,himg)代表图像的宽度和高度;s代表网格的列数或行数。根据每个网格的输出,计算得到网络的输出大小为S×S×(5×B+C)。
步骤2.数据集标签聚类
先验框用来预测边界框偏移的参考框,具有固定的宽高值。先验框选择的优劣对最终的检测结果有直接的影响。
本发明采用平均交并比(Avg IOU)作为度量标签相似性的指标,避免了由标签尺寸大小在聚类过程中引入的误差,距离公式可表示为:
d(box,centroid)=1-AvgIOU(box,centroid) (4)
本发明定义d(box,centriod)为标签到聚类中心的距离,AvgIOU(box,centroid)代表标签和聚类中心的交并比。
对数据集中的交通灯标签进行聚类分析,从1开始不断增加聚类中心的个数,得到聚类中心数量k与AvgIOU之间的关系。为了设置与交通灯的尺寸以及比例相匹配的先验框,对数据集中的标签分布情况进行统计,得到目标标签的分布情况。本发明通过K-means算法完成对被检目标尺寸的维度聚类分析,并结合对标签的统计结果确定先验框的参数,以减少训练过程中的匹配误差。
步骤3.网络结构优化
首先将图像统一缩放到3通道分辨率为672×672像素的形式,再利用Darknet-53提取交通灯目标的特征,交替使用3×3和1×1大小的卷积核进行运算,为得到更适合检测交通灯目标的深度卷积神经网络,精简原始YOLOv3网络,并融合大特征图的细节信息和小特征图的语义信息,在两个尺度上训练出最终的交通灯目检测模型。具体步骤如下:
步骤3.1、使用交替的1×1和3×3的卷积核,得到是原始图像1/8尺寸的特征图M1;
步骤3.2、在特征图M1后交替使用1×1和3×3的卷积核,降采样到其1/2,得到是原始图像1/16尺寸的特征图M2;
步骤3.3、在特征图M2后交替使用1×1和3×3的卷积核,降采样到其1/2,得到是原始图像1/32尺寸的特征图M3;
步骤3.4、将特征图M3与M2通过1×1和3×3的卷积核进行特征融合,建立第一层目标检测层;
步骤3.5、将特征图M3与M1通过1×1和3×3的卷积核进行特征融合,建立第二层目标检测层;
步骤3.6、将先验框分别放到两个目标检测层,用于训练所述卷积神经网络。
步骤4.利用高斯分布优化损失函数
本发明在YOLOv3损失函数中利用高斯分布特性增加对每个检测框不确定性的判断,以提升网络的精度。YOLOv3算法的损失函数的设计主要从边界框坐标预测误差、边界框的置信度误差、分类预测误差这三个方面进行考虑。YOLOv3损失函数公式可表示为:
式中,S表示图像的网格数,B表示每个网格中预测的边界框数,C表示总类别数,P表示目标属于某一类别的概率,c=0,1,…C为类别序号,C=0,1,…S2为网格序号,j=0,1,…B为边框序号;xi表示属于第i个网格的边界框中心点的横坐标,yi表示属于第i个网格的边界框中心点的纵坐标,wi表示属于第i个网格的边界框的宽度,hi表示属于第i个网格的边界框的高度,λcoord为权重系数,λnoobj为惩罚权重系数。表示第i个网格的第j个边界框是否负责预测这个目标,取值为0或1。
本发明受Gaussian YOLOv3的启发,利用高斯分布特性改进损失函数,增加对交通灯边界框可靠性的判断,以边界框中心点x方向坐标为例,修改后的边界框x坐标预测误差计算方法如下所示:
式中,tx表示边界框的中心坐标相对于网格左上角x坐标的偏移量,W和H分别对应预测层中网格的数目,k对应先验框的数目,表示输出层第(i,j)个网格中第k个先验框的tx的均值,/>表示对应的tx的不确定性。/>表示tx的真值,γijk表示权重参数。
本发明的有益效果是:
本发明提出一种基于YOLOv3优化算法的交通灯检测方法,与传统的YOLOv3算法相比,本发明提到的交通灯检测方法在兼具检测速度的同时,可以提高检测精度;本发明提出的方法可以将平均精准率提高9%;对于提高交通灯检测的精度和速度对于自动驾驶车辆的安全行驶具有重要意义。
附图说明
图1是基于YOLOv3优化算法的交通灯检测方法的流程图;
图2是目标标签分布统计图;
图3是聚类分析结果图;
图4是YOLOv3优化算法网络结构图;
图5是YOLOv3优化算法平均损失函数及平均交并比曲线;
图6是YOLOv3网络的AP曲线;
图7是YOLOv3优化网络的AP曲线;
图8是不同场景和目标尺寸下网络的平均精准度对比图;
图9是不同场景和目标尺寸下网络的检测结果对比图。
具体实施方式
下面结合附图和具体实施方式,进一步阐明本发明,应理解下述具体实施方式仅用于说明本发明而不用于限制本发明的范围。
本发明使用BDD100K数据集对提出的基于YOLOv3优化算法的交通灯检测方法进行了实验。
表1对比了YOLOv3算法和YOLOv3优化算法的总体目标检测结果。其中,YOLOv3优化算法对交通灯的检测平均精准度达到46.78%,召率达到57.58%,精确率达到69.70%,测试单张图片的时间为33ms,较YOLOv3相比,平均精准度提升9.11%,召回率提升8%,精确率提升3%,测试单张图片的时间减少4ms。
表1总体目标检测结果对比
Table 1comparison of total object detection results
根据光线变化、天气变化和目标尺寸分别将测试集分别划分为白天和夜晚两种子测试集、雨天和非雨天两种子测试集、大目标和小目标两种子测试集。表2、表3对比了YOLOv3网络和YOLOv3优化网络在不同目标尺寸和不同场景下的检测精确率、召回率和平均精准度。
表2不同目标尺寸下的检测精确率、召回率和平均精准度
Table 2Detection precision,recall and average precision in differentobject sizes
表3不同场景下的检测精确率、召回率和平均精准度
Table 3Detection precision,recall and average precision in differentscenes
本发明方案所公开的技术手段不仅限于上述实施方式所公开的技术手段,还包括由以上技术特征任意组合所组成的技术方案。
Claims (1)
1.一种基于YOLOv3优化算法的交通灯检测方法,其特征在于:首先采用k-means算法对数据集进行聚类,结合聚类结果和对交通灯标签的统计,确定先验框的宽高比及其数量;然后,根据交通灯尺寸特点,精简网络结构,分别将8倍降采样信息、16倍降采样信息与高层语义信息进行融合,在两个尺度上建立特征目标检测层;同时,为了避免随着网络加深而产生的交通灯特征消失问题,分别减少两个目标检测层前的两组卷积层,简化特征提取步骤;最后,在损失函数中利用高斯分布特性增加对边界框准确度的判断;
具体包括如下步骤:
步骤2.1YOLOv3检测理论
YOLOv3将图像划分成S×S的网格,目标中心所在的网格负责完成对目标的预测,为完成对C类目标的检测,每个网格需要预测B个边界框及C个条件类别概率,并输出表征边界框中是否包含目标及输出边界框准确度的置信度信息,每个边界框对应的类别置信度计算方法如下所示:
式中,如果网格包含目标,也即目标的中心落在网格内,则Pr(object)的取值为1,否则为0,表示预测边界框与真实边界框的交并比,每个边界框属于某一类别的详细置信度信息由每个边界框的类别置信度与条件类别概率的乘积构成,计算方法如下所示:
式中,i=1,2,…,C,
预测得到的边界框中心坐标为(x0,y0),边界框的宽为w0,高为h0,为了增加网络的收敛速度,对边界框的中心坐标、宽和高参数进行归一化处理,计算公式如下所示:
式中,(xc,yc)代表中心点所在的网格坐标;(wimg,himg)代表图像的宽度和高度;s代表网格的列数或行数,根据每个网格的输出,计算得到网络的输出大小为S×S×(5×B+C),
步骤2.2数据集标签聚类
先验框用来预测边界框偏移的参考框,具有固定的宽高值,先验框选择的优劣对最终的检测结果有直接的影响,
采用平均交并比作为度量标签相似性的指标,避免了由标签尺寸大小在聚类过程中引入的误差,距离公式表示为:
d(box,centroid)=1-AvgIOU(box,centroid) (4)
d(box,centriod)为标签到聚类中心的距离,AvgIOU(box,centroid)代表标签和聚类中心的交并比,
对数据集中的交通灯标签进行聚类分析,从1开始不断增加聚类中心的个数,得到聚类中心数量k与AvgIOU之间的关系,为了设置与交通灯的尺寸以及比例相匹配的先验框,对数据集中的标签分布情况进行统计,得到目标标签的分布情况,通过K-means算法完成对被检目标尺寸的维度聚类分析,并结合对标签的统计结果确定先验框的参数,以减少训练过程中的匹配误差,
步骤2.3网络结构优化
首先将图像统一缩放到3通道分辨率为672×672像素的形式,再利用Darknet-53提取交通灯目标的特征,交替使用3×3和1×1大小的卷积核进行运算,为得到更适合检测交通灯目标的深度卷积神经网络,精简原始YOLOv3网络,并融合大特征图的细节信息和小特征图的语义信息,在两个尺度上训练出最终的交通灯目检测模型,具体步骤如下:
步骤2.3.1、使用交替的1×1和3×3的卷积核,得到是原始图像1/8尺寸的特征图M1;
步骤2.3.2、在特征图M1后交替使用1×1和3×3的卷积核,降采样到其1/2,得到是原始图像1/16尺寸的特征图M2;
步骤2.3.3、在特征图M2后交替使用1×1和3×3的卷积核,降采样到其1/2,得到是原始图像1/32尺寸的特征图M3;
步骤2.3.4、将特征图M3与M2通过1×1和3×3的卷积核进行特征融合,建立第一层目标检测层;
步骤2.3.5、将特征图M3与M1通过1×1和3×3的卷积核进行特征融合,建立第二层目标检测层;
步骤2.3.6、将先验框分别放到两个目标检测层,用于训练所述卷积神经网络,
步骤2.4利用高斯分布优化损失函数
损失函数用来度量神经网络预测值与真实值之间的误差,是决定模型检测效果的重要参数之一,
在YOLOv3损失函数中利用高斯分布特性增加对每个检测框不确定性的判断,以提升网络的精度,YOLOv3算法的损失函数的设计从边界框坐标预测误差、边界框的置信度误差、分类预测误差这三个方面进行考虑,YOLOv3损失函数公式表示为:
式中,S表示图像的网格数,B表示每个网格中预测的边界框数,C表示总类别数,P表示目标属于某一类别的概率,c=0,1,…C为类别序号,C=0,1,…S2为网格序号,j=0,1,…B为边框序号;xi表示属于第i个网格的边界框中心点的横坐标,yi表示属于第i个网格的边界框中心点的纵坐标,wi表示属于第i个网格的边界框的宽度,hi表示属于第i个网格的边界框的高度,λcoord为权重系数,λnoobj为惩罚权重系数,表示第i个网格的第j个边界框是否负责预测这个目标,取值为0或1,
利用高斯分布特性改进损失函数,增加对交通灯边界框可靠性的判断,以边界框中心点x方向坐标为例,修改后的边界框x坐标预测误差计算方法如下所示:
式中,tx表示边界框的中心坐标相对于网格左上角x坐标的偏移量,W和H分别对应预测层中网格的数目,k对应先验框的数目,表示输出层第(i,j)个网格中第k个先验框的tx的均值,/>表示对应的tx的不确定性,/>表示tk的真值,γijk表示权重参数。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010269442.1A CN111553201B (zh) | 2020-04-08 | 2020-04-08 | 一种基于YOLOv3优化算法的交通灯检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010269442.1A CN111553201B (zh) | 2020-04-08 | 2020-04-08 | 一种基于YOLOv3优化算法的交通灯检测方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111553201A CN111553201A (zh) | 2020-08-18 |
CN111553201B true CN111553201B (zh) | 2024-03-29 |
Family
ID=72003808
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010269442.1A Active CN111553201B (zh) | 2020-04-08 | 2020-04-08 | 一种基于YOLOv3优化算法的交通灯检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111553201B (zh) |
Families Citing this family (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112016510B (zh) * | 2020-09-07 | 2024-04-16 | 平安国际智慧城市科技股份有限公司 | 基于深度学习的信号灯识别方法和装置、设备及存储介质 |
CN112101221B (zh) * | 2020-09-15 | 2022-06-21 | 哈尔滨理工大学 | 一种用于交通信号灯实时检测与识别的方法 |
CN112508030A (zh) * | 2020-12-18 | 2021-03-16 | 山西省信息产业技术研究院有限公司 | 一种基于双深度学习模型的隧道裂缝检测及测量方法 |
CN112560737A (zh) * | 2020-12-22 | 2021-03-26 | 清华大学苏州汽车研究院(吴江) | 一种信号灯识别方法、装置、存储介质及电子设备 |
CN112613438A (zh) * | 2020-12-29 | 2021-04-06 | 华南农业大学 | 一种便携式柑橘在线测产仪 |
CN112802338B (zh) * | 2020-12-31 | 2022-07-12 | 山东奥邦交通设施工程有限公司 | 一种基于深度学习的高速公路实时预警方法及系统 |
CN112528963A (zh) * | 2021-01-09 | 2021-03-19 | 江苏拓邮信息智能技术研究院有限公司 | 基于MixNet-YOLOv3和卷积递归神经网络CRNN的算术题智能批阅系统 |
CN112651381A (zh) * | 2021-01-14 | 2021-04-13 | 南京通盛弘数据有限公司 | 基于卷积神经网络的视频图像中家畜识别方法及装置 |
CN113095418B (zh) * | 2021-04-19 | 2022-02-18 | 航天新气象科技有限公司 | 一种目标检测方法及系统 |
CN113609895A (zh) * | 2021-06-22 | 2021-11-05 | 上海中安电子信息科技有限公司 | 基于改进Yolov3的获取道路交通信息方法 |
CN113807310A (zh) * | 2021-09-29 | 2021-12-17 | 中国第一汽车股份有限公司 | 一种信号灯的目标检测方法、装置、电子设备及存储介质 |
CN113989781A (zh) * | 2021-11-01 | 2022-01-28 | 重庆交通职业学院 | 基于深度学习的交通灯识别方法 |
CN115147642B (zh) * | 2022-06-02 | 2024-10-11 | 盛视科技股份有限公司 | 基于视觉的渣土车检测方法、装置、计算机及存储介质 |
CN116863342B (zh) * | 2023-09-04 | 2023-11-21 | 江西啄木蜂科技有限公司 | 一种基于大尺度遥感影像的松材线虫病死木提取方法 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109815886A (zh) * | 2019-01-21 | 2019-05-28 | 南京邮电大学 | 一种基于改进YOLOv3的行人和车辆检测方法及系统 |
CN109934121A (zh) * | 2019-02-21 | 2019-06-25 | 江苏大学 | 一种基于YOLOv3算法的果园行人检测方法 |
CN110796168A (zh) * | 2019-09-26 | 2020-02-14 | 江苏大学 | 一种基于改进YOLOv3的车辆检测方法 |
-
2020
- 2020-04-08 CN CN202010269442.1A patent/CN111553201B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109815886A (zh) * | 2019-01-21 | 2019-05-28 | 南京邮电大学 | 一种基于改进YOLOv3的行人和车辆检测方法及系统 |
CN109934121A (zh) * | 2019-02-21 | 2019-06-25 | 江苏大学 | 一种基于YOLOv3算法的果园行人检测方法 |
CN110796168A (zh) * | 2019-09-26 | 2020-02-14 | 江苏大学 | 一种基于改进YOLOv3的车辆检测方法 |
Non-Patent Citations (1)
Title |
---|
钱弘毅等.基于深度学习的交通信号灯快速检测与识别.《计算机科学》.2019,第46卷(第12期),全文. * |
Also Published As
Publication number | Publication date |
---|---|
CN111553201A (zh) | 2020-08-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111553201B (zh) | 一种基于YOLOv3优化算法的交通灯检测方法 | |
CN110796168B (zh) | 一种基于改进YOLOv3的车辆检测方法 | |
CN111401148B (zh) | 一种基于改进的多级YOLOv3的道路多目标检测方法 | |
CN110059554B (zh) | 一种基于交通场景的多支路目标检测方法 | |
CN109447034B (zh) | 基于YOLOv3网络的自动驾驶中交通标识检测方法 | |
CN108681693B (zh) | 基于可信区域的车牌识别方法 | |
CN112101221B (zh) | 一种用于交通信号灯实时检测与识别的方法 | |
Li et al. | Traffic light recognition for complex scene with fusion detections | |
CN111695448B (zh) | 一种基于视觉传感器的路侧车辆识别方法 | |
CN111898432B (zh) | 一种基于改进YOLOv3算法的行人检测系统及方法 | |
CN106557579B (zh) | 一种基于卷积神经网络的车辆型号检索系统及方法 | |
CN109447033A (zh) | 基于yolo的车辆前方障碍物检测方法 | |
CN115049944B (zh) | 一种基于多任务优化的小样本遥感图像目标检测方法 | |
CN107315998B (zh) | 基于车道线的车辆种类划分方法和系统 | |
CN110032952B (zh) | 一种基于深度学习的道路边界点检测方法 | |
Lu et al. | A cnn-transformer hybrid model based on cswin transformer for uav image object detection | |
CN111738300A (zh) | 一种交通标志及信号灯检测和识别的优化算法 | |
Zang et al. | Traffic lane detection using fully convolutional neural network | |
CN114332921A (zh) | 基于改进聚类算法的Faster R-CNN网络的行人检测方法 | |
CN113468994A (zh) | 基于加权采样和多分辨率特征提取的三维目标检测方法 | |
CN112949510A (zh) | 基于Faster R-CNN热红外影像人物探测方法 | |
Hasegawa et al. | Robust detection and recognition of japanese traffic sign in the complex scenes based on deep learning | |
Wu et al. | Traffic sign detection based on SSD combined with receptive field module and path aggregation network | |
Xiang et al. | A real-time vehicle traffic light detection algorithm based on modified YOLOv3 | |
CN115205568B (zh) | 一种多尺度特征融合的道路交通多要素检测方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |