CN115410184A - 一种基于深度神经网络的目标检测车牌识别方法 - Google Patents
一种基于深度神经网络的目标检测车牌识别方法 Download PDFInfo
- Publication number
- CN115410184A CN115410184A CN202211021205.9A CN202211021205A CN115410184A CN 115410184 A CN115410184 A CN 115410184A CN 202211021205 A CN202211021205 A CN 202211021205A CN 115410184 A CN115410184 A CN 115410184A
- Authority
- CN
- China
- Prior art keywords
- license plate
- image information
- neural network
- target detection
- cbl
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 31
- 238000001514 detection method Methods 0.000 title claims abstract description 29
- 238000013528 artificial neural network Methods 0.000 title claims abstract description 18
- 238000012549 training Methods 0.000 claims abstract description 19
- 238000013527 convolutional neural network Methods 0.000 claims abstract description 13
- 238000012937 correction Methods 0.000 claims abstract description 9
- 238000004422 calculation algorithm Methods 0.000 claims abstract description 8
- 238000012545 processing Methods 0.000 claims description 15
- 238000004364 calculation method Methods 0.000 claims description 7
- 230000000694 effects Effects 0.000 claims description 7
- 238000003754 machining Methods 0.000 claims description 6
- 238000011176 pooling Methods 0.000 claims description 5
- 230000004927 fusion Effects 0.000 claims description 3
- 238000009499 grossing Methods 0.000 claims description 3
- 230000005764 inhibitory process Effects 0.000 claims description 3
- 238000007781 pre-processing Methods 0.000 claims description 3
- 238000012216 screening Methods 0.000 claims description 3
- 230000009466 transformation Effects 0.000 claims description 3
- 238000002372 labelling Methods 0.000 claims 1
- 238000005286 illumination Methods 0.000 abstract description 6
- 238000000605 extraction Methods 0.000 abstract description 2
- 230000006872 improvement Effects 0.000 description 5
- 230000006870 function Effects 0.000 description 4
- 238000010586 diagram Methods 0.000 description 3
- 230000008569 process Effects 0.000 description 3
- 230000011218 segmentation Effects 0.000 description 3
- 238000013473 artificial intelligence Methods 0.000 description 1
- 238000013145 classification model Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 230000035772 mutation Effects 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 238000003909 pattern recognition Methods 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/62—Text, e.g. of license plates, overlay texts or captions on TV images
- G06V20/625—License plates
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06K—GRAPHICAL DATA READING; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
- G06K17/00—Methods or arrangements for effecting co-operative working between equipments covered by two or more of main groups G06K1/00 - G06K15/00, e.g. automatic card files incorporating conveying and reading operations
- G06K17/0022—Methods or arrangements for effecting co-operative working between equipments covered by two or more of main groups G06K1/00 - G06K15/00, e.g. automatic card files incorporating conveying and reading operations arrangements or provisious for transferring data to distant stations, e.g. from a sensing device
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0464—Convolutional networks [CNN, ConvNet]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N5/00—Computing arrangements using knowledge-based models
- G06N5/04—Inference or reasoning models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/25—Determination of region of interest [ROI] or a volume of interest [VOI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/762—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using clustering, e.g. of similar faces in social networks
- G06V10/763—Non-hierarchical techniques, e.g. based on statistics of modelling distributions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/80—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
Abstract
本发明涉及一种基于深度神经网络的目标检测车牌识别方法,属于车牌识别领域。本发明通过改进后在嵌入环境下实时运行的YOLO卷积神经网络模型来做样本的训练,对特征提取网络模型进行改进,在增加卷积层深度同时为满足车牌识别特定场景需求,以K‑Mean聚类算法求解目标样本BOX高宽大小,并作为预测6类先验框AnchorBox大小,以满足实时性以及准确性要求,采用一种多输出卷积神经网络进行车牌的矫正与类型分类,采用矫正之后的端到端模型进行车牌的识别,结合各类样本数据进行车牌的识别。本发明能够对通过神经网络训练,解决了现有传统方式因为复杂环境与光照等导致车牌定位、识别率大幅降低的问题,极大提升车牌识别率。
Description
技术领域
本发明涉及一种基于深度神经网络的目标检测车牌识别方法,属于车牌识别领域。
背景技术
目前针对目前传统识别算法在复杂环境下车牌识别率较低,识别过程中在车牌定位阶段因为环境复杂导致各类误检问题较明显,如车牌颜色与车身颜色相近、车牌污损不全、光照不均导致传统定位方法失败以及传统分割方法因为光照等问题引入单个字符切分不准确等问题。本发明采用一种目标检测与深度神经网络相结合的方式来解决复杂环境下车牌定位与端到端识别问题。经大量实测,定位与识别准确率较之前传统方式有非常大提升,常规环境下定位识别准确率达到99%以上,并且还存在进一步优化与提升空间。
传统车牌识别算法分为三阶段,车牌定位、字符分割以及最后的字符识别过程。其中车牌定位是整个识别环境过程中最先发起并且相对关键的一个环节,该环节如果出现误检,则整个识别结果是不可预估的。
长期以来,车牌定位算法采用的方式大致有如下几类方法,基于颜色形态的定位方法,该方法采用车牌物理颜色特征,可以在图像清晰,对比度高的情况下快速定位出车牌形状,缺点是一旦车牌颜色与车身相近或者环境光照不均则误检率大幅上升,准确性降低;基于纹理特征的定位方法,该方法采用车牌先验知识,利用纹理特征的突变来做车牌定位,该方式在车牌字符断裂或者纹理相对增多或者不明显时效果较差;基于边缘特征的车牌定位方式,利用车牌边缘特征明显的特点,可以较好的分析出车牌大致位置,但是容易受到光照等复杂因素的影响,导致车牌定位不全或者相似图像的误检。
随着人工智能技术的发展,特别是深度卷积神经网络在图形图像模式识别方面的飞跃进步,通过运用大量数据样本进行机器学习的方式进行车牌识别成为一种可行的新的技术方向。该方式通过正样本的训练获得高精度的模型,来对实际图像进行再次推理获取预测,但是往往对于高算力的计算而达不到实时性的要求,无法运用到实际应用场景中。
发明内容
本发明为解决上述现有技术中存在的问题,提供了一种基于深度神经网络的目标检测车牌识别方法,本发明能够对通过神经网络训练,解决了现有传统方式因为复杂环境与光照等导致车牌定位、识别率大幅降低的问题,极大提升车牌识别率。
为实现上述目的,本发明提供的技术方案为:一种基于深度神经网络的目标检测车牌识别方法,至少包括以下步骤:
(1)车牌图像采集:通过摄像头对待检测区域内的车辆车牌图像信息进行采集,将所采集到的车牌图像信息上传至服务器中;
(2)图像预处理:服务器通过高斯模糊将所采集到的车牌图像信息进行平滑处理,将高分辨率图像的热点信息分割存储在服务器中,其中热点信息为实际车牌区域范围,将热点信息集合为样本训练集T,并将样本训练集T存储在服务器中;
(3)定位预处理:服务器通过K-Mean聚类算法对样本训练集T进行聚类计算,求解出的AnchorBox作为用于车牌定位的先验框;
(4)改进YOLO-TINY模型:建立至少包括由CBL、CSP、Conv和MaxPooling组成的YOLO-TINY模型,在原YOLO-TINY模型的基础上进一步增加卷积层的数量,以原有YOLO-TINY模型中Conv12、Conv13、Conv24和Conv15为基础,在其后方增加3*3的卷积层,同时增加4层卷积用于平衡YOLO模型的精度与性能;
(5)车牌区域完整图像定位:通过YOLO-TINY模型对车牌图像信息进行目标检测推理,即通过计算IOU交并比预测车牌图像的实际位置信息概率,将目标检测推理后的结果根据概率进行筛选,去除概率低于预设阈值的车牌图像,对剩余车牌图像进行非极大值抑制,去除冗余候选区域,只保留极大值车牌区域,获取车牌区域完整图像;
(6)车牌矫正分类:对得到的车牌区域完整图像信息进行四个角点的投影变换,采用多输出通道在回归角点数据时对车牌类型分类,其中采取3通道固定大小为输入,经过3*3卷积层与池化层后,再经过N次相同的block块进行操作,N为常数,每个block块为两个3*3卷积层连接一个Pooling层,block块后方设有采用MSE均方误差做LOSS函数回归角点的全连接层A,和使用softmax为分类,二分交叉熵做LOSS函数的全连接层B,得到校正后的车牌图像信息;
(7)车牌识别:通过自定义多输出通道CNN卷积神经网络对校正后的车牌图像信息进行端到端的识别,结合校正后的车牌图像信息进行车牌识别,根据蓝牌、黄牌与新能源车牌输出不同采用不同样本数据训练,以实现高识别率效果。
在步骤(2)中,所述高斯模糊为选择3*3卷积核将图像进行平滑处理,高分辨率图像的热点部分为宽高为600*600像素的实际车牌区域范围。
步骤(3)中的AnchorBox为根据训练集求解出的6类不同高宽比的用来产生目标区域的候选框,候选框的高宽比为1:4。
在步骤(4)训练YOLO-TINY模型中,针对不同颜色类型车牌信息,设置类型格式为{k,x,y,w,h}的标签数据,其中利用x和y表示样本坐标左上角点相对图像位置,w和h分别表示目标的宽和高,k为数据种类。
在步骤(6)中车牌矫正时样本标注所采用的格式数据为{P_x1#y1#x2#y2#x3#y3#x4#y4_Q},以符号_分割,第一位是车牌类型P,根据车牌为蓝牌、黄牌或新能源的类型分别赋值为0、1或2;第二位为以车牌左上角为起始坐标,按顺时针依次定位的四个车牌实际角点坐标,坐标之间以符号#进行分割,实际角点坐标的数值为在平面内相距左上角的像素偏移量;第三位为文件名称Q,Q按照车牌图像信息的顺序进行赋值。
在步骤(4)中的改进YOLO-TINY模型中去除原有YOLO-TINY模型的SPP和PANET多尺度融合特征计算层,提升速度的同时降低了精度mAP。
在步骤(4)中的模型输入车牌图像信息后,通过两层CBL后,再经过三层的CSP、Conv和MaxPooling处理,其中一部分车牌图像信息在进行第三层的Conv处理后直接通过Concat处理,再通过CBL和Conv进行处理,另一部分车牌图像信息经过第三层的MaxPooling处理后,通过两层CBL分成两部分,其中一部分通过CBL和Upsampling处理后进入Concat处理,再通过CBL和Conv进行处理,另一部分直接通过CBL和Conv进行处理。
在步骤(4)中的CBL为由Conv、BN和LeakRelu组成,CSP由三层CBL叠加一层Concat后再叠加一层CBL和一层Concat组成。
根据上述技术方案可知,本发明提供的基于深度神经网络的目标检测车牌识别方法通过改进后在嵌入环境下实时运行的YOLO卷积神经网络模型来做样本的训练,对特征提取网络模型进行改进,在增加卷积层深度同时为满足车牌识别特定场景需求,以K-Mean聚类算法求解目标样本BOX高宽大小,并作为预测6类先验框AnchorBox大小,以满足实时性以及准确性要求,采用一种多输出卷积神经网络进行车牌的矫正与类型分类,采用矫正之后的端到端模型进行车牌的识别,结合各类样本数据进行车牌的识别。本发明相对于现有技术相比具有以下优点:
(1)因为本发明所采用的技术方案改进后在嵌入环境下实时运行的YOLO(youjustonly look once)卷积神经网络模型来做样本的训练,所以本发明能够保证实时性高出其他two-stage目标检测网络方式多个数量级,并且检测精度不会有所下降。
(2)因为本发明所采用的技术方案采用一种多输出卷积神经网络进行车牌的矫正与类型分类,在一个网络模型中同时实现回归与分类任务,而不在定位阶段进行车牌类型的识别,所以本发明能够极大解决车牌定位阶段因为特征学习不完全带来的分类与误判问题。
(3)本发明采用矫正之后的端到端模型进行车牌的识别,结合各类样本数据进行车牌的识别,根据蓝、黄牌与新能源车牌输出不同采用不同样本数据训练,实现高识别率效果。
附图说明
图1整体结构图;
图2改进YOLO-TINY主干网络参数图;
图3增加3*3卷积层后部分网络模型图;
图4矫正分类模型参数;
图5改进YOLO-TINY模型框架图。
具体实施方法
下面结合附图和具体实施例对本发明作详细具体的说明,但本发明的保护范围不限于下述的实施例。
在本发明所提供的技术方案中一种基于深度神经网络的目标检测车牌识别方法,如图1所示,至少包括以下步骤:
(1)车牌图像采集:通过摄像头对待检测区域内的车辆车牌图像信息进行采集,将所采集到的车牌图像信息上传至服务器中;
(2)图像预处理:服务器通过高斯模糊将所采集到的车牌图像信息进行平滑处理,将高分辨率图像的热点信息分割存储在服务器中,其中热点信息为实际车牌区域范围,将热点信息集合为样本训练集T,并将样本训练集T存储在服务器中;
在步骤(2)中,所述高斯模糊为选择3*3卷积核将图像进行平滑处理,高分辨率图像的热点部分为宽高为600*600像素的实际车牌区域范围。
(3)定位预处理:服务器通过K-Mean聚类算法对样本训练集T进行聚类计算,求解出的AnchorBox作为用于车牌定位的先验框;
步骤(3)中的AnchorBox为根据训练集求解出的6类不同高宽比的用来产生目标区域的候选框,候选框的高宽比为1:4。
(4)改进YOLO-TINY模型:如图5所示,建立至少包括由CBL、CSP、Conv和MaxPooling组成的YOLO-TINY模型,在原YOLO-TINY模型的基础上进一步增加卷积层的数量,以原有YOLO-TINY模型中Conv12、Conv13、Conv24和Conv15为基础,在其后方增加3*3的卷积层,同时增加4层卷积用于平衡YOLO模型的精度与性能,详见图2和图3;
在步骤(4)训练YOLO-TINY模型中,针对不同颜色类型车牌信息,设置类型格式为{k,x,y,w,h}的标签数据,其中利用x和y表示样本坐标左上角点相对图像位置,w和h分别表示目标的宽和高,k为数据种类。
改进YOLO-TINY模型中去除原有YOLO-TINY模型的SPP和PANET多尺度融合特征计算层,提升速度的同时降低了精度mAP。
在改进YOLO-TINY模型中输入车牌图像信息后,通过两层CBL后,再经过三层的CSP、Conv和MaxPooling处理,其中一部分车牌图像信息在进行第三层的Conv处理后直接通过Concat处理,再通过CBL和Conv进行处理,另一部分车牌图像信息经过第三层的MaxPooling处理后,通过两层CBL分成两部分,其中一部分通过CBL和Upsampling处理后进入Concat处理,再通过CBL和Conv进行处理,另一部分直接通过CBL和Conv进行处理。
其中CBL为由Conv、BN和LeakRelu组成,CSP由三层CBL叠加一层Concat后再叠加一层CBL和一层Concat组成。
(5)车牌区域完整图像定位:通过YOLO-TINY模型对车牌图像信息进行目标检测推理,即通过计算IOU交并比预测车牌图像的实际位置信息概率,将目标检测推理后的结果根据概率进行筛选,去除概率低于预设阈值的车牌图像,对剩余车牌图像进行非极大值抑制,去除冗余候选区域,只保留极大值车牌区域,获取车牌区域完整图像;通过对于YOLO-TINY模型的改进前后的RECALL与IOU对比如下:
改进前(默认AnchorBox) | 改进后 | |
RECALL | 89.5% | 95.3% |
IOU | 0.92 | 0.96 |
FPS(1050Ti) | 50 | 40 |
(6)车牌矫正分类:对得到的车牌区域完整图像信息进行四个角点的投影变换,采用多输出通道在回归角点数据时对车牌类型分类,见图4,其中采取3通道固定大小为输入,经过3*3卷积层与池化层后,再经过N次相同的block块进行操作,N为常数,每个block块为两个3*3卷积层连接一个Pooling层,block块后方设有采用MSE均方误差做LOSS函数回归角点的全连接层A,和使用softmax为分类,二分交叉熵做LOSS函数的全连接层B,得到校正后的车牌图像信息;
在步骤(6)中车牌矫正时样本标注所采用的格式数据为{P_x1#y1#x2#y2#x3#y3#x4#y4_Q},以符号_分割,第一位是车牌类型P,根据车牌为蓝牌、黄牌或新能源的类型分别赋值为0、1或2;第二位为以车牌左上角为起始坐标,按顺时针依次定位的四个车牌实际角点坐标,坐标之间以符号#进行分割,实际角点坐标的数值为在平面内相距左上角的像素偏移量;第三位为文件名称Q,Q按照车牌图像信息的顺序进行赋值。
(7)车牌识别:通过自定义多输出通道CNN卷积神经网络对校正后的车牌图像信息进行端到端的识别,结合校正后的车牌图像信息进行车牌识别,根据蓝牌、黄牌与新能源车牌输出不同采用不同样本数据训练,以实现高识别率效果。具体表现为采用图像处理方法对现有样本数据的光照、字符位置以及色彩随机改变,对于0,D,8,B等易混淆字符增加样本范围来达到高准确率效果,以实现高识别率效果。
Claims (8)
1.一种基于深度神经网络的目标检测车牌识别方法,其特征在于至少包括以下步骤:
(1)车牌图像采集:通过摄像头对待检测区域内的车辆车牌图像信息进行采集,将所采集到的车牌图像信息上传至服务器中;
(2)图像预处理:服务器通过高斯模糊将所采集到的车牌图像信息进行平滑处理,将高分辨率图像的热点信息分割存储在服务器中,其中热点信息为实际车牌区域范围,将热点信息集合为样本训练集T,并将样本训练集T存储在服务器中;
(3)定位预处理:服务器通过K-Mean聚类算法对样本训练集T进行聚类计算,求解出的AnchorBox作为用于车牌定位的先验框;
(4)改进YOLO-TINY模型:建立至少包括由CBL、CSP、Conv和MaxPooling组成的YOLO-TINY模型,在原YOLO-TINY模型的基础上进一步增加卷积层的数量,以原有YOLO-TINY模型中Conv12、Conv13、Conv24和Conv15为基础,在其后方增加3*3的卷积层,同时增加4层卷积用于平衡YOLO模型的精度与性能;
(5)车牌区域完整图像定位:通过YOLO-TINY模型对车牌图像信息进行目标检测推理,即通过计算IOU交并比预测车牌图像的实际位置信息概率,将目标检测推理后的结果根据概率进行筛选,去除概率低于预设阈值的车牌图像,对剩余车牌图像进行非极大值抑制,去除冗余候选区域,只保留极大值车牌区域,获取车牌区域完整图像;
(6)车牌矫正分类:对得到的车牌区域完整图像信息进行四个角点的投影变换,采用多输出通道在回归角点数据时对车牌类型分类,其中采取3通道固定大小为输入,经过3*3卷积层与池化层后,再经过N次相同的block块进行操作,N为常数,每个block块为两个3*3卷积层连接一个Pooling层,block块后方设有采用MSE均方误差做LOSS函数回归角点的全连接层A,和使用softmax为分类,二分交叉熵做LOSS函数的全连接层B,得到校正后的车牌图像信息;
(7)车牌识别:通过自定义多输出通道CNN卷积神经网络对校正后的车牌图像信息进行端到端的识别,结合校正后的车牌图像信息进行车牌识别,根据蓝牌、黄牌与新能源车牌输出不同采用不同样本数据训练,以实现高识别率效果。
2.根据权利要求1所述的基于深度神经网络的目标检测车牌识别方法,其特征在于:在步骤(2)中,所述高斯模糊为选择3*3卷积核将图像进行平滑处理,高分辨率图像的热点部分为宽高为600*600像素的实际车牌区域范围。
3.根据权利要求1所述的基于深度神经网络的目标检测车牌识别方法,其特征在于:步骤(3)中的AnchorBox为根据训练集求解出的6类不同高宽比的用来产生目标区域的候选框,候选框的高宽比为1:4。
4.根据权利要求1所述的基于深度神经网络的目标检测车牌识别方法,其特征在于:在步骤(4)训练YOLO-TINY模型中,针对不同颜色类型车牌信息,设置类型格式为{k,x,y,w,h}的标签数据,其中利用x和y表示样本坐标左上角点相对图像位置,w和h分别表示目标的宽和高,k为数据种类。
5.根据权利要求1所述的基于深度神经网络的目标检测车牌识别方法,其特征在于:在步骤(6)中车牌矫正时样本标注所采用的格式数据为{P_x1#y1#x2#y2#x3#y3#x4#y4_Q},以符号_分割,第一位是车牌类型P,根据车牌为蓝牌、黄牌或新能源的类型分别赋值为0、1或2;第二位为以车牌左上角为起始坐标,按顺时针依次定位的四个车牌实际角点坐标,坐标之间以符号#进行分割,实际角点坐标的数值为在平面内相距左上角的像素偏移量;第三位为文件名称Q,Q按照车牌图像信息的顺序进行赋值。
6.根据权利要求1所述的基于深度神经网络的目标检测车牌识别方法,其特征在于:在步骤(4)中的改进YOLO-TINY模型中去除原有YOLO-TINY模型的SPP和PANET多尺度融合特征计算层,提升速度的同时降低了精度mAP。
7.根据权利要求1所述的基于深度神经网络的目标检测车牌识别方法,其特征在于:在步骤(4)中的模型输入车牌图像信息后,通过两层CBL后,再经过三层的CSP、Conv和MaxPooling处理,其中一部分车牌图像信息在进行第三层的Conv处理后直接通过Concat处理,再通过CBL和Conv进行处理,另一部分车牌图像信息经过第三层的MaxPooling处理后,通过两层CBL分成两部分,其中一部分通过CBL和Upsampling处理后进入Concat处理,再通过CBL和Conv进行处理,另一部分直接通过CBL和Conv进行处理。
8.根据权利要求1所述的基于深度神经网络的目标检测车牌识别方法,其特征在于:在步骤(4)中的CBL为由Conv、BN和LeakRelu组成,CSP由三层CBL叠加一层Concat后再叠加一层CBL和一层Concat组成。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211021205.9A CN115410184A (zh) | 2022-08-24 | 2022-08-24 | 一种基于深度神经网络的目标检测车牌识别方法 |
CN202311074426.7A CN117274967A (zh) | 2022-08-24 | 2023-08-24 | 一种基于卷积神经网络多模态融合车牌识别算法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211021205.9A CN115410184A (zh) | 2022-08-24 | 2022-08-24 | 一种基于深度神经网络的目标检测车牌识别方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN115410184A true CN115410184A (zh) | 2022-11-29 |
Family
ID=84162500
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202211021205.9A Pending CN115410184A (zh) | 2022-08-24 | 2022-08-24 | 一种基于深度神经网络的目标检测车牌识别方法 |
CN202311074426.7A Pending CN117274967A (zh) | 2022-08-24 | 2023-08-24 | 一种基于卷积神经网络多模态融合车牌识别算法 |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202311074426.7A Pending CN117274967A (zh) | 2022-08-24 | 2023-08-24 | 一种基于卷积神经网络多模态融合车牌识别算法 |
Country Status (1)
Country | Link |
---|---|
CN (2) | CN115410184A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115601744A (zh) * | 2022-12-14 | 2023-01-13 | 松立控股集团股份有限公司(Cn) | 一种车身与车牌颜色相近的车牌检测方法 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109472262A (zh) * | 2018-09-25 | 2019-03-15 | 平安科技(深圳)有限公司 | 车牌识别方法、装置、计算机设备及存储介质 |
CN110033002A (zh) * | 2019-04-19 | 2019-07-19 | 福州大学 | 基于多任务级联卷积神经网络的车牌检测方法 |
CN110826558A (zh) * | 2019-10-28 | 2020-02-21 | 桂林电子科技大学 | 图像分类方法、计算机设备和存储介质 |
US20200090506A1 (en) * | 2018-09-19 | 2020-03-19 | National Chung-Shan Institute Of Science And Technology | License plate recognition system and license plate recognition method |
CN110991311A (zh) * | 2019-11-28 | 2020-04-10 | 江南大学 | 一种基于密集连接深度网络的目标检测方法 |
CN111191611A (zh) * | 2019-12-31 | 2020-05-22 | 同济大学 | 基于深度学习的交通标志标号识别方法 |
-
2022
- 2022-08-24 CN CN202211021205.9A patent/CN115410184A/zh active Pending
-
2023
- 2023-08-24 CN CN202311074426.7A patent/CN117274967A/zh active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20200090506A1 (en) * | 2018-09-19 | 2020-03-19 | National Chung-Shan Institute Of Science And Technology | License plate recognition system and license plate recognition method |
CN109472262A (zh) * | 2018-09-25 | 2019-03-15 | 平安科技(深圳)有限公司 | 车牌识别方法、装置、计算机设备及存储介质 |
CN110033002A (zh) * | 2019-04-19 | 2019-07-19 | 福州大学 | 基于多任务级联卷积神经网络的车牌检测方法 |
CN110826558A (zh) * | 2019-10-28 | 2020-02-21 | 桂林电子科技大学 | 图像分类方法、计算机设备和存储介质 |
CN110991311A (zh) * | 2019-11-28 | 2020-04-10 | 江南大学 | 一种基于密集连接深度网络的目标检测方法 |
CN111191611A (zh) * | 2019-12-31 | 2020-05-22 | 同济大学 | 基于深度学习的交通标志标号识别方法 |
Non-Patent Citations (2)
Title |
---|
ALA A. ALSANABANI; SALAH A. SAEED; MOEEN AL-MKHLAFI; MOHAMMED ALBISHARI: "A Low Cost and Real Time Vehicle Detection Using Enhanced YOLOv4-Tiny" * |
刘婷: "执法仪场景下车牌识别系统的设计与实现" * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115601744A (zh) * | 2022-12-14 | 2023-01-13 | 松立控股集团股份有限公司(Cn) | 一种车身与车牌颜色相近的车牌检测方法 |
CN115601744B (zh) * | 2022-12-14 | 2023-04-07 | 松立控股集团股份有限公司 | 一种车身与车牌颜色相近的车牌检测方法 |
Also Published As
Publication number | Publication date |
---|---|
CN117274967A (zh) | 2023-12-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113658132B (zh) | 基于计算机视觉的结构件焊缝检测方法 | |
CN108961235B (zh) | 一种基于YOLOv3网络和粒子滤波算法的缺陷绝缘子识别方法 | |
CN111223088B (zh) | 一种基于深层卷积神经网络的铸件表面缺陷识别方法 | |
CN109886896B (zh) | 一种蓝色车牌分割与矫正方法 | |
CN109840521B (zh) | 一种基于深度学习的一体化车牌识别方法 | |
CN108918536B (zh) | 轮胎模具表面字符缺陷检测方法、装置、设备及存储介质 | |
CN105046196B (zh) | 基于级联卷积神经网络的前车车辆信息结构化输出方法 | |
CN108334881B (zh) | 一种基于深度学习的车牌识别方法 | |
US11216932B1 (en) | Electronic substrate defect detection | |
CN108921120B (zh) | 一种适应广泛零售场景下的香烟识别方法 | |
CN110032952B (zh) | 一种基于深度学习的道路边界点检测方法 | |
CN112085024A (zh) | 一种罐表面字符识别方法 | |
CN111539330B (zh) | 一种基于双svm多分类器的变电站数显仪表识别方法 | |
CN110781882A (zh) | 一种基于yolo模型的车牌定位和识别方法 | |
CN113989794B (zh) | 一种车牌检测和识别方法 | |
CN112115948A (zh) | 一种基于深度学习的芯片表面字符识别方法 | |
CN111209858A (zh) | 一种基于深度卷积神经网络的实时车牌检测方法 | |
CN115410184A (zh) | 一种基于深度神经网络的目标检测车牌识别方法 | |
CN110516527B (zh) | 一种基于实例分割的视觉slam回环检测改进方法 | |
CN115063802A (zh) | 一种基于PSENet的圆形印章识别方法、设备及介质 | |
CN115240020A (zh) | 基于弱光补偿的MaskRCNN渗水检测方法及系统 | |
CN108182700B (zh) | 一种基于两次特征检测的图像配准方法 | |
CN112528994B (zh) | 一种自由角度车牌检测方法、车牌识别方法和识别系统 | |
CN112053407A (zh) | 一种交通执法影像中基于ai技术的车道线自动检测方法 | |
CN110349119B (zh) | 基于边缘检测神经网络的路面病害检测方法和装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WD01 | Invention patent application deemed withdrawn after publication |
Application publication date: 20221129 |
|
WD01 | Invention patent application deemed withdrawn after publication |