CN113486886B - 一种自然场景下的车牌识别方法和装置 - Google Patents
一种自然场景下的车牌识别方法和装置 Download PDFInfo
- Publication number
- CN113486886B CN113486886B CN202110686678.XA CN202110686678A CN113486886B CN 113486886 B CN113486886 B CN 113486886B CN 202110686678 A CN202110686678 A CN 202110686678A CN 113486886 B CN113486886 B CN 113486886B
- Authority
- CN
- China
- Prior art keywords
- license plate
- network
- picture
- license
- model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 26
- 238000001514 detection method Methods 0.000 claims abstract description 40
- 102100032202 Cornulin Human genes 0.000 claims abstract description 23
- 101000920981 Homo sapiens Cornulin Proteins 0.000 claims abstract description 23
- 230000009466 transformation Effects 0.000 claims abstract description 14
- 238000012549 training Methods 0.000 claims description 30
- 238000012360 testing method Methods 0.000 claims description 9
- 239000011159 matrix material Substances 0.000 claims description 7
- 238000012795 verification Methods 0.000 claims description 7
- 238000000605 extraction Methods 0.000 claims description 4
- 238000004458 analytical method Methods 0.000 claims description 3
- 230000008859 change Effects 0.000 claims description 3
- 230000004927 fusion Effects 0.000 claims description 3
- 230000002787 reinforcement Effects 0.000 claims description 3
- 230000006870 function Effects 0.000 description 10
- 238000013135 deep learning Methods 0.000 description 4
- 238000013461 design Methods 0.000 description 4
- 238000006243 chemical reaction Methods 0.000 description 3
- 238000011176 pooling Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 2
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 description 1
- 230000004913 activation Effects 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 230000001902 propagating effect Effects 0.000 description 1
- 238000010200 validation analysis Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2415—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/047—Probabilistic or stochastic networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/049—Temporal neural networks, e.g. delay elements, oscillating neurons or pulsed inputs
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/02—Affine transformations
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/13—Edge detection
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Molecular Biology (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Mathematical Physics (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Probability & Statistics with Applications (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Image Analysis (AREA)
- Character Discrimination (AREA)
Abstract
一种自然场景下的车牌识别方法和装置,预先构建改进的Retinanet网络,并进行训练,得到车牌检测模型,以及预先对CRNN模型进行训练得到训练好的CRNN模型;识别方法包括如下步骤:S1将车牌图片输入车牌检测模型进行检测,得到车牌的角点;S2根据车牌的角点,结合opencv的透视变换对车牌区域进行矫正得到矫正好的图片;S3将矫正好的图片输入训练好的CRNN模型中进行预测,得到最终的识别结果。本发明使用mobilinetV2代替retinanet中的resnet50,在几乎不损失网络精度的情况下,降低了参数量和计算量,从而提高了车牌的检测速度。
Description
技术领域
本发明涉及车牌检测领域,特别是指一种自然场景下的车牌识别方法和装置。
背景技术
车牌识别在人们日常生活中经常见到,目前已成为智慧交通的重要组成部分。近年来车牌识别技术虽然发展迅速,但是受限于车辆的使用环境(光线较强或者较弱、车牌污染、雨雪大雾天气等)使得车牌识别的各个环节中始终存在一些问题,导致识别精度有限。传统的车牌检测方法通常是人工提取特征,如车牌的颜色,纹理和边缘,然而这种方法往往在自然场景下检测精度低。
随着深度学习的发展,越来越多的人开始使用深度学习进行车牌检测。相比于传统方法,基于深度学习目标检测的方法能提升车牌检测的精度,而且模型泛化性能比较好,能够用在通用的自然场景下。
目前比较流行的深度学习检测算法包括单阶段检测YOLOv3,SSD和双阶段FasterRCNN,他们都是基于anchor的方式对anchor的中心点和宽高进行回归,在自然场景下,车牌往往存在倾斜的情况,而这些anchor都是矩形的形状,这使得单纯使用矩形去定位车牌再送入到识别模型中往往会包含较多无用的图像噪声。
发明内容
本发明的主要目的在于克服现有技术中车牌识别的缺陷,提出一种自然场景下的车牌识别方法和装置,使用mobilenetV2作为主干特征提取网络减少了原retinanet模型的参数量,以及利用opencv中的仿射变换函数将车牌矫正,最后通过CRNN模型对车牌进行识别,大幅度提升了自然场景下车牌识别的识别精度。
本发明采用如下技术方案:
一种自然场景下的车牌识别方法,其特征在于,预先构建改进的Retinanet网络,并进行训练,得到车牌检测模型,以及预先对CRNN模型进行训练得到训练好的CRNN模型;识别方法包括如下步骤:
S1将车牌图片输入车牌检测模型进行检测,得到车牌的角点;
S2根据车牌的角点,结合opencv的透视变换对车牌区域进行矫正得到矫正好的图片;
S3将矫正好的图片输入训练好的CRNN模型中进行预测,得到最终的识别结果。
收集来自不同的场景的车牌图片作为训练数据集,并对训练数据集的车牌进行标注,将数据集按照8:1:1划分成训练集,验证集和测试集,通过训练集训练改进的Retinanet网络和CRNN模型,再通过验证集和测试集分别进行验证和测试得到车牌检测模型和训练好的CRNN模型。
在车牌图片中随机裁剪获得负样本,以降低训练的误检率。
所述改进的Retinanet网络采用mobinetV2作为主干特征提取网络,构建特征金字塔网络,利用mobilenetV2网络对车牌图片进行下采样8,16,32倍,从而提取到3种感受野的特征图C3,C4,C5,分别将3种不同尺度的特征图输入Retinanet网络的FPN部分,进行上采样和特征融合后分别得到不同尺寸和感受野的P3,P4,P5层,在P3,P4,P5层的每一个head层增加一个车牌的角点分支。
角点分支包含一个输出通道数为8的3*3卷积和一个sigmod层。
对改进的retinanet的网络进行训练包括如下:
对训练数据集中的每张车牌图片进行-5°-5°的随机旋转,对车牌图片进行数据加强;
将输入后的车牌图片进行8,16,32倍的下采样,作为不同尺度的特征信号;
将anchor的数量调整到2,以减少参数量的设计,将anchor的宽高比例调整为3:1,以便于更好的回归车牌位置。
步骤S1包括:
S1-1对于输入的车牌图片,车牌检测模型输出每一个anchor的类别分数,相对于anchor中心的偏移量,宽高比例以及相对与anchor中心车牌角点的8个偏移量;
S1-2首先将置信度低于0.02的anchor消除,然后得到的anchor再做NMS分析,最后选出得分最大的anchor对它的中心点进行回归,得到车牌的四个角点。
步骤S2中首先设置拉伸后图片的宽高,将已经定位好的点通过
cv2.getperspectiveTansform函数计算得到转换矩阵,然后通过cv2.warpPerspective实现透视变换转换。
步骤S3中,包括S3-1首先将车牌含有的字符进行编码;
S3-2然后将图片送入到CNN中提取特征,再利用BiLstm识别得到的特征向量序列,获取上下文信息,从而得到每列特征的概率分布;
S3-3最后利用CTC计算出所有的标签序列概率,基于词典和查找候选目标的模式选取最大的标签序列概率所对应的标签序列作为图像最终的预测结果。
一种自然场景下的车牌识别装置,其特征在于,采用上述的一种自然场景下的车牌识别方法实现车牌识别,包括
车牌检测模型,用于对输入的车牌图片进行检测,得到车牌的角点;
透视变化模块,用于根据车牌的角点,结合opencv的透视变换对车牌区域进行矫正得到矫正好的图片;
CRNN模型,用于对输入的矫正好的图片进行预测,得到最终的识别结果。
由上述对本发明的描述可知,与现有技术相比,本发明具有如下有益效果:
本发明的方法和装置,使用mobilinetV2代替retinanet中的resnet50,在几乎不损失网络精度的情况下,降低了参数量和计算量,从而提高了车牌的检测速度。
本发明提出了车牌检测模型,用来预测车牌的四个顶点位置,配合opencv的透视变换加以矫正图像,使得最终得到的模型更加鲁棒,大幅度提升了自然场景下车牌识别的识别精度。
附图说明
图1为本发明改进的Retinanet网络结构图。
以下结合附图和具体实施例对本发明作进一步详述。
具体实施方式
以下通过具体实施方式对本发明作进一步的描述。
一种自然场景下的车牌识别方法,预先构建改进的Retinanet网络,并进行训练,得到车牌检测模型,以及预先对CRNN模型进行训练得到训练好的CRNN模型。
收集来自不同的场景的N张车牌图片作为训练数据集,并对训练数据集的车牌进行标注,标注车牌在图片上的位置以及字符信息。将数据集按照8:1:1划分成训练集,验证集和测试集。本实例中,主要采用了CCPD数据集,AOLP数据集中的一部分数据,这些数据来自路边停车场,包含倾斜,模糊,天气恶劣情况下的图片。另外,在车牌图片中随机裁剪获得负样本,以降低训练的误检率。
通过训练集训练改进的Retinanet网络和CRNN模型,再通过验证集和测试集分别进行验证和测试得到车牌检测模型和训练好的CRNN模型。
参见图1,改进的Retinanet网络采用mobinetV2作为主干特征提取网络,其构建特征金字塔网络,利用mobilenetV2网络对车牌图片进行下采样8,16,32倍,从而提取到3种感受野的特征图C3,C4,C5,分别将3种不同尺度的特征图输入Retinanet网络的FPN部分,进行上采样和特征融合后分别得到不同尺寸和感受野的P3,P4,P5层,在P3,P4,P5层的每一个head层增加一个车牌的角点分支。角点分支包含一个输出通道数为8的3*3卷积和一个sigmod层。
改进的Retinanet网络使用深度可分离卷积替换了传统卷积,首先使用1*1卷积来升维,在计算量增加不大的基础上获取更好的效果,最后再用1*1卷积降维。其中,mobileNet v2直接去掉了每一个block最后的ReLU6层,减少了特征的损耗,获得了更好的检测效果。
在网络中的检测头中已有分类分支和回归分支的基础上,在特征金字塔网络输出的每一层特征后增加角点分支。该分支采用4次256通道的卷积和1次anchor x 8的卷积,其中anchor指的是该特征层拥有的先验框,8是指先验框中心调整成四个角点的情况。
对改进的retinanet的网络进行训练包括如下:
对训练数据集中的每张车牌图片进行-5°-5°的随机旋转,对车牌图片进行数据加强;
将输入后的车牌图片进行8,16,32倍的下采样,作为不同尺度的特征信号;
将anchor的数量调整到2,以减少参数量的设计,将anchor的宽高比例调整为3:1,以便于更好的回归车牌位置。
改进后的retinanet网络训练过程分类使用Focal Loss(Lcls)来减弱简单样本对网络训练的影响,回归损失使用smooth L1 Loss(Lbox),另外增加smooth L1 Loss(Lpts)作为角点损失。
其中,Lcls是分类损失函数,pi是锚点框中包含预测目标的概率,或/>分别表示是负锚点框和正锚点框。Lbox是目标检测框回归损失函数,其中ti={tx,ty,lw,th}i表示与正锚点框相关的预测框的坐标信息,/>表示与负锚点框相关的预测框的坐标信息。Lpts是车牌角点回归损失函数,其中li={lx1,ly1,…,lx4,ly4}i表示正锚点框中预测的四个车牌角点,/>表示标注的四个车牌角点。
其中λ1和λ2表示损失平衡权值参数,分别设置成0.25和0.1,意味着从监督信号中增加了更好的anchor和角点的意义。
CRNN模型的训练包括如下:
将所有的车牌库字符进行编码,构成所有字符的概率分布矩阵y=(y1,y2,…,yT-1,yT)
构建卷积网络层,根据卷积网络层对车牌数据集进行特征提取,并编码得到图像特征序列。所述卷积网络层包括7次卷积和4次池化下采样,每个卷积块的卷积核数量依次为64,128、256、256、512,512和512,除最后两个卷积块为2*2,其他卷积核尺寸都为3*3,步长为1,填充为1;前两个池化下采样窗口为2*2,步长为2,后两个池化下采样窗口为1*2,步长为1,填充为1;每个卷积层之后添加一个激活层和批归一化层。
构建循环网络层,并根据循环网络层对图像特征序列进行处理,得到概率分布矩阵,其中循环网络层是由双层LSTM+FC构成,时间步为512,LSTM的隐藏单元为128。
计算CTC损失,将预测的序列preds和实际对应好的类别序号text,以及对应的字符串长度length,使用pytorch内置损失函数CTCloss计算损失,反向传播,使用optimizer.step()更新所有层权重的参数,最后清空梯度。
本发明的识别方法包括如下步骤:
S1将车牌图片输入车牌检测模型进行检测,得到车牌的角点。具体包括如下:
S1-1对于输入的车牌图片,车牌检测模型输出每一个anchor的类别分数,相对于anchor中心的偏移量,宽高比例以及相对与anchor中心车牌角点的8个偏移量;
S1-2首先将置信度低于0.02的anchor消除,然后得到的anchor再做NMS分析,最后选出得分最大的anchor对它的中心点进行回归,得到车牌的四个角点。
在实施中,将车牌图片输入到车牌检测模型,输出车牌预测框的类别分数,得到相对于anchor中心点的偏移量,和宽高的比例,以及anchor中心点的8个偏移量
S2根据车牌的角点,结合opencv的透视变换对车牌区域进行矫正得到矫正好的图片。
具体的,首先设置拉伸后图片的宽高,将已经定位好的点通过cv2.getperspectiveTansform函数计算得到转换矩阵,然后通过cv2.warpPerspective实现透视变换转换。
该步骤将定位好的四个顶点矫正到192*32尺寸,根据定位到的角点(x1,y1),(x2,y2),(x3,y3),(x4,y4)和(0,0),(192,0),(0,32),(192,32)通过opencv中的cv2.getPerspectibeTransform函数进行计算得到转换矩阵M,然后对矩形框定位好的图片进行定位矫正,具体是调用cv2.warpPerspective函数计算得到一张矫正好的图片。
S3将矫正好的图片输入训练好的CRNN模型中进行预测,最终得到的概率分布矩阵y解码成最终的识别结果。具体包括如下:
S3-1首先将车牌含有的字符进行编码;
S3-2然后将图片送入到CNN中提取特征,再利用BiLstm识别得到的特征向量序列,获取上下文信息,从而得到每列特征的概率分布;
S3-3最后利用CTC计算出所有的标签序列概率,基于词典和查找候选目标的模式选取最大的标签序列概率所对应的标签序列作为图像最终的预测结果。
本发明还提出一种自然场景下的车牌识别装置,采用上述的一种自然场景下的车牌识别方法实现车牌识别,包括
车牌检测模型,用于对输入的车牌图片进行检测,得到车牌的角点。
透视变化模块,用于根据车牌的角点,结合opencv的透视变换对车牌区域进行矫正得到矫正好的图片。
CRNN模型,用于对输入的矫正好的图片进行预测,得到最终的识别结果。
本发明使用mobilinetV2代替retinanet中的resnet50,在几乎不损失网络精度的情况下,降低了参数量和计算量,从而提高了车牌的检测速度。同时,本发明提出了额外的角点检测模块(key subnet),用来预测车牌的四个顶点位置加以矫正图像,使得最终得到的模型更加鲁棒,大幅度提升了自然场景下车牌识别的识别精度。
上述仅为本发明的具体实施方式,但本发明的设计构思并不局限于此,凡利用此构思对本发明进行非实质性的改动,均应属于侵犯本发明保护范围的行为。
Claims (6)
1.一种自然场景下的车牌识别方法,其特征在于,预先构建改进的Retinanet网络,并进行训练,得到车牌检测模型,以及预先对CRNN模型进行训练得到训练好的CRNN模型;所述改进的Retinanet网络采用mobilnetV2作为主干特征提取网络,构建特征金字塔网络,利用mobilenetV2网络对车牌图片进行下采样8,16,32倍,从而提取到3种感受野的特征图C3,C4,C5,分别将3种不同尺度的特征图输入Retinanet网络的FPN部分,进行上采样和特征融合后分别得到不同尺寸和感受野的P3,P4,P5层,在P3,P4,P5层的每一个head层增加一个车牌的角点分支;
识别方法包括如下步骤:
S1将车牌图片输入车牌检测模型进行检测,得到车牌的角点:
S1-1对于输入的车牌图片,车牌检测模型输出每一个anchor的类别分数,相对于anchor中心的偏移量,宽高比例以及相对与anchor中心车牌角点的8个偏移量;
S1-2首先将置信度低于0.02的anchor消除,然后得到的anchor再做NMS分析,最后选出得分最大的anchor对它的中心点进行回归,得到车牌的四个角点;
S2 根据车牌的角点,结合opencv的透视变换对车牌区域进行矫正得到矫正好的图片,首先设置拉伸后图片的宽高,将已经定位好的点通过cv2.getperspectiveTansform函数计算得到转换矩阵,然后通过cv2.warpPerspective实现透视变换转换;
S3将矫正好的图片输入训练好的CRNN模型中进行预测,得到最终的识别结果:
S3-1首先将车牌含有的字符进行编码;
S3-2然后将图片送入到CNN中提取特征,再利用BiLstm识别得到的特征向量序列,获取上下文信息,从而得到每列特征的概率分布;
S3-3最后利用CTC计算出所有的标签序列概率,基于词典和查找候选目标的模式选取最大的标签序列概率所对应的标签序列作为图像最终的预测结果。
2.如权利要求1所述的一种自然场景下的车牌识别方法,其特征在于,收集来自不同的场景的车牌图片作为训练数据集,并对训练数据集的车牌进行标注,将数据集按照8:1:1划分成训练集,验证集和测试集,通过训练集训练改进的Retinanet网络和CRNN模型,再通过验证集和测试集分别进行验证和测试得到车牌检测模型和训练好的CRNN模型。
3.如权利要求2所述的一种自然场景下的车牌识别方法,其特征在于,在车牌图片中随机裁剪获得负样本。
4.如权利要求1所述的一种自然场景下的车牌识别方法,其特征在于,所述角点分支包含一个输出通道数为8的3*3卷积和一个sigmod层。
5.如权利要求1所述的一种自然场景下的车牌识别方法,其特征在于,对改进的Retinanet的网络进行训练包括如下:
对训练数据集中的每张车牌图片进行-5°- 5°的随机旋转,对车牌图片进行数据加强;
将输入后的车牌图片进行8,16,32倍的下采样,作为不同尺度的特征信号;
将anchor的数量调整到2,将anchor的宽高比例调整为3:1。
6.一种自然场景下的车牌识别装置,其特征在于,采用权利要求1至5中任一所述的一种自然场景下的车牌识别方法实现车牌识别,包括
车牌检测模型,用于对输入的车牌图片进行检测,得到车牌的角点;
透视变化模块,用于根据车牌的角点,结合opencv的透视变换对车牌区域进行矫正得到矫正好的图片;
CRNN模型,用于对输入的矫正好的图片进行预测,得到最终的识别结果。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110686678.XA CN113486886B (zh) | 2021-06-21 | 2021-06-21 | 一种自然场景下的车牌识别方法和装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110686678.XA CN113486886B (zh) | 2021-06-21 | 2021-06-21 | 一种自然场景下的车牌识别方法和装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113486886A CN113486886A (zh) | 2021-10-08 |
CN113486886B true CN113486886B (zh) | 2023-06-23 |
Family
ID=77935681
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110686678.XA Active CN113486886B (zh) | 2021-06-21 | 2021-06-21 | 一种自然场景下的车牌识别方法和装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113486886B (zh) |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114170590A (zh) * | 2021-10-18 | 2022-03-11 | 中科南京人工智能创新研究院 | 一种基于RetinaNet网络改进的新能源车牌检测识别方法 |
CN114119953A (zh) * | 2021-11-25 | 2022-03-01 | 安徽百诚慧通科技有限公司 | 快速车牌定位和矫正方法、存储介质及设备 |
CN114529901A (zh) * | 2022-01-21 | 2022-05-24 | 高新兴科技集团股份有限公司 | 车牌识别方法、车牌识别系统及电子设备 |
CN114708749A (zh) * | 2022-03-17 | 2022-07-05 | 重庆长安汽车股份有限公司 | 停车位记忆提醒方法及相关装置 |
CN115909316B (zh) * | 2023-02-21 | 2023-05-19 | 昆明理工大学 | 一种面向数据不均匀场景的轻量化端到端车牌识别方法 |
CN116468984B (zh) * | 2023-03-10 | 2023-10-27 | 衡阳师范学院 | 可移动物体检测模型的构建方法、检测模型及检测方法 |
CN117765539A (zh) * | 2023-12-25 | 2024-03-26 | 暗物质(北京)智能科技有限公司 | 一种基于深度学习的字帖图像自动矫正方法及相关产品 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112037249A (zh) * | 2020-07-21 | 2020-12-04 | 贵州宽凳智云科技有限公司北京分公司 | 一种对摄像装置影像中物体进行跟踪的方法及装置 |
CN112308092A (zh) * | 2020-11-20 | 2021-02-02 | 福州大学 | 一种基于多尺度注意力机制的轻量型车牌检测与识别方法 |
WO2022027873A1 (zh) * | 2020-08-05 | 2022-02-10 | 智慧互通科技有限公司 | 基于多模态信息融合的车辆再识别方法及装置 |
-
2021
- 2021-06-21 CN CN202110686678.XA patent/CN113486886B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112037249A (zh) * | 2020-07-21 | 2020-12-04 | 贵州宽凳智云科技有限公司北京分公司 | 一种对摄像装置影像中物体进行跟踪的方法及装置 |
WO2022027873A1 (zh) * | 2020-08-05 | 2022-02-10 | 智慧互通科技有限公司 | 基于多模态信息融合的车辆再识别方法及装置 |
CN112308092A (zh) * | 2020-11-20 | 2021-02-02 | 福州大学 | 一种基于多尺度注意力机制的轻量型车牌检测与识别方法 |
Non-Patent Citations (3)
Title |
---|
A comprehensive comparison of end-to-end approaches for handwritten digit string recognition;Hochuli, AG 等;《 EXPERT SYSTEMS WITH APPLICATIONS》;全文 * |
基于改进YOLOv3和BGRU的车牌识别系统;史建伟;章韵;;计算机工程与设计(第08期);全文 * |
基于深度学习的车牌识别技术的研究与实现;陶建敏;《中国优秀硕士学位论文全文数据库工程科技Ⅱ辑》;全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN113486886A (zh) | 2021-10-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113486886B (zh) | 一种自然场景下的车牌识别方法和装置 | |
CN110443143B (zh) | 多分支卷积神经网络融合的遥感图像场景分类方法 | |
CN111368886B (zh) | 一种基于样本筛选的无标注车辆图片分类方法 | |
CN111898523A (zh) | 一种基于迁移学习的遥感图像特种车辆目标检测方法 | |
CN110796168A (zh) | 一种基于改进YOLOv3的车辆检测方法 | |
CN111563508A (zh) | 一种基于空间信息融合的语义分割方法 | |
CN113642390B (zh) | 一种基于局部注意力网络的街景图像语义分割方法 | |
CN111931684A (zh) | 一种基于视频卫星数据鉴别特征的弱小目标检测方法 | |
CN111582339B (zh) | 一种基于深度学习的车辆检测与识别的方法 | |
CN112800876A (zh) | 一种用于重识别的超球面特征嵌入方法及系统 | |
CN114067444A (zh) | 基于元伪标签和光照不变特征的人脸欺骗检测方法和系统 | |
CN116206185A (zh) | 一种基于改进YOLOv7的轻量级小目标检测方法 | |
CN116704490B (zh) | 车牌识别方法、装置和计算机设备 | |
CN112232351A (zh) | 一种基于深度神经网络的车牌识别系统 | |
CN110717863A (zh) | 一种基于生成对抗网络的单图像去雪方法 | |
CN116206112A (zh) | 基于多尺度特征融合和sam的遥感图像语义分割方法 | |
CN111507413A (zh) | 一种基于字典学习的城市管理案件图像识别方法 | |
CN115393788B (zh) | 一种基于增强全局信息注意力的多尺度监控行人重识别方法 | |
CN104036296A (zh) | 一种图像的表示和处理方法及装置 | |
CN110991374B (zh) | 一种基于rcnn的指纹奇异点检测方法 | |
CN117576073A (zh) | 一种基于改进YOLOv8模型的道路缺陷检测方法、装置和介质 | |
CN116524189A (zh) | 一种基于编解码索引化边缘表征的高分辨率遥感图像语义分割方法 | |
CN116416503A (zh) | 一种基于多模态融合的小样本目标检测方法、系统及介质 | |
CN116091946A (zh) | 一种基于YOLOv5的无人机航拍图像目标检测方法 | |
CN112329771A (zh) | 一种基于深度学习的建筑材料样本识别方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |