CN109993172B - 道路车流的车牌识别方法 - Google Patents
道路车流的车牌识别方法 Download PDFInfo
- Publication number
- CN109993172B CN109993172B CN201910229635.1A CN201910229635A CN109993172B CN 109993172 B CN109993172 B CN 109993172B CN 201910229635 A CN201910229635 A CN 201910229635A CN 109993172 B CN109993172 B CN 109993172B
- Authority
- CN
- China
- Prior art keywords
- license plate
- convolution
- network
- sub
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/26—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
- G06V10/267—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion by performing operations on regions, e.g. growing, shrinking or watersheds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V30/00—Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
- G06V30/10—Character recognition
- G06V30/14—Image acquisition
- G06V30/148—Segmentation of character regions
- G06V30/153—Segmentation of character regions using recognition of characters or words
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/62—Text, e.g. of license plates, overlay texts or captions on TV images
- G06V20/625—License plates
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Molecular Biology (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Mathematical Physics (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Image Analysis (AREA)
- Traffic Control Systems (AREA)
Abstract
本发明公开了一种道路车流的车牌识别方法,主要解决现有技术在复杂环境下车牌识别准确率低的问题。其实现方案是:1.采集若干个不同场景和在不同拍摄角度、不同天气和光照情况下的车辆行驶视频,提取视频中的车牌信息并处理,构建训练数据集;2.构建基于图像特征域转换的车牌识别网络;3.利用训练数据集对构建好的车牌识别网络进行训练;4.将待识别的车牌图像输入到训练好的车牌识别网络,对车牌图像进行识别,得到车牌预测序列,并将车牌预测序列进行整理,得到最终的车牌预测结果。本发明不仅在车牌识别时取得了很高的准确率,而且对各种交通状况及天气光照情况都有很好的普适性,具有较强的鲁棒性,可用于道路车流的车牌识别。
Description
技术领域
本发明属于图像识别和计算机视觉技术领域,主要涉及一种车牌图像识别方法,可用于城市复杂交通环境下的道路车流车牌识别。
背景技术
随着现代社会经济的快速发展和人们生活水平的提高,汽车作为一种必需品走进千家万户。汽车数量的增长在给人们带来便利的同时,也引发了诸如交通堵塞等一系列交通问题。引入智能交通系统能够有效的缓解交通问题,其中对车牌的准确识别是必不可少的环节之一。因此,急需一种在城市复杂的交通环境下,能够对道路车流准确识别车牌的方法。
目前,针对道路车流的车牌识别方法的研究,主要集中在利用目标识别和目标分类技术来进行识别。其实现方案是对车牌图像中的各个字符进行定位分割,再将分割后的字符逐个进行分类,最后组合分类结果得到车牌号。其中字符分割的方法对车牌图像的质量十分敏感,易受天气光照和图像形变的影响,在复杂场景下无法准确分割字符。另外对单个字符逐一识别的方法,需要反复提取图像特征,识别效率十分低下,并且分类准确率严重依赖于字符分割,不具有鲁棒性,不适用于复杂多变的城市交通环境。
发明内容
本发明的目的在于针对上述现有车牌识别方法的不足,提出一种道路车流的车牌识别方法,以提升在复杂场景下车牌识别的准确率和鲁棒性。
本发明的思路是,构建基于图像特征域转换的车牌识别网络,将特征域转换算法和卷积序列识别算法融合在一起,利用特征域转换网络将复杂车牌图像转换成简单的车牌特征,再利用卷积序列识别网络进行车牌识别。其实现步骤包括如下:
(1)构建训练数据集:
(1a)采集若干个不同场景、不同拍摄角度、不同天气和光照情况下的车辆行驶视频;
(1b)将采集的视频每隔50帧读取一张图像,并读取出车牌号作为标注信息,以车牌号为文件名保存车牌图像,存入A文件夹;
(1c)利用计算机图像合成功能,将所有车牌号逐一画在纯蓝色背景的图片上,得到合成车牌图,并以车牌号为文件名保存合成图像,存入B文件夹;
(1d)将A、B文件夹中对应的图像进行统一大小调整,并按左右拼接的方式,拼接成一张图像,左半部分为A文件夹中的图像,右半部分为B文件夹中的图像,以车牌号为文件名保存成图像,即为训练数据集;
(2)构建基于图像特征域转换的车牌识别网络:
(2a)搭建基于图像特征域转换的车牌识别网络中的图像特征域生成子网络,该子网络依次由4个卷积层和4个反卷积层组成;
(2b)搭建基于图像特征域转换的车牌识别网络中的图像特征域判别子网络,该子网络依次由3个卷积层组成;
(2c)搭建基于图像特征域转换的车牌识别网络中的卷积序列识别子网络,该子网络包括五个卷积层和四个池化层;
(3)训练基于图像特征域转换的车牌识别网络:
(3a)将训练数据集图像的左半部分输入到步骤2构建的的车牌识别网络中,经过图像特征域生成子网络输出生成车牌特征;生成车牌特征经过卷积序列识别子网络输出预测序列;将训练数据集图像的右半部分和生成车牌特征分别输入图像特征域判别子网络,得到是否为真实图片的判断结果;
(3b)分别计算图像特征域生成子网络、图像特征域判别子网络、卷积序列识别子网络的损失值,利用损失值采用随机梯度下降算法,分别训练各个子网络,得到训练好的基于图像特征域转换的车牌识别网络;
(4)利用训练好的车牌识别网络对车牌图像进行识别:
将待识别车牌图像的大小调整成256×64个像素,输入到训练好的图像特征域生成子网络,得到生成车牌特征;
将生成车牌特征输入训练好的卷积序列识别子网络,得到车牌预测序列,并将预测序列经过整理,输出车牌号。
与现有技术相比,本发明具有以下优点:
1.识别准确率高
现有道路车流的车牌识别方法是基于字符分割方法进行的,对天气光照的变化过于敏感,容易出现识别出错的情况,而本发明通过搭建基于图像特征域转换的车牌识别网络,将复杂难以识别的车牌图像转换到了易识别的车牌特征,降低了环境对识别结果的影响;另外,卷积序列识别网络的引入,规避了字符分割结果的好坏对识别准确率的影响,从而较大的提升了识别准确率。经实际测试,本发明对道路车流的车牌识别准确率可以达到96%。
2.鲁棒性好
现有车牌识别方法只能在光照良好、车速较慢、拍摄距离较近的前提下有相对较好的检测效果,在道路车流这种复杂多变的环境下,车牌识别效果不理想。而本发明基于图像特征域转换算法,能够将各种复杂场景简单化,对各种交通状况及天气光照情况都有很好的普适性,具有较强的鲁棒性。
附图说明
图1为本发明的实现流程图;
图2为本发明中采集的数据集示例图。
具体实施方式
下面结合附图对本发明做进一步描述。
参照图1,对本实例的具体实施步骤如下。
步骤1,构建训练数据集。
(1a)采集若干个不同场景、不同拍摄角度、不同天气和光照情况下的车辆行驶视频,视频采集的规格为4096*2160,25FPS;
(1b)将采集的视频每隔50帧读取一张图像,并读取出车牌号作为标注信息,以车牌号为文件名保存车牌图像,存入A文件夹;
(1c)利用计算机图像合成功能,将所有车牌号逐一画在纯蓝色背景的图片上,得到合成车牌图,并以车牌号为文件名保存合成图像,存入B文件夹;
(1d)将A、B文件夹中的对应的图像进行统一大小调整,并按左右拼接的方式,拼接成一张图像,左半部分为A文件夹中的图像,右半部分为B文件夹中的图像,以车牌号为文件名保存成图像,即为训练数据集,如图2所示。
本实例共有3600张图片。
步骤2,构建基于图像特征域转换的车牌识别网络。
(2a)搭建基于图像特征域转换的车牌识别网络中的图像特征域生成子网络,该子网络依次由4个卷积层、4个反卷积层组成;
所述图像特征域生成子网络的各层参数如下:
第一卷积层的卷积核大小为3×3,卷积核数量为64,步长为1;
第二卷积层的卷积核大小为4×4,卷积核数量为128,步长为2;
第三卷积层的卷积核大小为4×4,卷积核数量为256,步长为2;
第四卷积层的卷积核大小为4×4,卷积核数量为512,步长为2;
第一反卷积层的卷积核大小为4×4,卷积核数量为256,步长为2;
第二反卷积层的卷积核大小为4×4,卷积核数量为128,步长为2;
第三反卷积层的卷积核大小为4×4,卷积核数量为64,步长为2;
第四反卷积层的卷积核大小为1×1,卷积核数量为3,步长为1;
(2b)搭建基于图像特征域转换的车牌识别网络中的图像特征域判别子网络,该子网络依次由3个卷积层组成;
所述图像特征域判别子网络的各层参数如下:
第1卷积层的卷积核大小为1×1,卷积核数量为64,步长为1;
第2卷积层的卷积核大小为1×1,卷积核数量为128,步长为1;
第3卷积层的卷积核大小为1×1,卷积核数量为1,步长为1;
(2c)搭建基于图像特征域转换的车牌识别网络中的卷积序列识别子网络:
卷积序列识别子网络用于对66类字符进行识别,包括31个省份汉字缩写,10个阿拉伯数字,除字母I和字母O以外的24个英文字母,用于代表背景类的1个空格符。
所述卷积序列识别子网络的结构依次为:第Ⅰ卷积层→第Ⅰ池化层→第Ⅱ卷积层→第Ⅱ池化层→第Ⅲ卷积层→第Ⅲ池化层→第Ⅳ卷积层→第Ⅳ池化层→第Ⅴ卷积层,各层参数如下:
第Ⅰ卷积层的卷积核大小为3×3,卷积核数量为64,步长为1;
第Ⅱ卷积层的卷积核大小为3×3,卷积核数量为128,步长为1;
第Ⅲ卷积层的卷积核大小为3×3,卷积核数量为256,步长为1;
第Ⅳ卷积层的卷积核大小为3×3,卷积核数量为512,步长为1;
第Ⅴ卷积层的卷积核大小为4×4,卷积核数量为66,步长为1。
步骤3,训练基于图像特征域转换的车牌识别网络:
(3a)获得真实图片的判断结果:
(3a1)将训练数据集图像的左半部分输入到步骤2构建的的车牌识别网络中,经过图像特征域生成子网络输出生成车牌特征;
(3a2)将生成车牌特征输入到卷积序列识别子网络,输出车牌图像的预测序列;
(3a3)将训练数据集图像的右半部分和生成车牌特征分别输入图像特征域判别子网络,得到是否为真实图片的判断结果;
(3b)利用损失值训练基于图像特征域转换的车牌识别网络
(3b1)计算图像特征域判别子网络的损失值:
LD=E[logD(y)]+E[log(1-D(G(x)))]
其中,LD代表特征域判别子网络的损失值,x代表输入车牌图像,y代表输入合成图像,G(x)为生成车牌特征,E代表取平均操作,D(y)和D(G(x))分别代表图像特征域判别子网络对合成图像和生成车牌特征是否为真实图片的判断结果;
(3b2)计算卷积序列识别子网络的损失值:
LR=CTC(l,p),
其中,LR代表卷积序列识别子网络的损失值;CTC代表级联时序分类函数,由开源函数库warp-ctc提供,用于计算两个序列向量之间的误差;l为车牌号,p为预测序列;
(3b3)计算图像特征域生成子网络的损失值:
LG=E[logD(G(x))]+λ1E[||y-G(x)||1]+λ2LR
其中,LG代表特征域生成子网络的损失值,‖·‖1代表一范操作。λ1和λ2为两个数值不同的权重系数,λ1取值为100,λ2取值为1;
(3b4)利用损失值LD采用随机梯度下降算法训练特征域判别子网络;利用损失值LR采用随机梯度下降算法训练卷积序列识别子网络;利用损失值LG采用随机梯度下降算法训练特征域生成子网络;通过对上述子网络的训练后,得到训练好的基于图像特征域转换的车牌识别网络。
步骤4,利用训练好的车牌识别网络对车牌图像进行识别:
(4a)将待识别车牌图像的大小调整成256×64个像素,输入到训练好的图像特征域生成子网络,得到生成车牌特征;
(4b)将生成车牌特征输入训练好的卷积序列识别子网络,得到车牌预测序列,并将预测序列经过整理,输出车牌号。
以上描述仅是本发明的一个具体实例,并未构成对本发明的任何限制,显然对于本领域的专业人员来说,在了解了本发明内容和原理后,都可能在不背离本发明原理、结构的情况下,进行形式和细节上的各种修改和改变,但是这些基于本发明思想的修正和改变仍在本发明的权利要求保护范围之内。
Claims (8)
1.一种道路车流的车牌识别方法,其特征在于,包括如下:
(1)构建训练数据集:
(1a)采集若干个不同场景、不同拍摄角度、不同天气和光照情况下的车辆行驶视频;
(1b)将采集的视频每隔50帧读取一张图像,并读取出车牌号作为标注信息,以车牌号为文件名保存车牌图像,存入A文件夹;
(1c)利用计算机图像合成功能,将所有车牌号逐一画在纯蓝色背景的图片上,得到合成车牌图,并以车牌号为文件名保存合成图像,存入B文件夹;
(1d)将A、B文件夹中对应的图像进行统一大小调整,并按左右拼接的方式,拼接成一张图像,左半部分为A文件夹中的图像,右半部分为B文件夹中的图像,以车牌号为文件名保存成图像,即为训练数据集;
(2)构建基于图像特征域转换的车牌识别网络:
(2a)搭建基于图像特征域转换的车牌识别网络中的图像特征域生成子网络,该子网络依次由4个卷积层和4个反卷积层组成;
(2b)搭建基于图像特征域转换的车牌识别网络中的图像特征域判别子网络,该子网络依次由3个卷积层组成;
(2c)搭建基于图像特征域转换的车牌识别网络中的卷积序列识别子网络,该子网络包括五个卷积层和四个池化层;
(3)训练基于图像特征域转换的车牌识别网络:
(3a)将训练数据集图像的左半部分输入到步骤2构建的的车牌识别网络中,经过图像特征域生成子网络输出生成车牌特征;生成车牌特征经过卷积序列识别子网络输出预测序列;将训练数据集图像的右半部分和生成车牌特征分别输入图像特征域判别子网络,得到是否为真实图片的判断结果;
(3b)分别计算图像特征域生成子网络、图像特征域判别子网络、卷积序列识别子网络的损失值,利用损失值采用随机梯度下降算法,分别训练各个子网络,得到训练好的基于图像特征域转换的车牌识别网络;
(4)利用训练好的车牌识别网络对车牌图像进行识别:
将待识别车牌图像的大小调整成256×64个像素,输入到训练好的图像特征域生成子网络,得到生成车牌特征;
将生成车牌特征输入训练好的卷积序列识别子网络,得到车牌预测序列,并将预测序列经过整理,输出车牌号。
2.根据权利要求1所述的方法,其中(2a)中搭建的图像特征域生成子网络,其结构依次为:第一卷积层→第二卷积层→第三卷积层→第四卷积层→第一反卷积层→第二反卷积层→第三反卷积层→第四反卷积层;
其各层参数为:
第一卷积层的卷积核大小为3×3,卷积核数量为64,步长为1;
第二卷积层的卷积核大小为4×4,卷积核数量为128,步长为2;
第三卷积层的卷积核大小为4×4,卷积核数量为256,步长为2;
第四卷积层的卷积核大小为4×4,卷积核数量为512,步长为2;
第一反卷积层的卷积核大小为4×4,卷积核数量为256,步长为2;
第二反卷积层的卷积核大小为4×4,卷积核数量为128,步长为2;
第三反卷积层的卷积核大小为4×4,卷积核数量为64,步长为2;
第四反卷积层的卷积核大小为1×1,卷积核数量为3,步长为1。
3.根据权利要求1所述的方法,其中(2b)中搭建的图像特征域判别子网络,其结构依次为:第1卷积层→第2卷积层→第3卷积层;
其各层参数为:
第1卷积层的卷积核大小为1×1,卷积核数量为64,步长为1;
第2卷积层的卷积核大小为1×1,卷积核数量为128,步长为1;
第3卷积层的卷积核大小为1×1,卷积核数量为1,步长为1。
4.根据权利要求1所述的方法,其中(2c)中搭建的卷积序列识别子网络,其结构依次为:第Ⅰ卷积层→第Ⅰ池化层→第Ⅱ卷积层→第Ⅱ池化层→第Ⅲ卷积层→第Ⅲ池化层→第Ⅳ卷积层→第Ⅳ池化层→第Ⅴ卷积层;
其各层参数为:
第Ⅰ卷积层的卷积核大小为3×3,卷积核数量为64,步长为1;
第Ⅱ卷积层的卷积核大小为3×3,卷积核数量为128,步长为1;
第Ⅲ卷积层的卷积核大小为3×3,卷积核数量为256,步长为1;
第Ⅳ卷积层的卷积核大小为3×3,卷积核数量为512,步长为1;
第Ⅴ卷积层的卷积核大小为4×4,卷积核数量为66,步长为1。
5.根据权利要求1所述的方法,其中(3b)中计算的图像特征域判别子网络的损失值,其计算公式为:
LD=E[logD(y)]+E[log(1-D(G(x)))]
其中,LD代表图像特征域判别子网络的损失值,x代表输入车牌图像,y代表输入合成图像,G(x)为生成车牌特征,E代表取平均操作,D(y)和D(G(x))分别代表图像特征域判别子网络对合成图像和生成车牌特征是否为真实图片的判断结果。
6.根据权利要求1所述的方法,其中(3b)中计算的卷积序列识别子网络的损失值,其计算公式为:
LR=CTC(l,p)
其中,LR代表卷积序列识别子网络的损失值;CTC代表级联时序分类函数,由开源函数库warp-ctc提供,用于计算两个序列向量之间的误差;l为车牌号,p为预测序列。
7.根据权利要求1所述的方法,其中(3b)中计算的图像特征域生成子网络的损失值,其计算公式为:
LG=E[logD(G(x))]+λ1E[||y-G(x)||1]+λ2LR
其中,LG代表图像特征域生成子网络的损失值,‖·‖1为一范操作,λ1和λ2为两个数值不同的权重系数,λ1取值为100,λ2取值为1。
8.根据权利要求1所述的方法,其中(3b)中利用损失值采用随机梯度下降算法,分别训练各个子网络,其实现如下:
(3b1)按照下式,分别对图像特征域生成子网络、图像特征域判别子网络、卷积序列识别子网络的损失值求导数:
其中,FG代表图像特征域生成子网络的损失值LG对其网络参数θG的导数,FD代表图像特征域判别子网络的损失值对其网络参数θD的导数,FR代表卷积序列识别子网络的损失值对其各网络参数θR的导数,θG代表图像特征域生成子网络的参数,θD代表图像特征域判别子网络的参数,θR代表卷积序列识别子网络的参数;
(3b2)按照下式计算各子网络参数的更新值:
θG2=θG-αFG
θD2=θD-αFD
θR2=θR-αFR
其中,θG2代表图像特征域生成子网络参数的更新值,θD2代表图像特征域判别子网络参数的更新值,θR2代表卷积序列识别子网络参数的更新值,α为各子网络的学习速率,取值为0.0001;
(3b3)用各个子网络参数的更新值代替原子网络的参数,得到更新后的网络参数:
θG=θG2
θD=θD2
θR=θR2。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910229635.1A CN109993172B (zh) | 2019-03-25 | 2019-03-25 | 道路车流的车牌识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910229635.1A CN109993172B (zh) | 2019-03-25 | 2019-03-25 | 道路车流的车牌识别方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109993172A CN109993172A (zh) | 2019-07-09 |
CN109993172B true CN109993172B (zh) | 2022-12-06 |
Family
ID=67131452
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910229635.1A Active CN109993172B (zh) | 2019-03-25 | 2019-03-25 | 道路车流的车牌识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109993172B (zh) |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107563385A (zh) * | 2017-09-02 | 2018-01-09 | 西安电子科技大学 | 基于深度卷积生成式对抗网络的车牌字符识别方法 |
WO2018028255A1 (zh) * | 2016-08-11 | 2018-02-15 | 深圳市未来媒体技术研究院 | 基于对抗网络的图像显著性检测方法 |
CN109271991A (zh) * | 2018-09-06 | 2019-01-25 | 公安部交通管理科学研究所 | 一种基于深度学习的车牌检测方法 |
-
2019
- 2019-03-25 CN CN201910229635.1A patent/CN109993172B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018028255A1 (zh) * | 2016-08-11 | 2018-02-15 | 深圳市未来媒体技术研究院 | 基于对抗网络的图像显著性检测方法 |
CN107563385A (zh) * | 2017-09-02 | 2018-01-09 | 西安电子科技大学 | 基于深度卷积生成式对抗网络的车牌字符识别方法 |
CN109271991A (zh) * | 2018-09-06 | 2019-01-25 | 公安部交通管理科学研究所 | 一种基于深度学习的车牌检测方法 |
Also Published As
Publication number | Publication date |
---|---|
CN109993172A (zh) | 2019-07-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107679465B (zh) | 一种基于生成网络的行人重识别数据生成和扩充方法 | |
CN107301383B (zh) | 一种基于Fast R-CNN的路面交通标志识别方法 | |
CN108334881B (zh) | 一种基于深度学习的车牌识别方法 | |
CN109886161B (zh) | 一种基于可能性聚类和卷积神经网络的道路交通标识识别方法 | |
CN111639564B (zh) | 一种基于多注意力异构网络的视频行人重识别方法 | |
Kanwal et al. | Digital image splicing detection technique using optimal threshold based local ternary pattern | |
CN112257601A (zh) | 基于弱监督学习的数据增强网络的细粒度车辆识别方法 | |
CN108830254B (zh) | 一种基于数据均衡策略和密集注意网络的细粒度车型检测与识别方法 | |
CN114360030B (zh) | 一种基于卷积神经网络的人脸识别方法 | |
CN112990282B (zh) | 一种细粒度小样本图像的分类方法及装置 | |
CN111524164B (zh) | 一种目标跟踪方法、装置及电子设备 | |
CN113052184B (zh) | 一种基于两阶段局部特征对齐的目标检测方法 | |
CN113205107A (zh) | 一种基于改进高效率网络的车型识别方法 | |
CN112766378A (zh) | 一种专注细粒度识别的跨域小样本图像分类模型方法 | |
CN113326846A (zh) | 一种基于机器视觉的桥梁表观病害快速检测方法 | |
CN116342894A (zh) | 基于改进YOLOv5的GIS红外特征识别系统及方法 | |
CN111079543B (zh) | 一种基于深度学习的高效车辆颜色识别方法 | |
CN114898243A (zh) | 基于视频流的交通场景解析方法以及装置 | |
Li et al. | Incremental learning of infrared vehicle detection method based on SSD | |
CN109993172B (zh) | 道路车流的车牌识别方法 | |
CN116545944A (zh) | 一种网络流量分类方法及系统 | |
CN116580289A (zh) | 一种基于注意力的细粒度图像识别方法 | |
CN113963150B (zh) | 一种基于多尺度孪生级联网络的行人重识别方法 | |
CN115909140A (zh) | 基于高位视频监控的视频目标分割方法以及系统 | |
Ge et al. | Density and context aware network with hierarchical head for traffic scene detection |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |