CN110334709B - 基于端到端多任务深度学习的车牌检测方法 - Google Patents
基于端到端多任务深度学习的车牌检测方法 Download PDFInfo
- Publication number
- CN110334709B CN110334709B CN201910615131.3A CN201910615131A CN110334709B CN 110334709 B CN110334709 B CN 110334709B CN 201910615131 A CN201910615131 A CN 201910615131A CN 110334709 B CN110334709 B CN 110334709B
- Authority
- CN
- China
- Prior art keywords
- license plate
- detection
- label
- boundary
- vehicle
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 100
- 238000013135 deep learning Methods 0.000 title claims abstract description 22
- 238000013528 artificial neural network Methods 0.000 claims abstract description 15
- 238000012549 training Methods 0.000 claims description 36
- 238000000034 method Methods 0.000 claims description 31
- 230000006870 function Effects 0.000 claims description 12
- 238000000605 extraction Methods 0.000 claims description 8
- 238000013461 design Methods 0.000 claims description 2
- 230000005764 inhibitory process Effects 0.000 claims description 2
- 238000012545 processing Methods 0.000 description 7
- 238000012360 testing method Methods 0.000 description 6
- 238000004088 simulation Methods 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 3
- 238000013459 approach Methods 0.000 description 2
- 238000007796 conventional method Methods 0.000 description 2
- 238000013527 convolutional neural network Methods 0.000 description 2
- 238000011176 pooling Methods 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 239000008358 core component Substances 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 238000003709 image segmentation Methods 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 238000003909 pattern recognition Methods 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 238000012706 support-vector machine Methods 0.000 description 1
- 230000001629 suppression Effects 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/62—Text, e.g. of license plates, overlay texts or captions on TV images
- G06V20/63—Scene text, e.g. street names
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/62—Text, e.g. of license plates, overlay texts or captions on TV images
- G06V20/625—License plates
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Biomedical Technology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
- Traffic Control Systems (AREA)
Abstract
本发明公开了一种基于端到端多任务深度学习的车牌检测方法,用于解决现有车牌检测方法准确率低的技术问题。技术方案是通过一个全卷积神经网络提取输入图片不同层级的特征,然后使用两个特征合并分支分别回归得到车牌及其对应车辆的边界框,最终同时实现车牌检测与车辆检测。由于利用了不同阶段的卷积特征,本发明可以较好地应对变尺度条件下的车牌检测。通过多任务深度学习,实现了较高的检测召回率和准确率,并且在复杂场景下仍具有较高的鲁棒性。
Description
技术领域
本发明涉及一种车牌检测方法,特别涉及一种基于端到端多任务深度学习的车牌检测方法。
背景技术
随着智能交通系统的发展,相关研究人员提出了越来越多的新型智能交通技术,它们被广泛应用在智慧城市、自动驾驶等领域。车牌检测技术是智能交通系统的重要研究内容,它的主要目标是从图片或视频中定位并提取出车牌。由于深度学习在计算机视觉领域取得了极大的成功,因此近些年来很多研究人员基于深度学习技术来设计车牌检测系统。目前的关于车牌检测的研究主要可分为两类:基于传统方法和基于深度学习方法。
文献1“Y.Yuan,W.Zou,Y.Zhao,et al.A Robust and Efficient Approach toLicense Plate Detection.IEEE Transactions on Image Processing,23(3),1102-1114,2017.”中提出了一种鲁棒并且高效的车牌检测方法,它属于传统方法。这种车牌检测算法可以应对复杂的场景并具有较好的实时性。该文首先提出了一种加速车牌定位过程同时又不损失性能的策略,然后又提出了一种新型的line density滤波器来完成候选区域的提取,最后又采用了基于颜色显著性特征的线性支持向量机筛选出真正的车牌区域。实验表明,上述方法同时保证了车牌检测精度和实时性。
文献2“H.Li,P.Wang,M.You,et al.Reading Car License Plates Using DeepNeural Networks.Image and Vision Computing,72,14-23,2018.”使用深度神经网络来进行自然场景下车牌检测与识别,它属于基于深度学习的方法。在本文中,车牌被视为一串自然场景下的文本。首先,作者使用一个37类的卷积神经网络检测图片中所出现的字符,然后采用二分类器排除所有的非车牌字符,最后使用LSTM和CTC来识别车牌序列得到最终结果。
但是这些方法都有局限性:一方面,在开放自然场景下,它们经常会出现车牌漏检的情况,造成召回率降低;另一方面,由于图片失真、复杂的图片背景等干扰因素对检测过程的影响,很多与车牌特征相似的背景会被误检成车牌,造成精准率降低。
发明内容
为了克服现有车牌检测方法准确率低的不足,本发明提供一种基于端到端多任务深度学习的车牌检测方法。该方法通过一个全卷积神经网络提取输入图片不同层级的特征,然后使用两个特征合并分支分别回归得到车牌及其对应车辆的边界框,最终同时实现车牌检测与车辆检测。由于利用了不同阶段的卷积特征,本发明可以较好地应对变尺度条件下的车牌检测。通过多任务深度学习,实现了较高的检测召回率和准确率,并且在复杂场景下仍具有较高的鲁棒性。
本发明解决其技术问题所采用的技术方案:一种基于端到端多任务深度学习的车牌检测方法,其特点是包括以下步骤:
步骤一、多任务网络结构设计。
在复杂场景下同时进行车牌和车辆的检测,首先设计一个多任务框架,多任务框架的两个分支分别实现车牌检测和车辆检测,最终将车牌检测和车辆检测的结果结合起来。将车牌视为自然场景下的文本,通过多任务网络得到的车辆检测结果,将误检将从最终结果中剔除。
为了实现上述功能的多任务网络,采用全卷积神经网络进行特征提取并回归出检测框,然后非极大值抑制被分别用在车牌和车辆检测分支的末端,用来抑制冗余的边界框,并获得最终的检测结果。
步骤二、训练标签生成方法。
在端到端地训练多任务深度神经网络时,同时需要车牌和车辆两方面的标注信息,分数标签图和几何标签图两种训练标签。其中,分数标签图的每个点像素值为0或1,几何标签图由5个通道组成,每个通道中像素值分别代表该像素到上边界的距离、到下边界的距离、到左边界的距离、到右边界的距离以及边界框的旋转角度。由于车牌检测与车辆检测两个子任务的原始标签不具有强关联性,所以训练标签需要单独分别生成,即对每张训练图片,需要通过原始标签生成两个分数标签图和两个几何标签图。
步骤三、数据增强策略。
采用图像缩放和图像随机裁剪两种数据增强策略,对于每张输入的图片都会得到一个缩放比率,这个比率从约束集合Ε={0.2,0.3,0.5,0.8,1.0,2.0,3.0,5.0}中随机产生。
步骤四、多任务训练方法。
在完成了多任务深度神经网络的设计以及训练标签的生成之后,采用在线数据增强方式。数据增强的过程被包含在多任务训练阶段,由于车牌检测与车辆检测两个任务具有不同的损失函数,需要同时考虑两者的特性,然后将两个任务的损失函数进行加权并优化总的损失函数。
本发明的有益效果是:该方法通过一个全卷积神经网络提取输入图片不同层级的特征,然后使用两个特征合并分支分别回归得到车牌及其对应车辆的边界框,最终同时实现车牌检测与车辆检测。由于利用了不同阶段的卷积特征,本发明可以较好地应对变尺度条件下的车牌检测。通过多任务深度学习,实现了较高的检测召回率和准确率,并且在复杂场景下仍具有较高的鲁棒性。
具体的,第一,通过深度神经网络,能够从复杂的自然场景图片中提取特征并准确定位出车牌,在不均匀的光照下对于不同尺度的车牌仍然能达到较高的召回率,相比其他的车牌检测算法,对小尺度车牌的召回率提升明显;第二,通过多任务学习,能够同时实现车牌和车辆检测,较好地解决了复杂场景下车牌误检多的技术问题,进而取得了更高的检测精准率;第三,多任务深度神经网络能够实现端到端的训练,它抛弃了冗余的图像预处理过程,因此整个框架更为简洁与高效。
下面结合附图和具体实施方式对本发明作详细说明。
附图说明
图1是本发明基于端到端多任务深度学习的车牌检测方法的流程图。
图2是本发明方法检测结果的照片。
具体实施方式
参照图1-2。本发明基于端到端多任务深度学习的车牌检测方法具体步骤如下:
A)训练阶段:
步骤一、由数据集原始标签计算生成多任务训练标签。对于数据集中的每幅车牌图像,通常都有一个原始标注文件与之一一对应。一般来说,标注文件中包含若干组坐标,每组坐标包含8个数值及1个备注标签,8个数值分别对应左上角坐标(x1,y1)、右上角坐标(x2,y2)、右下角坐标(x3,y3)、左下角坐标(x4,y4)(按照顺时针方向排序),1个标签信息对应上述8个坐标值所包围的物体类别是车牌还是车辆。实际上这8个坐标值构成了一个包围感兴趣区域的旋转四边形框。然而,多任务深度学习框架无法直接使用旋转四边形进行训练,而是依赖于分数标签图、几何标签图两种标签图,故需要由原始标签计算并生成多任务训练标签。具体方法是:首先将原始标签中的边界框向中心收缩固定比例,以去除边界的干扰背景信息;然后将收缩之后的边界框所包围的所有像素赋值为1,其余区域赋值为0,获得分数标签图,它是一个二值图像;获得分数标签图之后,只考虑像素值为1的区域,依次计算其中每个像素距离原始边界框上边界、下边界、左边界、右边界的垂直距离,得到的数值填入每个像素位置,其余未被赋值的像素值默认为0,由此得到了几何标签图的前4个通道;然后再计算原始标注所构成旋转四边形的倾斜角度,填入分数标签图中像素值为1的区域,即获得第5个通道,由上述5个通道获得可用于训练的几何标签图。根据其备注类别,对每个原始标注都重复上述过程即可分别生成车牌检测训练标签和车辆检测训练标签。
步骤二、对输入训练图像进行数据增强。在深度学习中,训练数据不充足常常导致过拟合的发生。数据增强可以较好的避免过拟合。采用两种数据增强策略:图像缩放处理和图像随机裁剪。图像缩放处理是将训练集中的图像按照一定比例进行缩放,并且缩放比例需要满足以下约束{r|r∈{0.2,0.3,0.5,0.8,1.0,2.0,3.0,5.0}}。一般的图像裁剪方法直接从图像中随机裁剪出某些区域作为输入图片,由于这里需要同时考虑到车牌和车辆,随即裁剪出的区域根据其特性分为4类:背景、车+车牌、车+背景、部分车身+车牌,上述4类裁剪区域会根据步骤1所述的方法生成不同的训练标签。它们所占的比例以及各自分数标签图的生成规则如表1所示。通过这种图像随机裁剪策略,丰富了输入图片的多样性,使车牌可能出现在整张图片的各种位置,使得算法能更好地应对复杂的自然场景。
表1
裁剪区域类别 | 比例 | 分数标签图生成规则 |
背景 | 10% | 所有像素赋值为0 |
车+车牌 | 25% | 车辆、车牌区域分别赋值为1,其余为0 |
车+背景 | 25% | 车辆区域赋值为1,车牌区域赋值为0,其余为0 |
部分车身+车牌 | 40% | 车辆、车牌区域分别赋值为1,其余为0 |
步骤三、多层级深度特征提取。车牌检测框架的核心组成部分是一个可以端到端训练的全卷积神经网络,它分为两个部分:深度特征提取和特征合并。本步骤的主要任务是从进行数据增强之后的输入图片中提取深度特征,使用的特征提取网络是文献“K.He,X.Zhang,S.Ren,et al.Deep Residual Learning for Image Recognition.InProceeding of IEEE Conference on Computer Vision and Pattern Recognition,770-778,2016.”中所提出的ResNet-50。通过ResNet作为主干网络对车牌和车辆进行多层级深度特征提取,在经过不同层数的卷积和池化操作之后,图像大小会发生变化。使用ResNet可以提取四个阶段的特征,不同阶段的特征抽象程度不同、感兴趣区域大小也不同。
步骤四、车牌与车辆检测特征合并及边界框回归。在对输入图像进行多层级深度特征提取之后,还需要将其进行特征合并,最终才能回归出边界框。由于车牌、车辆两者的大小通常差异较大,所以需要合并不同层级的特征,因此特征合并部分可细分为车牌和车辆两个特征合并分支。车牌特征合并分支同时使用了四个阶段的特征,使用卷积层、上池化层将其逐层合并,而车辆特征合并分支只使用了后两个阶段的特征。为了应对不同分辨率的输入图片,在特征合并时仍然使用全卷积网络。在车牌、车辆两个特征合并分支的末端使用1×1卷积回归得到分数标签图和几何标签图,最终可利用两种标签图计算出车牌和车辆各自的旋转四边形边界框。
步骤五、多任务深度模型的监督训练。为了端到端地训练上述全卷积神经网络,采用一种面向多任务的损失函数。整个损失函数由三部分组成:车牌检测损失LP、车辆检测损失LV、正则化项R。如下公式:
L=μLP+(1-μ)LV+ηR, (1)
其中,μ是一个用于平衡两种损失LP和LV的固定参数,将其设置为μ=0.5。正则化项R采用的l2正则化,它主要是用于避免过拟合,并且η也同样被设置为η=0.5。具体来说,LP和LV的定义如下两式:
其中,λP,λV,λθ分别设置为0.01,0.01,20。Ldice是文献“F.Milletari,N.Navab,andS.Ahmadi.V-net:Fully Convolutional Neural Networks for Volumetric MedicalImage Segmentation.In Proceeding of IEEE International Conference on 3DVision,565-571,2016.”中提出的损失函数,将其用于车牌、车辆检测的分数标签图的训练。Ldice可以详细描述为下式:
为了训练几何标签图,需要明确LIoU、Lθ两者的具体定义,计算方式如下公式所示:
其中,和θi分别代表角度的预测值和标注值,对于Si,Ai也具有类似的定义。在训练本发明所提出的深度多任务模型时,主要的目标是最小化上述的整体损失函数,使用的优化方法是随机梯度下降,由此即可实现端到端训练。
步骤六、检查一一对应条件及误检结果处理。基于多任务深度学习的方法可以同时检测出车牌区域和车辆区域,但是它的目标是定位出含有车牌的车辆区域而并非图像中的所有车辆,所以这一步骤需要检查“车牌—车辆”一一对应条件是否满足,并剔除车牌和车辆的误检结果。一一对应条件是指每个车牌区域都有且仅有一个车辆区域与之对应,依次遍历所有的车牌、车辆区域,根据车辆区域必定包围车牌区域的先验条件,即可剔除所有的误检区域,生成最终的检测结果。
B)测试阶段:
步骤七、多任务深度特征提取及特征合并。对于测试集中的每张输入图像,采用与训练阶段步骤三和步骤四相同的算法,进行多任务深度特征提取及特征合并,但是在测试阶段所使用的深度神经网络中的所有参数都固定为训练阶段学习得到的数值。
步骤八、非极大值抑制及阈值设定。对于某个车牌或车辆区域,由上述步骤回归得到的可能是多个互相交叠的边界框,但是实际应用中需要的是一个最优的边界框,这时就需要使用非极大值抑制来抑制冗余的边界框。首先需要遍历所有边界框并且按照得分由高到低进行排序,选中得分最高的框,然后遍历其余的框,如果和当前最高分框重叠面积较大,就将此框删除,最后即可得到最终的边界框。为了保证检测结果的准确性,还需要从最终的边界框中剔除一部分得分小于阈值的框,此阈值设置为0.6。
步骤九、多任务检测结果融合。由上述步骤即可得到一一对应的车辆、车牌检测边界框,将相关的车牌边界框和车辆边界框互相关联起来,组成一个整体即得到最终的多任务检测结果。
本发明的效果通过以下仿真实验作进一步说明:
1、仿真条件。
本发明所做实验设备的具体配置为,中央处理器i7-6800K@3.40GHz、内存64GB、图像处理器 GeForce GTX 1080Ti、操作系统Ubuntu 2016,利用了TensorFlow深度学习框架进行仿真。
仿真中所使用的数据集有两个:OPT-LPD数据集和PKU Vehicle数据集。第一个数据集是本发明的数据集,包括12184张中文车牌图片;第二个数据集由Yuan等人在文献“Y.Yuan,W.Zou,Y.Zhao,et al.A Robust and Efficient Approach to License PlateDetection.IEEE Transactions on Image Processing,26(3),1102-1114,2017.”中提出,包括3977张图片(分属于G1-G5共5个子集中)。必须注意的是,OPT-LPD数据集中同时标注了车辆和车牌,可以实现多任务深度模型的端到端训练,而PKU Vehicle数据集仅仅标注了车牌,没有车辆的标注,无法训练多任务模型。为了与其他算法进行比较以验证本发明的车牌检测性能,在仿真中使用OPT-LPD数据集作为训练集,将PKU Vehicle数据集作为测试集。
2、仿真内容。
首先,使用训练集的数据对端到端多任务深度学习框架进行训练,得到并存储训练好的模型;然后,使用测试集中的数据对训练好的模型进行测试,并分别计算测试集中5个子集的检测比率以及平均检测比率,以此来评判检测算法的性能。
为了证明算法的有效性,本发明选择了5个不同的算法作为对比算法,它们分别被命名为SEW算法、Voting算法、PVW算法、CRF算法和RE算法。SEW算法在文献“D.Zheng,Y.Zhao,and J.Wang.An Efficient Method of License Plate Location.PatternRecognition Letters,26(15),2431–2438,2005.”中提出;Voting算法在文献“Y.Zhao,Y.L.Yuan,S.Bai,et al.Voting-based License Plate Location.in Proceeding ofIEEE Conference on Intelligent Transportation Systems,314–317,2011.”中提出;PVW算法在文献“W.Zhou,H.Li,Y.Lu,et al.Principal Visual Word Discovery forAutomatic License Plate Detection.IEEE Transactions on Image Processing,21(9),4269–4279,2012.”中提出;CRF算法在文献“B.Li,B.Tian,Y.Li,et al.Component-Based License Plate Detection Using Conditional Random Field Model.IEEETransactions on Intelligent Transportation Systems,14(4),1690-1699,2013.”中提出;RE算法在文献“Y.Yuan,W.Zou,Y.Zhao,et al.A Robust and Efficient Approach toLicense Plate Detection.IEEE Transactions on Image Processing,26(3),1102-1114,2017.”中提出。上述5种算法与本发明的对比结果如表2所示:
表2
由表2可见,本发明在5个子集中的检测比率均高于其他算法,平均检测比率达到了99.56%,也高于其他算法。图2中展示了若干张在PKU Vehicle数据集上的检测结果图,车牌检测结果和车辆检测结果清晰可见。
本发明通过一个基于端到端多任务深度学习的框架,通过全卷积网络提取图像中丰富的深层特征,并使用特征合并的方法解决复杂场景中车牌、车辆大小多变的问题。本发明将车辆检测作为车牌检测的辅助分支,对车牌检测结果起到了监督作用,提升了车牌检测的性能,并且本发明在复杂的自然场景下仍然具有较高的鲁棒性。
Claims (1)
1.一种基于端到端多任务深度学习的车牌检测方法,其特征在于包括以下步骤:
步骤一、多任务网络结构设计;
在复杂场景下同时进行车牌和车辆的检测,首先设计一个多任务框架,多任务框架的两个分支分别实现车牌检测和车辆检测,最终将车牌检测和车辆检测的结果结合起来;将车牌视为自然场景下的文本,采用全卷积神经网络进行特征提取并回归出检测框,然后非极大值抑制被分别用在车牌和车辆检测分支的末端,用来抑制冗余的边界框,并获得最终的检测结果;
步骤二、训练标签生成方法;
在端到端地训练多任务深度神经网络时,同时需要车牌和车辆两方面的标注信息,分数标签图和几何标签图两种训练标签;其中,分数标签图的每个点像素值为0或1,几何标签图由5个通道组成,每个通道中像素值分别代表该像素到上边界的距离、到下边界的距离、到左边界的距离、到右边界的距离以及边界框的旋转角度;由于车牌检测与车辆检测两个子任务的原始标签不具有强关联性,所以训练标签需要单独分别生成,即对每张训练图片,需要通过原始标签生成两个分数标签图和两个几何标签图;
具体实施方法是:首先将原始标签中的边界框向中心收缩固定比例,以去除边界的干扰背景信息;然后将收缩之后的边界框所包围的所有像素赋值为1,其余区域赋值为0,获得分数标签图,所述分数标签图是一个二值图像;获得分数标签图之后,只考虑像素值为1的区域,依次计算其中每个像素距离原始边界框上边界、下边界、左边界、右边界的垂直距离,得到的数值填入每个像素位置,其余未被赋值的像素值默认为0,由此得到了几何标签图的前4个通道;然后再计算原始标注所构成旋转四边形的倾斜角度,填入分数标签图中像素值为1的区域,即获得第5个通道,由上述5个通道即可获得可用于训练的几何标签图;
步骤三、数据增强策略;
采用图像缩放和图像随机裁剪两种数据增强策略,对于每张输入的图片都会得到一个缩放比率,这个比率从约束集合Ε={0.2,0.3,0.5,0.8,1.0,2.0,3.0,5.0}中随机产生;
步骤四、多任务训练方法;
在完成了多任务深度神经网络的设计以及训练标签的生成之后,采用在线数据增强方式;数据增强的过程被包含在多任务训练阶段,由于车牌检测与车辆检测两个任务具有不同的损失函数,需要同时考虑两者的特性,然后将两个任务的损失函数进行加权并优化总的损失函数,整个损失函数由三部分组成:车牌检测损失LP、车辆检测损失LV、正则化项R,其中,
L=μLP+(1-μ)LV+ηR, (1)
μ是一个用于平衡两种损失LP和LV的固定参数,μ=0.5,正则化项R采用的l2正则化,η=0.5,λP,λV,λθ分别设置为0.01,0.01,20,
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910615131.3A CN110334709B (zh) | 2019-07-09 | 2019-07-09 | 基于端到端多任务深度学习的车牌检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910615131.3A CN110334709B (zh) | 2019-07-09 | 2019-07-09 | 基于端到端多任务深度学习的车牌检测方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110334709A CN110334709A (zh) | 2019-10-15 |
CN110334709B true CN110334709B (zh) | 2022-11-11 |
Family
ID=68144858
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910615131.3A Active CN110334709B (zh) | 2019-07-09 | 2019-07-09 | 基于端到端多任务深度学习的车牌检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110334709B (zh) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110276345B (zh) * | 2019-06-05 | 2021-09-17 | 北京字节跳动网络技术有限公司 | 卷积神经网络模型训练方法、装置和计算机可读存储介质 |
CN111242119B (zh) * | 2020-01-02 | 2022-12-16 | 腾讯科技(深圳)有限公司 | 车辆图像的处理方法、装置、电子设备和计算机可读介质 |
CN111563515A (zh) * | 2020-05-18 | 2020-08-21 | 哈尔滨理工大学 | 一种基于改进的Faster-RCNN的车牌识别方法 |
CN111814783B (zh) * | 2020-06-08 | 2024-05-24 | 深圳市富浩鹏电子有限公司 | 基于车牌顶点偏移估计的精准车牌定位方法 |
CN113239997A (zh) * | 2021-04-30 | 2021-08-10 | 青岛以萨数据技术有限公司 | 车辆号牌识别系统的测试方法、装置、系统及存储介质 |
CN115171053A (zh) * | 2022-06-20 | 2022-10-11 | 阿里云计算有限公司 | 路侧停车检测方法、系统及电子设备 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108460328A (zh) * | 2018-01-15 | 2018-08-28 | 浙江工业大学 | 一种基于多任务卷积神经网络的套牌车检测方法 |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101339697B (zh) * | 2008-08-14 | 2011-06-08 | 北京中星微电子有限公司 | 车辆闯红灯的检测系统及方法 |
BE1018331A6 (fr) * | 2008-11-03 | 2010-09-07 | N I R Sprl | Systeme de detection de vol de plaques d'immatriculation pour tout vehicule. |
CN107729801B (zh) * | 2017-07-11 | 2020-12-18 | 银江股份有限公司 | 一种基于多任务深度卷积神经网络的车辆颜色识别系统 |
CN108564088A (zh) * | 2018-04-17 | 2018-09-21 | 广东工业大学 | 车牌识别方法、装置、设备及可读存储介质 |
CN108830192A (zh) * | 2018-05-31 | 2018-11-16 | 珠海亿智电子科技有限公司 | 车载环境下基于深度学习的车辆与车牌检测方法 |
CN109299274B (zh) * | 2018-11-07 | 2021-12-17 | 南京大学 | 一种基于全卷积神经网络的自然场景文本检测方法 |
CN109726717B (zh) * | 2019-01-02 | 2022-03-01 | 西南石油大学 | 一种车辆综合信息检测系统 |
-
2019
- 2019-07-09 CN CN201910615131.3A patent/CN110334709B/zh active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108460328A (zh) * | 2018-01-15 | 2018-08-28 | 浙江工业大学 | 一种基于多任务卷积神经网络的套牌车检测方法 |
Also Published As
Publication number | Publication date |
---|---|
CN110334709A (zh) | 2019-10-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110334709B (zh) | 基于端到端多任务深度学习的车牌检测方法 | |
CN105844669B (zh) | 一种基于局部哈希特征的视频目标实时跟踪方法 | |
CN114841972B (zh) | 基于显著性图和语义嵌入特征金字塔的输电线路缺陷识别方法 | |
CN111797829A (zh) | 一种车牌检测方法、装置、电子设备和存储介质 | |
CN111681273A (zh) | 图像分割方法、装置、电子设备及可读存储介质 | |
CN111460927A (zh) | 对房产证图像进行结构化信息提取的方法 | |
CN112418216A (zh) | 一种复杂自然场景图像中的文字检测方法 | |
CN112699775A (zh) | 基于深度学习的证件识别方法、装置、设备及存储介质 | |
CN114266794B (zh) | 基于全卷积神经网络的病理切片图像癌症区域分割系统 | |
CN111914838A (zh) | 一种基于文本行识别的车牌识别方法 | |
CN113240716B (zh) | 一种多特征融合的孪生网络目标跟踪方法及系统 | |
CN110443235B (zh) | 一种智能纸质试卷总分识别方法及系统 | |
CN110008900A (zh) | 一种由区域到目标的可见光遥感图像候选目标提取方法 | |
CN116311310A (zh) | 一种结合语义分割和序列预测的通用表格识别方法和装置 | |
CN113591719A (zh) | 一种自然场景任意形状文本检测方法、装置和训练方法 | |
CN110852327A (zh) | 图像处理方法、装置、电子设备及存储介质 | |
CN110599453A (zh) | 一种基于图像融合的面板缺陷检测方法、装置及设备终端 | |
CN115131797A (zh) | 一种基于特征增强金字塔网络的场景文本检测方法 | |
CN112446292B (zh) | 一种2d图像显著目标检测方法及系统 | |
CN117037119A (zh) | 基于改进YOLOv8的道路目标检测方法及系统 | |
Giang et al. | TopicFM: Robust and interpretable topic-assisted feature matching | |
CN114581646A (zh) | 文本识别方法、装置、电子设备及存储介质 | |
CN110399760A (zh) | 一种批量二维码定位方法、装置、电子设备及存储介质 | |
CN113221731A (zh) | 一种多尺度遥感图像目标检测方法及系统 | |
CN112364709A (zh) | 基于编码识别的机柜智能资产盘点方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |