CN113537211B - 一种基于非对称iou的深度学习车牌框定位方法 - Google Patents

一种基于非对称iou的深度学习车牌框定位方法 Download PDF

Info

Publication number
CN113537211B
CN113537211B CN202110686336.8A CN202110686336A CN113537211B CN 113537211 B CN113537211 B CN 113537211B CN 202110686336 A CN202110686336 A CN 202110686336A CN 113537211 B CN113537211 B CN 113537211B
Authority
CN
China
Prior art keywords
license plate
deep learning
plate frame
frame
iou
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202110686336.8A
Other languages
English (en)
Other versions
CN113537211A (zh
Inventor
康波
秦传鉴
占越
李云霞
王冰峰
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
University of Electronic Science and Technology of China
Original Assignee
University of Electronic Science and Technology of China
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by University of Electronic Science and Technology of China filed Critical University of Electronic Science and Technology of China
Priority to CN202110686336.8A priority Critical patent/CN113537211B/zh
Publication of CN113537211A publication Critical patent/CN113537211A/zh
Application granted granted Critical
Publication of CN113537211B publication Critical patent/CN113537211B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2415Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Molecular Biology (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Mathematical Physics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Probability & Statistics with Applications (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Image Analysis (AREA)
  • Traffic Control Systems (AREA)

Abstract

本发明公开了一种基于非对称IOU的深度学习车牌框定位方法,首先对相关车辆车牌数据集图片进行预处理,得到训练样本;接着构建基于FOCS的深度学习网络并训练,在训练过程中,通过采用非对称的IOU算法来计算损失函数值,得到优化训练后的车牌框检测模型;最后利用训练后模型,输入实际场景中获取的车辆场景图像,定位其车牌检测框;这样在保证车牌框检测定位算法的实时性的同时,又对车牌框定位检出的完整性有较大提升。

Description

一种基于非对称IOU的深度学习车牌框定位方法
技术领域
本发明属于车牌检测技术领域,更为具体地讲,涉及一种基于非对称IOU的深度学习车牌框定位方法。
背景技术
传统车牌框定位方法有基于边缘检测、色彩分割、小波变换等,在深度学习方向大部分的车牌检测定位的方法基于卷积神经网络(Convolutional Neural Networks,CNN)进行处理。Silva与Jung注意到Fast-YOLO模型在没有车辆检测得到的prior时,召回率会很低。因此,他们使用级联排列的Fast-YOLO模型,首先检测汽车的正面,然后再定位车牌框,这样在巴西车牌数据集上得到了较高的准确率和召回率。Hsu等人对车牌检测定位修改YOLO和YOLOv2模型,能够在高端GPU上达到54FPS。Kurpiel等人对输入车辆车牌图片划分子区域,形成重叠的网格,再通过CNN模型对每个区域进行评分,最后分析相邻子区域的输出来定位车牌框,其在GT-740M的GPU上,检测多个车辆图像中的巴西车牌耗时230ms,并在他们引入的公开数据集上达到83%的召回率。Li等人训练了一个基于常规文本字符裁剪的CNN模型,来执行基于字符的车牌框定位,该网络对整个图像进行滑动窗口(sliding-window),生成文本显著性特征图,以提取近似文本的区域,再用连通域分析CCA(ConnectedComponent Analysis)方法生成初始候选框,最后,单独训练一个区分车牌与非车牌的CNN模型来去除错误正样本。
以上方法对于一般性场景的车牌定位可以满足需求,但是对于有其他车辆车牌干扰,车牌图像尺度变化的情境下检测定位效果不佳。特别对于目标检测任务中,一般使用IOU为检测效果和定位好坏的重要评判标准,然而传统的IOU计算将预测框与检测框一视同仁,二者为对称关系。而在车牌框定位任务中,预测框未覆盖全目标会直接导致之后的识别失败,即车牌框定位要求较高的完整性,传统IOU评判不能很好满足。
发明内容
本发明的目的在于克服现有技术的不足,提供一种基于非对称IOU的深度学习车牌框定位方法,能够通过非对称IOU算法实现车牌框的定位检全,同时又保证速度与准确度。
为实现上述发明目的,本发明为一种基于非对称IOU的深度学习车牌框定位方法,其特征在于,包括以下步骤:
(1)、数据集建立与图像预处理;
通过pytorch中的torchvision导入标定车牌框的车辆场景图像,构成数据集;然后对数据集中的每一张车辆场景图像依次进行尺度缩放、随机水平翻转、编码格式转换和数据标准化处理,得到标准的样本集;
(2)、构建基于FCOS的深度学习网络;
深度学习网络的结构包括三个部分:第一部分为ResNet模块化的骨干网络,其为resnet-18的backbone网络;第二部分是特征层金字塔;第三部分为损失计算模块;
(3)、训练深度学习网络;
(3.1)、从标准的样本集任意选取一张标定车牌框的车辆场景图像输入至深度学习网络;
(3.2)、在深度学习网络的第一部分中,在backbone网络中对输入的车辆场景图像分别进行步长为8、16、32的3*3卷积操作,从而提取出三层的特征图,记为C1、C2、C3;
(3.3)、在深度学习网络的第二部分中,先对特征图C3做步长为1的1*1的卷积,得到特征图P3;然后对特征图P3进行两次步长为2的3*3卷积操作,得到两幅特征图,记为P4、P5;最后对C1、C2分别做步长为1的1*1卷积操作,再分别与P3进行叠加,叠加完成后再进行步长为1的3*3卷积操作,得到两幅特征图,记为P1,P2;至此由特征图P1到特征图P5构成不同尺度的特征金字塔;
(3.4)、在特征金字塔中,对每一层中特征图的每个像素点(x,y)进行分类预测与回归框预测,得到当前层像素点(x,y)的分类概率
Figure BDA0003124722250000021
与回归框预测值/>
Figure BDA0003124722250000022
i=1,2,3,4,5;然后依据特征金字塔各层的尺度,将每层所得/>
Figure BDA0003124722250000023
与/>
Figure BDA0003124722250000024
映射回原始传入的车辆场景图,得到原图中像素点(x,y)的分类概率Ρx,y和回归框预测值Τx,y
(3.5)、在深度学习网络的第三部分中,将步骤(3.4)得到的分类概率Ρx,y和回归框预测值Τx,y代入下式的损失函数中,计算本次训练时的损失值;
Figure BDA0003124722250000031
其中,Npos表示落入标定车牌框的像素点数量;λ为加权项;
Figure BDA0003124722250000032
为分类类别,/>
Figure BDA0003124722250000033
为车牌类,/>
Figure BDA0003124722250000034
为背景类;/>
Figure BDA0003124722250000035
为指示函数,在/>
Figure BDA0003124722250000036
时对应车牌类时取值为1,/>
Figure BDA0003124722250000037
时对应背景类时取值为0;Τx,y为回归框预测值,具体为像素点(x,y)到回归框四个边界的距离值;/>
Figure BDA0003124722250000038
为像素点(x,y)到标定车牌框四个边界的距离值;Lcls为分类损失,采用focal损失函数;Lreg为回归损失,采用非对称IOU损失,即IIOU损失;Ψx,y *为像素点(x,y)的中心度;
(3.6)、重复步骤(3.1)~(3.5),并使用Adma优化器对深度学习网络进行优化,直到深度学习网络收敛,最终得到训练完成的车牌框定位模型;
(4)、车牌框的实时定位;
由摄像头抓拍实际场景中的车辆车牌图像,按照步骤(1)所述方法进行预处理,然后再输入至车牌框定位模型,从而定位出完整的车牌框。
本发明的发明目的是这样实现的:
本发明基于非对称IOU的深度学习车牌框定位方法,首先对相关车辆车牌数据集图片进行预处理,得到训练样本;接着构建基于FOCS的深度学习网络并训练,在训练过程中,通过采用非对称的IOU算法来计算损失函数值,得到优化训练后的车牌框检测模型;最后利用训练后模型,输入实际场景中获取的车辆场景图像,定位其车牌检测框;这样在保证车牌框检测定位算法的实时性的同时,又对车牌框定位检出的完整性有较大提升。
同时,本发明基于非对称IOU的深度学习车牌框定位方法还具有以下有益效果:
(1)、在高速路口、小区入口等车牌抓拍检测地点,不仅需要检测近距离车牌,同时要过滤远方其他车辆车牌干扰。在自然场景中,车牌随成像距离角度在图像上尺寸多变,且多出现倾斜情况,目标检测中多尺度结构能够提高对小目标的检测效果,但系统计算量较大。本发明基于FCOS网络定位车牌框,是一种anchor-free检测方法,直接对落入车牌目标检测框内的正样本进行处理,极大减轻了计算复杂度,同时选用resnet-18的backbone网络模型,其对于一般车牌检测场景而言,更加轻量,能在保证高检测精度前提下有效提升算法运行速度。
(2)、FCOS网络对于中心度的定义方式是经验性的,对于标定车牌框内不同坐标的像素点对模型的贡献度采用定性分析,其并非最佳方案。本发明基于标定车牌框内像素点贡献度的分布情况,根据更靠近中心的像素点置信度更高的特性,且仅对标定车牌框中心点附近像素点进行中心度计算,同时将此中心度合并到回归分支,对回归损失进行加权,能有效减少低质量检测框的影响,提升模型性能。
(3)、IOU是检测效果和定位好坏的重要评判标准。然而传统的IOU计算将预测框与检测框一视同仁,二者为对称关系,在复杂情况下的目标检全率并不十分理想。对于车牌框定位任务中,预测框未覆盖完整目标会直接导致之后的识别失败,即车牌识别要求较高的检全性。因此本发明提出一种非对称的IOU计算方法,即IIOU评估,其有以下特点:首先IIOU值仅与重叠度相关,与物体大小无关;其次当检测框与车牌重合,IIOU与IOU取值相等;同时,IIOU值域为[-1,1],相比IOU而言值域更广,即在计算损失时处理范围更广;最后对于不同重叠情况下,IOU值保持不变,但IIOU仍可继续优化。相较于IOU,IIOU评估具有尺度不变性、极限相等、值域范围广与引导优化方向的特性,能有效提升整体性能,达到更高的车牌检全性。
附图说明
图1是本发明基于非对称IOU的深度学习车牌框定位方法流程图;
图2是深度学习网络结构图;
图3是基于IIOU的车牌框与检测框不同重叠情况示意,其中A为实际车牌框;B为模型预测框,预测框B由小到大递增;“/”表示IIOU为正;“\”表示IIOU为负;
图4是车牌框定位结果图,(a)为全局效果;(b)为局部放大后非对称IOU(IIOU)与常规IOU检测定位效果对比图;
具体实施方式
下面结合附图对本发明的具体实施方式进行描述,以便本领域的技术人员更好地理解本发明。需要特别提醒注意的是,在以下的描述中,当已知功能和设计的详细描述也许会淡化本发明的主要内容时,这些描述在这里将被忽略。
实施例
为了方便描述,先对具体实施方式中出现的相关专业术语进行说明:
IOU(Intersection over Union):交并比;
IIOU(Inequivalence Intersection over Union):非对称交并比;
在本实施例中,如图1所示,本发明一种基于非对称IOU的深度学习车牌框定位方法,包括以下步骤:
S1、数据集建立与图像预处理
通过pytorch中的torchvision导入标定车牌框的车辆场景图像,构成数据集;然后对数据集中的每一张车辆场景图像依次进行尺度缩放、随机水平翻转、编码格式转换和数据标准化处理,得到标准的样本集;
在本实施例中,尺度缩放:原始车牌图片宽度为w,高度为h,短边shor=min(w,h),长边为long=max(w,h),长短边比例ratio=long/short。预设图片输入边长范围为[minSize,maxSize],预设比例为maxSize/minSize。当输入图片长短边比例小于预设比时,将图片resize到[minSize,minSize* ratio]。当图片比例大于预设比时,图片resize到[maxSize/ratio,maxSize]。尺度缩放后,再统一resize到[minSize,maxSize]。
随机水平翻转:以batch为单位进行水平翻转,翻转后图片水平镜像对称,翻转概率为50%。
编码格式转换:对原始车牌图片进行编码检测,然后统一转换成BGR格式,并把色彩值归一到[0,255]范围。
数据标准化:标准化公式如下
Figure BDA0003124722250000051
其中,x表示车辆场景图像中某一像素值,μ为像素均值,σ为标准差。
S2、构建基于FCOS的深度学习网络;
深度学习网络的结构包括三个部分:第一部分为ResNet模块化的骨干网络,其为resnet-18的backbone网络;第二部分是特征层金字塔;第三部分为损失计算模块,模型结构如图2所示;
S3、训练深度学习网络;
S3.1、从标准的样本集任意选取一张标定车牌框的车辆场景图像输入至深度学习网络;
S3.2、在深度学习网络的第一部分中,在backbone网络中对输入的车辆场景图像分别进行步长为8、16、32的3*3卷积操作,从而提取出三层的特征图,记为C1、C2、C3;
S3.3、在深度学习网络的第二部分中,先对特征图C3做步长为1的1*1的卷积,得到特征图P3;然后对特征图P3进行两次步长为2的3*3卷积操作,得到两幅特征图,记为P4、P5;最后对C1、C2分别做步长为1的1*1卷积操作,再分别与P3进行叠加,叠加完成后再进行步长为1的3*3卷积操作,得到两幅特征图,记为P1,P2;至此由特征图P1到特征图P5构成不同尺度的特征金字塔;
S3.4、在特征金字塔中,对每一层中特征图的每个像素点(x,y)进行分类预测与回归框预测,得到当前层像素点(x,y)的分类概率
Figure BDA0003124722250000061
与回归框预测值/>
Figure BDA0003124722250000062
i=1,2,3,4,5;然后依据特征金字塔各层的尺度,将每层所得/>
Figure BDA0003124722250000063
与/>
Figure BDA0003124722250000064
映射回原始传入的车辆场景图,得到原图中像素点(x,y)的分类概率Ρx,y和回归框预测值Τx,y
S3.5、在深度学习网络的第三部分中,将步骤S3.4得到的分类概率Ρx,y和回归框预测值Τx,y代入下式的损失函数中,计算本次训练时的损失值;
Figure BDA0003124722250000065
其中,Npos表示落入标定车牌框的像素点数量;λ为加权项,取值为1;
Figure BDA0003124722250000066
为分类类别,/>
Figure BDA0003124722250000067
为车牌类,/>
Figure BDA0003124722250000068
为背景类;/>
Figure BDA0003124722250000069
为指示函数,在/>
Figure BDA00031247222500000610
时对应车牌类时取值为1,
Figure BDA00031247222500000611
时对应背景类时取值为0;Τx,y为回归框预测值,具体为像素点(x,y)到回归框四个边界的距离值;/>
Figure BDA00031247222500000612
为像素点(x,y)到标定车牌框四个边界的距离值;
Lcls为分类损失,具体使用focal损失,为增加调制系数的交叉熵损失,可有效适应车牌检测定位场景中落入标定车牌框的像素点数量占比较少的情况,同时其更关注困难与易分错的像素点,具体定义为:
Lcls=-αt(1-Pt)Υlog(Pt)
Figure BDA0003124722250000071
其中,(1-Pt)Υ为调制系数,γ为可调参数,取值0.5;αx,y为解决像素点(x,y)分布不均匀的权重因子,取值0.25;
Lreg为回归损失,使用非对称IOU,即IIOU损失;对于车牌检测定位中的优劣问题,本发明采用非对称IOU,即IIOU进行评估,能有效加强车牌检测定位的“检全性”。IIOU具体定义为:
Lreg=1-IIOU
其中,
Figure BDA0003124722250000072
A表示标定车牌框内像素点的个数,B为模型预测的回归框内像素点的个数;/>
Figure BDA0003124722250000073
基于IIOU评估,其具有以下特点:首先IIOU值仅与重叠度相关,与物体大小无关;其次当检测框与车牌重合,IIOU与IOU取值相等;同时,IIOU值域为[-1,1],相比IOU而言值域具备对称性,在计算损失时处理范围更广;最后对于不同重叠情况下,IOU值保持不变,但IIOU仍可继续优化。具体如图3所示,即在预测框逐渐增大过程中,对于不同重叠情况,IIOU能更优的表征对应关系,尤其对于车牌检测框的“检全性”有较大提升,能较好降低车牌检测定位不全对识别的负面影响,从而提升了模型整体性能。
Ψx,y *为像素点(x,y)的中心度,此处使用目标检测框中心点附近像素点进行中心度计算的方法,同时合并到回归分支对回归损失Lreg进行加权,有效降低了边缘低质量候选检测框的预测权重,便于NMS的后处理以滤除。其中心度计算具体定义如下:
Figure BDA0003124722250000074
其中,η为中心采样范围参数,
Figure BDA0003124722250000081
l*,t*,r*,b*分别表示像素点(x,y)到标定车牌框四个边界的距离。
S3.6、重复步骤S3.1~S3.5,并使用Adma优化器对深度学习网络进行优化,直到深度学习网络收敛,最终得到训练完成的车牌框定位模型;
S4、车牌框的实时定位;
由摄像头抓拍实际场景中的车辆车牌图像,按照步骤S1所述方法进行预处理,然后再输入至车牌框定位模型,从而定位出完整的车牌框。
在本实施例中,具体车牌框定位结果如图4所示,其中,图4(b)中矩形的内框对应IOU的检测结果,矩形外框对应IIOU的检测结果;由图4中的(b)所示,基于IOU的检测对于车牌信息未能检测完全,其车牌左下角的数字1没有完整处于检测框内,这势必对后续识别造成严重影响。反观非对称的IIOU检测可以将整个车牌几乎完整位于检测框内,较好地保证车牌检测定位的“检全性”,涵盖完整车牌信息,利于后续识别工作。
尽管上面对本发明说明性的具体实施方式进行了描述,以便于本技术领域的技术人员理解本发明,但应该清楚,本发明不限于具体实施方式的范围,对本技术领域的普通技术人员来讲,只要各种变化在所附的权利要求限定和确定的本发明的精神和范围内,这些变化是显而易见的,一切利用本发明构思的发明创造均在保护之列。

Claims (2)

1.一种基于非对称IOU的深度学习车牌框定位方法,其特征在于,包括以下步骤:
(1)、数据集建立与图像预处理
通过pytorch中的torchvision导入标定车牌框的车辆场景图像,构成数据集;然后对数据集中的每一张车辆场景图像依次进行尺度缩放、随机水平翻转、编码格式转换和数据标准化处理,得到标准的样本集;
(2)、构建基于FCOS的深度学习网络;
深度学习网络的结构包括三个部分:第一部分为ResNet模块化的骨干网络,其为resnet-18的backbone网络;第二部分是特征层金字塔;第三部分为损失计算模块;
(3)、训练深度学习网络;
(3.1)、从标准的样本集任意选取一张标定车牌框的车辆场景图像输入至深度学习网络;
(3.2)、在深度学习网络的第一部分中,在backbone网络中对输入的车辆场景图像分别进行步长为8、16、32的3*3卷积操作,从而提取出三层的特征图,记为C1、C2、C3;
(3.3)、在深度学习网络的第二部分中,先对特征图C3做步长为1的1*1的卷积,得到特征图P3;然后对特征图P3进行两次次步长为2的3*3卷积操作,得到两幅特征图,记为P4、P5;最后对C1、C2分别做步长为1的1*1卷积操作,再分别与P3进行叠加,叠加完成后再进行步长为1的3*3卷积操作,得到两幅特征图,记为P1,P2;至此由特征图P1到特征图P5构成不同尺度的特征金字塔;
(3.4)、在特征金字塔中,对每一层中特征图的每个像素点(x,y)进行分类预测与回归框预测,得到当前层像素点(x,y)的分类概率
Figure FDA0004131385730000011
与回归框预测值/>
Figure FDA0004131385730000012
i=1,2,3,4,5;然后依据特征金字塔各层的尺度,将每层所得/>
Figure FDA0004131385730000013
与/>
Figure FDA0004131385730000014
映射回原始传入的车辆场景图,得到原图中像素点(x,y)的分类概率Px,y和回归框预测值Tx,y
(3.5)、在深度学习网络的第三部分中,将步骤(3.4)得到的分类概率Px,y和回归框预测值Tx,y代入下式的损失函数中,计算本次训练时的损失值;
Figure FDA0004131385730000015
其中,Npos表示落入标定车牌框的像素点数量;λ为加权项;
Figure FDA0004131385730000021
为分类类别,/>
Figure FDA0004131385730000022
为车牌类,/>
Figure FDA0004131385730000023
为背景类;/>
Figure FDA0004131385730000024
为指示函数,在/>
Figure FDA0004131385730000025
时对应车牌类时取值为1,/>
Figure FDA0004131385730000026
时对应背景类时取值为0;Tx,y为回归框预测值,具体为像素点(x,y)到回归框四个边界的距离值;/>
Figure FDA0004131385730000027
为像素点(x,y)到标定车牌框四个边界的距离值;Lcls为分类损失;Lreg为回归损失;Ψx,y *为像素点(x,y)的中心度;
(3.6)、重复步骤(3.1)~(3.5),并使用Adma优化器对深度学习网络进行优化,直到深度学习网络收敛,最终得到训练完成的车牌框定位模型;
(4)、车牌框的实时定位;
由摄像头抓拍实际场景中的车辆车牌图像,按照步骤(1)所述方法进行预处理,然后再输入至车牌框定位模型,从而定位出完整的车牌框;
其中,所述分类损失Lcls采用focal损失,具体定义为:
Lcls=-αt(1-Pt)γlog(Pt)
Figure FDA0004131385730000028
其中,(1-Pt)γ为调制系数,γ为可调参数;αx,y为解决像素点(x,y)分布不均匀的权重因子;
其中,所述回归损失Lreg采用非对称IOU损失,即IIOU损失,具体定义为:
Lreg=1-IIOU
其中,
Figure FDA0004131385730000029
A表示标定车牌框内像素点的个数,B为模型预测的回归框内像素点的个数;/>
Figure FDA00041313857300000210
2.根据权利要求1所示的一种基于非对称IOU的深度学习车牌框检测方法,其特征在于,所述像素点(x,y)的中心度Ψx,y *的计算公式为:
Figure FDA00041313857300000211
其中,η为中心采样范围参数,
Figure FDA00041313857300000212
l*,t*,r*,b*分别表示像素点(x,y)到标定车牌框四个边界的距离。/>
CN202110686336.8A 2021-06-21 2021-06-21 一种基于非对称iou的深度学习车牌框定位方法 Active CN113537211B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110686336.8A CN113537211B (zh) 2021-06-21 2021-06-21 一种基于非对称iou的深度学习车牌框定位方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110686336.8A CN113537211B (zh) 2021-06-21 2021-06-21 一种基于非对称iou的深度学习车牌框定位方法

Publications (2)

Publication Number Publication Date
CN113537211A CN113537211A (zh) 2021-10-22
CN113537211B true CN113537211B (zh) 2023-06-02

Family

ID=78125445

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110686336.8A Active CN113537211B (zh) 2021-06-21 2021-06-21 一种基于非对称iou的深度学习车牌框定位方法

Country Status (1)

Country Link
CN (1) CN113537211B (zh)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113989796B (zh) * 2021-12-06 2024-05-07 北京智芯原动科技有限公司 一种基于深度学习的车牌检测方法及装置
CN114898171B (zh) * 2022-04-07 2023-09-22 中国科学院光电技术研究所 一种适用于嵌入式平台的实时目标检测方法
CN115131779A (zh) * 2022-06-20 2022-09-30 成都京东方智慧科技有限公司 信息处理方法、装置及电子设备

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110097044A (zh) * 2019-05-13 2019-08-06 苏州大学 基于深度学习的一阶段车牌检测识别方法
CN110942000A (zh) * 2019-11-13 2020-03-31 南京理工大学 一种基于深度学习的无人驾驶车辆目标检测方法
CN111310861A (zh) * 2020-03-27 2020-06-19 西安电子科技大学 一种基于深度神经网络的车牌识别和定位方法
CN111310862A (zh) * 2020-03-27 2020-06-19 西安电子科技大学 复杂环境下基于图像增强的深度神经网络车牌定位方法
CN112132005A (zh) * 2020-09-21 2020-12-25 福州大学 一种基于聚类分析与模型压缩的人脸检测方法
CN112184684A (zh) * 2020-10-09 2021-01-05 桂林电子科技大学 一种改进的YOLO-v3算法及其在肺结节检测中的应用
CN112381846A (zh) * 2020-12-11 2021-02-19 江南大学 一种基于非对称网络的超声甲状腺结节分割方法

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11030466B2 (en) * 2018-02-11 2021-06-08 Nortek Security & Control Llc License plate detection and recognition system
US11164028B2 (en) * 2019-06-18 2021-11-02 Nortek Security & Control Llc License plate detection system

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110097044A (zh) * 2019-05-13 2019-08-06 苏州大学 基于深度学习的一阶段车牌检测识别方法
CN110942000A (zh) * 2019-11-13 2020-03-31 南京理工大学 一种基于深度学习的无人驾驶车辆目标检测方法
CN111310861A (zh) * 2020-03-27 2020-06-19 西安电子科技大学 一种基于深度神经网络的车牌识别和定位方法
CN111310862A (zh) * 2020-03-27 2020-06-19 西安电子科技大学 复杂环境下基于图像增强的深度神经网络车牌定位方法
CN112132005A (zh) * 2020-09-21 2020-12-25 福州大学 一种基于聚类分析与模型压缩的人脸检测方法
CN112184684A (zh) * 2020-10-09 2021-01-05 桂林电子科技大学 一种改进的YOLO-v3算法及其在肺结节检测中的应用
CN112381846A (zh) * 2020-12-11 2021-02-19 江南大学 一种基于非对称网络的超声甲状腺结节分割方法

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
Changqing Cao等.An Improved Faster R-CNN for Small Object Detection.《IEEE Access》.2019,第7卷106838 - 106846. *
Heng Zhu等.YOLOv3 with Asymmetric Intersection over Union Based Loss Function for Human Detection.《ICMLSC'21: 2021 The 5th International Conference on Machine Learning and Soft Computing》.2021,70–76. *
岑思阳.基于深度学习电梯内目标检测的研究与应用.《中国优秀硕士学位论文全文数据库 信息科技辑》.2021,I138-700. *
方鹏飞.基于卷积神经网络框架的室内物体目标检测和姿态估计.《中国优秀硕士学位论文全文数据库 信息科技辑》.2020,I138-1637. *

Also Published As

Publication number Publication date
CN113537211A (zh) 2021-10-22

Similar Documents

Publication Publication Date Title
CN113537211B (zh) 一种基于非对称iou的深度学习车牌框定位方法
CN110533084B (zh) 一种基于自注意力机制的多尺度目标检测方法
CN108961235B (zh) 一种基于YOLOv3网络和粒子滤波算法的缺陷绝缘子识别方法
CN109753914B (zh) 一种基于深度学习的车牌字符识别方法
CN110097044B (zh) 基于深度学习的一阶段车牌检测识别方法
WO2021196873A1 (zh) 车牌字符识别方法、装置、电子设备和存储介质
WO2018145470A1 (zh) 一种图像检测方法和装置
CN111914698B (zh) 图像中人体的分割方法、分割系统、电子设备及存储介质
CN109726717A (zh) 一种车辆综合信息检测系统
CN107944354B (zh) 一种基于深度学习的车辆检测方法
CN115205264A (zh) 一种基于改进YOLOv4的高分辨率遥感船舶检测方法
CN110414308B (zh) 一种针对输电线路上动态异物的目标识别方法
CN110659649A (zh) 一种基于近红外光成像的图像处理与字符识别算法
CN111105389A (zh) 融合Gabor滤波器与卷积神经网络的路面裂缝的检测方法
CN105405138A (zh) 基于显著性检测的水面目标跟踪方法
Liu et al. Extended faster R-CNN for long distance human detection: Finding pedestrians in UAV images
CN105825219A (zh) 机器视觉检测系统
CN115841633A (zh) 一种电力塔和电力线关联矫正的电力塔和电力线检测方法
CN111738931A (zh) 光伏阵列无人机航拍图像的阴影去除算法
CN111540203A (zh) 基于Faster-RCNN调节绿灯通行时间的方法
CN111027564A (zh) 基于深度学习一体化的低照度成像车牌识别方法及装置
CN111881914B (zh) 一种基于自学习阈值的车牌字符分割方法及系统
CN113627481A (zh) 一种面向智慧园林的多模型组合的无人机垃圾分类方法
CN113052234A (zh) 一种基于图像特征和深度学习技术的玉石分类方法
CN111127355A (zh) 一种对缺损光流图进行精细补全的方法及其应用

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant