CN111368909B - 一种基于卷积神经网络深度特征的车标识别方法 - Google Patents

一种基于卷积神经网络深度特征的车标识别方法 Download PDF

Info

Publication number
CN111368909B
CN111368909B CN202010139043.3A CN202010139043A CN111368909B CN 111368909 B CN111368909 B CN 111368909B CN 202010139043 A CN202010139043 A CN 202010139043A CN 111368909 B CN111368909 B CN 111368909B
Authority
CN
China
Prior art keywords
network
layer
logo image
car logo
classifier
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202010139043.3A
Other languages
English (en)
Other versions
CN111368909A (zh
Inventor
赵汉理
卢望龙
陈强
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Wenzhou University
Original Assignee
Wenzhou University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Wenzhou University filed Critical Wenzhou University
Priority to CN202010139043.3A priority Critical patent/CN111368909B/zh
Publication of CN111368909A publication Critical patent/CN111368909A/zh
Application granted granted Critical
Publication of CN111368909B publication Critical patent/CN111368909B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2413Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
    • G06F18/24133Distances to prototypes
    • G06F18/24137Distances to cluster centroïds
    • G06F18/2414Smoothing the distance, e.g. radial basis function networks [RBFN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/08Detecting or categorising vehicles
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/09Recognition of logos

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Molecular Biology (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Mathematical Physics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

本发明提供一种基于卷积神经网络深度特征的车标识别方法,首先给定车标图像训练集及车标图像测试集,并构建和初始化分类器网络及SGD优化器;其次,在分类器网络的每次迭代计算中,将车标图像训练集中的车标图像作为分类器网络的输入得到车标识别结果,且根据损失函数,计算出损失值并进行反向传播对分类器网络的网络参数进行调整,同时利用车标图像测试集对分类器网络进行评估,直至迭代结束,得到最终的最优网络参数来更新分类器网络;最后,获取待测车标图像输入计算,得到待测车标图像的车标识别结果。实施本发明,提高分类器网络的识别准确率和定位精准度,实现高鲁棒性高准确率的车标智能检测。

Description

一种基于卷积神经网络深度特征的车标识别方法
技术领域
本发明涉及车辆标识智能检测技术领域,尤其涉及一种基于卷积神经网络 深度特征的车标识别方法。
背景技术
在全球私家车基数大且数量逐年增长的情况下,智能交通系统有着极为重 要的作用。车标作为车辆一个关键信息,不易被更换,能够成为车辆的一个显 著特征。所以,车标的检测对帮助破案和车辆检测管控具有十分重要的意义。
目前,车标检测算法大多采用边缘检测技术或者使用传统手工设计特征, 这些方式繁琐且对于不同场景下的车标的检测鲁棒性不够高。
针对这个问题,亟需一种车标识别方法,克服边缘检测技术和传统手工提 取车标特征存在的效率低、鲁棒性差的问题以及目前存在的车标识别方法识别 确率低、定位精准度低的问题,以提高分类器网络的识别准确率和定位精准度, 实现高鲁棒性高准确率的车标智能检测。
发明内容
本发明实施例所要解决的技术问题在于,提供一种基于卷积神经网络深度 特征的车标识别方法,克服传统手工提取车标特征存在的效率低、鲁棒性差的 问题以及目前存在的车标识别方法识别确率低、定位精准度低的问题,以提高 分类器网络的识别准确率和定位精准度,实现高鲁棒性高准确率的车标智能检 测。
为了解决上述技术问题,本发明实施例提供了一种基于卷积神经网络深度 特征的车标识别方法,所述方法包括以下步骤:
步骤S1、给定车标图像训练集Itrain={(ai,bi)|i∈[1,M}]以及车标图像测试集Itest={(ai,bi)|i∈[1,N}];其中,ai表示第i张车标图像;bi表示第i张车标图像对应 的车标标签;M表示所述车标图像训练集Itrain的样本数量;N表示所述车标图像 测试集Itest的样本数量;
步骤S2、基于深度卷积神经网络构建出分类器网络D,以及构建用于所述 分类器网络D训练过程中的随机梯度下降SGD优化器,且进一步对所述分类器 网络D及所述随机梯度下降SGD优化器的参数均进行初始化;其中,所述分类 器网络D的参数包括迭代次数q、网络参数θq和最优网络参数θbest;q=0,…,n,n 为大于1的正整数;
Figure BDA0002398395940000021
l表示对应的网络层数的索引,W 表示对应卷积层的参数,O表示对应的偏置值,BN表示BN层的可学习参数,
Figure BDA0002398395940000022
表示q次迭代训练中对应第l层的卷积层的参数,
Figure BDA0002398395940000023
表示q次迭代训练中第l层 对应的偏置值,
Figure BDA0002398395940000024
表示q次迭代训练中第l层的可学习参数;迭代次数q初始 为0;网络参数θq初始为θ0,最优网络参数θbest初始为θ0;所述随机梯度下降SGD 优化器的参数初始化包括初始化学习率、动量和权重衰减系数;
步骤S3、获取当前迭代次数q,将所述车标图像训练集Itrain={(ai,bi)|i∈[1,M]}中的车标图像作为所述分类器网络D的输入并通过网络逐层计算,得到对应车 标图像训练集的车标识别结果Ytrain={yi|i∈[1,M]};其中,yi表示所述分类器网络D 对所述车标图像训练集Itrain的第i张车标图像的识别结果;
步骤S4、根据预设的交叉熵损失函数,计算所述车标图像训练集的车标识 别结果Ytrain和所述车标图像训练集Itrain中的车标标签之间的误差,得出损失值, 并利用得出的损失值进行反向传播,对所述分类器网络D的网络参数θq进行调 整;
步骤S5、利用所述车标图像测试集Itest对所述分类器网络D进行评估,若所 述分类器网络D的网络参数θq的测试准确率最高,则令θbest=θq;同时在参数更新 结束阶段,判断训练迭代次数q是否已达到最大迭代次数n,若已经达到最大迭 代次数n,则训练阶段结束,进入下一步骤S6;反之,将跳转至步骤S3进行循 环迭代训练,并令q=q+1;
步骤S6、得到最终的分类器网络D的最优网络参数θbest,并根据所得到的最 终的最优网络参数θbest,更新所述分类器网络D;
步骤S7、获取待测车标图像,且将所述待测车标图像作为更新后的分类器 网络D的输入并通过网络逐层计算,得到所述待测车标图像的车标识别结果。
其中,在所述步骤S2中,所述分类器网络D包括47层卷积层、1层全连接 层、1层全局平均池化层、5层最大值池化层、19层残差连接操作层和15层拼 接操作层;其中,每层卷积层后都包含BN层和LeakyReLU激活函数,且在全 连接层后包含一个softmax激活函数用于最终的类别预测。
其中,在所述步骤S3中,将所述车标图像训练集Itrain中第i张车标图像ai输 入到所述分类器网络D中经过网络的逐层计算,得到的车标识别结果为一个C 维度的置信度向量;其中,所述置信度向量大小为(1×C);C为车标类别总数, 向量中,每个标量的取值范围为[0,1]。
其中,在所述步骤S4中,利用得出的损失值进行反向传播,对所述分类器 网络D的网络参数θq进行调整的具体步骤为:
根据预设的交叉熵损失函数,利用链式求导法则,对所述分类器网络D中 的网络参数θq进行梯度的计算,并通过随机梯度下降法,将对应的网络参数θq进 行更新;其中,
更新网络参数θq的公式如下:
Figure BDA0002398395940000031
Figure BDA0002398395940000032
Figure BDA0002398395940000033
其中,
Figure BDA0002398395940000034
分别表示第q次迭代的模型网络参数中,对应的第l层 的卷积层的参数、偏置向量的参数、BN层的参数;η表示超参数中的学习率为0.00128;
Figure BDA0002398395940000041
Figure BDA0002398395940000042
分别表示对应卷积层的参数、偏置向量的 参数和BN层的参数的梯度,通过链式求导法则求得。
其中,在所述步骤S5中,利用所述车标图像测试集Itest对所述分类器网络D 进行评估,若所述分类器网络D的网络参数θq的测试准确率最高,则令θbest=θq的 步骤具体包括:
将所述车标图像测试集Itest中的车标图像作为所述分类器网络D的输入并通 过网络逐层计算,得到对应的车标图像测试集的车标识别结果Ytest={yi|i∈[1,N]};
以所述车标图像测试集Itest中对应车标标签作为基准,将Ytest和所述车标图像 测试集Itest中的车标标签进行逐一对比,计算所述车标图像测试集Itest中的准确率;
定义当前分类器网络D的网络参数θq的测试准确率为ACCq,并定义最优模型 网络参数θbest的准确率为ACCbest,若ACCq>ACCbest,则令θbest=θq
实施本发明实施例,具有如下有益效果:
1、与其他的车标分类算法相比,本发明算法的算法执行速度较快,且能够 更好地捕捉和利用车标的细节和抽象特征,并有着较高的分类准确率,在实际 应用中有较好的价值和前景;
2、本发明的分类器网络基于深度特征的卷积神经网络架构,能够将浅层特 征和深层特征很好的结合起来,且能够较好地捕捉到车标的主要特征。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施 例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述 中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付 出创造性劳动性的前提下,根据这些附图获得其他的附图仍属于本发明的范畴。
图1为本发明实施例提供的基于卷积神经网络深度特征的车标识别方法的 流程图;
图2为本发明实施例提供的基于卷积神经网络深度特征的车标识别方法中 分类器网络的架构图;
图3为本发明实施例提供的基于卷积神经网络深度特征的车标识别方法中 分类器网络训练过程中的反向传播示意图。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚,下面将结合附图对本发明 作进一步地详细描述。
如图1所示,为本发明实施例中,提出的一种基于卷积神经网络深度特征 的车标识别方法,所述方法包括以下步骤:
步骤S1、给定车标图像训练集Itrain={(ai,bi)|i∈[1,M}]以及车标图像测试集Itest={(ai,bi)|i∈[1,N}];其中,ai表示第i张车标图像;bi表示第i张车标图像对应 的车标标签;M表示所述车标图像训练集Itrain的样本数量;N表示所述车标图像 测试集Itest的样本数量;
具体过程为,给定车标图像训练集以及车标图像测试集为了对后续分类器 网络D训练和测试,得到训练好的分类器网络,便于待测车标图像中车标标签 的识别。
步骤S2、基于深度卷积神经网络构建出分类器网络D,以及构建用于所述 分类器网络D训练过程中的随机梯度下降SGD优化器,且进一步对所述分类器 网络D及所述随机梯度下降SGD优化器的参数均进行初始化;其中,所述分类 器网络D的参数包括迭代次数q、网络参数θq和最优网络参数θbest;q=0,…,n,n 为大于1的正整数;
Figure BDA0002398395940000054
l表示对应的网络层数的索引,W 表示对应卷积层的参数,O表示对应的偏置值,BN表示BN层的可学习参数,
Figure BDA0002398395940000051
表示q次迭代训练中对应第l层的卷积层的参数,
Figure BDA0002398395940000052
表示q次迭代训练中第l层 对应的偏置值,
Figure BDA0002398395940000053
表示q次迭代训练中第l层的可学习参数;迭代次数q初始 为0;网络参数θq初始为θ0,最优网络参数θbest初始为θ0;所述随机梯度下降SGD 优化器的参数初始化包括初始化学习率、动量和权重衰减系数;
具体过程为,将构建的分类器网络D对输入的车标图像进行特征提取,根 据提取的特征推断计算,并进行车标的识别。通过损失函数计算得到误差梯度, 进行反向传播,使得不断调整分类器网络中的参数。最终生成的分类器网络D能 够有效地提取车标特征,且具有较好的泛化能力来实现对车标对象的精确定位 和识别。
分类器网络D包括47层卷积层、1层全连接层、1层全局平均池化层、5层 最大值池化层(Max-pooling)、19层残差连接操作层和15层拼接操作层;其中, 每层卷积层后都包含BN层和LeakyReLU激活函数,且在全连接层后包含一个 softmax激活函数用于最终的类别预测。
分类器D中,网络主要包含残差密集连接块和残差块的网络连接模块。残 差模块和残差密集连接模块有组织地连接其中。密集连接将多层网络路径中计 算得到浅层特征和深层特征进行拼接,再对得到的拼接特征图进行卷积操作进 一步得提取计算,保证了特征的有效利用以及网络计算的高效;残差连接通过 将输入特征和多层网络的输出特征进行逐元素相加操作,使得网络在学习过程 中减缓了模型退化问题,帮助网络更好地学习到图像的特征。
在这里我们定义x0为单张图像,对应的单张输入图像大小为(3×K×K)其中3 表示颜色通道数量,为对应的颜色通道d∈{红,绿,蓝},K表示单张图片的高和宽。 即为车标图像训练集或车标图像的测试集的图像,作为一个包含L层的卷积神经 网络(convolutional neuralnetwork),对第l层定义Hl(·),表示为第l层的操作,可 以表示为卷积层(Convolution Layer)、最大池化下采样层(Max-pooling)、残差 连接(identityshortcut connection)、拼接操作(concatenation)、全局平均池化层 (Global AveragePooling,GAP)以及全连接层(Fully Connected Layer,FC)中的 其中一种类型的操作。这里定义xl为第l层的输出,对于普通的逐层计算的网络, 我们将第l-1层的输出xl-1作为第l层的输入。定义公式如下:
xl=Hl(xl-1),
其中,输入输出都为特征图张量。
Residual操作,即残差连接(identity shortcut connection)的连接方式定义如下:
xl=Hl(xl-1)+xl-1
其中+表示两个特征图逐个元素相加,使得xl-1得特征图能够再次重用,这 种连接方式能够使得网络构造得更深,且能够抑制模型退化得问题,在基础连 接模块的基础上,将输入和网络的输出进行逐元素相加。Residual操作的具体过 程请参见文献:K.He,X.Zhang,S.Ren and J.Sun,"Deep Residual Learning for Image Recognition,"2016IEEE Conference on Computer Vision and Pattern Recognition(CVPR),Las Vegas,NV,2016,pp.770-778。
密集连接(dense connection)的方式定义如下:
xl=Hl([x0,x1,…,xl-1]),
其中[…]表示拼接操作(concatenation)用“Concat”来表示,将后续的所 有输出都纳入输入中,将其拼接成一个张量输入到第l层中。Concat操作的具体 过程请参见文献:G.Huang,Z.Liu,L.v.d.Maaten and K.Q.Weinberger,"Densely ConnectedConvolutional Networks,"2017 IEEE Conference on Computer Vision and PatternRecognition(CVPR),Honolulu,HI,2017,pp.2261-2269。
残差密集连接模块的连接方式如下定义所示:
xl=Hl([x0,x1,…,xl-1])+xl-1
通过对第l层之前的所有特征进行拼接作为输入,并将第l-1层的特征再和 第l层的输入进行逐个元素相加,得到第l层的输出结果。残差密集连接模块结 合了上述两个模块的优点,网络在预防模型退化的同时,更加高效得利用浅层 和深层得特征图,从而提高了计算效率和模型得鲁棒性。连接方式是,在密集 连接多层的同时,不仅包含了对之前多层的Concat操作,还包含了上一层和下 一层的逐个元素相加的计算,使得浅层信息不仅得到了利用,还使得网络能够 加强指数集成的作用,从而加强模型的鲁棒性以及分类准确率。
如图2所示,为分类器网络的架构图。图2中,图中的立方体表示对应的 特征图,这里假定输入的图像通道大小为3,尺寸为K×K大小的图像。所以对 应的立方体的上方和左边分别表示特征图的高和宽;下方的数字表示对应的通 道数。灰色的箭头表示从输入到输出的中间包含的一系列操作,这些操作分别 标识在箭头的下方,每个类型的操作都被对应的方框分隔开。并且,这里以从 上到下、从左往右顺序对操作一一索引,能够和表1中的操作索引一一对应。 其中Conv的参数分别表示为(kh*kw*channel/s)即表示为卷积核高、宽、特征 图通道数量以及步长。如Conv:3*3*32/1表示为步长为1,卷积核大小为3*3, 且输出通道为32的卷积层。Maxpool表示最大池化层,对应的参数为(kh*kw/s) 即表示为池化层对应核的高、宽、步长。如Maxpool:2*2/2即表示核大小为2*2, 且步长为2的最大池化层。另外,GAP表示全局平均池化层(Global Average Pooling,GAP);FC表示全连接层(FullyConnected Layer,FC)。在最后一层卷积 层后中加入全局平局池化操作,使得最终网络的输出能够保持固定的维度。在 分类器网络的末尾,加入全局平局池化之后加入全连接网络和softmax激活函数, 用于结果的计算和映射。最终,对于每张输入图片,输出为一个C维度的置信 度向量,通过计算C维向量中最大的值的索引下标,就能得出最终网络所确定 的车标类别结果。
表1
Figure BDA0002398395940000081
Figure BDA0002398395940000091
Figure BDA0002398395940000101
Figure BDA0002398395940000111
表1中,“索引”表示分类器D网络中的不同层之间的排列顺序所对应的下 标;“层”表示每一层不同的操作;“通道数量”表示当前层的输出通道数量;“核 大小/步长”表示对应卷积和池化层所包含的参数,对于不涉及这两个参数的操 作,将不显示数值;“输入索引”表示该层输入来源属于哪几层的输出。所有卷 积和池化操作默认以上一层的输出作为输入,所以在输入索引栏里都是没有数 值。并且Residual(number1,number2)表示将表中索引为number1和number2的层的输出 进行Residual操作。如Residual(5,8)表示将其中索引为5和索引为8的层输出进 行Residual操作,并将其作为该层的输出;且Concat(number1,number2)表示将表中 索引为number1和number2的层的输出进行Concat操作。如Concat(78,81)表示将其中 索引为78和索引为81的层的输出进行Concat操作,并将其作为该层的输出。 GAP即为上述介绍的全局平均池化层,FC即为对应的全连接层;值得注意的是, 表中的所有Conv层后都有BN和LeakyReLU,在表里进行了省略。并且,每一 层的Conv和BN以及FC都包含可学习的参数。细节上来讲,每层Conv的可 学习参数为对应的卷积核大小;每层BN的可学习参数为对应的方差和均值两个 标量;每层FC可学习的参数即为inputNumber×outputNumber大小的矩阵以及 1×outputNumber大小的偏置值,其中inputNumber表示输入的神经元数量, outputNumber表述输出的神经元数量大小。在本发明中inputNumber为512表示最 后一层卷积的输出通道数量,outputNumber为自定义的车标类别数量,即预测的 车标类别的数量。
构建SGD优化器协助网络训练,利用SGD优化器智能调整学习率,加快 网络的收敛。初始的学习率为0.1,动量为0.9,权重衰减系数为0.001。
定义θq为第q次迭代所训练得出的分类器网络D的网络参数。q表示训练 迭代次数的索引,θq表示分类器网络D的第q次迭代训练时所获得的网络参数。 对分类器网络D中的所有网络参数
Figure BDA0002398395940000121
进行初始化。其中, l表示对应的网络层数的索引,W表示对应卷积层或者全连接层的参数,O表示 对应的偏置值,BN表示BN(BatchNormalization)层的可学习参数。在q此迭 代训练中,
Figure BDA0002398395940000122
即表示对应第l层的卷积层或者全连接层的参数,
Figure BDA0002398395940000123
表示第l层对 应的偏置值,
Figure BDA0002398395940000124
表示第l层的可学习参数。需要注意的是下采样层、全局平均 池化层以及残差连接和拼接操作中不包含学习参数,在此默认将上述层所对应 的参数
Figure BDA0002398395940000125
设为都0即可,表示不存在可学习参数。对θq进行初始化, 令q=0,得到分类器D的初始网络参数θ0。并令θbest=θ0,目标即为求出分类器 网络D的最优网络参数θbest。对每一层的卷积层或者全连接层进行标准正态分布 随机初始化,即从对每一个参数,从标准正态分布中随机取值然后赋值。接着 求得其参数个数ParameterNumber,再利用如下公式对每一个参数进行偏移:
Figure BDA0002398395940000126
其中
Figure BDA0002398395940000127
表示第q此迭代中,第l层的卷积层或者全连接层的参数,对其做 对应参数个数的偏移,使得模型能够更容易训练和收敛。对每层的Batch Normalization(BN)的每个通道参数设为1,并且将偏置值设为0。最终,得到分 类器D的初始网络参数θ0
步骤S3、获取当前迭代次数q,将所述车标图像训练集Itrain={(ai,bi)|i∈[1,M]}中的车标图像作为所述分类器网络D的输入并通过网络逐层计算,得到对应车 标图像训练集的车标识别结果Ytrain={yi|i∈[1,M]};其中,yi表示所述分类器网络D 对所述车标图像训练集Itrain的第i张车标图像的识别结果;
具体过程为,将车标图像训练集Itrain作为输入,载入到计算机内存中,为接 下来的训练阶段做准备,然后将车标图像训练集Itrain中第i张车标图像ai输入到 分类器网络D中经过网络的逐层计算,得到的车标识别结果为一个C维度的置 信度向量;其中,置信度向量大小为(1×C);C为车标类别总数,计算C维向量 中最大的值的索引下标,下标值一一对应不同的车标类别,其值的大小表示对 应这个车标类别的可能性,向量中,每个标量的取值范围为[0,1]。
最终,得到对车标图像训练集Itrain中所有样本的车标识别结果 Ytrain={yi|i∈[1,M]},其中yi表示分类器网络D对车标图像的最终识别结果, yi∈[1,C]。
其计算方式为:在图像经过层层网络计算后,将全连接层的输出向量,输 入到最终的softmax激活函数中去,其公式定义如下:
Figure BDA0002398395940000132
其中,
Figure BDA0002398395940000133
表示样本ai输入分类器网络D后,计算得到的D的第87层输出。 如表1所示,第87层为全局平均池化层(Global Average Pooling,GAP),所以
Figure BDA0002398395940000134
表示该层所输出的特征图所展成的向量。其中
Figure BDA0002398395940000135
W88为分 类器网络D的第88层全连接层的参数,对应的L=512表示最终
Figure BDA0002398395940000136
的向量长度, 这个长度等于分类器网络D最后一层卷积层(convolution layer)的通道数量。
Figure BDA0002398395940000137
表示对应第88层的偏置值向量。
Figure BDA0002398395940000138
表示在 给定向量
Figure BDA0002398395940000139
全连接网络的参数W88和偏置值O88的参数下,最终的输出yi为车标 类别r的概率,r为对应车标类别的索引下标,且r∈[1,C]。
步骤S4、根据预设的交叉熵损失函数,计算所述车标图像训练集的车标识 别结果Ytrain和所述车标图像训练集Itrain中的车标标签之间的误差,得出损失值, 并利用得出的损失值进行反向传播,对所述分类器网络D的网络参数θq进行调 整;
具体过程为,首先通过交叉熵损失函数将车标图像训练集Itrain={(ai,bi)|i∈[1,M]}中的车标标签和对应车标图像训练集Itrai的识别结果 Ytrain={yi|i∈[1,M]}进行损失值的计算,得出损失值,为下一步反向传播更新网络 参数做准备。
对应的交叉熵损失函数可表示为:
Figure BDA0002398395940000141
其中M表示车标图像训练集Itrain的数量,C表示车标类别数量,bi为对应第 i个样本的样本真实车标类别标签,1{·}表示真值函数,当bi所表示的车标类别 和r相等时,将会给定本次预测的值产生惩罚。即希望最终的预测在样本的车标 类别标签上的概率不断向1逼近。
其次,根据上述预设的交叉熵损失函数,利用链式求导法则,对所述分类 器网络D中的网络参数θq进行梯度的计算,并通过随机梯度下降法,将对应的 网络参数θq进行更新;其中,
更新网络参数θq的公式如下:
Figure BDA0002398395940000142
Figure BDA0002398395940000143
Figure BDA0002398395940000144
其中,
Figure BDA0002398395940000145
分别表示第q次迭代的模型网络参数中,对应的第l层 的卷积层的参数、偏置向量的参数、BN层的参数;η表示超参数中的学习率为 0.00128;
Figure BDA0002398395940000146
Figure BDA0002398395940000147
分别表示对应卷积层的参数、偏置向量的 参数和BN层的参数的梯度,通过链式求导法则求得。
步骤S5、利用所述车标图像测试集Itest对所述分类器网络D进行评估,若所 述分类器网络D的网络参数θq的测试准确率最高,则令θbest=θq;同时在参数更新 结束阶段,判断训练迭代次数q是否已达到最大迭代次数n,若已经达到最大迭 代次数n,则训练阶段结束,进入下一步骤S6;反之,将跳转至步骤S3进行循 环迭代训练,并令q=q+1;
具体过程为,将车标图像测试集Itest中的车标图像作为分类器网络D的输入 并通过网络逐层计算,得到对应的车标图像测试集的车标识别结果 Ytest={yi|i∈[1,N]};
以车标图像测试集Itest中对应车标标签作为基准,将Ytest和车标图像测试集 Itest中的车标标签进行逐一对比,计算车标图像测试集Itest中的准确率;
定义当前分类器网络D的网络参数θq的测试准确率为ACCq,并定义最优模型 网络参数θbest的准确率为ACCbest,若ACCq>ACCbest,则令θbest=θq;其中,网络参数θq的 测试准确率的计算公式为:
Figure BDA0002398395940000151
并且,ACCbest的计算公式和ACCq相同;
最后,在网络参数更新结束阶段进行判断,判断训练迭代次数q是否已达 到最大迭代次数n,若已经达到最大迭代次数n,则训练阶段结束,进入下一步 骤;反之,q=q+1,并跳转至步骤S3进行循环迭代训练。
步骤S6、得到最终的分类器网络D的最优网络参数θbest,并根据所得到的最 终的最优网络参数θbest,更新所述分类器网络D;
具体过程为,迭代结束后保存最终的分类器网络D的模型参数θbest并更新分 类器网络D,得到最优分类器网络。
步骤S7、获取待测车标图像,且将所述待测车标图像作为更新后的分类器 网络D的输入并通过网络逐层计算,得到所述待测车标图像的车标识别结果。
具体过程为,获取待测车标图像作为更新后的分类器网络D的输入,并通 过网络逐层计算,得到待测车标图像的车标识别结果,即待测车标图像所对应 的车标标签。
实施本发明实施例,具有如下有益效果:
1、与其他的车标分类算法相比,本发明算法的算法执行速度较快,且能够 更好地捕捉和利用车标的细节和抽象特征,并有着较高的分类准确率,在实际 应用中有较好的价值和前景;
2、本发明的分类器网络基于深度特征的卷积神经网络架构,能够将浅层特 征和深层特征很好的结合起来,且能够较好地捕捉到车标的主要特征。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分步骤是 可以通过程序来指令相关的硬件来完成,所述的程序可以存储于一计算机可读 取存储介质中,所述的存储介质,如ROM/RAM、磁盘、光盘等。
以上所揭露的仅为本发明一种较佳实施例而已,当然不能以此来限定本发 明之权利范围,因此依本发明权利要求所作的等同变化,仍属本发明所涵盖的 范围。

Claims (4)

1.一种基于卷积神经网络深度特征的车标识别方法,其特征在于,所述方法包括以下步骤:
步骤S1、给定车标图像训练集Itrain={(ai,bi)|i∈[1,M]}以及车标图像测试集Itest={(ai,bi)|i∈[1,N]};其中,ai表示第i张车标图像;bi表示第i张车标图像对应的车标标签;M表示所述车标图像训练集Itrain的样本数量;N表示所述车标图像测试集Itest的样本数量;
步骤S2、基于深度卷积神经网络构建出分类器网络D,以及构建用于所述分类器网络D训练过程中的随机梯度下降SGD优化器,且进一步对所述分类器网络D及所述随机梯度下降SGD优化器的参数均进行初始化;其中,所述分类器网络D的参数包括迭代次数q、网络参数θq和最优网络参数θbest;q=0,…,n,n为大于1的正整数;
Figure FDA0002982754210000011
l表示对应的网络层数的索引,W表示对应卷积层的参数,O表示对应的偏置值,BN表示BN层的可学习参数,
Figure FDA0002982754210000012
表示q次迭代训练中对应第l层的卷积层的参数,
Figure FDA0002982754210000013
表示q次迭代训练中第l层对应的偏置值,
Figure FDA0002982754210000014
表示q次迭代训练中第l层的可学习参数;迭代次数q初始为0;网络参数θq初始为θ0,最优网络参数θbest初始为θ0;所述随机梯度下降SGD优化器的参数初始化包括初始化学习率、动量和权重衰减系数;
步骤S3、获取当前迭代次数q,将所述车标图像训练集Itrain={(ai,bi)|i∈[1,M]}中的车标图像作为所述分类器网络D的输入并通过网络逐层计算,得到对应车标图像训练集的车标识别结果Ytrain={yi|i∈[1,M]};其中,yi表示所述分类器网络D对所述车标图像训练集Itrain的第i张车标图像的识别结果;
步骤S4、根据预设的交叉熵损失函数,计算所述车标图像训练集的车标识别结果Ytrain和所述车标图像训练集Itrain中的车标标签之间的误差,得出损失值,并利用得出的损失值进行反向传播,对所述分类器网络D的网络参数θq进行调整;
步骤S5、利用所述车标图像测试集Itest对所述分类器网络D进行评估,若所述分类器网络D的网络参数θq的测试准确率最高,则令θbest=θq;同时在参数更新结束阶段,判断训练迭代次数q是否已达到最大迭代次数n,若已经达到最大迭代次数n,则训练阶段结束,进入下一步骤S6;反之,将跳转至步骤S3进行循环迭代训练,并令q=q+1;
步骤S6、得到最终的分类器网络D的最优网络参数best,并根据所得到的最终的最优网络参数θbest,更新所述分类器网络D;
步骤S7、获取待测车标图像,且将所述待测车标图像作为更新后的分类器网络D的输入并通过网络逐层计算,得到所述待测车标图像的车标识别结果;
在所述步骤S2中,提出一种新的残差密集连接块,并利用残差密集连接块和残差块构造一个新的分类器网络D;
残差密集连接块的连接方式如下定义所示:
xl=Hl([x0,x1,…,xl-1])+xl-1
其中Hl(·)为对应的非线性变换,包含多层连续操作,如:卷积层、BN层、ReLU、卷积层、BN层、ReLU;通过对第l层之前的所有特征进行拼接作为输入,并将第l-1层的特征再和第l层的输入进行逐个元素相加,得到第l层的输出结果;该网络用于在预防模型退化的同时,更加高效得利用浅层和深层得特征图;连接方式是,在密集连接多层的同时,不仅包含了对之前多层的Concat操作,还包含了上一层和下一层的逐个元素相加的计算,用于对浅层信息进行利用和加强指数集成;
所述分类器网络D主要构建单位为:密集残差连接块、残差链接块、最大池化层、卷积层、全连接层;其包括47层卷积层、1层全连接层、1层全局平均池化层、5层最大值池化层、19层残差连接操作层和15层拼接操作层;其中,每层卷积层后都包含BN层和LeakyReLU激活函数,且在全连接层后包含一个softmax激活函数用于最终的类别预测。
2.如权利要求1所述的基于卷积神经网络深度特征的车标识别方法,其特征在于,在所述步骤S3中,将所述车标图像训练集Itrain中第i张车标图像ai输入到所述分类器网络D中经过网络的逐层计算,得到的车标识别结果为一个C维度的置信度向量;其中,所述置信度向量大小为(1×C);C为车标类别总数,向量中,每个标量的取值范围为[0,1]。
3.如权利要求2所述的基于卷积神经网络深度特征的车标识别方法,其特征在于,在所述步骤S4中,利用得出的损失值进行反向传播,对所述分类器网络D的网络参数θq进行调整的具体步骤为:
根据预设的交叉熵损失函数,利用链式求导法则,对所述分类器网络D中的网络参数θq进行梯度的计算,并通过随机梯度下降法,将对应的网络参数θq进行更新;其中,
更新网络参数θq的公式如下:
Figure FDA0002982754210000031
Figure FDA0002982754210000032
Figure FDA0002982754210000033
其中,
Figure FDA0002982754210000034
分别表示第q次迭代的模型网络参数中,对应的第l层的卷积层的参数、偏置向量的参数、BN层的参数;η表示超参数中的学习率为0.00128;
Figure FDA0002982754210000035
Figure FDA0002982754210000036
分别表示对应卷积层的参数、偏置向量的参数和BN层的参数的梯度,通过链式求导法则求得。
4.如权利要求3所述的基于卷积神经网络深度特征的车标识别方法,其特征在于,在所述步骤S5中,利用所述车标图像测试集Itest对所述分类器网络D进行评估,若所述分类器网络D的网络参数θq的测试准确率最高,则令θbest=θq的步骤具体包括:
将所述车标图像测试集Itest中的车标图像作为所述分类器网络D的输入并通过网络逐层计算,得到对应的车标图像测试集的车标识别结果Ytest={yi|i∈[1,N]};
以所述车标图像测试集Itest中对应车标标签作为基准,将Ytest和所述车标图像测试集Itest中的车标标签进行逐一对比,计算所述车标图像测试集Itest中的准确率;
定义当前分类器网络D的网络参数θq的测试准确率为ACCq,并定义最优模型网络参数θbest的准确率为ACCbest,若ACCq>ACCbest,则令θbest=θq
CN202010139043.3A 2020-03-03 2020-03-03 一种基于卷积神经网络深度特征的车标识别方法 Active CN111368909B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010139043.3A CN111368909B (zh) 2020-03-03 2020-03-03 一种基于卷积神经网络深度特征的车标识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010139043.3A CN111368909B (zh) 2020-03-03 2020-03-03 一种基于卷积神经网络深度特征的车标识别方法

Publications (2)

Publication Number Publication Date
CN111368909A CN111368909A (zh) 2020-07-03
CN111368909B true CN111368909B (zh) 2021-05-11

Family

ID=71211621

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010139043.3A Active CN111368909B (zh) 2020-03-03 2020-03-03 一种基于卷积神经网络深度特征的车标识别方法

Country Status (1)

Country Link
CN (1) CN111368909B (zh)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112215282B (zh) * 2020-10-12 2022-03-15 西安交通大学 一种基于小样本图像分类的元泛化网络系统
CN112508684B (zh) * 2020-12-04 2023-03-07 中信银行股份有限公司 一种基于联合卷积神经网络的催收风险评级方法及系统
CN112598086A (zh) * 2021-03-04 2021-04-02 四川大学 基于深度神经网络的常见结肠部疾病分类方法及辅助系统
CN113095335B (zh) * 2021-04-16 2023-06-30 温州大学 一种基于类别一致性深度学习的图像识别方法
CN113792666B (zh) * 2021-09-16 2024-06-18 哈尔滨工业大学(深圳) 一种基于扫描电镜图像的混凝土分类方法及系统
CN115311647B (zh) * 2022-10-09 2023-01-24 松立控股集团股份有限公司 一种融合车标分类特征的车标检测识别方法
CN116682010B (zh) * 2023-06-01 2024-01-23 北京交通大学 一种基于tbm岩渣图像的围岩分类实时预测方法

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107871136A (zh) * 2017-03-22 2018-04-03 中山大学 基于稀疏性随机池化的卷积神经网络的图像识别方法
CN109657584A (zh) * 2018-12-10 2019-04-19 长安大学 辅助驾驶的改进LeNet-5融合网络交通标志识别方法
CN109685776A (zh) * 2018-12-12 2019-04-26 华中科技大学 一种基于ct图像的肺结节检测方法及系统
CN109740460A (zh) * 2018-12-21 2019-05-10 武汉大学 基于深度残差密集网络的光学遥感图像舰船检测方法
CN109785252A (zh) * 2018-12-25 2019-05-21 山西大学 基于多尺度残差密集网络夜间图像增强方法
CN109815997A (zh) * 2019-01-04 2019-05-28 平安科技(深圳)有限公司 基于深度学习的识别车辆损伤的方法和相关装置
CN109948719A (zh) * 2019-03-26 2019-06-28 天津工业大学 一种基于残差密集模块网络结构的眼底图像质量自动分类方法

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103902987B (zh) * 2014-04-17 2017-10-20 福州大学 一种基于卷积网络的台标识别方法
CN104537393B (zh) * 2015-01-04 2018-01-16 大连理工大学 一种基于多分辨率卷积神经网络的交通标志识别方法
CN106228185B (zh) * 2016-07-20 2019-10-15 武汉盈力科技有限公司 一种基于神经网络的通用图像分类识别系统及方法
CN106326893A (zh) * 2016-08-25 2017-01-11 安徽水滴科技有限责任公司 一种基于区域辨别的车辆颜色识别方法
CN106845418A (zh) * 2017-01-24 2017-06-13 北京航空航天大学 一种基于深度学习的高光谱图像分类方法
EP4361947A3 (en) * 2018-03-23 2024-06-19 Memorial Sloan-Kettering Cancer Center Systems and methods for multiple instance learning for classification and localization in biomedical imagining
CN108776807A (zh) * 2018-05-18 2018-11-09 复旦大学 一种基于可跳层双支神经网络的图像粗细粒度分类方法
AU2018101317A4 (en) * 2018-09-07 2018-10-11 Chen, Guoyi Mr A Deep Learning Based System for Animal Species Classification
CN109508655B (zh) * 2018-10-28 2023-04-25 北京化工大学 基于孪生网络的不完备训练集的sar目标识别方法

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107871136A (zh) * 2017-03-22 2018-04-03 中山大学 基于稀疏性随机池化的卷积神经网络的图像识别方法
CN109657584A (zh) * 2018-12-10 2019-04-19 长安大学 辅助驾驶的改进LeNet-5融合网络交通标志识别方法
CN109685776A (zh) * 2018-12-12 2019-04-26 华中科技大学 一种基于ct图像的肺结节检测方法及系统
CN109740460A (zh) * 2018-12-21 2019-05-10 武汉大学 基于深度残差密集网络的光学遥感图像舰船检测方法
CN109785252A (zh) * 2018-12-25 2019-05-21 山西大学 基于多尺度残差密集网络夜间图像增强方法
CN109815997A (zh) * 2019-01-04 2019-05-28 平安科技(深圳)有限公司 基于深度学习的识别车辆损伤的方法和相关装置
CN109948719A (zh) * 2019-03-26 2019-06-28 天津工业大学 一种基于残差密集模块网络结构的眼底图像质量自动分类方法

Also Published As

Publication number Publication date
CN111368909A (zh) 2020-07-03

Similar Documents

Publication Publication Date Title
CN111368909B (zh) 一种基于卷积神经网络深度特征的车标识别方法
CN109886121B (zh) 一种遮挡鲁棒的人脸关键点定位方法
Li et al. Convergent learning: Do different neural networks learn the same representations?
CN111460894B (zh) 一种基于卷积神经网络的车标智能检测方法
CN109977757B (zh) 一种基于混合深度回归网络的多模态的头部姿态估计方法
US20230162522A1 (en) Person re-identification method of integrating global features and ladder-shaped local features and device thereof
Chen et al. Automated design of neural network architectures with reinforcement learning for detection of global manipulations
CN112800876A (zh) 一种用于重识别的超球面特征嵌入方法及系统
CN114399533B (zh) 一种基于多层次注意力机制的单目标追踪方法
CN113159067A (zh) 一种基于多粒度局部特征软关联聚合的细粒度图像辨识方法及装置
CN116452937A (zh) 基于动态卷积与注意力机制的多模态特征目标检测方法
CN111626926A (zh) 一种基于gan的纹理图像智能合成方法
WO2022087242A1 (en) Personalized neural network pruning
CN111694974A (zh) 一种融合注意力机制的深度哈希车辆图像检索方法
CN114693607A (zh) 基于多域块特征标志点配准的篡改视频检测方法及系统
CN114694089A (zh) 一种新型的多模态融合的行人重识别算法
CN115423847A (zh) 基于Transformer的孪生多模态目标跟踪方法
CN116863194A (zh) 一种足溃疡图像分类方法、系统、设备及介质
CN116882486B (zh) 一种迁移学习权重的构建方法和装置及设备
Ding et al. Land-use classification with remote sensing image based on stacked autoencoder
CN116311504A (zh) 一种小样本行为识别方法、系统及设备
CN113887536B (zh) 一种基于高层语义引导的多阶段高效人群密度估计方法
CN116246305A (zh) 一种基于混合部件变换网络的行人检索方法
CN114386527A (zh) 一种用于域自适应目标检测的类别正则化方法及系统
CN114549969A (zh) 一种基于图像信息融合的显著性检测方法和系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant