CN103279738A - 车标自动识别方法及系统 - Google Patents
车标自动识别方法及系统 Download PDFInfo
- Publication number
- CN103279738A CN103279738A CN2013101705289A CN201310170528A CN103279738A CN 103279738 A CN103279738 A CN 103279738A CN 2013101705289 A CN2013101705289 A CN 2013101705289A CN 201310170528 A CN201310170528 A CN 201310170528A CN 103279738 A CN103279738 A CN 103279738A
- Authority
- CN
- China
- Prior art keywords
- dense
- sift
- visual word
- histogram
- car
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Image Analysis (AREA)
Abstract
本发明公开了一种车标自动识别方法及系统,包括离线训练子系统和在线识别子系统。采用dense-SIFT提取车标特征,能在低分辨率车标图片上提取丰富、稳定以及具有识别判别性的特征;对dense-SIFT特征聚类分析,建立视觉词库及KD树索引,以此加快计算速度;根据dense-SIFT和视觉词的相关性,将dense-SIFT映射成所有视觉词表示,增加特征描述性;在建立视觉词直方图时,提出“回字形空间金字塔”增加特征的空间位置信息,提升判别效果;采用支持向量机训练车标分类器,实现车标识别。本发明在低分辨率图像下仍具有高识别率,对遮挡、光照、天气、拍摄角度变化等具有高鲁棒性,计算时间短,极具实时性。
Description
技术领域
本发明涉及的是车辆自动识别技术领域,具体地,涉及的是一种车标自动识别方法及系统。
背景技术
随着社会经济及道路交通的迅速发展,汽车得到大面积普及,机动车数量激增。这一方面使高速路、停车场等车辆激增而难以统计,增加道路交通管理的难度;另一方面违规、违章和盗抢案件显著增加,增加了治安管理的难度。传统的道路交通管理及治安管理,通常只能靠人眼观察车辆信息,效率和侦破率很低。因此,车辆的安全自动化管理成为了一个亟待解决的重要问题。
车辆的自动识别,可以方便快捷的实现轻松缴费、违章记录、流量统计等大量工作,既能代替人实现繁重、繁琐的工作,又可以提高工作的速度和准确度。目前,基于视频图像的运动车辆识别技术仍然是相对薄弱的技术环节。车辆识别需要最大限度地利用车辆的信息对道路上的车辆进行确认。车标是车辆的一个非常重要信息,不仅是车辆的标志性图像,更重要的是包含了车型和生产厂家的信息,且难以更换。因此车标识别技术将在城市智能交通中发挥越来越重要的作用,以车标识别为核心技术的相关产品也会成为智能交通系统的重要前端设备。
经对现有的技术文献检索发现,目前车标识别的方法主要有以下四种:模板匹配法,边缘直方图法,特征匹配法以及特征训练分类器法。然而,现有的这四种车标识别方法都有很大的局限性。模板匹配法只适用于摄像机正面拍摄的场景,当摄像机倾斜或拍摄的车标图像移位时,这种识别方法准确率低,不适合实际应用;边缘直方图法算法简单,但不同车标具有相似的边缘直方图,这种方法误识率较大;特征匹配法计算量大、易受光照、天气、遮挡、噪声等的影响,系统鲁棒性差,而且这种方法随着车标种类增多其准确率会降低;特征训练分类器法算法复杂、计算量大,计算时间长,难以实现实时识别,不适合实时系统的应用。由于复杂的城市交通环境(如光线及天气变化变化,遮挡等),车标识别系统仍然面临很大的挑战。车标识别技术近几年才得以发展,目前算法仍然不成熟,总结来说主要存在以下几个难点:1)准确率低,相似车标误识率大,车标类别越多识别准确率越低;2)计算量大,计算时间长,不适合在实时系统应用;3)鲁棒性低,易受光照、天气、摄像机角度、遮挡等环境因素影响。4)低图像分辨率条件下,识别能力差。
发明内容
鉴于现有技术存在的上述不足,本发明提出了一种车标自动识别方法及系统,具有高识别率、强鲁棒性、高实时性的特点。本发明的车标识别系统对光照、天气、拍摄角度等变化具有更强的鲁棒性,在低分辨率条件下识别能力强,并且在线计算量小、处理时间少,适合于实时系统的应用。
根据本发明的一方面,提供一种车标自动识别方法,所述方法包括两个部分:离线训练部分和在线识别子部分,其中:
所述离线训练部分包括以下几个步骤:
第一步:对训练车标样本图片I提取dense-SIFT特征d。具体步骤为:
1.1)用密集采样网格确定特征提取点。网格上的交叉点即为特征提取点,其中采样密度为M个像素,即网格上一个特征提取点到下一个特征提取点的距离是M个像素。
1.2)以每个特征提取点为中心,取N*N的窗口,计算SIFT特征描述子。
第二步:从提取的所有dense-SIFT特征中,随机选取104个dense-SIFT组成特征集,利用K-MEANS聚类法,将dense-SIFT特征集分为K个聚类并计算出聚类质心。每个聚类质心作为一个视觉词,最终形成一个具有K个视觉词的词汇库。
第三步:建立KD树,快速索引第二步建立的词汇库中的视觉词。
第四步:根据已建立的词汇库,将车标图片I={di,di∈I}的所有dense-SIFT特征映射成视觉词,具体方法为:
根据距离越近越相似的原则,计算dense-SIFT特征di与视觉词μj之间的相关度。建立dense-SIFT特征di与K个视觉词μj之间的映射,映射关系为f(di)=[K(di,μ1),…,K(di,μk)]T;其中di表示第i个特征,μj表示第j个视觉词,μk表示第k个视觉词,k为视觉词的个数,σ2为高斯函数的宽度参数,控制了函数的径向作用范围,T为矩阵转置符。
第五步:采用“回字形空间金字塔”,建立空间视觉词直方图来表示图像。
分析一张W*H(宽*高)的车标图片,具体方法是:
5.1)以(W/2,H/2)为中心,提取一个宽为W,高为H的矩形区域,即将整幅图像作为感兴趣区域I1,计算该感兴趣区域的视觉词直方图h(I1)。h(I1)为K维。
5.2)以(W/2,H/2)为中心,选择一个宽为2W/3,高为2H/3的矩形区域作为感兴趣区域I2,计算该感兴趣区域的视觉词直方图h(I2)。h(I2)为K维。
5.3)以(W/2,H/2)为中心,选择一个宽为W/3,高为H/3的矩形区域作为一个感兴趣区域I3,计算该感兴趣区域的视觉词直方图h(I3)。h(I3)为K维。
5.4)将三个感兴趣区域I1、I2、I3的视觉词直方图顺次拼接并归一化,形成车标直方图建立最终的视觉词直方图H(I),即H(I)=[h(I1),h(I2),h(I3)]/‖H(I)‖1,‖H(I)‖1代表H(I)的绝对值和,H(I)的维数为3×K维。
计算视觉词直方图的方法为:其中|Ij|代表该感兴趣区域Ij中dense-SIFT的个数,f(di)如离线训练子系统的第四步所示,表示dense-SIFT特征与视觉词之间的映射关系f(di)=[K(di,μ1),…,K(di,μk)]T。
第六步:利用车标的空间视觉词直方图,训练支持向量机SVM分类器。
当训练第i类车标时,将该类的车标图像标记为+1,其余的车标图片标记为-1,本实施例采用径向基(RBF)核为SVM的核函数,为每类车标训练SVM模型。径向基(RBF)核函数公式为:
其中Hi、Hj表示训练样本的空间直方图;γ为RBF的核参数;另外训练SVM模型时还需输入惩罚因子C。
所述在线识别部分包括以下几个步骤:
第一步:提取待检测车标图片的dense-SIFT特征。
具体方法是:
1.1)在车标图像上设定密集采样网格,网格上的交叉点作为特征提取点,以每个特征提取点为中心。其中采样密度为M个像素,即网格上一个特征提取点到下一个特征提取点的距离是M个像素。
1.2)以每个特征提取点为中心,取N×N的窗口,计算SIFT特征描述子。
M的取值要满足既能够得到丰富的特征提取点,又不能导致过大的计算量;N*N窗口大小的选取要保证能较好的描述出提取点处的特征。M,N与离线系统中的参数保持一致。
第二步:根据离线训练部分已建立的词汇库,将待检测车标图片I={di,di∈I}的所有dense-SIFT特征映射成视觉词,具体方法为:
第三步:利用回字形空间金字塔,建立空间直方图来表示图像,具体方法是:
5.1)以(W/2,H/2)为中心,提取一个宽为W,高为H的矩形区域,即将整幅图像作为感兴趣区域I1,计算该感兴趣区域的视觉词直方图h(I1)。h(I1)为K维。
5.2)以(W/2,H/2)为中心,选择一个宽为2W/3,高为2H/3的矩形区域作为感兴趣区域I2,计算该感兴趣区域的视觉词直方图h(I2)。h(I2)为K维。
5.3)以(W/2,H/2)为中心,选择一个宽为W/3,高为H/3的矩形区域作为一个感兴趣区域I3,计算该感兴趣区域的视觉词直方图h(I3)。h(I3)为K维。
5.4)将三个感兴趣区域I1、I2、I3的视觉词直方图顺次拼接并归一化,形成车标直方图建立最终的视觉词直方图H(I),即H(I)=[h(I1),h(I2),h(I3)]/‖H(I)‖1,‖H(I)‖1代表H(I)的绝对值和,H(I)的维数为3×K维。
计算视觉词直方图的方法为:其中|Ij|代表该感兴趣区域Ij中dense-SIFT的个数,f(di)如在线识别子系统的第二步所示,表示dense-SIFT特征与视觉词之间的映射关系f(di)=[K(di,μ1),…,K(di,μk)]T。
第四步:将待检测图片的空间视觉直方图输入支持向量机SVM分类器,输出识别结果。
待检测车标的识别类别根据SVM输出的最大预测值来判定。P(H(I))=argmaxPi(H(I)),其中,Pi(H(I))为经输入视觉词直方图后SVM的预测值,P(H(I))为车标的识别类别。 其中wj是权重,sj是支持向量即部分训练样本的视觉词直方图,β是偏值,这些参数可以由离线系统中训练的SVM模型得到。H(I)是待识别车标的空间直方图,K(∵)是SVM RBF核函数,
根据本发明的另一方面,提供一种车标自动识别系统,所述系统包括一个离线训练子系统以及一个在线识别子系统,离线训练子系统以训练车标样本为输入,输出训练好的SVM分类器;在线识别子系统利用训练好的SVM分类器处理待检测图像,识别出待检测图像的车标类别。
所述离线训练子系统包括:
dense-SIFT特征提取模块:提取训练车标样本图片的dense-SIFT特征,得到dense-SIFT特征集;
视觉词库建立模块:用K-MEANS方法对dense-SIFT特征集聚类分析,建立视觉词汇库;
建立KD树索引视觉词汇库模块:建立KD树,快速索引视觉词库建立模块建立的词汇库中的视觉词;
特征映射至视觉词模块:根据视觉词库建立模块已建立的词汇库,计算dense-SIFT特征提取模块得到的dense-SIFT特征集与视觉词的相关性,将dense-SIFT映射成所有视觉词表示;
建立空间直方图模块:采用回字形空间金字塔,建立空间视觉词直方图来表示图像;
训练支持向量机分类器模块:利用建立空间直方图模块建立的空间视觉词直方图训练支持向量机SVM分类器;
训练图片库中的车标图片依次经过上述几个模块处理,得到训练好的SVM分类器。
所述识别子系统包括:
dense-SIFT特征提取模块:提取待检测车标图片的dense-SIFT特征;
特征映射至视觉词模块:根据离线训练部分已建立的词汇库,计算dense-SIFT特征提取模块获得的dense-SIFT特征集与视觉词的相关性,将dense-SIFT映射成视觉词表示;
空间直方图建立模块:采用回字形空间金字塔,建立空间视觉直方图来表示图像;
SVM分类器预测模块:将空间直方图建立模块建立的待检测图片的空间视觉直方图输入支持向量机SVM分类器,输出识别结果。
与现有技术相比,本发明具有以下有益效果:
本发明的车标识别方法及系统,采用dense-SIFT提取车标特征,能在低分辨率车标图片上提取丰富、稳定以及具有识别判别性的特征;建立KD树索引视觉词库,加快了计算速度;根据dense-SIFT和视觉词的相关性,将dense-SIFT映射成所有视觉词来表示,增加特征的描述性;在建立视觉词直方图时,引入空间位置信息,提升判别效果。本发明在低分辨率图像下具有高识别率,对遮挡、光照变化、拍摄角度变化等具有更高的鲁棒性,并且本发明所需计算时间短,具有实时性。
附图说明
通过阅读参照以下附图对非限制性实施例所作的详细描述,本发明的其它特征、目的和优点将会变得更明显:
图1为本发明总体流程图。
图2为本发明离线训练子系统及在线识别子系统流程图。
图3为提取车标图像的dense-SIFT特征示意图。
图4为利用K-MEANS建立视觉词汇库流程示意图。
图5为采用“回字形空间金字塔”建立空间直方图示意图。
图6为本发明车标识别结果图。
具体实施方式
下面结合具体实施例对本发明进行详细说明。以下实施例将有助于本领域的技术人员进一步理解本发明,但不以任何形式限制本发明。应当指出的是,对本领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干变形和改进。这些都属于本发明的保护范围。
本实施采用的数据库共有840张已分割的车标图片,包含14类车标,每类有60张图片,每张图片的高度为30个像素,分辨率较低。数据库中的图片在不同时间、不同天气条件、不同相机角度下拍摄所得。
参见图1的流程示意图所示,本实施例涉及的车标识别系统包括离线训练子系统1和在线识别子系统2。离线训练子系统1以训练车标样本为输入,输出训练好的SVM分类器;在线识别子系统2利用训练好的SVM分类器处理待检测图像,识别出待检测图像的车标类别。
在图2所示实施例中,离线训练子系统实现离线训练的过程包括输入训练车标图片3、提取dense-SIFT特征4、建立视觉词汇库5、建立KD树6、特征映射至视觉词表示7、建立空间直方图8、训练SVM分类器9。具体实现步骤为:
(1):如图3所示,对所有的训练车标样本图片提取dense-SIFT特征,则车标图片I可以表示成dense-SIFT特征di的集合,即I={di,di∈I}。具体步骤为:
1.1)在车标图像上设定密集采样网格,网格上的交叉点作为特征提取点15。其中采样密度为5个像素,即网格上一个特征提取点到下一个特征提取点的距离是5个像素。
1.2)以每个特征提取点为中心,取4×4的窗口,计算SIFT特征描述子16。
M的取值要满足既能够得到丰富的特征提取点,又不能导致过大的计算量;N*N窗口大小的选取要保证能较好的描述出提取点处的特征。本实施例中M=5,N=4。
在这一步中,dense-SIFT特征提取算法直接用密集采样网格确定特征提取点,缩短特征点检测的时间;并且dense-SIFT能在低分辨率图片上提取数目较多的特征,增加了本发明的识别率;此外,dense-SIFT特征具有尺度不变、旋转不变等特性,增强了本发明的鲁棒性。
(2):如图4所示流程图中,从所有dense-SIFT特征中,随机选取104个dense-SIFT组成dense-SIFT特征集17,利用K-MEANS聚类法,对dense-SIFT特征集17进行聚类分析,建成一个具有300个视觉词的词汇库5,具体步骤为:
2.1)从dense-SIFT特征集17中任意选择300个dense-SIFT特征作为初始聚类质心μ(18);
2.2)对除聚类质心外的每个dense-SIFT特征di,计算di到所有聚类质心μj的欧式距离Dij,并把该dense-SIFT特征di归到欧式距离Dij最短的质心所属的聚类Cj中,由此形成300个新聚类C。其中Dij=||di-μj||2;
2.3)更新聚类的质心。计算新聚类中所有dense-SIFT的均值,并作为新聚类的质心,即其中|Cj|是聚类Cj中dense-SIFT特征的个数。
2.4)重复过程2.2)和2.3)直至收敛,收敛是指新聚类的质心趋于稳定。
(3):如图2流程图中所示,在得到视觉词汇库后,建立KD树(6)索引词汇库中的视觉词。KD树可以加快多维空间关键数据的搜索,这一步,可以减少训练系统及识别系统中视觉词的搜索时间,提高本发明的实时性。
(4):如图2流程图所示,将训练车标图片I中所有的dense-SIFT特征映射成视觉词7表示,具体方法为:
根据dense-SIFT与视觉词之间的距离,计算每一个dense-SIFT特征di与300个视觉词的相关度,将dense-SIFT映射至300个视觉词,映射关系为f(di)=[K(di,μ1),…,K(di,μ300)]T,T表示矩阵转置符。其中K(∵)是表示di与μj之间距离的高斯核函数 ,本实施例中,σ2=100控制了高斯函数的径向作用范围。
这一步,传统方法是,根据dense-SIFT与视觉词之间的距离,将dense-SIFT量化到离其距离最近的一个视觉词中。传统方法的缺点是,不能表示出dense-SIFT与其他视觉词之间相似的关系,因此带有片面性。本发明借助映射的思想表示出了dense-SIFT和所有视觉词的相似性,可以很大程度上增强dense-SIFT特征的描述能力,提高本发明的识别准确率。
(5):在图2流程图及图5实施例中,提出“回字形空间金字塔”,建立空间直方图来表示图像,分析宽为W高为H的车标图像,具体方法是:
5.1)以(W/2,H/2)为中心,提取一个宽为W,高为H的矩形区域,即将整幅图像作为感兴趣区域I123,计算该感兴趣区域的视觉词直方图h(I1)24,h(I1)为K维。
5.2)以(W/2,H/2)为中心,选择一个宽为2W/3,高为2H/3的矩形区域作为感兴趣区域I225,计算该感兴趣区域的视觉词直方图h(I2)26,h(I2)为K维。
5.3)以(W/2,H/2)为中心,选择一个宽为W/3,高为H/3的矩形区域作为一个感兴趣区域I327,计算该感兴趣区域的视觉词直方图h(I3)28,h(I3)为K维。
5.4)将三个感兴趣区域I1、I2、I3的视觉词直方图顺次拼接并归一化,形成车标直方图建立最终的视觉词直方图H(I)29,即H(I)=[h(I1),h(I2)h(I3)]/‖H(I)‖1。‖H(I)‖1代表空间直方图绝对值和,H(I)的维数为3×K维。
计算视觉词直方图的方法为:其中|Ij|代表该感兴趣区域Ij中dense-SIFT的个数,f(di)如离线训练子系统的步骤(4)所示,表示dense-SIFT特征与视觉词之间的映射关系f(di)=[K(di,μ1),…,K(di,μk)]T。关于K值的选择,K增大时,识别准确率会在一定范围内增高,但当K过大时,识别准确率不能明显提高,计算量却明显增大。本实施例中K=300。
这一步,传统的视觉词直方图是对一张图片中视觉词出现次数或者所占比重的统计,不能反映视觉词在图片中的空间位置信息。本发明提出“回字形空间金字塔”思想,一方面可以在直方图中增加特征区域的空间位置信息,更加准确的描述图像所包含的内容,提高车标识别率;另一方面,“回字形空间金字塔”增加了车标内部特征的比重,降低车标周围排气扇的干扰,降低不同种类车标之间的误识率。
(6):利用车标图像的视觉词直方图训练支持向量机SVM分类器,具体方法为:
在支持向量机理论中,其本质上是二类分类器,因此,如何设计一个好的分类器也是解决问题的关键。在本实施例中,所属的支持向量机分类器采用一对多方法组建,具体是为每一类车标训练一个SVM模型,当训练第i类车标时,将该类的车标图像标记为+1,其余的车标图片标记为-1,本实施例采用径向基(RBF)核为SVM的核函数,为每类车标训练SVM模型。径向基(RBF)核函数公式为:
其中Hi、Hj表示训练样本的空间直方图;γ为RBF的核参数;另外训练SVM模型时还需输入惩罚因子C。本实施例采用“grid-search”方法,确定最优参数C=32.0,γ=2.0。
在图2所示实施例中,在线识别子系统2实现在线识别的过程包括读取待检测车标图片10、提取dense-SIFT特征11、将dense-SIFT特征映射至视觉词表示12、建立空间直方图13、SVM分类器预测14。具体实现步骤为:
(7):如图3实施例中所示,提取待检测图像的dense-SIFT特征,具体方法为:
7.1)在车标图像上设定密集采样网格,网格上的交叉点作为特征提取点15。其中采样密度为5个像素,即网格上一个特征提取点到下一个特征提取点的距离是5个像素。
7.2)以每个特征提取点为中心,取4×4的窗口,计算SIFT特征描述子16。
在这一步中,dense-SIFT特征提取算法直接用密集采样网格确定特征提取点,缩短特征点检测的时间;并且dense-SIFT能在低分辨率图片上提取数目较多的特征,增加了本发明的识别率;此外,dense-SIFT特征具有尺度不变、旋转不变等特性,增强了本发明的鲁棒性。
(8):在图2流程图的12,根据离线系统中已建立的词汇库,将待检测车标图片I={di,di∈I}的所有dense-SIFT特征映射至视觉词,具体方法是:根据dense-SIFT与视觉词之间的距离,计算每一个dense-SIFT特征di与300个视觉词的相关度,将dense-SIFT映射至300个视觉词,映射关系为f(di)=[K(di,μ1),…,K(di,μ300)]T,T表示矩阵转置。其中K(∵)是表示di与μj之间距离的高斯核函数,本实施例σ2=100控制了高斯函数的径向作用范围。
这一步,传统方法是,根据dense-SIFT与视觉词之间的距离,将dense-SIFT量化到离其距离最近的一个视觉词中。传统方法的缺点是,不能表示出dense-SIFT与其他视觉词之间相似的关系,因此带有片面性。本发明借助映射的思想表示出了dense-SIFT和所有视觉词的相似性,可以很大程度上增强dense-SIFT特征的描述能力,提高本发明的识别准确率。
(9):如图2和图5所示,采用“回字形空间金字塔”,建立空间直方图13,具体方法是:
9.1)以(W/2,H/2)为中心,提取一个宽为W,高为H的矩形区域,即将整幅图像作为感兴趣区域I123,计算该感兴趣区域的视觉词直方图h(I1)24,h(I1)为K维。
9.2)以(W/2,H/2)为中心,选择一个宽为2W/3,高为2H/3的矩形区域作为感兴趣区域I225,计算该感兴趣区域的视觉词直方图h(I2)26,h(I2)为K维。
9.3)以(W/2,H/2)为中心,选择一个宽为W/3,高为H/3的矩形区域作为一个感兴趣区域I327,计算该感兴趣区域的视觉词直方图h(I3)28,h(I3)为K维。
9.4)将三个感兴趣区域I1、I2、I3的视觉词直方图顺次拼接并归一化,形成车标直方图建立最终的视觉词直方图H(I)29,即H(I)=[h(I1),h(I2)h(I3)]/‖H(I)‖1。‖H(I)‖1表示空间直方图的绝对值之和,H(I)的维数为3×K维。
计算视觉词直方图的方法为:
其中|Ij|代表该感兴趣区域Ij中dense-SIFT的个数,f(di)如在线识别子系统步骤(8)所示,表示dense-SIFT特征与视觉词之间的映射关系f(di)=[K(di,μ1),…,K(di,μk)]T。本实施例中k=300。
这一步,传统的视觉词直方图是对一张图片中视觉词出现次数或者所占比重的统计,不能反映视觉词在图片中的空间位置信息。本发明提出“回字形空间金字塔”思想,一方面可以在直方图中增加特征区域的空间位置信息,更加准确的描述图像所包含的内容,提高车标识别率;另一方面,“回字形空间金字塔”增加了车标内部特征的比重,降低车标周围排气扇的干扰,降低不同种类车标之间的误识率,得到更好的车标识别效果。
(10):如图2流程图中示,将待检测图像的空间直方图输入到支持向量机SVM分离器9中,识别车标类别14。待检测车标的识别类别根据SVM输出的最大预测值来判定。P(H(I))=argmaxPi(H(I)),其中,P(H(I))为车标的识别类别,Pi(H(I))为SVM对当前图片的预测值。 其中wj是权重,sj是支持向量即部分训练样本的视觉词直方图,β是偏值,这些参数可以由训练的SVM模型得到。H(I)是待识别车标的空间直方图,K(∵)是SVM RBF核函数,
图6为本发明的车标识别系统结果图。本实施例中,将车标样本库分为图片数量逐步增多的子库进行测试,分别为6、12、18…60张/类。本实施例的识别准确率为97.38%,并且效果非常稳定,平均识别每张车标的时间不到0.022秒,处理速度快。
以上对本发明的具体实施例进行了描述。需要理解的是,本发明并不局限于上述特定实施方式,本领域技术人员可以在权利要求的范围内做出各种变形或修改,这并不影响本发明的实质内容。
Claims (8)
1.一种车标自动识别方法,包括离线训练部分和在线识别部分,其特征在于:
所述离线训练部分包括以下步骤:
(1):提取训练车标样本图片的dense-SIFT特征,得到dense-SIFT特征集;
(2):用K-MEANS方法对dense-SIFT特征集聚类分析,建立视觉词汇库;
(3):建立KD树,快速索引步骤(2)建立的词汇库中的视觉词;
(4):根据已建立的词汇库,计算dense-SIFT特征集与视觉词的相关性,将dense-SIFT映射成所有视觉词表示;
(5):采用回字形空间金字塔,建立空间视觉词直方图来表示图像;
(6):利用空间视觉词直方图训练支持向量机SVM分类器;
所述在线识别部分包括以下步骤:
(7):提取待检测车标图片的dense-SIFT特征;
(8):根据离线训练部分已建立的词汇库,计算dense-SIFT与视觉词的相关性,将dense-SIFT映射成视觉词表示;
(9):采用回字形空间金字塔,建立空间视觉直方图来表示图像;
(10):将待检测图片的空间视觉直方图输入支持向量机SVM分类器,输出识别结果。
2.根据权利要求1所述的车标自动识别方法,其特征在于,步骤(1)、(7)中提取dense-SIFT的方法为:
1)用密集采样网格确定特征提取点,网格上的交叉点即为特征提取点,其中采样密度为M个像素,即网格上一个特征提取点到下一个特征提取点的距离是M个像素;
2)以每个特征提取点为中心,取N*N的窗口,计算SIFT特征描述子。
3.根据权利要求1所述的车标自动识别方法,其特征是,步骤(2)具体为:从提取的所有dense-SIFT特征中,随机选取104个dense-SIFT组成特征集,利用K-MEANS聚类法,将dense-SIFT特征集分为K个聚类并计算出聚类质心,每个聚类质心作为一个视觉词,最终形成一个具有K个视觉词的词汇库。
5.根据权利要求1所述的车标自动识别方法,其特征是,步骤(5)、(9)中在车标图片上选择三个不同大小的矩形区域作为感兴趣区域,建立回字形空间金字塔,增加dense-SIFT特征的空间位置信息;分析一张车标图片,具体步骤包括:
1)以(W/2,H/2)为中心,提取一个宽为W,高为H的矩形区域,即将整幅图像作为感兴趣区域I1,计算该感兴趣区域的视觉词直方图h(I1),h(I1)为K维;
2)以(W/2,H/2)为中心,选择一个宽为2W/3,高为2H/3的矩形区域作为感兴趣区域I2,计算该感兴趣区域的视觉词直方图h(I2),h(I2)为K维;
3)以(W/2,H/2)为中心,选择一个宽为W/3,高为H/3的矩形区域作为一个感兴趣区域I3,计算该感兴趣区域的视觉词直方图h(I3),h(I3)为K维;
4)将三个感兴趣区域I1、I2、I3的视觉词直方图顺次拼接,并归一化形成车标直方图建立最终的视觉词直方图H(I),即H(I)=[h(I1),h(I2),h(I3)]/‖H(I)‖1,‖H(I)‖1代表H(I)的绝对值和,H(I)的维数为3×K维;
计算视觉词直方图的方法为:
其中|Ij|代表该感兴趣区域Ij中dense-SIFT的个数,f(di)为dense-SIFT特征与视觉词的映射关系,di表示第i个特征。
6.根据权利要求1所述的车标自动识别方法,其特征是,步骤(6)具体为:
当训练第i类车标时,将该类的车标图像标记为+1,其余的车标图片标记为-1,本实施例采用径向基RBF核为SVM的核函数,为每类车标训练SVM模型,径向基RBF核函数公式为:
其中Hi、Hj表示训练样本的空间直方图;γ为RBF的核参数;另外训练SVM模型时还需输入惩罚因子C。
7.根据权利要求1所述的车标自动识别方法,其特征是,步骤(10)具体为:
将待测图像的空间视觉词直方图输入到步骤(6)中训练好的SVM模型,输出车标识别结果,待检测车标的识别类别根据SVM输出的最大预测值来判定,P(H(I))=argmaxPi(H(I)),其中,Pi(H(I))为输入视觉词直方图后SVM的预测值,P(H(I))为车标的识别类别;
其中wj是权重,sj是支持向量即部分训练样本的视觉词直方图,β是偏值,这些参数由步骤(6)中训练的SVM模型得到,H(I)是待识别车标的空间直方图,K(∵)是SVM的RBF核函数,
8.一种用于实现权利要求1所述方法的车标自动识别系统,其特征在于:所述系统包括一个离线训练子系统以及一个在线识别子系统,离线训练子系统以训练车标样本为输入,输出训练好的SVM分类器;在线识别子系统利用训练好的SVM分类器处理待检测图像,识别出待检测图像的车标类别;其中:
所述离线训练子系统包括:
dense-SIFT特征提取模块:提取训练车标样本图片的dense-SIFT特征,得到dense-SIFT特征集;
视觉词库建立模块:用K-MEANS方法对dense-SIFT特征集聚类分析,建立视觉词汇库;
建立KD树索引视觉词汇库模块:建立KD树,快速索引视觉词库建立模块建立的词汇库中的视觉词;
特征映射至视觉词模块:根据视觉词库建立模块已建立的词汇库,计算dense-SIFT特征提取模块得到的dense-SIFT特征集与视觉词的相关性,将dense-SIFT映射成所有视觉词表示;
建立空间直方图模块:采用回字形空间金字塔,建立空间视觉词直方图来表示图像;
训练支持向量机分类器模块:利用建立空间直方图模块建立的空间视觉词直方图训练支持向量机SVM分类器;
训练图片库中的车标图片依次经过上述几个模块处理,得到训练好的SVM分类器;
所述识别子系统包括:
dense-SIFT特征提取模块:提取待检测车标图片的dense-SIFT特征;
特征映射至视觉词模块:根据离线训练部分已建立的词汇库,计算dense-SIFT特征提取模块获得的dense-SIFT特征集与视觉词的相关性,将dense-SIFT映射成视觉词表示;
空间直方图建立模块:采用回字形空间金字塔,建立空间视觉直方图来表示图像;
SVM分类器预测模块:将空间直方图建立模块建立的待检测图片的空间视觉直方图输入支持向量机SVM分类器,输出识别结果。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201310170528.9A CN103279738B (zh) | 2013-05-09 | 2013-05-09 | 车标自动识别方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201310170528.9A CN103279738B (zh) | 2013-05-09 | 2013-05-09 | 车标自动识别方法及系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN103279738A true CN103279738A (zh) | 2013-09-04 |
CN103279738B CN103279738B (zh) | 2017-01-25 |
Family
ID=49062253
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201310170528.9A Active CN103279738B (zh) | 2013-05-09 | 2013-05-09 | 车标自动识别方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN103279738B (zh) |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103810505A (zh) * | 2014-02-19 | 2014-05-21 | 北京大学 | 基于多层描述子的车辆标识方法与系统 |
CN104240238A (zh) * | 2014-09-01 | 2014-12-24 | 宁波大学 | 一种基于惩罚控制竞争学习聚类算法的特征分层匹配方法 |
CN104751190A (zh) * | 2015-04-23 | 2015-07-01 | 武汉大学 | 一种面向车辆精细识别的车辆部件定位方法 |
CN105740886A (zh) * | 2016-01-25 | 2016-07-06 | 宁波熵联信息技术有限公司 | 一种基于机器学习的车标识别方法 |
CN107045642A (zh) * | 2017-05-05 | 2017-08-15 | 广东工业大学 | 一种车标图像识别方法及装置 |
CN107368807A (zh) * | 2017-07-20 | 2017-11-21 | 东南大学 | 一种基于视觉词袋模型的监控视频车型分类方法 |
CN107369063A (zh) * | 2017-06-15 | 2017-11-21 | 东南大学 | 一种Android平台下基于扫码和图像处理的进销存方法 |
CN108122000A (zh) * | 2017-11-28 | 2018-06-05 | 合肥工业大学 | 一种基于特征学习的车标识别方法 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20050105794A1 (en) * | 2003-08-25 | 2005-05-19 | Glenn Fung | Greedy support vector machine classification for feature selection applied to the nodule detection problem |
CN101315663A (zh) * | 2008-06-25 | 2008-12-03 | 中国人民解放军国防科学技术大学 | 一种基于区域潜在语义特征的自然场景图像分类方法 |
-
2013
- 2013-05-09 CN CN201310170528.9A patent/CN103279738B/zh active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20050105794A1 (en) * | 2003-08-25 | 2005-05-19 | Glenn Fung | Greedy support vector machine classification for feature selection applied to the nodule detection problem |
CN101315663A (zh) * | 2008-06-25 | 2008-12-03 | 中国人民解放军国防科学技术大学 | 一种基于区域潜在语义特征的自然场景图像分类方法 |
Non-Patent Citations (5)
Title |
---|
K.GRAUMAN 等: "Pyramid Match Kernels:Discriminative Classification with Sets of Image features", 《TENTH IEEE INTERNATIONAL CONFERENCE ON COMPUTER VISION》, vol. 2, 21 October 2005 (2005-10-21), pages 1458 - 1465, XP010856986, DOI: doi:10.1109/ICCV.2005.239 * |
LIU GANG 等: "Improved Bags-of-Words Algorithm for Scene Recognition", 《2010 2ND INTERNATIONAL CONFERENCE ON SIGNAL PROCESSING SYSTEMS》, vol. 2, 7 July 2010 (2010-07-07) * |
刘万里 等: "《基于距离核函数的除噪和减样方法》", 《系统工程理论与实践》, no. 7, 31 July 2008 (2008-07-31), pages 160 - 164 * |
王宇新 等: "用于图像场景分类的空间视觉词袋模型", 《计算机科学》, vol. 38, no. 8, 31 August 2011 (2011-08-31), pages 265 - 268 * |
胡正平 等: "多方向上下文特征结合空间金字塔模型的场景分类", 《信号处理》, vol. 27, no. 10, 31 October 2011 (2011-10-31) * |
Cited By (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103810505A (zh) * | 2014-02-19 | 2014-05-21 | 北京大学 | 基于多层描述子的车辆标识方法与系统 |
CN103810505B (zh) * | 2014-02-19 | 2017-11-24 | 北京大学 | 基于多层描述子的车辆标识方法与系统 |
CN104240238A (zh) * | 2014-09-01 | 2014-12-24 | 宁波大学 | 一种基于惩罚控制竞争学习聚类算法的特征分层匹配方法 |
CN104751190B (zh) * | 2015-04-23 | 2017-12-29 | 武汉大学 | 一种面向车辆精细识别的车辆部件定位方法 |
CN104751190A (zh) * | 2015-04-23 | 2015-07-01 | 武汉大学 | 一种面向车辆精细识别的车辆部件定位方法 |
CN105740886A (zh) * | 2016-01-25 | 2016-07-06 | 宁波熵联信息技术有限公司 | 一种基于机器学习的车标识别方法 |
CN105740886B (zh) * | 2016-01-25 | 2019-03-12 | 杭州熵领科技有限公司 | 一种基于机器学习的车标识别方法 |
CN107045642A (zh) * | 2017-05-05 | 2017-08-15 | 广东工业大学 | 一种车标图像识别方法及装置 |
CN107369063A (zh) * | 2017-06-15 | 2017-11-21 | 东南大学 | 一种Android平台下基于扫码和图像处理的进销存方法 |
CN107368807A (zh) * | 2017-07-20 | 2017-11-21 | 东南大学 | 一种基于视觉词袋模型的监控视频车型分类方法 |
CN107368807B (zh) * | 2017-07-20 | 2020-06-30 | 东南大学 | 一种基于视觉词袋模型的监控视频车型分类方法 |
CN108122000A (zh) * | 2017-11-28 | 2018-06-05 | 合肥工业大学 | 一种基于特征学习的车标识别方法 |
CN108122000B (zh) * | 2017-11-28 | 2021-07-30 | 合肥工业大学 | 一种基于特征学习的车标识别方法 |
Also Published As
Publication number | Publication date |
---|---|
CN103279738B (zh) | 2017-01-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN103279738A (zh) | 车标自动识别方法及系统 | |
Liu et al. | Fast multiclass vehicle detection on aerial images | |
CN112016605B (zh) | 一种基于边界框角点对齐和边界匹配的目标检测方法 | |
CN105354568A (zh) | 基于卷积神经网络的车标识别方法 | |
CN105404886A (zh) | 特征模型生成方法和特征模型生成装置 | |
CN104268528A (zh) | 一种人群聚集区域检测方法和装置 | |
CN106228129A (zh) | 一种基于matv特征的人脸活体检测方法 | |
CN102622607A (zh) | 一种基于多特征融合的遥感图像分类方法 | |
CN103870803A (zh) | 一种基于粗定位与精定位融合的车牌识别方法和系统 | |
CN103310195A (zh) | 车辆高分遥感图像的基于llc特征的弱监督识别方法 | |
CN104766042A (zh) | 交通标志板识别方法及装置 | |
Saleh et al. | Traffic signs recognition and distance estimation using a monocular camera | |
CN105740886A (zh) | 一种基于机器学习的车标识别方法 | |
CN105809205A (zh) | 一种高光谱图像的分类方法及其系统 | |
CN108960175A (zh) | 一种基于深度学习的车牌识别方法 | |
CN102663401A (zh) | 一种图像特征提取和描述方法 | |
CN111460881A (zh) | 基于近邻判别的交通标志对抗样本检测方法和分类装置 | |
CN102385592A (zh) | 图像概念的检测方法和装置 | |
CN106844785A (zh) | 一种基于显著性分割的基于内容的图像检索方法 | |
Yang et al. | VLD-45: A big dataset for vehicle logo recognition and detection | |
Hou et al. | A cognitively motivated method for classification of occluded traffic signs | |
CN105404858A (zh) | 一种基于深度费舍尔网络的车型识别方法 | |
Thumthong et al. | Automatic detection and recognition of Thai vehicle license plate from CCTV images | |
Soni et al. | Improving the classification accuracy of accurate traffic sign detection and recognition system using HOG and LBP features and PCA-based dimension reduction | |
Rodríguez-Serrano et al. | Data-driven vehicle identification by image matching |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant |