CN108647679A - 一种基于车窗粗定位的车标识别方法 - Google Patents
一种基于车窗粗定位的车标识别方法 Download PDFInfo
- Publication number
- CN108647679A CN108647679A CN201810373861.2A CN201810373861A CN108647679A CN 108647679 A CN108647679 A CN 108647679A CN 201810373861 A CN201810373861 A CN 201810373861A CN 108647679 A CN108647679 A CN 108647679A
- Authority
- CN
- China
- Prior art keywords
- logo
- max
- row
- rectangle
- vehicle
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/62—Text, e.g. of license plates, overlay texts or captions on TV images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/24—Aligning, centring, orientation detection or correction of the image
- G06V10/245—Aligning, centring, orientation detection or correction of the image by locating a pattern; Special marks for positioning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V30/00—Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
- G06V30/10—Character recognition
Abstract
本发明属于计算机视觉技术和图像处理技术领域,具体涉及一种基于车窗粗定位的车标识别方法。本发明采用计算机视觉技术,通过定位车窗对车标进行粗定位、车标精定位与基于卷积神经网络的车标分类,解决了车标识别问题,同时拥有更好的准确率与效率,改善了以车牌辨车的传统工作模式,为打击汽车套牌、一车多牌、假牌照等违法犯罪行为提供了可靠帮助,进一步提高了智能交通的可靠性,节省了大量的人力成本。
Description
技术领域
本发明属于计算机视觉技术和图像处理技术领域,具体涉及一种基于车窗粗定位的车标识别方法。
背景技术
随着科学技术和社会经济的高速发展,人民生活水平不断提高,车辆数量也在飞速增长,城市道路交通问题显得越来越突出,各种道路交通问题接踵而至,以人眼识别为主的传统道路监控方式便无法满足要求,现代化智能交通控制系统已成为未来全球道路交通的发展趋势和现代化城市的先进标志。近年来,遮挡车牌、汽车套牌等妨碍交通秩序的违法行为层出不穷,仅依靠车牌识别已不能适应当前的交通现状了,因此,车标识别技术变得更为重要,它可以弥补车牌识别的不足,从而进一步提高智能交通系统的可靠性。
视频中运动车辆的车标识别与检测是近年来智能交通管理系统中比较关注的研究方向之一。目前,国内已有一些车标识别的方法,其中与本发明较为相近的技术方案包括:专利(陆辉;蒋恋华;张仁辉。车标定位与识别方法。CN103310231A[P]。2013。)使用车牌来对车牌进行粗定位,犯罪车辆通常没有车牌或车牌被遮挡,此时无法正确识别车牌,在这种情况下,该方法无法正确识别车标;发明专利(杜克林;吴斌;赵旭等。一种基于机器学习的车标识别方法。
CN105740886A[P]。2016。)中使用SIFT算子将提取到的车标特征放入SVM分类器进行训练与分类,该方法虽然在识别率上有所提高,但是使用多个二值子分类器对多种车标进行分类,不仅会使决策时的速度过慢,而且可能导致分类器泛化误差无界,此外,使用这种卷积神经网络+SVM的非端到端式的检测效率很低;文献(宁莹莹,李文举,王新年。基于主成分分析和BP神经网络的车标识别[J]。辽宁师范大学学报(自然科学版),2010,33(2):179-184)通过主成分分析(PCA)提取特征并通过BP神经网络对车标进行训练与识别,该算法比较依赖车标定位算法,如果没有定位到较完整的车标图片会对识别结果产生较大影响,此外,该方法对噪声的干扰也较为敏感。
综上所述,在对车标进行识别时,当前方法存在如下不足:(1)在无车牌时无法对车标进行粗定位;(2)有时无法提取到正确的车标区域;(3)识别采用SVM分类速度较慢;(4)噪声会对识别结果产生较大的影响。本发明针对这些问题提出了一种基于卷积神经网络的车标识别方法。
发明内容
为解决上述问题,本发明提供了一种基于车窗粗定位的车标识别方法。
所述的一种基于车窗粗定位的车标识别方法,其特征在于具体步骤如下:
步骤1:定义车标种类集合为C={Ci|i=1,…,t},其中t为车标的总数,并建立相应的车标数据集;
步骤2:构建用于车标分类的卷积神经网络并用步骤1中的车标数据集进行训练,得到卷积神经网络;
步骤3:对输入的车辆图像I进行车标定位,I的宽为width,高为height,具体为:
步骤3.1:识别车窗并根据车窗的位置对车标进行粗定位;
步骤3.2:根据式(7),(8),(9)计算每一像素行是否有效,若FRi为1,则表示第i行为有效行,否则,为无效行:
其中,D(i,j)为矩形D第i行第j列的灰度值,σi为第i行像素值的标准差,μ1为比例系数,AVGr(i)为第i行的像素均值;
步骤3.3:连接相邻的有效行,得到有效块集合recti(xi,yi,wi,hi),i=1,2,...n,n为有效块的总数,其中,(xi,yi)为recti左上角坐标,wi和hi为矩形recti的宽和高;
步骤3.4:从recti中剔除块的块,得到新的recti,根据(10),(11)筛选出车标所在的区域R;
hmax=max(h1,h2,...,hn) (10)
R=rectmax(xmax,ymax,wmax,hmax) (11)
其中,(xmax,ymax)为R左上角坐标,wmax和hmax为矩形R的宽和高,为阈值;
步骤3.6:根据式(12),(13,(14)计算每一列是否有效,若FCi为1,则表示第i行为有效行,否则,为无效行:
其中,R(j,i)为矩形R第j行第i列的灰度值,σ'i为第i列像素值的标准差,μ1为比例系数,AVGc(i)为第i列的像素均值;
步骤3.7:根据式(15),(16),(17)得到车标精确定位区域D',完成车标的精确定位:
Fmax=max(i|Fi=1) (15)
Fmin=min(i|Fi=1) (16)
其中,(x',y')为D'左上角坐标,w'和h'为矩形D'的宽和高;
步骤4:利用训练好的卷积神经网络对车标定位区域D'进行识别,具体为:
步骤4.1:将D'对应的图像I'归一化至N*N像素大小,传入步骤2训练所得的卷积神经网络,得到输出向量U=(u1,u2,...,ut),其中uk为I'对应车标Ck的概率,k=1,2,...,t;
步骤4.2:根据式(18)得到最大的概率uq,则车标识别结果为Cq,Cq∈C,完成车标的识别:
uq=max(u1,u2,...,ut) (18)。
所述的一种基于车窗粗定位的车标识别方法,其特征在于步骤2中的构建用于车标分类的卷积神经网络并用步骤1中的车标数据集进行训练,具体过程为:
步骤2.1:构建含有8层的卷积神经网络,8层依次是卷积层Conv1,池化层Pool2,卷积层Conv3,池化层Pool4,卷积层Conv5,池化层Pool6,全连接层Fc7,分类层Softmax8,其中卷积层Conv1的输入大小为N*N,分类层Softmax8的输出向量大小为t+1;
步骤2.2:随机初始化卷积神经网络,使用步骤1构建的车标数据集对卷积神经网络进行训练,并根据公式(1)计算损失函数L,并根据链式法则逐步计算反向误差,更新各层的权重参数值,直到输出的损失函数L≤θ,完成训练:
其中,Yi和分别为实际输出和真实标签第i个神经元的值,θ为设定的阈值。
所述的一种基于车窗粗定位的车标识别方法,其特征在于步骤3.1中的对车标进行粗定位具体为:
步骤3.1.1:根据公式(2)对I进行灰度化处理,得到灰度图IG:
IG(x,y)=max(I(x,y,k)) (2)
其中,IG(x,y)为图像IG上第x行第y列的灰度值,I(x,y,k)为图像I上第x行第y列第k个通道的灰度值,k=1,2,3;
步骤3.1.2:使用OTSU方法对IG进行二值化,得到式IB,并根据式(3)得到IO:
其中,e1,e2为结构元,为膨胀运算,Θ为腐蚀运算;
步骤3.1.3:扫描整幅二值图像IO,计算各白色区域的像素面积,过滤面积小于0.005*height*width的连通区域,得到连通区域的候选集l={li i=1,2,…,m},m为过滤后连通区域的总数;
步骤3.1.4:利用最小外接矩形算法,通过公式(4)计算各个连通区域li(i=1,2,...,m)占其最小外接矩形ri(i=1,2,...,m)的面积百分比ai(i=1,2,...,m);
ai=li/ri (4)
步骤3.1.5:通过比较筛选出占外接矩形面积百分比最大的轮廓amax,使其满足公式(5),完成车窗的识别;
amax=max{a1,a2,......,an} (5)
步骤3.1.6:记轮廓amax所对应的矩形rmax为RW(xw,yw,ww,hw),其中,(xw,yw)为矩形RW左上角坐标,ww和hw分别为矩形RW的宽和高;
步骤3.1.7:根据式(6)得到车标粗定位区域D,完成车标的粗定位:
其中,(xd,yd)为D左上角坐标,wd和hd为矩形D的宽和高,ρ1,ρ2为比例系数。
通过采用上述技术,本发明的车标识别方法与现有的车标识别方法相比,本发明采用计算机视觉技术,通过定位车窗对车标进行粗定位、车标精定位与基于卷积神经网络的车标分类,解决了车标识别问题,同时拥有更好的准确率与效率,改善了以车牌辨车的传统工作模式,为打击汽车套牌、一车多牌、假牌照等违法犯罪行为提供了可靠帮助,进一步提高了智能交通的可靠性,节省了大量的人力成本。
附图说明
图1为本发明的流程图;
图2为卷积神经网络模型示意图;
图3为具体实施例示例用图;
图4为图3灰度化示意图;
图5为图4使用二值化处理后的示意图;
图6为图5使用形态学运算后的结果图;
图7为车窗定位结果图,用长方形框标注;
图8为车标粗定位结果图,用正方形框标注;
图9为粗定位区域剔除无效行后的结果图,无效行用黑色区域代替;
图10为车标所在有效块的识别结果图;
图11为图10剔除无效列后的结果图,无效列用黑色区域代替;
图12为车标定位结果图。
具体实施方式
下面结合实施例来详细阐述一种基于车窗粗定位的车标识别方法的具体实施方法。应当理解,此处所描述的具体实例仅用于解释本发明,并不用于限定本发明。
如图1所示,本发明的基于车窗粗定位的车标识别方法,其具体步骤如下:
步骤1:定义车标种类集合为C={Ci|i=1,…,t},其中t为车标的总数,并建立相应的车标数据集,在本实施例中,t取10,C={Ci|i=1,2,...,t}={奥迪,宝马,奔驰,凯迪拉克,福特,雪佛兰,现代,大众,别克,沃尔沃};
步骤2:构建用于车标分类的卷积神经网络并用步骤1中的车标数据集进行训练,具体为:
步骤2.1:构建含有8层的卷积神经网络,8层依次是卷积层Conv1,池化层Pool2,卷积层Conv3,池化层Pool4,卷积层Conv5,池化层Pool6,全连接层Fc7,分类层Softmax8,其中卷积层Conv1的输入大小为N*N,分类层Softmax8的输出向量大小为t+1,在本实施例中,N取64;
步骤2.2:卷积神经网络模型如图2所示,随机初始化卷积神经网络,使用步骤1构建的车标数据集对卷积神经网络进行训练,具体步骤如下:
步骤2.2.1:将输入图像缩放至75*75像素大小并输入卷积层Conv1,用大小为5*5的卷积核对其进行步长为1的卷积操作,总共35个卷积核,得到32张分辨率为71*71像素大小的特征图;
步骤2.2.2:将步骤2.1.1中所得特征图输入池化层Pool2,对其进行池化块大小为3*3、步长为2的最大池化操作,得到32张分辨率为35*35像素大小的特征图;
步骤2.2.3:将上一步中所得特征图输入卷积层Conv3,用大小为用大小为5*5的卷积核对其进行步长为1的卷积操作,总共32个卷积核,得到32张分辨率为31*31像素大小的特征图;
步骤2.2.4:将上一步中所得特征图输入池化层Pool4,对其进行池化块大小为3*3、步长为2的平均池化操作,得到32张分辨率为15*15像素大小的特征图;
步骤2.2.5:将上一步中所得特征图输入卷积层Conv5,用大小为用大小为5*5的卷积核对其进行步长为1的卷积操作,总共64个卷积核,得到64张分辨率为11*11像素大小的特征图;
步骤2.2.6:将上一步中所得特征图输入池化层Pool4,对其进行池化块大小为3*3、步长为2的平均池化操作,得到64张分辨率为5*5像素大小的特征图;
步骤2.2.7:将池化层Pool6所得的64张特征图以列的顺序排成1600维列向量,输出至全连接层Fc7,全连接层Fc7的输出为11维列向量;
步骤2.2.8:将全连接层Fc7输出的特征向量输入分类层
Softmax8,得到输入图像所对应各个类别的分类概率,并将最大概率的标签输出根据式(1)计算损失函数L,并根据链式法则逐步计算反向误差,更新各层的权重参数值:
其中,Yi和分别为实际输出和真实标签第i个神经元的值;在本实施例中,所述的卷积神经网络训练方法在申请号为201610861396.8的文件中已公开,在此不再详述;
步骤2.2.9:重复步骤2.2.1至2.2.8,直到输出的损失函数L≤θ,其中θ为设定的阈值,完成训练,在本实施例中,θ取0.001;
步骤3:对输入的车辆图像I进行车标定位,I的宽为width,高为height,图3为具体实施例示例用图,具体为:
步骤3.1:识别车窗并根据车窗的位置对车标进行粗定位,具体为:
步骤3.1.1:根据公式(2)对I进行灰度化处理,得到灰度图IG:
IG(x,y)=max(I(x,y,k)) (2)
其中,IG(x,y)为图像IG上第x行第y列的灰度值,I(x,y,k)为图像I上第x行第y列第k个通道的灰度值,k=1,2,3,在本实施例中,处理结果如图4所示;
步骤3.1.2:使用OTSU方法对IG进行二值化,得到式IB,并根据式(3)得到IO:
其中,e1,e2为结构元,为膨胀运算,Θ为腐蚀运算,在本实施例中,e1,e2为核为5*5的结构元,处理结果分别如图5,图6所示;
步骤3.1.3:扫描整幅二值图像IO,计算各白色区域的像素面积,过滤面积小于0.005*height*width的连通区域,得到连通区域的候选集l={li i=1,2,…,m},m为过滤后连通区域的总数;
步骤3.1.4:利用最小外接矩形算法,通过公式(4)计算各个连通区域li(i=1,2,...,m)占其最小外接矩形ri(i=1,2,...,m)的面积百分比ai(i=1,2,...,m);
ai=li/ri (4)
步骤3.1.5:通过比较筛选出占外接矩形面积百分比最大的轮廓amax,使其满足公式(5),完成车窗的识别:
amax=max{a1,a2,......,an} (5)
在本实施例中,处理结果如图7所示;
步骤3.1.6:记轮廓amax所对应的矩形rmax为RW(xw,yw,ww,hw),其中,(xw,yw)为矩形RW左上角坐标,ww和hw为矩形RW的宽和高;
步骤3.1.7:根据式(6)得到车标粗定位区域D,完成车标的粗定位:
其中,(xd,yd)为D左上角坐标,wd和hd为矩形D的宽和高,ρ1,ρ2为比例系数,在本实施例中,ρ1取0.5,ρ2取1.5,处理结果如图8所示;
步骤3.2:根据式(7),(8),(9)计算每一行是否有效,若FRi为1,则表示第i行为有效行,否则,为无效行:
其中,D(i,j)为矩形D第i行第j列的灰度值,σi为第i行像素值的标准差,μ1为比例系数,AVGr(i)为第i行的像素均值,在本实施例中,μ1取30,处理结果如图9所示;
步骤3.3:连接相邻的有效行,得到有效块集合recti(xi,yi,wi,hi),i=1,2,...n,n为有效块的总数,其中,(xi,yi)为recti左上角坐标,wi和hi为矩形recti的宽和高;
步骤3.4:从recti中剔除块的块,得到新的recti,根据(10),(11)筛选出车标所在的区域R;
hmax=max(h1,h2,...,hn) (10)
R=rectmax(xmax,ymax,wmax,hmax) (11)
其中,(xmax,ymax)为R左上角坐标,wmax和hmax为矩形R的宽和高,为阈值,在本实施例中,取0.1,处理结果如图10所示;
步骤3.6:根据式(12),(13),(14)计算每一列是否有效,若FCi为1,则表示第i行为有效行,否则,为无效行:
其中,R(j,i)为矩形R第j行第i列的灰度值,σ'i为第i列像素值的标准差,μ1为比例系数,AVGc(i)为第i列的像素均值,在本实施例中,μ1取20,处理结果如图11所示;
步骤3.7:根据式(15),(16),(17)得到车标精确定位区域D',完成车标的精确定位:
Fmax=max(i|Fi=1) (15)
Fmin=min(i|Fi=1) (16)
其中,(x',y')为D'左上角坐标,w'和h'为矩形D'的宽和高,在本实施例中,处理结果如图12所示;
步骤4:利用训练好的卷积神经网络对车标定位区域D'进行识别,具体为:
步骤4.1:将D'对应的图像I'归一化至N*N像素大小,传入步骤2训练所得的卷积神经网络,得到输出向量U=(u1,u2,...,ut),其中uk为I'对应车标Ck的概率,k=1,2,...,t;
步骤4.2:根据式(18)得到最大的概率uq,则车标识别结果为Cq,Cq∈C,完成车标的识别:
uq=max(u1,u2,...,ut) (18)。
本说明书实施例所述的内容仅仅是对发明构思的实现形式的列举,本发明的保护范围的不应当被视为仅限于实施例所陈述的具体形式,本发明的保护范围也及于本领域技术人员根据本发明构思所能够想到的等同技术手段。
Claims (3)
1.一种基于车窗粗定位的车标识别方法,其特征在于具体步骤如下:
步骤1:定义车标种类集合为C={Ci|i=1,…,t},其中t为车标的总数,并建立相应的车标数据集;
步骤2:构建用于车标分类的卷积神经网络并用步骤1中的车标数据集进行训练,得到卷积神经网络;
步骤3:对输入的车辆图像I进行车标定位,I的宽为width,高为height,具体为:
步骤3.1:识别车窗并根据车窗的位置对车标进行粗定位;
步骤3.2:根据式(7),(8),(9)计算每一像素行是否有效,若FRi为1,则表示第i行为有效行,否则,为无效行:
其中,D(i,j)为矩形D第i行第j列的灰度值,σi为第i行像素值的标准差,μ1为比例系数,AVGr(i)为第i行的像素均值;
步骤3.3:连接相邻的有效行,得到有效块集合recti(xi,yi,wi,hi),i=1,2,...n,n为有效块的总数,其中,(xi,yi)为recti左上角坐标,wi和hi为矩形recti的宽和高;
步骤3.4:从recti中剔除块的块,得到新的recti,根据(10),(11)筛选出车标所在的区域R;
hmax=max(h1,h2,...,hn) (10)
R=rectmax(xmax,ymax,wmax,hmax) (11)
其中,(xmax,ymax)为R左上角坐标,wmax和hmax为矩形R的宽和高,为阈值;
步骤3.5:根据式(12),(13,(14)计算每一列是否有效,若FCi为1,则表示第i行为有效行,否则,为无效行:
其中,R(j,i)为矩形R第j行第i列的灰度值,σ'i为第i列像素值的标准差,μ1为比例系数,AVGc(i)为第i列的像素均值;
步骤3.6:根据式(15),(16),(17)得到车标精确定位区域D',完成车标的精确定位:
Fmax=max(i|Fi=1) (15)
Fmin=min(i|Fi=1) (16)
其中,(x',y')为D'左上角坐标,w'和h'为矩形D'的宽和高;
步骤4:利用训练好的卷积神经网络对车标定位区域D'进行识别,具体为:
步骤4.1:将D'对应的图像I'归一化至N*N像素大小,传入步骤2训练所得的卷积神经网络,得到输出向量U=(u1,u2,...,ut),其中uk为I'对应车标Ck的概率,k=1,2,...,t;
步骤4.2:根据式(18)得到最大的概率uq,则车标识别结果为Cq,Cq∈C,完成车标的识别:
uq=max(u1,u2,...,ut) (18)。
2.根据权利要求1所述的一种基于车窗粗定位的车标识别方法,其特征在于步骤2中的构建用于车标分类的卷积神经网络并用步骤1中的车标数据集进行训练,具体过程为:
步骤2.1:构建含有8层的卷积神经网络,8层依次是卷积层Conv1,池化层Pool2,卷积层Conv3,池化层Pool4,卷积层Conv5,池化层Pool6,全连接层Fc7,分类层Softmax8,其中卷积层Conv1的输入大小为N*N,分类层Softmax8的输出向量大小为t+1;
步骤2.2:随机初始化卷积神经网络,使用步骤1构建的车标数据集对卷积神经网络进行训练,并根据公式(1)计算损失函数L,并根据链式法则逐步计算反向误差,更新各层的权重参数值,直到输出的损失函数L≤θ,完成训练:
其中,Yi和分别为实际输出和真实标签第i个神经元的值,θ为设定的阈值。
3.根据权利要求1所述的一种基于车窗粗定位的车标识别方法,其特征在于步骤3.1中的对车标进行粗定位具体为:
步骤3.1.1:根据公式(2)对I进行灰度化处理,得到灰度图IG:
IG(x,y)=max(I(x,y,k)) (2)
其中,IG(x,y)为图像IG上第x行第y列的灰度值,I(x,y,k)为图像I上第x行第y列第k个通道的灰度值,k=1,2,3;
步骤3.1.2:使用OTSU方法对IG进行二值化,得到式IB,并根据式(3)得到IO:
其中,e1,e2为结构元,为膨胀运算,Θ为腐蚀运算;
步骤3.1.3:扫描整幅二值图像IO,计算各白色区域的像素面积,过滤面积小于0.005*height*width的连通区域,得到连通区域的候选集l={li|i=1,2,…,m},m为过滤后连通区域的总数;
步骤3.1.4:利用最小外接矩形算法,通过公式(4)计算各个连通区域li(i=1,2,...,m)占其最小外接矩形ri(i=1,2,...,m)的面积百分比ai(i=1,2,...,m);
ai=li/ri (4)
步骤3.1.5:通过比较筛选出占外接矩形面积百分比最大的轮廓amax,使其满足公式(5),完成车窗的识别;
amax=max{a1,a2,......,an} (5)
步骤3.1.6:记轮廓amax所对应的矩形rmax为RW(xw,yw,ww,hw),其中,(xw,yw)为矩形RW左上角坐标,ww和hw分别为矩形RW的宽和高;
步骤3.1.7:根据式(6)得到车标粗定位区域D,完成车标的粗定位:
其中,(xd,yd)为D左上角坐标,wd和hd为矩形D的宽和高,ρ1,ρ2为比例系数。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710751941 | 2017-08-28 | ||
CN2017107519412 | 2017-08-28 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN108647679A true CN108647679A (zh) | 2018-10-12 |
CN108647679B CN108647679B (zh) | 2021-04-27 |
Family
ID=63747180
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810373861.2A Active CN108647679B (zh) | 2017-08-28 | 2018-04-24 | 一种基于车窗粗定位的车标识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN108647679B (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109508720A (zh) * | 2018-10-23 | 2019-03-22 | 高新兴科技集团股份有限公司 | 一种车辆颜色识别方法及装置 |
CN110969162A (zh) * | 2019-12-05 | 2020-04-07 | 四川大学 | 一种机动车车窗定位方法 |
Family Cites Families (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103310231A (zh) * | 2013-06-24 | 2013-09-18 | 武汉烽火众智数字技术有限责任公司 | 车标定位与识别方法 |
CN104361087B (zh) * | 2014-11-17 | 2017-12-12 | 东方网力科技股份有限公司 | 一种基于图像的机动车辆检索方法及装置 |
CN105184293B (zh) * | 2015-08-29 | 2019-02-15 | 电子科技大学 | 基于显著性区域检测的车标定位方法 |
CN106650550A (zh) * | 2015-10-28 | 2017-05-10 | 中通服公众信息产业股份有限公司 | 一种融合车标与车头图像特征的车辆型号识别方法及系统 |
CN105740886B (zh) * | 2016-01-25 | 2019-03-12 | 杭州熵领科技有限公司 | 一种基于机器学习的车标识别方法 |
CN105975949A (zh) * | 2016-05-26 | 2016-09-28 | 大连理工大学 | 一种基于视觉信息的汽车识别方法 |
CN106446150B (zh) * | 2016-09-21 | 2019-10-29 | 北京数字智通科技有限公司 | 一种车辆精确检索的方法及装置 |
CN106529424B (zh) * | 2016-10-20 | 2019-01-04 | 中山大学 | 一种基于选择性搜索算法的车标检测识别方法及系统 |
CN106650731B (zh) * | 2016-12-23 | 2020-02-21 | 中山大学 | 一种鲁棒的车牌、车标识别方法 |
CN106940784A (zh) * | 2016-12-26 | 2017-07-11 | 无锡高新兴智能交通技术有限公司 | 一种基于视频的公交车检测与识别方法及系统 |
-
2018
- 2018-04-24 CN CN201810373861.2A patent/CN108647679B/zh active Active
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109508720A (zh) * | 2018-10-23 | 2019-03-22 | 高新兴科技集团股份有限公司 | 一种车辆颜色识别方法及装置 |
CN110969162A (zh) * | 2019-12-05 | 2020-04-07 | 四川大学 | 一种机动车车窗定位方法 |
Also Published As
Publication number | Publication date |
---|---|
CN108647679B (zh) | 2021-04-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Gou et al. | Vehicle license plate recognition based on extremal regions and restricted Boltzmann machines | |
CN107590492B (zh) | 一种基于卷积神经网络的车标定位与识别方法 | |
CN108446700B (zh) | 一种基于对抗攻击的车牌攻击生成方法 | |
CN104182772B (zh) | 一种基于深度学习的手势识别方法 | |
CN105930791B (zh) | 基于ds证据理论的多摄像头融合的路面交通标志识别方法 | |
CN105095856B (zh) | 基于掩模的有遮挡人脸识别方法 | |
CN107798335A (zh) | 一种融合滑动窗口与Faster R‑CNN卷积神经网络的车标识别方法 | |
CN105354572B (zh) | 一种基于简化卷积神经网络的车牌自动识别系统 | |
TWI381321B (zh) | 重組多張影像與辨識方法以及影像擷取與辨識系統 | |
CN108334881B (zh) | 一种基于深度学习的车牌识别方法 | |
CN107103317A (zh) | 基于图像融合和盲反卷积的模糊车牌图像识别算法 | |
CN101980242B (zh) | 人脸面相判别方法、系统及公共安全系统 | |
CN107066933A (zh) | 一种道路标牌识别方法及系统 | |
CN105335710A (zh) | 一种基于多级分类器的精细车辆型号识别方法 | |
CN106384345B (zh) | 一种基于rcnn的图像检测以及流量统计方法 | |
CN109977798A (zh) | 用于行人重识别的掩膜池化模型训练和行人重识别方法 | |
CN107292933B (zh) | 一种基于bp神经网络的车辆颜色识别方法 | |
CN103413119A (zh) | 基于人脸稀疏描述子的单样本人脸识别方法 | |
CN105718889A (zh) | 基于GB(2D)2PCANet深度卷积模型的人脸身份识别方法 | |
CN102254188A (zh) | 掌纹识别方法及装置 | |
CN105447503A (zh) | 基于稀疏表示lbp和hog融合的行人检测方法 | |
CN106503748A (zh) | 一种基于s‑sift特征和svm训练器的车型识别算法 | |
CN115311241B (zh) | 一种基于图像融合和特征增强的煤矿井下行人检测方法 | |
CN109460722A (zh) | 一种车牌智能识别方法 | |
CN106778529A (zh) | 一种基于改进ldp的人脸识别方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |