CN100470581C - 基于轮廓的车型识别方法 - Google Patents

基于轮廓的车型识别方法 Download PDF

Info

Publication number
CN100470581C
CN100470581C CNB2005100224291A CN200510022429A CN100470581C CN 100470581 C CN100470581 C CN 100470581C CN B2005100224291 A CNB2005100224291 A CN B2005100224291A CN 200510022429 A CN200510022429 A CN 200510022429A CN 100470581 C CN100470581 C CN 100470581C
Authority
CN
China
Prior art keywords
sample
sigma
mean
subclass
vehicle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
CNB2005100224291A
Other languages
English (en)
Other versions
CN1996346A (zh
Inventor
解梅
黄宇
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
University of Electronic Science and Technology of China
Original Assignee
University of Electronic Science and Technology of China
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by University of Electronic Science and Technology of China filed Critical University of Electronic Science and Technology of China
Priority to CNB2005100224291A priority Critical patent/CN100470581C/zh
Publication of CN1996346A publication Critical patent/CN1996346A/zh
Application granted granted Critical
Publication of CN100470581C publication Critical patent/CN100470581C/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Abstract

本发明公开了一种新的基于轮廓的车辆目标识别特征提取方法,它是包含了全局形状信息、局部统计信息和方向信息的复合识别特征。同时,本发明结合已有的最近邻、K近邻识别方法,提出一种综合的双阈值近邻识别方法,并给出其快速算法。在快速识别算法中采用了C-均值动态聚类与哈夫曼二叉树原理相结合的方法,构造一种优化匹配顺序的二叉搜索树,从而大大提高了识别效率和速度。本发明可广泛应用于遥感图象识别,远程监控,智能交通管理,军事侦察,精确制导等各个领域。

Description

基于轮廓的车型识别方法
技术领域
本发明属于图像处理、模式识别技术领域,主要涉及对车辆目标图像的特征提取与形状识别。
背景技术
自动目标识别ATR(Automatic Target Recognition)的研究是随着图像处理、模式识别、人工智能等学科的进步逐步发展起来的。它的基本功用是利用从传感器来的数据源自动地对目标进行探测、分类和识别。目标分类和识别是对找出的运动区域的目标进行分类并确定其型号。总体而言,ATR是一种模仿人脑完成探测和识别目标过程的系统。
自动目标识别ATR系统可以采用多种传感器数据源,基于图像的目标识别方法是一种重要而且非常适用的技术。自动图像目标识别系统中包括预处理、目标检测与分割、目标特征提取、分类与识别、跟踪等部分。其中,特征提取和目标识别是决定系统性能的关键环节。图像目标识别特征的提取可采用多种方法,如傅立叶描述子、矩特征、变换域特征(小波变换、Gabor变换等)、边缘轮廓特征等等。
其中傅立叶描述子是通过逐点扫描目标图像的边界,并从设定点开始记录各边界点的坐标位置。对坐标序列进行傅立叶变换,将得到的复系数称为边界的傅立叶描述子。但这种方法利用的目标信息很少,只是提取了基于目标图像外边界的特征,而且它对噪声比较敏感,所以识别效果较差。详见文献:冈萨雷斯,《数字图像处理》,电子工业出版社,2003;TimothyP.Wallace and Paul A.Wintz,An Efficient Three-Demensional Aircraft RecognitionAlgorithm Using Normalized Fourier Descriptors,Computer Graphics And ImageProcessing,13,99-126。
变换域特征是通过不同尺度和系数的窗函数把目标图像映射到变换域中,再提取有用的识别特征。常用的变换方法有傅立叶变换、Hough变换、小波变换、Gabor变换等等。这些方法在各种特殊应用中能得到理想的图像信息,但其缺点是运算量较大,且物理意义不明确。详见文献:万峰杜明辉,人脸识别中一种新的Gabor特征提取方法,华南理工大学学报(自然科学版),2004年08期间;周国民陈勇,人脸识别中应用小波变换的两个关键问题,浙江大学学报,2005年01期。
提取特征之后就需要对目标进行识别,识别就是将待测试的目标样本归入已知的模式类别。目前常用的识别方法有近邻法、神经网络、模糊识别方法等等。其中模糊识别方法需要准确的模糊模型、隶属度函数等前提条件。神经网络方法能够有效地解决很多非线性问题,但它有很多重要的问题尚没有彻底的理论解决,比如网络节点数、初始权值和学习步长的确定,局部极小点等,所以在实际应用中仍存在一定的问题。详见文献:边肇祺张学工,模式识别,清华大学出版社,2000。
发明内容
本发明提出了一种新的基于轮廓的车辆目标识别特征提取方法,它包含了全局形状信息、局部统计信息和方向信息的复合识别特征的提取,并且提出一种双阈值近邻识别方法及其快速算法,在快速识别算法中采用了C—均值动态聚类与哈夫曼二叉树原理相结合的方法,提出一种优化匹配顺序的二叉搜索树,从而大大提高了识别效率和速度。
为了方便描述本发明地内容,在此作一些术语定义:
1.边缘轮廓:观察场景中亮度或其他性质变化较快的部分通常是场景中不同物体之间的相交处,即边缘。边缘的检测常借助空域微分算子进行,通过模板与图像卷积来完成。
2.训练样本:在分类问题中,已知一些样本及它们的归类,各类的决策函数由属于该类的样本的模式特征来表征,这样的样本称为训练样本。
3.车辆目标图像F的三个区域:目标真实区域1,目标外围区域2和背景区域3。目标真实区域1和目标外围区域2称为运动目标区域。区域的划分是根据车辆目标分割过程中得到的运动区域和外截区域所确定的。
4.Canny边缘检测算子:一种比较新的边缘检测算子,具有很好的边缘检测性能。Canny算子利用高斯函数的一阶微分,能在噪声抑制和边缘检测结果之间取得较好的平衡。具体执行步骤如下:
1)用高斯滤波器对图像滤波,取出图像中的噪声。
2)用高斯算子的一阶微分对图像进行滤波,得到每个象素梯度的大小|G|和方向θ
| G | = [ ( ∂ f ∂ x ) 2 + ( ∂ f ∂ y ) 2 ] 1 / 2 θ = tan - 1 [ ∂ f ∂ y / ∂ f ∂ x ]
f为滤波后的图像。
3)梯度的方向可以定义为属于4个区之一,左右为1区,左下、右上为2区,上下为3区,左上、右下为4区。各个区用不同的邻近象素用来进行比较,以决定局部极大值。
4)对梯度取两个阈值T1和T2,T1=0.4*T2。把梯度值小于T1的象素值的灰度设为0,得到图像1。把梯度值小于T2的象素的灰度设为0,得到图像2。然后以图像2为基础,以图像1为补充来连接图像的边缘。
将以上执行过程表达为函数canny(),如果原图像为I,则边缘检测的结果E表示为E=canny(I)。
Canny算子的原理可详见文献:杨枝灵,王开,《Visual C++数字图像获取、处理及实践应用》,人民邮电出版社,2003。
5.Sobel算子:一种常用的边缘检测方法,通过将模板与图像进行卷积来实现边缘提取。
Sobel算子有两个模板,一个是检测垂直边缘的Sx,另一个是检测水平边缘的Sy
Sx = - 1 0 1 - 2 0 2 - 1 0 1 , Sy = 1 2 1 0 0 0 - 1 - 2 1
Sobel算子详见文献:冈萨雷斯,《数字图像处理》,电子工业出版社,2003。
6.矩特征:一幅M×N大小的图像I(x,y),其p+q阶矩定义为
m pq = Σ x = 0 M - 1 Σ y = 0 N - 1 x p y q I ( x , y )
7.中心矩:一幅M×N大小的图像I(x,y),其p+q阶中心矩定义为
μ pq = Σ x = 0 M - 1 Σ y = 0 N - 1 ( x - m 10 m 00 ) p ( y - m 01 m 00 ) q I ( x , y )
8.特征向量:一般地把原始数据组成的空间叫测量空间,把分类识别赖以进行的空间叫着特征空间,通过变换把测量空间中高维的时间空间模式信息转化为较低维的特征空间中的模式,从而由特征空间中各维模式组成特征向量。
9.判别函数:对于c类分类问题,按照决策规则可以把d维特征空间分成c个决策域,将划分决策域的边面称为决策面,在数学上用解析形式可以表示成决策面方程。用于表达决策规则的函数称为判别函数。
10.最近邻法:假设有C个类别w1w2…wc的模式识别问题,每个类有标明类别的样本Ni(i=1,2...c)个。对于未知类别的待测样本x,规定wi类的判别函数为 g i ( x ) = min k | | x - x i k | | , k=1,2...Ni,其中表示wi类的第k个样本。
如果 g j ( x ) = min i g i ( x ) , i=1,2...c
则判别为x∈wj
11.K近邻法:假设有C个类别w1w2…wc的模式识别问题,一共有N个已知类别的训练样本,其中来自类别w1w2…wc的样本数分别为N1N2…Nc,即N=N1+N2+...+Nc。对于未知类别的待测样本x,找出与x距离最近的K个近邻样本。若K1,K2...Kc分别是K个近邻中属于w1w2…wc类的样本数,则可以定义判别函数为gi(x)=Ki,i=1,2...c。
如果 g J ( x ) = max i K i , i=1,2...c
则判别为x∈wj
12.二叉搜索树:用二叉树的形式来表达分类间的距离关系,并以此确定未知样本与各类中训练样本的匹配顺序(搜索顺序)。搜索树由叶子节点和中间节点组成,每个叶子节点代表一个子分类,且子分类由该子分类中训练样本的特征向量均值表征。将距离最近的两个节点合并为一个新的节点(父节点),并用两个子节点的特征均值表征父节点,再用新节点与其他节点一起按此规则自下而上逐级合并,最后归结到一个根节点。对未知样本的识别是一个逆过程,从根节点开始搜索与未知样本距离最近的节点,并结合近邻判别法,最终找到未知样本所属的分类。
一种基于轮廓的车辆目标识别算法,其特征包括如下执行步骤:
假定所识别的车辆类型有c种,每种类型分别标记为w1,w2...wc(wi可以是如吉普、面包或者其他任何一种车型)。
步骤1,车辆目标的分割及训练样本的选择
首先,通过三帧法或时空法对视频序列进行处理,从视频序列中分割出每帧的车辆目标图像,表示为F,图像F中的象素表示为F(x,y)(0<x<M,0<y<N),其中M是F的宽度,N是F的高度,如图2所示。车辆目标的分割过程详见文献:Haitao Jia and Mei Xie,″AUTOMATIC MOVING TARGET DETECTING BY A NOVEL VIDEO SEGMENTATION ALGORITHM″,SPIEConference of Defense and Security Symposium 2005,Proc.SPIE Int.Soc.Opt.Eng.5817,312(2005);Haitao Jia and Mei Xie,″MOVING OBJECT DETECTION BY A NOVELSPATIO-TEMPORAL SEGMENTATION″,SPIE Conference of Defense and Security Symposium 2005,Proc.SPIE Int.Soc.Opt.Eng.5807,435(2005)。
其次,从分割出的车辆目标图像中为每种车型选择训练样本图像,选择的原则是作为训练样本的目标图像应该包括视频中车辆目标出现的所有角度和姿态信息。设为车型wi选择了Ni个训练样本{xi1,xi2...xij...xiNi},其中,xij表示车型wi中的第j个训练样本,并且i={1,2...c},则一共选择了N个训练样本, N = &Sigma; i N i .
步骤2,车辆目标的轮廓提取
首先,在步骤1分割得到的车辆目标图像F中,将运动目标区域(包括目标真实区域1和目标外围区域2)的象素均值赋予黑色背景区域3中的每一个象素,得到均值填充后的车辆目标图像F,如图3所示。步骤如下:
运动目标区域的象素灰度均值graymean=mean(F(x,y)),象素(x,y)∈(A∪B);
然后用灰度均值graymean替换F中黑色背景区域3中象素点的灰度值F(x,y)=meangray象素(x,y)∈C;
得到均值填充后的车辆目标图像F,其象素表示为F(x,y)(0<x<M,0<y<N),如图4所示。
其次,用Canny算子对均值填充后的车辆目标图像F中每个训练样本进行边缘检测:
将Canny算子边缘检测的过程表达为函数canny(),则车辆目标图像F每个训练样本经边缘检测得到的整体轮廓结果为Ec=canny(F),其宽度为M,高度为N,其中的象素表示Ec(x,y)(0<x<M,0<y<N),如图5所示。
步骤3,计算纵向和横向的轮廓分布
用Sobel算子中垂直边缘检测模板的Sx和水平边缘检测模板的Sy将车辆目标的整体轮廓结果Ec(x,y)分解为纵向和横向的轮廓分布。
用Sobel算子的垂直边缘检测模板Sx与Ec卷积,得到车辆轮廓的纵向分布值Ev=|Ec*Sx|;用水平边缘检测模板Sy与Ec卷积,得到车辆轮廓的横向分布值Eh=|Ec*Sy|;如图6(1)、(2)所示为车辆目标轮廓的纵横分布信息。
步骤4,车辆目标识别特征的提取
(1)车辆目标全局形状矩特征的提取
根据步骤2得到的车辆目标每个训练样本整体轮廓图像Ec(x,y)(0<x<M,0<y<N),首先求出车辆目标每个训练样本的整体轮廓图像Ec(x,y)的长宽比特征f1=M/N;
车辆目标每个训练样本整体轮廓图像Ec(x,y)的p+q阶矩定义为:
&mu; pq = &Sigma; x = 0 M - 1 &Sigma; y = 0 N - 1 ( x - x &OverBar; ) p ( y - y &OverBar; ) q Ec ( x , y )
x &OverBar; = &Sigma; x = 0 M - 1 &Sigma; y = 0 N - 1 xEc ( x , y ) &Sigma; x = 0 M - 1 &Sigma; y = 0 N - 1 Ec ( x , y ) , y &OverBar; = &Sigma; x = 0 M - 1 &Sigma; y = 0 N - 1 yEc ( x , y ) &Sigma; x = 0 M - 1 &Sigma; y = 0 N - 1 Ec ( x , y )
其中,μ20为图像在水平方向上的伸展度,μ02为图像在垂直方向上的伸展度;μ11为图像的倾斜度;μ30为图像在水平方向上的重心偏移度,μ03为图像在垂直方向上的重心偏移度;μ21为图像水平伸展的均衡程度,μ12为图像垂直伸展的均衡程度。
由以上二阶矩(p+q=2)或三阶矩(p+q=3),得到全局轮廓图像的各种形状矩特征:(详见文献:张宏林,《Visual C++数字图像模式识别技术及工程实践》,人民邮电出版社,2003。)
轮廓长宽度: f 2 = ( &mu; 20 - &mu; 02 &mu; 20 + &mu; 02 + 1 ) / 2
轮廓拉长度: f 3 = &lambda; 1 - &lambda; 2 &lambda; 1 + &lambda; 2
&lambda; 1 = ( &mu; 20 + &mu; 02 ) + ( &mu; 20 - &mu; 02 ) 2 + 4 &mu; 2 11 2
&lambda; 2 = ( &mu; 20 + &mu; 02 ) - ( &mu; 20 - &mu; 02 ) 2 + 4 &mu; 2 11 2
轮廓伸展度: f 4 = ( &mu; 20 + &mu; 02 ) / m 00 size
m 00 = &Sigma; x = 0 M - 1 &Sigma; y = 0 N - 1 Ec ( x , y ) , size = M * N
三阶矩分解为正和为负两部分,μpq=μ+ pq- pq(p+q=3),通过三阶矩提取的特征如下:
水平偏移度: f 5 = ( &mu; + 30 - &mu; - 30 &mu; + 30 + &mu; - 30 + 1 ) / 2
垂直偏移度: f 6 = ( &mu; + 03 - &mu; - 03 &mu; + 03 + &mu; - 03 + 1 ) / 2
水平伸展均衡度: f 7 = ( &mu; + 21 - &mu; - 21 &mu; + 21 + &mu; - 21 + 1 ) / 2
垂直伸展均衡度: f 8 = ( &mu; + 12 - &mu; - 12 &mu; + 12 + &mu; - 12 + 1 ) / 2
(2)车辆目标局部统计特征
对于M*N大小的车辆目标图像,其纵向轮廓分布图Ev(x,y)和横向轮廓分布图Eh(x,y)的尺寸大小同样是M*N;
首先,将Ev(x,y)和Eh(x,y)分别平均划分为K*K个区域块(一般K取3或4),如图7所示。然后,分别统计每个区域块中边缘轮廓点所占轮廓点总量的比例,并以此构建纵向和横向的比例值矩阵Rv和Rh;。
R v ( i , j ) = &Sigma; x = i * Nx ( i + 1 ) Nx - 1 &Sigma; y = j * Ny ( j + 1 ) Ny - 1 E v ( x , y ) &Sigma; x = 0 N * Nx - 1 &Sigma; y = 0 N * Ny - 1 E v ( x , y )  i,j={0,1...K-1}  N x = M K    N y = N K
R h ( i , j ) = &Sigma; x = i * Nx ( i + 1 ) Nx - 1 &Sigma; y = j * Ny ( j + 1 ) Ny - 1 E h ( x , y ) &Sigma; x = 0 N * Nx - 1 &Sigma; y = 0 N * Ny - 1 E h ( x , y )  i,j={0,1...K-1}  N x = M K   N y = N K
(3)车辆目标复合特征向量的建立及识别特征库的建立
将以上计算所得的比例值矩阵Rv和Rh中的元素按行排列起来,与(1)中所得的8个全局形状矩特征值f1f2…f8串接起来构成用于识别目标的特征向量V,V=[Rv(0,0),Rv(0,1)...Rv(0,K-1),Rv(1,0)...Rv(K-1,K-1),Rh(0,0)...Rh(K-1,K-1),f1,f2...f8]
建立一个识别特征库,用于存放车辆训练样本的特征向量。首先将车型w1中N1个训练样本的特征向量V存放到识别特征库,再依次将车型w2,w3...wc中所有训练样本的识别特征向量V存放到识别特征库中。
步骤5,用双阈值近邻识别算法识别车辆目标
(1)车辆目标训练样本间的距离定义
对于所选择的N个车辆训练样本{x1 x2 ... xN},每个样本提取的识别特征都是长度为K的向量,表示为 x i = x i 1 x i 2 . . . x i K (i=1...N)
在此定义一个振幅向量,用来表示各维特征值的变化范围
swing=[s1 s2 ... sK],其中 s j = max i ( x i j ) - min i ( x i j ) , i={1,2...N},j={1,2...K}
则样本特征向量xi和xj间的距离定义为: d ( x i , x j ) = &Sigma; k = 1 K | x i k - x j k | s k
(2)双阈值近邻识别方法
对于识别系统处理的c个车辆类型w1,w2...wc,wi代表不同的车型(比如吉普、面包或者其他)。第i个车型wi有Ni个训练样本{xi1,xi2...xij...xiNi},其中,xij表示第wi类的第j个训练样本,并且i={1,2...c}, &Sigma; i N i = N . 现有未知待测样本x,要将其归入其中一类。
首先设置阈值T1和T2,且T1<T2。其中,T1=(0.06~0.08)*K,T2=(0.13~0.15)*K,K为特征向量长度。
然后,计算未知待测样本x与各训练样本类间的最短距离:
d ( x , w i ) = min j ( d ( x , x ij ) ) , j=1,2..Ni,i=1,2…c
如果 d ( x , w l ) = min i ( d ( x , w i ) ) 且d(x,wl)<T1,则判决x∈wl
否则,统计各类中与未知待测样本x的距离在T1和T2之间的样本数
满足条件的样本总数 Num = &Sigma; i = 1 c Num i , 并设置比例λ=(0.6~0.7)。
如果 Num l = max i ( Num i ) 且Numl>Num*λ,则判决x∈wl
否则拒绝识别。
步骤6,双阈值近邻法的快速算法
设有N个车辆训练样本X={x1x2...xN},每个样本的特征向量 x i = x i 1 x i 2 . . . x i K .
(1)初始划分子类
1>计算训练样本特征向量的均值向量mean=[mean1 mean2 ... meanK], mean k = 1 N &Sigma; i = 1 N x i k , k=1,2...K。
2>计算用来表示各维特征向量值的变化范围的振幅向量s=[s1 s2 ... sK],
其中 s j = max i ( x i j ) - min i ( x i j ) , i={1,2...N},j={1,2...K}。
3>计算各训练样本特征向量与均值之间的距离,
d ( x i , mean ) = &Sigma; k = 1 K | x i k - mean k | / s k , i = { 1,2 . . . N }
4>先将所有训练样本作为一个类W,子类数量Nw=1。遍历所有的训练样本,找出与均值距离最近的样本xnear和最远的样本xfar,将它们作为新的子类W1和W2代表点。
遍历其他训练样本,根据与代表点的距离将样本归入子类W1或W2。即,
如果d(xi,xnear)<d(xi,xfar),则将样本xi归入子类W1
否则,将样本xi归入子类W2
5>找出当前已有分类中样本最多的子类Wk,其样本数为Nk。计算该子类的均值,
mean k = 1 N k &Sigma; i = 1 Nk x j , xj∈Wk
遍历Wk中所有样本,找出与均值meank距离最近的样本xnear和距离最远的样本xfar。子类数量增1,Nw=Nw+1,并新增子类WNw。将xnear作为子类
Figure C200510022429D00175
的代表点,xfar作为子类WNw的代表点。重新遍历Wk中的样本,根据它们与代表点xnear和xfar间的距离进行归类。
如果d(xj,xnear)<d(xj,xfar),则将样本xj归入子类
Figure C200510022429D00176
否则,将样本xj归入子类WNk+1
遍历完成后,用
Figure C200510022429D00177
赋值Wk W k = W k &prime; , 并删去子类
Figure C200510022429D00179
6>如果当前分类数Nw已经达到预先指定的大小R(R可取值为接近
Figure C200510022429D001710
的整数),则停止分类,否则返回步骤5>。
初始分类的过程如图8所示。
(2)调整子类划分
1>经过步骤(1),训练样本被初始划分为R个子类W1W2…WR。分别统计各子类中的训练样本个数,记为N1N2…NR
2>计算各子类Wi(i=1,2...R)的特征向量均值
mean i = 1 N i &Sigma; j = 1 N i x ij , i={1,2...R}
用meani表示前一次向量均值,用
Figure C200510022429D00182
表示当前向量均值。
3>以计算所得的均值特征向量作为各子类的代表点,用最近邻法重新调整子类。遍历所有样本点xj,j={1,2...N}
如果 d ( x j , mean l ) = min i ( d ( x j , mean i ) ) , 则将xj归入
Figure C200510022429D0018084821QIETU
4>重新统计各子类中的训练样本个数,记为
Figure C200510022429D00184
再次计算各个新分类的特征向量均值,
mean i = mean i &prime; , mean i &prime; = 1 N i &prime; &Sigma; j = 1 N &prime; i x ij , i={1,2...R}
如果 &Sigma; i = 1 R | mean i - mean i &prime; | > 0 , 则返回步骤2>,否则结束循环。
子类划分调整后的结果如图9所示。
(3)建立二叉搜索树
1>将(2)中生成的子类Wi(i=1,2...R)定义为一个节点Si(i=1,2...R),节点集S={S1,S2...SR}。
2>计算两两分类间的距离, d ( S i , S j ) = &Sigma; k = 1 K | mean i k - mean j k | s k , i≠j,i(j)={1,2...R}
3>按照哈夫曼编码的原理,找出距离最近的两个子类Sm和Sn,使得
d ( S m , S n ) = min i , j d ( S i , S j ) , i≠j,i(j)={1,2...R}
以Sm和Sn为左右子节点,生成一个新节点Smn,其特征向量定义为Sm和Sn的均值特征向量的均值: mean mn = mean m + mean n 2 . 从节点集S中删去Sm和Sn,将Smn归入节点集S。
4>如果S中不止一个节点,则计算节点Smn与其他节点间的距离,返回到3>。否则,二叉搜索树建立完毕,结束循环。
构建的二叉搜索树形如图10所示。
(4)在识别过程中,从树根节点开始遍历二叉搜索树。原则是,比较未知待测样本x的特征向量与当前节点的左右子节点的特征向量间的距离,距离小则先遍历。用前述的双阈值近邻法判别当前叶子节点所对应的样本分类中的训练样本,直到判别出未知样本的类别,或者拒绝识别为止。
附图说明:
图1,识别系统执行步骤
图2,已分割的车辆目标例图
图3,车辆目标图像中的区域划分
1表示车辆目标的真实区域
2表示车辆目标外维区域
3表示背景区域
图4,均值填充后的车辆目标图像
图5,车辆目标的边缘提取结果
图6,车辆目标轮廓的横向分布和纵向分布图
图7,用于局部特征统计的区域块划分
图8,双阈值近邻法的快速算法中子类初始划分过程
图9,双阈值近邻法的快速算法中调整分类过程
图10,二叉搜索树示意图
图11,部分模板样本图
图12:模板样本的边缘轮廓信息
图13:模板样本边缘轮廓的横向分布图
图14:模板样本边缘轮廓的纵向分布图
图15:待测车辆目标记取轮廓信息分析
图16:二叉搜索树
图17:待测目标样本
具体实施方式:
本实施例针对吉普、面包、皮卡、羚羊四种车型的视频序列进行了实验。
步骤1,车辆目标的分割及训练样本的选择
视频序列中运动车辆目标的提取通过说明书步骤一中提到的三帧法或时空法实现。为了实现有效的识别,模板库中车辆样本应该包括视频中车辆目标出现的所有角度和姿态信息。实验中分别对吉普、面包、皮卡、羚羊四种车型进行了模板样本的挑选,根据所用实验数据的情况,所选择的模板样本数分别为:吉普(50)、面包(50)、皮卡(54)、羚羊(50)。模板样本的抽样显示如图11。
步骤2,车辆目标的轮廓提取
根据说明书中步骤二来提取车辆目标的边缘轮廓。图12给出了图11中模板样本图像的对应轮廓图像。
步骤3,计算纵向和横向的轮廓分布
根据说明书中步骤三来取得边缘轮廓的横向和纵向分布,如图13,图14所示。
步骤4,识别特征的提取
提取出样本的边缘轮廓信息之后,再根据说明书中步骤四(识别特征的提取)即可计算各模板样本的特征向量(一共提取了26个特征)。表1给出了图11中吉普车型代表样本的特征值。
表1:图11中吉普车型代表样本的特征值
样本1  样本2  样本3  样本4  样本5  样本6  样本7  样本8  样本9  样本
0.428  0.604  0.743  0.967  0.720  0.571  0.476  0.548  0.84   1.037
0.153  0.286  0.390  0.543  0.390  0.268  0.207  0.213  0.374  0.557
0.693  0.426  0.219  0.101  0.219  0.463  0.586  0.580  0.297  0.120
0.464  0.401  0.401  0.413  0.403  0.400  0.420  0.428  0.378  0.414
0.517  0.462  0.509  0.486  0.467  0.453  0.51   0.484  0.394  0.382
0.545  0.534  0.492  0.532  0.441  0.419  0.431  0.447  0.487  0.444
0.374  0.406  0.378  0.548  0.535  0.548  0.455  0.531  0.47   0.409
0.510  0.573  0.605  0.510  0.520  0.495  0.547  0.574  0.569  0.491
0.239  0.128  0.126  0.069  0.065  0.088  0.131  0.025  0.018  0.055
0.077  0.164  0.257  0.242  0.243  0.135  0.108  0.144  0.164  0.132
0.125  0.068  0.063  0.098  0.139  0.150  0.053  0.092  0.024  0.055
0.149  0.088  0.097  0.037  0      0.064  0.072  0.140  0.155  0.060
0.041  0.088  0.097  0.082  0.104  0.098  0.094  0.064  0.091  0.055
0.071  0.080  0.008  0.086  0.096  0.101  0.109  0.075  0.106  0.038
0.071  0.156  0.122  0.032  0.088  0.067  0.076  0.136  0.246  0.187
0.155  0.140  0.177  0.242  0.169  0.153  0.276  0.155  0.094  0.325
0.059  0.080  0.046  0.102  0.088  0.137  0.075  0.162  0.097  0.082
0.096  0.091  0.050  0.223  0.092  0.007  0.025  0      0.044  0.170
0.038  0.040  0.010  0      0.016  0.062  0.166  0.127  0.011  0
0      0.010  0.020  0.104  0.050  0.102  0.075  0.108  0.050  0.073
0.134  0.051  0.121  0.179  0.176  0.157  0.079  0.179  0.162  0.024
0.307  0.265  0.080  0.074  0.050  0.165  0.159  0.041  0.212  0.195
0.134  0.142  0.303  0.059  0.126  0.157  0.170  0.243  0.223  0.390
0.211  0.061  0.161  0.238  0.159  0.149  0.123  0.097  0.067  0.121
0.019  0.183  0.020  0      0.159  0.086  0.029  0.119  0.139  0
0.038  0.142  0.222  0.104  0.159  0.102  0.168  0.078  0.083  0
将选取的模板样本分别标号为:1~50(吉普类W1)、51~100(面包类W2)、101~154(皮卡类W3)、155~204(羚羊类W4)。将它们的特征向量按标号顺序存放在特征库中。
步骤5,用双阈值近邻识别算法识别车辆目标
1)样本间的距离定义
样本提取的识别特征都是26维向量,定义为x=[x1 x2 ... x26]。根据模板样本库中所有特征值计算各特征的变化范围,定义为一个振幅向量swing。
swing=[1.2274    0.6400    0.6821   0.0859   0.3184   0.2449   0.3462
0.2487   0.2396   0.2486   0.1720   0.2290   0.2117   0.2077   0.2196
0.3220   0.2197   0.4566   0.3612   0.4232   0.4212   0.5239   0.4119
0.3438   0.2680   0.3572]
则样本特征向量x和y间的距离定义为: d ( x , y ) = &Sigma; k = 1 26 | x k - y k | swing [ k ] .
2)阈值的确定
通过多次实验,得出各阈值的合理设置为:
T1=0.08*26,T2=0.135*26
N0=3,λ=0.6
3)待测样本的识别
现有从视频序列中新提取的车辆样本,其原图像及轮廓分析过程如图15所示。
该待测样本的特征向量为x=[0.8667   0.44650.1560   0.3989   0.4344
0.5230   0.4729   0.4813   0.0798   0.0973   0.0524   0.1397   0.0698
0.1347   0.1097   0.1771   0.1372   0.1774   0.1774   0.1452   0.0565
0.1855   0.0323   0.1290   0.0565   0.0323]。
待测样本特征向量x与模板样本特征向量yi(i=1~204)间的距离如下:
5.8040   6.4456   6.3982   7.2645   7.8414   5.7722   5.7728   6.1108
5.3456   6.8399   5.7497   5.0771   6.4022   6.8924   6.8225   6.6854
6.3350   6.6224   5.7025   5.4429   6.2062   6.6687   6.0915   6.5503
5.7644   5.1122   5.1571   5.7427   6.4428   5.2612   5.0954   5.9573
5.5482   5.8897   6.2209   6.2147   6.1151   6.3085   5.8857   5.9556
5.0835   4.5176   5.4113   5.2107   5.3792   5.1004   5.8348   5.5129
5.8050   4.8120   5.2444   5.3133   5.3716   4.3887   5.5832   4.8330
4.1709   5.1517   3.2774   3.9053   4.4480   4.2151   4.9360   5.5683
4.5083   5.8995   6.7211   6.5441   6.2824   6.5670   6.1059   6.6509
5.3101   3.4867   2.7096   3.4050   2.5673   2.1324   3.1389   3.5334
3.1602   3.7410   4.0519   4.1603   3.8009   3.6475   3.4780   3.9882
4.0980   3.3352   2.7493   2.8574   3.5204   4.0328   4.8241   6.8012
7.7006   7.8817   6.5116   7.6312   5.5377   5.8958   6.0869   5.9726
5.7191   6.9849   6.2304   6.9617   6.6094   6.2829   5.4526   6.4988
6.3776   6.0944   5.2525   6.9824   6.4114   6.4480   6.3623   6.7757
6.7572   6.4860   5.8189   5.5493   4.7789   5.0411   6.3282   4.6823
4.4168   5.2016   5.7912   4.9132   4.9626   4.8926   4.9646   5.1244
5.6039   5.7389   5.7815   5.5300   5.3398   5.4380   5.2025   5.1415
5.2801   4.1740   3.8921   3.1848   5.1357   4.7248   5.8617   5.9755
6.5187   5.8004   7.3864   7.9564   7.2756   7.7429   7.0481   7.1032
6.9488   7.1296   6.6092   5.8290   6.1316   4.9662   6.4467   5.0419
5.5437   5.9988   5.6223   6.0598   5.8972   5.7001   5.2170   6.7481
6.0637   4.9237   5.1903   4.8736   5.0897   4.5893   5.4600   5.6968
6.4320   5.8341   5.6406   5.9203   6.5840   6.7119   6.4533   6.1175
6.6378   7.5723   5.8000   5.0224   4.3918   5.1679   6.2230   5.2704
5.8107   5.3922   5.0450   5.9099
通过比较,可查找出第78个模板样本与待测样本x距离最近。其中y78∈W2(面包类),距离d(x,y78)=2.132。根据说明书中双阈值近邻识别方法的步骤,引入阈值进行判别。
因为d(x,y78)>T1,则不能通过第一步判别待测样本。
统计各类中与未知样本x的距离在T1和T2之间的样本数Numi。结果如表2所示:
表2:各类样本统计表
 
类别 Num i 与x距离在T1和T2之间的样本序号
W1 0
W2 12 59 74 75 76 77 78 79 81 87 90 91 92
W3 1 148
W4 0
通过计算,满足条件的样本总数 Num = &Sigma; i = 1 c Num i = 13 .
Num2=max(Numi),且Num2>Num*λ,所以判决x∈W2(面包类)。
步骤6,双阈值近邻法的快速算法
在步骤5中我们可以看到,虽然能得到正确的识别结果,但是待测样本与模板库中每个样本都进行了比较,计算量很大,不适于数据量更大的识别问题。由此引入了快速算法。
1)模板样本的子类划分:根据说明书中6(1)初始分类和6(2)调整分类两个步骤,分别对4种车型进行子类划分。在此,我们将各个车型的模板样本划分为8个子类。结果如下:
吉普类(W1)
 
子类 子类中包含的模板样本序号
W11 25 26 27 28 29 30 31 32 39 40 41
W12 45 46 47 48 49 50
W13 13 14 15 16 17 18
W14 2 3 4 5 8 10
W15 1 6 7 9
W16 19 20 21 22 23 24
W17 11 12 42 43 44
W18 33 34 35 36 37 38
面包类(W2)
 
子类 子类中包含的模板样本序号
W21 59 60 61 62 63 92 93 94
W22 67 68 96 97 98 99 100
W23 52 53 55 56
W24 80 81 82 83 84 85 86 87 88 89 90
W25 69 70 71 72 73
W26 64 65 66 95
W27 51 54 57 58
W28 74 75 76 77 78 79 91
皮卡类(W3)
 
子类 子类中包含的模板样本序号
 
W31 129 130 131 132 133 143 144 145 146 147 148
W32 149 150 151 152 153 154
W33 119 120 121 122 123
W34 105 107 108 109 110 111
W35 134 135 136 137 138 139 140 141 142
W36 124 125 126 127 128
W37 101 102 103 104
W38 106 112 113 114 115 116 117 118
羚羊类(W4)
 
子类 子类中包含的模板样本序号
W41 179 180 181 182 183 184 185 186
W42 198 199 200 201 202 203 204
W43 171 172 173 174 175 176 177 178
W44 155 156 157 158 159 160 161 162 163 164
W45 167
W46 165 166 168 169 170
W47 187 188 189 190 191 192 193
W48 194 195 196 197
2)二叉搜索树的建立
根据1)计算的结果,4种车型的模板样本分别被划分为8个子类,一共有32个子类。将子类W11,W12...W18...W48依次标记为32个节点1,2...32。再按说明书中步骤七(3)的过程,逐步生成二叉搜索树中的节点33,34,35...。搜索树的建立结果如图16。其中,灰色的单元代表步骤1)划分得到的样本子类,白色的单元代表搜索树建立过程中的中间节点。
4)带入待测样本进行识别
图17给出了几个待测目标样本的图像,表3给出了对各个待测样本进行识别时的搜索路径和与模板库样本进行比较的次数。
表3:图17中待测样本的识别过程及结果
 
图17中样本号 搜索路径 识别结果(库样本序号) 库样本总数 比较次数
(1) 63->58->54->40->24 106 204 18
(2) 63->61->56->55->43->22 126 204 17
(3) 63->58->54->53->52->51->48->39->38->37->36->33->17 131 204 37
(4) 63->58->57->8->28->54->53->52->51->48->39->38->23->37->34->21 104 204 61
(5) 63->58->57->8->28->54->53->52->51->48->39->38->37->34->21 139 204 51
(6) 63->62->61->56->18 154 204 14
4.识别结果
在实验中,我们对4种车辆(吉普、面包、皮卡、羚羊)的数据源进行了测试。利用上述步骤建立的模板库和识别方法,对每种车辆类型随机选取了大约100个目标图像进行实验,结果如表4所示。
表4:识别结果
 
车辆类型 吉普 面包 皮卡 羚羊
识别率 89% 93% 91% 90%
拒识率 7% 5% 6% 6%
错识率 4% 2% 3% 4%

Claims (1)

1、一种基于轮廓的车辆目标识别方法,其特征包括如下执行步骤:
假定所识别的车辆类型有c种,每种类型分别标记为w1,w2......wc
步骤1,车辆目标的分割及训练样本的选择
首先,通过三帧法对视频序列进行处理,从视频序列中分割出每帧的车辆目标图像,表示为F1,图像F1中的象素表示为F1(x,y),0≤x<M,0≤y<L,其中M是F1的宽度,L是F1的高度;
其次,从分割出的车辆目标图像中为每种车型选择训练样本图像,选择的原则是作为训练样本的目标图像包括视频中车辆目标出现的所有角度和姿态信息;设为车型wi选择了Ni个训练样本{ri1,ri2......rij......riNi},其中,rij表示车型wi中的第j个训练样本,并且i={1,2......c},则一共选择了N个训练样本, N = &Sigma; i N i ;
步骤2,车辆目标的轮廓提取
首先,在步骤1分割得到的车辆目标图像F1中,将运动目标区域的象素均值赋予黑色背景区域中的每一个象素,得到均值填充后的车辆目标图像F,步骤如下:
求取运动目标区域的象素灰度均值graymean=mean(F1(x,y)),运动目标区域包括目标真实区域和目标外围区域:
然后用灰度均值graymean替换F1中黑色背景区域中象素点的灰度值F1(x,y)=graymean
得到均值填充后的车辆目标图像F,其象素表示为F(x,y),0≤x<M,0≤y<L;
其次,用Canny算子对均值填充后的车辆目标图像F中每个训练样本进行边缘检测:
将Canny算子边缘检测的过程表达为函数canny(),则车辆目标图像F每个训练样本经边缘检测得到的整体轮廓图像为Ec=canny(F),其象素表示为Ec(x,y),0≤x<M,0≤y<L;
步骤3,计算纵向和横向的轮廓分布
用Sobel算子中垂直边缘检测模板Sx和水平边缘检测模板Sy将车辆目标的整体轮廓图像Ec分解为纵向和横向的轮廓分布;
用Sobel算子的垂直边缘检测模板Sx与Ec卷积,得到车辆轮廓的纵向分布值Ev=|Ec*Sx|;用水平边缘检测模板Sy与Ec卷积,得到车辆轮廓的横向分布值Eh=|Ec*Sy|;
步骤4,车辆目标识别特征的提取
(1)车辆目标全局形状矩特征的提取
根据步骤2得到的车辆目标每个训练样本轮廓图像Ec,其象素表示为Ec(x,y),0≤x<M,0≤y<L,首先求出车辆目标每个训练样本的轮廓图像Ec的长宽比特征f1=M/L;
车辆目标每个训练样本整体轮廓图像Ec的p+q阶矩定义为:
&mu; pq = &Sigma; x = 0 M - 1 &Sigma; y = 0 L - 1 ( x - x &OverBar; ) p ( y - y &OverBar; ) q Ec ( x , y )
x &OverBar; = &Sigma; x = 0 M - 1 &Sigma; y = 0 L - 1 xEc ( x , y ) &Sigma; x = 0 M - 1 &Sigma; y = 0 L - 1 Ec ( x , y ) , y &OverBar; = &Sigma; x = 0 M - 1 &Sigma; y = 0 L - 1 yEc ( x , y ) &Sigma; x = 0 M - 1 &Sigma; y = 0 L - 1 Ec ( x , y )
其中,μ20为图像在水平方向上的伸展度,μ02为图像在垂直方向上的伸展度;μ11为图像的倾斜度;μ30为图像在水平方向上的重心偏移度,μ03为图像在垂直方向上的重心偏移度;μ21为图像水平伸展的均衡程度,μ12为图像垂直伸展的均衡程度;
当p+q=2时,为Ec的二阶矩,当p+q=3时,为Ec的三阶矩,由Ec的二阶矩或三阶矩得到全局轮廓图像的各种形状矩特征:
轮廓长宽度: f 2 = ( &mu; 20 - &mu; 02 &mu; 20 + &mu; 02 + 1 ) / 2
轮廓拉长度: f 3 = &lambda; 1 - &lambda; 2 &lambda; 1 + &lambda; 2
&lambda; 1 = ( &mu; 20 + &mu; 02 ) + ( &mu; 20 - &mu; 02 ) 2 + 4 &mu; 2 11 2
&lambda; 2 = ( &mu; 20 + &mu; 02 ) - ( &mu; 20 - &mu; 02 ) 2 + 4 &mu; 2 11 2
轮廓伸展度: f 4 = ( &mu; 20 + &mu; 02 ) / m 00 size
m 00 = &Sigma; x = 0 M - 1 &Sigma; y = 0 L - 1 Ec ( x , y ) &OverBar; , size = M * L
三阶矩分解为正和为负两部分,μpq=μ+ pq- pq,p+q=3,其中通过三阶矩提取的特征如下:
水平偏移度: f 5 = ( &mu; + 30 - &mu; - 30 &mu; + 30 + &mu; - 30 + 1 ) / 2
垂直偏移度: f 6 = ( &mu; + 03 - &mu; - 03 &mu; + 03 + &mu; - 03 + 1 ) / 2
水平伸展均衡度: f 7 = ( &mu; + 21 - &mu; - 21 &mu; + 21 + &mu; - 21 + 1 ) / 2
垂直伸展均衡度: f 8 = ( &mu; + 12 - &mu; - 12 &mu; + 12 + &mu; - 12 + 1 ) / 2
(2)车辆目标局部统计特征
对于M*L大小的车辆目标图像F1,其由步骤3得到的纵向轮廓分布图和横向轮廓分布图的尺寸大小同样是M*L;
首先,将纵向轮廓分布图和横向轮廓分布图分别平均划分为G*G个区域块,G取3或4,然后,分别统计每个区域块中边缘轮廓点所占轮廓点总量的比例,并以此构建纵向和横向的比例值矩阵Rv和Rh
R v ( i , j ) = &Sigma; x = i * Lx ( i + 1 ) * Lx - 1 &Sigma; y = j * Ly ( j + 1 ) * Ly - 1 E v ( x , y ) &Sigma; x = 0 L * Lx - 1 &Sigma; y = 0 L * Ly - 1 E v ( x , y ) i , j = { 0,1 . . . G - 1 } L x = M G   L y = L G
R h ( i , j ) = &Sigma; x = i * Lx ( i + 1 ) * Lx - 1 &Sigma; y = j * Ly ( j + 1 ) * Ly - 1 E h ( x , y ) &Sigma; x = 0 L * Lx - 1 &Sigma; y = 0 L * Ly - 1 E h ( x , y ) i , j = { 0,1 . . . G - 1 }    L x = M G     L y = L G
(3)车辆目标复合特征向量的建立及识别特征库的建立
将以上计算所得的比例值矩阵Rv和Rh中的元素按行排列起来,与步骤4(1)中所得的8个全局形状矩特征值f1、f2…f8串接起来构成用于识别目标的特征向量V,V=[Rv(0,0),Rv(0,1)...Rv(0,G-1),Rv(1,0)...Rv(G-1,G-1),Rh(0,0)...Rh(G-1,G-1),f1,f2...f8]
建立一个识别特征库,用于存放车辆训练样本的特征向量;首先将车型w1中N1个训练样本的特征向量V存放到识别特征库,再依次将车型w2,w3......wc中所有训练样本的识别特征向量V存放到识别特征库中;
步骤5,用双阈值近邻法的快速识别方法进行识别
设有N个车辆训练样本X={r1,r2......rN},每个样本的特征向量 x i = [ x i 1 , x i 2 . . . . . . x i K ] ;
(1)初始划分子类
1>计算训练样本特征向量的均值向量mean=[mean1,mean2......meanK],
mean k = 1 N &Sigma; i = 1 N x i k , k=1,2......K;
2>计算用来表示各维特征向量值的变化范围的振幅向量s=[s1,s2......sK],
其中 s j = max 1 &le; i &le; N ( x i j ) - min 1 &le; i &le; N ( x i j ) , i={1,2......N},j={1,2......K};
3>计算各训练样本特征向量与均值之间的距离
d ( x i , mean ) = &Sigma; k = 1 K | x i k - mean k | / s k , i={1,2......N}
4>先将所有训练样本作为一个类W,子类数量Nw=1;遍历所有的训练样本,找出与均值距离最近的样本特征向量xnear和最远的样本特征向量xfar,将它们作为新的子类W1和W2代表点;
遍历其他训练样本,根据与代表点的距离将样本归入子类W1或W2;即,
如果d(xi,xnear)<d(xi,xfar),则将样本特征向量xi对应的样本归入子类W1
否则,将样本特征向量xi对应的样本归入子类W2
5>找出当前已有分类中样本最多的子类Wk,其样本数为Nk;计算该子类的均值,
mean k = 1 N k &Sigma; i = 1 Nk x j , xj∈Wk
遍历Wk中所有样本,找出与均值meank距离最近的样本特征向量xnear和距离最远的样本特征向量xfar;子类数量增1,Nw=Nw+1,并新增子类WNw
Figure C200510022429C00056
将xnear作为子类
Figure C200510022429C00057
的代表点,xfar作为子类WNw的代表点;重新遍历Wk中的样本,根据它们与代表点xnear和xfar间的距离进行归类;
如果d(xj,xnear)<d(xj,xfar),则将xj对应的样本归入子类
Figure C200510022429C00058
否则,将xj对应的样本归入子类WNk
遍历完成后,用赋值Wk W k = W k &prime; , 并删去子类
Figure C200510022429C00063
6>如果当前分类数Nw已经达到预先指定的大小R,则停止分类,否则返回步骤5(1)5>;
(2)调整子类划分
1>经过步骤(1),训练样本被初始划分为R个子类W1,W2……WR;分别统计各子类中的训练样本个数,记为N1,N2……NR
2>计算各子类Wi,i={1,2......R}的特征向量均值
mean i = 1 N i &Sigma; j = 1 N t x ij , i={1,2......R}
用meani表示前一次向量均值,用
Figure C200510022429C00065
表示当前向量均值;
3>以计算所得的特征向量均值作为各子类的代表点,用最近邻法重新调整子类;
遍历所有样本点rj,j={1,2.......N}
如果 d ( r j , mean l ) = min i ( d ( r j , mean i ) ) , 则将rj归入Wl
4>重新统计各子类中的训练样本个数,记为
Figure C200510022429C00067
Figure C200510022429C00068
再次计算各个新分类的特征向量均值,
mean i = mean i &prime; , mean i &prime; = 1 N i &prime; &Sigma; j = 1 N &prime; i x ij , i={1,2......R}
如果 &Sigma; i = 1 R | mean i - mean i &prime; | > 0 , 则返回步骤5(2)2>,否则结束循环;
(3)建立二叉搜索树
1>将步骤5(2)中生成的子类Wi,i={1,2......R}定义为一个节点Si,i={1,2......R},节点集S={S1,S2......SR};
2>计算两两分类间的距离, d ( S i , S j ) = &Sigma; k = 1 K | mean i k - mean j k | s k , i≠j,i={1,2......R},j={1,2......R}
3>按照哈夫曼编码的原理,找出距离最近的两个子类Sm和Sn,使得
d ( S m , S n ) = min i , j d ( S i , S j ) , i≠j,i={1,2......R},j={1,2......R}
以Sm和Sn为左右子节点,生成一个新节点Smn,其特征向量定义为Sm和Sn特征向量均值的均值: mean mn = mean m + mean n 2 ; 从节点集S中删去Sm和Sn,将Smn归入节点集S;
4>如果S中不止一个节点,则计算节点Smn与其他节点间的距离,返回到步骤5(3)3>;否则,二叉搜索树建立完毕,结束循环;
(4)在识别过程中,从树根节点开始遍历二叉搜索树;比较未知待测样本的特征向量与当前节点的左右子节点的特征向量间的距离,距离小则先遍历;用下面的双阈值近邻识别法判别当前叶子节点所对应的样本分类中的训练样本,直到判别出未知样本的类别,或者拒绝识别为止;
(5)用双阈值近邻识别法识别车辆目标
1>车辆目标训练样本间的距离定义
对于所选择的N个车辆训练样本{r1,r2......rN},每个样本提取的识别特征向量V都是长度为K的向量,表示为 x i = { x i 1 , x i 2 . . . . . . x i K } ,i=1,2......N
在此定义一个振幅向量,用来表示各维特征值的变化范围
swing={s1,s2......sK},其中 s j = max 1 &le; i &le; N ( x i j ) - min 1 &le; i &le; N ( x i j ) , i={1,2......N},j={1,2......K}
则样本特征向量xi和xj间的距离定义为: d ( x i , x j ) = &Sigma; k = 1 K | x i k - x j k | s k
2>双阈值近邻识别方法
对于识别系统处理的c个车辆类型w1,w2......wc,现有未知待测样本r,此样本提取的识别特征向量为x,要将其归入其中一类;
首先设置阈值T1和T2,且T1<T2;其中,0.06*K≤T1≤0.08*K,0.13*K≤T2≤0.15*K,K为特征向量长度;
然后,计算未知待测样本r与各训练样本类间的最短距离:
d ( r , w i ) = min j ( d ( x , x ij ) ) , j=1,2......N,i=1,2......c
如果 d ( r , w l ) = min i ( d ( r , w i ) ) 且d(r,wl)<T1,则判决r∈wl
否则,统计各车辆类型中与未知待测样本r的距离在T1和T2之间的样本数
Figure C200510022429C00081
满足条件的样本总数 Num = &Sigma; i = 1 c Num i , 并设置比例0.6≤λ≤0.7;
如果 Num l = max i ( Num i ) 且Numl>Num*λ,则判决r∈wl
否则拒绝识别。
CNB2005100224291A 2005-12-29 2005-12-29 基于轮廓的车型识别方法 Expired - Fee Related CN100470581C (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CNB2005100224291A CN100470581C (zh) 2005-12-29 2005-12-29 基于轮廓的车型识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CNB2005100224291A CN100470581C (zh) 2005-12-29 2005-12-29 基于轮廓的车型识别方法

Publications (2)

Publication Number Publication Date
CN1996346A CN1996346A (zh) 2007-07-11
CN100470581C true CN100470581C (zh) 2009-03-18

Family

ID=38251426

Family Applications (1)

Application Number Title Priority Date Filing Date
CNB2005100224291A Expired - Fee Related CN100470581C (zh) 2005-12-29 2005-12-29 基于轮廓的车型识别方法

Country Status (1)

Country Link
CN (1) CN100470581C (zh)

Families Citing this family (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4641537B2 (ja) * 2007-08-08 2011-03-02 株式会社日立製作所 データ分類方法および装置
CN101159009B (zh) * 2007-11-09 2010-04-21 西北工业大学 从遥感图像中检测桥梁的方法
CN101369316B (zh) * 2008-07-09 2011-08-31 东华大学 基于全局和局部结构融合的图像特征提取方法
CN101655909A (zh) * 2008-08-21 2010-02-24 索尼(中国)有限公司 匹配程度计算装置及方法
CN102044155B (zh) * 2009-10-20 2012-10-17 西安费斯达自动化工程有限公司 基于fpga的车辆外形尺寸图像检测分析装置
CN101783076B (zh) * 2010-02-04 2012-06-13 西安理工大学 一种视频监控模式下的快速车型识别方法
CN101834981B (zh) * 2010-05-04 2011-11-23 崔志明 基于在线聚类的视频背景提取方法
CN102004922B (zh) * 2010-12-01 2012-12-26 南京大学 基于骨架特征的高分辨率遥感影像飞机提取方法
CN102043950B (zh) * 2010-12-30 2012-11-28 南京信息工程大学 基于canny算子和边缘点统计的车辆轮廓识别方法
CN102509090B (zh) * 2011-11-29 2016-05-04 冷明 一种基于天网工程中公共安全视频图像的车辆特征识别装置
CN102646199B (zh) * 2012-02-29 2013-12-18 湖北莲花山计算机视觉和信息科学研究院 复杂场景中的车型识别方法
CN102880877B (zh) * 2012-09-28 2015-07-15 中科院成都信息技术股份有限公司 一种基于轮廓特征的目标识别方法
TWI501754B (zh) * 2012-10-19 2015-10-01 Univ Nat Taiwan Science Tech 影像辨識方法及影像辨識系統
CN103034844B (zh) * 2012-12-10 2016-04-27 广东图图搜网络科技有限公司 图像识别方法与装置
CN104176095B (zh) * 2014-08-07 2017-03-08 安徽秋田电子有限公司 油罐车的形状识别系统
CN104361087B (zh) * 2014-11-17 2017-12-12 东方网力科技股份有限公司 一种基于图像的机动车辆检索方法及装置
CN106649296B (zh) * 2015-07-20 2020-07-14 阿里巴巴集团控股有限公司 提供拍照提示信息、业务对象搜索方法及装置
CN105335702B (zh) * 2015-10-15 2018-11-27 浙江捷尚视觉科技股份有限公司 一种基于统计学习的卡口车型识别方法
CN106919925A (zh) * 2017-03-07 2017-07-04 南京师范大学 一种基于小波熵与人工神经网络的福特汽车检测方法
CN107256633B (zh) * 2017-05-09 2020-03-31 西安理工大学 一种基于单目摄像头三维估计的车型分类方法
CN107784309A (zh) * 2017-11-01 2018-03-09 深圳汇生通科技股份有限公司 一种对车型识别的实现方法及系统
CN107862340A (zh) * 2017-11-16 2018-03-30 深圳市华尊科技股份有限公司 一种车型识别方法及装置
CN108229344A (zh) * 2017-12-19 2018-06-29 深圳市商汤科技有限公司 图像处理方法和装置、电子设备、计算机程序和存储介质
CN110307809B (zh) * 2018-03-20 2021-08-06 中移(苏州)软件技术有限公司 一种车型识别方法及装置
CN109978829B (zh) * 2019-02-26 2021-09-28 深圳市华汉伟业科技有限公司 一种待检测对象的检测方法及其系统
CN110220495A (zh) * 2019-06-24 2019-09-10 华南理工大学 一种基于红外光束的视觉测距系统及方法
CN110956093A (zh) * 2019-11-08 2020-04-03 武汉东湖大数据交易中心股份有限公司 基于大数据的模型识别方法、装置、设备及介质
CN111210375A (zh) * 2019-11-27 2020-05-29 重庆特斯联智慧科技股份有限公司 一种多功能便携式智慧安防一体机
CN116071707B (zh) * 2023-02-27 2023-11-28 南京航空航天大学 一种机场特种车辆识别方法及系统

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
车型及牌照识别的原理及算法研究. 蔡利梅.中国优秀硕士学位论文全文数据库,中国学术期刊(光盘版)电子期刊. 2002 *

Also Published As

Publication number Publication date
CN1996346A (zh) 2007-07-11

Similar Documents

Publication Publication Date Title
CN100470581C (zh) 基于轮廓的车型识别方法
Zakeri et al. Image based techniques for crack detection, classification and quantification in asphalt pavement: a review
Zhang et al. Deep learning–based fully automated pavement crack detection on 3D asphalt surfaces with an improved CrackNet
CN109101924A (zh) 一种基于机器学习的路面交通标志识别方法
CN103198332B (zh) 一种实时鲁棒的远红外车载行人检测方法
CN103514456B (zh) 基于压缩感知多核学习的图像分类方法及其装置
CN102496034B (zh) 基于直线单词的高空间分辨率遥感图像词袋分类方法
CN110942000A (zh) 一种基于深度学习的无人驾驶车辆目标检测方法
CN109284669A (zh) 基于Mask RCNN的行人检测方法
Ochoa et al. A framework for the management of agricultural resources with automated aerial imagery detection
CN106503739A (zh) 联合光谱和纹理特征的高光谱遥感影像svm分类方法及系统
CN104657717B (zh) 一种基于分层核稀疏表示的行人检测方法
CN103218831A (zh) 一种基于轮廓约束的视频运动目标分类识别方法
CN105869178A (zh) 一种基于多尺度组合特征凸优化的复杂目标动态场景无监督分割方法
CN107977677A (zh) 一种应用于大规模城区重建中的多标签像素分类方法
CN104217217A (zh) 一种基于两层分类的车辆标志物检测方法与系统
CN103679192A (zh) 基于协方差特征的图像场景类型判别方法
CN107330365A (zh) 基于最大稳定极值区域和svm的交通标志识别方法
CN103971106A (zh) 多视角人脸图像性别识别方法及装置
Chen et al. Agricultural remote sensing image cultivated land extraction technology based on deep learning
CN107704840A (zh) 一种基于深度学习的遥感图像道路检测方法
CN104200233A (zh) 一种基于韦伯局部描述符的服装分类识别方法
Wang et al. Classification of high spatial resolution remote sensing images based on decision fusion
Thimmegowda et al. Cluster-based segmentation for tobacco plant detection and classification
Yin et al. Road Damage Detection and Classification based on Multi-level Feature Pyramids.

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
C17 Cessation of patent right
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20090318

Termination date: 20100129