CN106971196A - 一种基于代价敏感的核稀疏表示分类器的消防车识别方法 - Google Patents
一种基于代价敏感的核稀疏表示分类器的消防车识别方法 Download PDFInfo
- Publication number
- CN106971196A CN106971196A CN201710120494.0A CN201710120494A CN106971196A CN 106971196 A CN106971196 A CN 106971196A CN 201710120494 A CN201710120494 A CN 201710120494A CN 106971196 A CN106971196 A CN 106971196A
- Authority
- CN
- China
- Prior art keywords
- color
- value
- matrix
- fire fighting
- fighting truck
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/50—Extraction of image or video features by performing operations within image blocks; by using histograms, e.g. histogram of oriented gradients [HoG]; by summing image-intensity values; Projection analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/56—Extraction of image or video features relating to colour
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
Abstract
本发明公开了一种基于代价敏感的核稀疏表示分类器的消防车识别方法,属于消防车自动识别方法技术领域。该方法是先提取出训练样本的HOG特征和颜色特征,再通过一个映射函数把HOG特征映射为一个更高阶的特征向量,得到基础矩阵;再提取出检测样本的HOG特征和颜色特征,使用基于代价敏感的核稀疏表示模型重构测试样本特征,最后求出该模型的最优解,完成消防车的识别。本发明在提取颜色特征的过程中,使用了一种基于不变量的独立于光照条件的颜色描述方法,这种方法在实际使用中有很好的鲁棒性。本发明使用一种代价敏感的核稀疏表示模型来结合HOG特征和颜色特征,结果较为稳定。
Description
技术领域
本发明涉及一种基于代价敏感的核稀疏表示分类器的消防车识别方法,属于消防车自动识别方法技术领域。
背景技术
随着大城市国民经济的飞速发展和城市现代化的加快,道路行驶车辆的不断增加使得道路的交通环境不断恶化。面对交通拥堵时消防车难以通行,如何探索破解这一难题,切实提高灭火救援效能,是一个崭新的课题。
研发部署消防车优先的信号灯系统,是一个强有力的解决办法。当摄像头拍摄照片,识别出消防车后,会给信号灯发送信息,用以实时调整红绿灯情况。同时,基于计算机的车辆识别,成本低准确率高,不会影响正常的交通秩序。
发明内容
本发明克服现有车辆检测方法的不足,同时弥补消防车检测的空白,提供一种基于代价敏感的核稀疏表示分类器的消防车识别方法,先提取出训练样本的HOG特征和颜色特征,通过一个映射函数把HOG特征Gi映射为一个更高阶的特征向量,得到基础矩阵;再提取出检测样本的HOG特征和颜色特征,使用基于代价敏感的核稀疏表示模型重构测试样本特征,最后求出基于代价敏感的核稀疏表示模型的最优解,完成消防车的识别。
本发明为解决其技术问题采用如下技术方案:
一种基于代价敏感的核稀疏表示分类器的消防车识别方法,包括模型构建和实时检测两个阶段,在模型构建中,提取出训练样本的HOG特征和颜色特征,将HOG特征映射成为一个更高阶的特征向量,得到基础向量;在实时检测阶段,提取测试样本的HOG特征和颜色特征,在使用基于代价敏感的核稀疏表示模型重构样本特征,最后求出模型最优解,完成消防车的检测。
所述模型构建阶段包括如下步骤:
步骤1:图片采集
利用架设在交通信号灯旁的摄像头,获取N个训练样本I1,I2,...,IN,标注为y1,y2,...,yN(yi∈{-1,+1}),其中+1表示消防车样本,-1为非消防车样本,每个样本的大小为32×32像素;
步骤2:提取特征
提取HOG特征与颜色特征;
步骤3:获得基础矩阵
定义一个映射函数把HOG特征G映射为一个更高阶的特征向量,如由训练样本可得到一个基础矩阵G1为第一个训练样本的HOG特征,G2为第二个训练样本的HOG特征,GN为第N个训练样本的HOG特征,Rd×N表示一个d×N的矩阵,R36指36维的矩阵。
所述HOG特征提取具体如下:
将样本图像Ii转化为灰度图像,
计算每个像素点的梯度信息;
把彩色图像转换为灰度图像,Gamma压缩公式如下:
H(x,y)=I(x,y)gamma
其中:H(x,y)是图像中坐标为(x+1,y)的点经过Gamma标准化后的值;I(x,y)为图像中坐标为(x,y)的点的灰度值;gamma为一般取0.45;
梯度大小G为:
Gx(x,y)=H(x+1,y)-H(x-1,y)
Gy(x,y)=H(x,y+1)-H(x,y-1)
其中:H(x+1,y)是图像中坐标为(x+1,y)的点经过Gamma标准化后的值;H(x-1,y)为是图像中坐标为(x-1,y)的点经过Gamma标准化后的值;H(x,y+1)为是图像中坐标为(x,y+1)的点经过Gamma标准化后的值;H(x,y-1)为是图像中坐标为(x,y-1)的点经过Gamma标准化后的值;Gx(x,y)为图像中坐标为(x,y)的点x方向的HOG值;Gy(x,y)为图像中坐标为(x,y)的点y方向的HOG值,G(x,y)为图像中坐标为(x,y)的点的HOG值;
(x,y)像素点的梯度方向α为:
再将图像Ii划分为每个大小为2×2像素大小的细胞单元,把细胞单元的角度α∈(-90,90)均分9份,对每个像素点的梯度分别在这9个方向进行加权投影之后,权重大小为G(x,y),由此得到了这9个方向的投影大小,然后对所有在同一个细胞单元范围内的像素点的投影按照不同的方向进行累加计算,最后得出该细胞单元在这9个方向上的9个特征值,即一个9维的特征向量Gc∈R9,R9表示9维矩阵;
定义每4个细胞单元组成一个小区域,针对每个小区域对应的细胞单元的特征值进行归一化处理,其过程是:求出每一个小区域中4个细胞单元的梯度值之和S,然后将同一个小区域内的每一个细胞单元的9个不同方向的梯度值除以S,最终得到HOG特征Gi∈R36,其中R36指36维的矩阵;
Gi即为所提取的HOG特征。
所述颜色特征提取具体如下:
图像Ii=(R,G,B)T在RGB色彩空间中计算为:
Ii(X)=ε∫ωe(λ)S(X,λ)ρ(λ)dλ+∫ωφ(λ)ρ(λ)dλ
其中X表示像素点坐标,λ表示波长,ω表示可见光谱,e(λ)表示光源的光谱能量分布,S(X,λ)是表面反射比,ρ(λ)=(R(λ),G(λ),B(λ))T是摄像机的三响应灵敏度函数,R(λ)为摄像机对红色的灵敏度函数;G(λ)为摄像机对绿色的灵敏度函数;B(λ)为摄像机对蓝色的灵敏度函数,ε是基于正常表面片与照明方向之间的夹角的明暗系数,φ(λ)是模拟的散射光;
把在点光源e1=[eR1,eG1,eB1]T照射下某物体所呈现出来的颜色,转化为该物体在基准光源e2=[eR2,eG2,eB2]T照射下应呈现的颜色,使用以下对角偏移矩阵模型:
其中:[R1,G1,B1]表示点光源照射下物体的RGB值,[α,β,γ]为比例因子,[R2,G2,B2]表示基准光源照射下物体的RGB值,[o1,o2,o3]是抵消项;可得,diag(α,β,γ)=diag(eR1/eR2,eG1/eG2,eB1/eB2);
使用一种色彩坐标系统,消除偏移项
其中,R为原图片RGB红颜色值;G为原图片RGB绿颜色值;B为原图片RGB蓝颜色值;是原图片RGB红颜色平均值;是原图片RGB色彩空间平均值;是原图片RGB蓝颜色平均值;chc_R为转换后对应红色坐标;chc_G为转换后对应绿色坐标;chc_B为转换后对应蓝色坐标;
是整幅图片RGB色彩空间中各颜色平均值,把上式转化为二维值。[r,g]是chc的中心颜色坐标:
chc=[r,g]T=[chc_R/chc_B,chc_G/chc_B]T
新颜色坐标系统符合对角线变换模型:
其中,α′=α/γ,β′=β/γ,[r1,g1]和[r2,g2]分别表示物体在光照e1和e2下chc颜色坐标;
提出一个色彩矩不变量,(u+v)阶颜色矩Muv为
Muv=∫∫rugvp(r,g)drdg
其中,[r,g]是chc的中心颜色坐标;u,v分别为颜色矩M的行和列;
密度函数p(r,g)是每种颜色值在图片中的百分比:
pixNum是图片大小,Num(r,g)表示图片中[r,g]T的值的像素总数;综合前式,在光照e1下颜色坐标为[r1,g1]时颜色矩(Muv)1,和在光照e2下颜色坐标为[r2,g2]时颜色矩(Muv)2的关系可以表示为:
其中,为Jacobi行列式,比例因子α′和β′表示照明颜色的变化,r2为物体在光照e2下chc颜色横坐标,g2为物体在光照e2下chc颜色纵坐标;,移除它们以得到上式矩不变量,最终,归一化后的矩不变量为:
在上式中,M00为矩阵M第一行第一列的值;M20为矩阵M第三行第一列的值;M02为矩阵M第一行第三列的值;使用该归一化的矩不变量来构造独立于照明的描述符;最后,使用12个候选矩不变量来组成颜色描述向量Ci∈R12:
Ci=[η01,η10,η11,η02,η20,η12,η21,η22,η03,η30,η13,η31]
其中:η01为矩阵η第一行第二列的值;η10为矩阵η第二行第一列的值;η11为矩阵η第二行第二列的值;η02为矩阵η第一行第三列的值;η20为矩阵η第三行第一列的值;η12为矩阵η第二行第三列的值;η21为矩阵η第三行第二列的值;η22为矩阵η第三行第三列的值;η03为矩阵η第一行第四列的值;η30为矩阵η第四行第一列的值;η13为矩阵η第二行第四列的值;η31为矩阵η第四行第二列的值;
Ci即为所提取的颜色特征。
所述实时检测阶段包括如下步骤:
步骤1图片采集
利用架设在交通信号灯旁的摄像头,获取检测样本I′,大小为32×32像素;
步骤2运用模型构建阶段步骤2中相同的特征提取方法,求出测试图片I′所对应的HOG特征G′和颜色特征C′;
步骤3消防车识别:
A、重构测试样本特征:
使用基于代价敏感的核稀疏表示模型通过训练样本重构测试样本特征:
其中,G′为已知消防车测试区域的图片I′所对应的HOG特征,β为系数向量;U为由训练样本获得的基础矩阵;C1为第一个训练样本的颜色特征;C′为已知消防车测试区域的图片I′所对应的颜色特征;CK为第k个训练样本的颜色特征;公式中的第一项目的是是重构误差,第二项用于控制l1范数系数矢量β的稀疏性,λ为正规化系数,用以控制β的稀疏;θ和θ′为参数,用来调节重建过程中的颜色特征的权重:随着θ的增加,当di的值趋于1时,颜色特征的影响会减弱;
上式取最小值,以选择那些到测试样本的颜色特征距离较短的训练样本,来重构所述测试样本的HOG特征;
B、模型的最优解
令γ=Dβ,则可以表示为
令V=UD-1,则上式可改写为
如果已知两个内核矩阵KUU和KUG′,VTV和可以算出;上式的优化可以使用基于Feature-Sign Search(FSS)的算法解决;
上式等价于:
其中,K()和Kg()是高维特征空间中的点积内核函数,KUU和KUG′为内核矩阵;采用径向基函数(RBF)内核,以获得核矩阵的KUU和KUG′;
C、分类
得到的系数向量γ后,令q∈{-1,1},测试候选样本的重建残差rq(G′)为:
其中δq(γ)是一种系数选择器,它只选择与类q相关的系数;γk为系数,q是一个类;
当τ′=1时,表示所检测图片为消防车。
本发明的有益效果如下:
(1)本发明在提取颜色特征的过程中,使用了一种基于不变量的独立于光照条件的颜色描述方法,这种方法在实际使用中有很好的鲁棒性。
(2)本发明使用一种代价敏感的核稀疏表示模型来结合HOG特征和颜色特征,结果较为稳定。
附图说明
图1是本发明方法的检测流程图。
图2是HOG特征提取的过程流程图。
具体实施方式
下面结合附图对本发明创造做进一步详细说明。
本发明基于稀疏表示的消防车检测方法可通过三个阶段来实现,一是选取候选窗口,二是特征提取,三是基于稀疏表示的消防车识别。该方法的检测流程图如图1所示。
1、提取候选窗口:该方法只检测驶向信号灯方向的消防车,因此只监测上半部分的图像。考虑到消防车的大小在图像中的变化不大,使用一个32×32的窗口来扫描检测图像。
2、提取特征:这里使用两种特征,基于梯度的特征(HOG特征)和基于颜色的特征。
A、HOG特征提取
HOG特征的全称是梯度方向直方图,是基于局部区域的特征描述符,通过计算图像局部区域的梯度信息,来表示物体的边缘特征。HOG特征提取的过程如图2所示。
在HOG特征提取中,颜色不在考虑范围内,因此首先把彩色图像转换为灰度图像,Gamma压缩公式如下:
H(x,y)=I(x,y)gamma
其中:H(x,y)是图像中坐标为(x+1,y)的点经过Gamma标准化后的值;
I(x,y)为图像中坐标为(x,y)的点的灰度值;gamma为一般取0.45;
接着计算图像的梯度信息,梯度大小为:
Gx(x,y)=H(x+1,y)-H(x-1,y)
Gy(x,y)=H(x,y+1)-H(x,y-1)
其中:H(x+1,y)是图像中坐标为(x+1,y)的点经过Gamma标准化后的值;H(x-1,y)为是图像中坐标为(x-1,y)的点经过Gamma标准化后的值;H(x,y+1)为是图像中坐标为(x,y+1)的点经过Gamma标准化后的值;H(x,y-1)为是图像中坐标为(x,y-1)的点经过Gamma标准化后的值;Gx(x,y)为图像中坐标为(x,y)的点x方向的HOG值;Gy(x,y)为为图像中坐标为(x,y)的点y方向的HOG值,G(x,y)为图像中坐标为(x,y)的点的HOG值;
其中,梯度方向为:
再将图像分成若干个小区域,在每个区域中,将其中包含的像素点的一维梯度投影到一定的方向上。把每个小区域的角度范围均分成9份(bins)时,获得的最终结果最优。对每一个像素点的梯度,分别在这9个方向做加权投影,得到了这9个方向的投影大小,然后对所有在同一个小区域范围内的像素点的投影,按照不同的方向进行累加计算,最后得出的就是该区域在这9个方向上的9个特征值,即一个9维的特征向量。连接9个大小为2×2格的HOG特征矩阵来描述候选区域,把每个区域的HOG特征都表示为G∈R36,其中R36指36维的矩阵。B、颜色特征提取
消防车的表面颜色均为红色,因此颜色特征在识别过程起了极为重要的作用。为去除颜色受到光照的影响,使用了一种基于不变量的独立于光照条件的颜色描述方法。
图像f=(R,G,B)T在RGB色彩空间中计算为:
f(X)=ε∫ωe(λ)S(X,λ)ρ(λ)dλ+∫ωφ(λ)ρ(λ)dλ
其中X表示空间坐标,λ表示波长,ω表示可见光谱,e(λ)表示光源的光谱能量分布,S(X,λ)是表面反射比,ρ(λ)=(R(λ),G(λ),B(λ))T是摄像机的三响应灵敏度函数,R(λ)为摄像机对红色的灵敏度函数;G(λ)为摄像机对绿色的灵敏度函数;B(λ)为摄像机对蓝色的灵敏度函数,ε是基于正常表面片与照明方向之间的夹角的明暗系数,φ(λ)是模拟的散射光。
在以上模型中的转换方法,能把在点光源e1=[eR1,eG1,eB1]T照射下某物体所呈现出来的颜色f1,转化为该物体在基准光源e2=[eR2,eG2,eB2]T照射下应呈现的颜色f2,符合以下对角线偏移模型:
其中:[R1,G1,B1]表示点光源照射下物体的RGB值,[α,β,γ]为比例因子,[R2,G2,B2]表示基准光源照射下物体的RGB值,[o1,o2,o3]是抵消项。由此可得,diag(α,β,γ)=diag(eR1/eR2,eG1/eG2,eB1/eB2)。根据上式,可以认为照明颜色的变化是每种颜色带偏移缩放量综合后的结果。
接下来使用一种色彩坐标系统,以消除式中的偏移项。
其中,R为原图片RGB红颜色值;G为原图片RGB绿颜色值;B为原图片RGB蓝颜色值;是原图片RGB红颜色平均值;是原图片RGB色彩空间平均值;是原图片RGB蓝颜色平均值;chc_R为转换后对应红色坐标;chc_G为转换后对应绿色坐标;chc_B为转换后对应蓝色坐标;
是整幅图片RGB色彩空间中各颜色平均值,为了消除颜色强度信息ε,把上式转化为二维值。[r,g]是chc的中心颜色坐标:
chc=[r,g]T=[chc_R/chc_B,chc_G/chc_B]T
显然,新颜色坐标系统符合对角线变换模型:
其中,α′=α/γ,β′=β/γ。[r1,g1]和[r2,g2]分别表示物体在光照e1和e2下chc颜色坐标。
之后提出一个色彩矩不变量,它是独立于光照条件的颜色描述方法的基础。颜色矩Muv为
Muv=∫∫rugvp(r,g)drdg
其中,[r,g]是chc的中心颜色坐标;u,v分别为颜色矩M的行和列。
密度函数p(r,g)是每种颜色值在图片中的百分比:
pixNum是图片大小,Num(r,g)表示图片中[r,g]T的值的像素总数。综合前式,在光照e1下颜色坐标为[r1,g1]时颜色矩(Muv)1,和在光照e2下颜色坐标为[r2,g2]时颜色矩(Muv)2的关系可以表示为:
其中,为Jacobi行列式。比例因子α′和β′表示照明颜色的变化,为得到上式矩不变量,它们必须要移除;r2为物体在光照e2下chc颜色横坐标,g2为物体在光照e2下chc颜色纵坐标。最终,归一化后的矩不变量为:
在上式中,M00为矩阵M第一行第一列的值;M20为矩阵M第三行第一列的值;M02为矩阵M第一行第三列的值;ηuv中每个色相带的所有比例因子均已归一化,光照对其不再有影响。获得该归一化的矩不变量后,我们用它们来构造独立于照明的描述符。为了降低噪音的影响,该描述符应包括尽可能多的低阶矩不变量,并保持矩序(u+v)尽可能低。根据这两个原则,使用12个候选矩不变量来组成颜色描述向量C∈R12,R12表示12维的矩阵,作为描述消防车识别候选区域时的颜色提示:
C=[η01,η10,η11,η02,η20,η12,η21,η22,η03,η30,η13,η31]
其中:η01为矩阵η第一行第二列的值;η10为矩阵η第二行第一列的值;η11为矩阵η第二行第二列的值;η02为矩阵η第一行第三列的值;η20为矩阵η第三行第一列的值;η12为矩阵η第二行第三列的值;η21为矩阵η第三行第二列的值;η22为矩阵η第三行第三列的值;η03为矩阵η第一行第四列的值;η30为矩阵η第四行第一列的值;η13为矩阵η第二行第四列的值;η31为矩阵η第四行第二列的值;
步骤3基于稀疏表示的消防车识别:结合HOG特征G和颜色特征C,使用一种代价敏感的核稀疏表示模型来实现消防车的检测。
A、代价敏感的核稀疏表示
给定N个训练样本I1,I2,...,IN,及其标注y1,y2,...,yN(yi∈{-1,+1}),其中+1表示消防车样本,-1为非消防车样本。每个样本的大小为32×32像素。之后提取出每个样本Ii所对应的HOG特征Gi和颜色特征Ci。已知消防车测试区域的图片I′所对应的HOG特征G′和颜色特征C′已经给出。
首先定义一个映射函把HOG特征G映射为一个更高阶的特征向量,如
其中,G′为已知消防车测试区域的图片I′所对应的HOG特征,β为系数向量,G1为第一个训练样本的HOG特征,G2为第二个训练样本的HOG特征,GN为第N个训练样本的HOG特征;U为由训练样本获得的基础矩阵;C1为第一个训练样本的颜色特征;C′为已知消防车测试区域的图片I′所对应的颜色特征;CK为第k个训练样本的颜色特征;公式中的第一项,目的是重构误差,第二项是用于控制l1范数系数矢量β的稀疏性。λ为正规化系数,用以控制β的稀疏。θ和θ′为参数,用于避免0的出现。
与传统的稀疏表示相比,基于代价敏感的核稀疏表示模型(CKSR模型)有两个特点:特征空间映射函数的运用;在l1范数中加入一种对角矩阵D,它表示不同训练样本的成本值。成本值是指测试样本和训练样本之间的归一化后的色彩特征距离。上式取最小值是为了选择那些到测试样本的颜色特征距离较低的训练样本,来重构所述测试样本的HOG特征。此外,参数θ也可以用来调节重建过程中的颜色特征的权重。随着θ的增加,当di的值趋于1时,颜色特征的效果会减弱。
B、CKSR模型的最优解
令γ=Dβ,则可以表示为
令V=UD-1,则上式可进一步改写为
上式是一个稀疏表示优化问题。如果VTV和是已知的,那么上式的优化可以使用基于Feature-Sign Search(FSS)的算法解决。
上式等价于:
其中,K()和Kg()是高维特征空间中的点积内核函数,KUU和KUG′为内核矩阵。如果已知两个内核矩阵KUU和KUG′,那么就可以算出VTV和再使用径向基函数(RBF)内核,以获得核矩阵的KUU和KUG′。
C、分类
得到的系数向量γ后,当类q∈{-1,1}时,测试候选样本的重建残差rq(G′)为:
其中δq(γ)是一种系数选择器,它只选择与类q相关的系数;γk为系数,q是一个类;
最终类τ′是测试样本I′的最小残余:
当τ′=1时,表示候选区有消防车。
Claims (5)
1.一种基于代价敏感的核稀疏表示分类器的消防车识别方法,其特征在于,包括模型构建和实时检测两个阶段,在模型构建中,提取出训练样本的HOG特征和颜色特征,将HOG特征映射成为一个更高阶的特征向量,得到基础向量;在实时检测阶段,提取测试样本的HOG特征和颜色特征,在使用基于代价敏感的核稀疏表示模型重构样本特征,最后求出模型最优解,完成消防车的检测。
2.根据权利要求1所述的一种基于代价敏感的核稀疏表示分类器的消防车识别方法,其特征在于,所述模型构建阶段包括如下步骤:
步骤1:图片采集
利用架设在交通信号灯旁的摄像头,获取N个训练样本I1,I2,...,IN,标注为y1,y2,...,yN(yi∈{-1,+1}),其中+1表示消防车样本,-1为非消防车样本,每个样本的大小为32×32像素;
步骤2:提取特征
提取HOG特征与颜色特征;
步骤3:获得基础矩阵
定义一个映射函数R36→Rd(d>>36),把HOG特征G映射为一个更高阶的特征向量,如由训练样本可得到一个基础矩阵G1为第一个训练样本的HOG特征,G2为第二个训练样本的HOG特征,GN为第N个训练样本的HOG特征,Rd×N表示一个d×N的矩阵,R36指36维的矩阵。
3.根据权利要求2所述的一种基于代价敏感的核稀疏表示分类器的消防车识别方法,其特征在于,所述HOG特征提取具体如下:
将样本图像Ii转化为灰度图像,
计算每个像素点的梯度信息;
把彩色图像转换为灰度图像,Gamma压缩公式如下:
H(x,y)=I(x,y)gamma
其中:H(x,y)是图像中坐标为(x+1,y)的点经过Gamma标准化后的值;I(x,y)为图像中坐标为(x,y)的点的灰度值;gamma为一般取0.45;
梯度大小G为:
Gx(x,y)=H(x+1,y)-H(x-1,y)
Gy(x,y)=H(x,y+1)-H(x,y-1)
其中:H(x+1,y)是图像中坐标为(x+1,y)的点经过Gamma标准化后的值;H(x-1,y)为是图像中坐标为(x-1,y)的点经过Gamma标准化后的值;H(x,y+1)为是图像中坐标为(x,y+1)的点经过Gamma标准化后的值;H(x,y-1)为是图像中坐标为(x,y-1)的点经过Gamma标准化后的值;Gx(x,y)为图像中坐标为(x,y)的点x方向的HOG值;Gy(x,y)为图像中坐标为(x,y)的点y方向的HOG值,G(x,y)为图像中坐标为(x,y)的点的HOG值;
(x,y)像素点的梯度方向α为:
再将图像Ii划分为每个大小为2×2像素大小的细胞单元,把细胞单元的角度α∈(-90,90)均分9份,对每个像素点的梯度分别在这9个方向进行加权投影之后,权重大小为G(x,y),由此得到了这9个方向的投影大小,然后对所有在同一个细胞单元范围内的像素点的投影按照不同的方向进行累加计算,最后得出该细胞单元在这9个方向上的9个特征值,即一个9维的特征向量Gc∈R9,R9表示9维矩阵;
定义每4个细胞单元组成一个小区域,针对每个小区域对应的细胞单元的特征值进行归一化处理,其过程是:求出每一个小区域中4个细胞单元的梯度值之和S,然后将同一个小区域内的每一个细胞单元的9个不同方向的梯度值除以S,最终得到HOG特征Gi∈R36,其中R36指36维的矩阵;
Gi即为所提取的HOG特征。
4.根据权利要求2所述的一种基于代价敏感的核稀疏表示分类器的消防车识别方法,其特征在于,所述颜色特征提取具体如下:
图像Ii=(R,G,B)T在RGB色彩空间中计算为:
Ii(X)=ε∫ωe(λ)S(X,λ)ρ(λ)dλ+∫ωφ(λ)ρ(λ)dλ
其中X表示像素点坐标,λ表示波长,ω表示可见光谱,e(λ)表示光源的光谱能量分布,S(X,λ)是表面反射比,ρ(λ)=(R(λ),G(λ),B(λ))T是摄像机的三响应灵敏度函数,R(λ)为摄像机对红色的灵敏度函数;G(λ)为摄像机对绿色的灵敏度函数;B(λ)为摄像机对蓝色的灵敏度函数,ε是基于正常表面片与照明方向之间的夹角的明暗系数,φ(λ)是模拟的散射光;
把在点光源e1=[eR1,eG1,eB1]T照射下某物体所呈现出来的颜色,转化为该物体在基准光源e2=[eR2,eG2,eB2]T照射下应呈现的颜色,使用以下对角偏移矩阵模型:
其中:[R1,G1,B1]表示点光源照射下物体的RGB值,[α,β,γ]为比例因子,[R2,G2,B2]表示基准光源照射下物体的RGB值,[o1,o2,o3]是抵消项;可得,diag(α,β,γ)=diag(eR1/eR2,eG1/eG2,eB1/eB2);
使用一种色彩坐标系统,消除偏移项
其中,R为原图片RGB红颜色值;G为原图片RGB绿颜色值;B为原图片RGB蓝颜色值;是原图片RGB红颜色平均值;是原图片RGB色彩空间平均值;是原图片RGB蓝颜色平均值;chc_R为转换后对应红色坐标;chc_G为转换后对应绿色坐标;chc_B为转换后对应蓝色坐标;
是整幅图片RGB色彩空间中各颜色平均值,把上式转化为二维值。[r,g]是chc的中心颜色坐标:
chc=[r,g]T=[chc_R/chc_B,chc_G/chc_B]T
新颜色坐标系统符合对角线变换模型:
其中,α′=α/γ,β′=β/γ,[r1,g1]和[r2,g2]分别表示物体在光照e1和e2下chc颜色坐标;
提出一个色彩矩不变量,(u+v)阶颜色矩Muv为
Muv=∫∫rugvp(r,g)drdg
其中,[r,g]是chc的中心颜色坐标;u,v分别为颜色矩M的行和列;
密度函数p(r,g)是每种颜色值在图片中的百分比:
pixNum是图片大小,Num(r,g)表示图片中[r,g]T的值的像素总数;综合前式,在光照e1下颜色坐标为[r1,g1]时颜色矩(Muv)1,和在光照e2下颜色坐标为[r2,g2]时颜色矩(Muv)2的关系可以表示为:
其中,为Jacobi行列式,比例因子α′和β′表示照明颜色的变化,r2为物体在光照e2下chc颜色横坐标,g2为物体在光照e2下chc颜色纵坐标;,移除它们以得到上式矩不变量,最终,归一化后的矩不变量为:
在上式中,M00为矩阵M第一行第一列的值;M20为矩阵M第三行第一列的值;M02为矩阵M第一行第三列的值;使用该归一化的矩不变量来构造独立于照明的描述符;最后,使用12个候选矩不变量来组成颜色描述向量Ci∈R12:
Ci=[η01,η10,η11,η02,η20,η12,η21,η22,η03,η30,η13,η31]
其中:η01为矩阵η第一行第二列的值;η10为矩阵η第二行第一列的值;η11为矩阵η第二行第二列的值;η02为矩阵η第一行第三列的值;η20为矩阵η第三行第一列的值;η12为矩阵η第二行第三列的值;η21为矩阵η第三行第二列的值;η22为矩阵η第三行第三列的值;η03为矩阵η第一行第四列的值;η30为矩阵η第四行第一列的值;η13为矩阵η第二行第四列的值;η31为矩阵η第四行第二列的值;
Ci即为所提取的颜色特征。
5.根据权利要求1所述的一种基于代价敏感的核稀疏表示分类器的消防车识别方法,其特征在于,所述实时检测阶段包括如下步骤:
步骤1图片采集
利用架设在交通信号灯旁的摄像头,获取检测样本I′,大小为32×32像素;
步骤2运用模型构建阶段步骤2中相同的特征提取方法,求出测试图片I′所对应的HOG特征G′和颜色特征C′;
步骤3消防车识别:
A、重构测试样本特征:
使用基于代价敏感的核稀疏表示模型通过训练样本重构测试样本特征:
其中,G′为已知消防车测试区域的图片I′所对应的HOG特征,β为系数向量;U为由训练样本获得的基础矩阵;C1为第一个训练样本的颜色特征;C′为已知消防车测试区域的图片I′所对应的颜色特征;CK为第k个训练样本的颜色特征;公式中的第一项目的是是重构误差,第二项用于控制l1范数系数矢量β的稀疏性,λ为正规化系数,用以控制β的稀疏;θ和θ′为参数,用来调节重建过程中的颜色特征的权重:随着θ的增加,当di的值趋于1时,颜色特征的影响会减弱;
上式取最小值,以选择那些到测试样本的颜色特征距离较短的训练样本,来重构所述测试样本的HOG特征;
B、模型的最优解
令γ=Dβ,则可以表示为
令V=UD-1,则上式可改写为
如果已知两个内核矩阵KUU和KUG′,VTV和可以算出;上式的优化可以使用基于Feature-Sign Search(FSS)的算法解决;
上式等价于:
其中,K()和Kg()是高维特征空间中的点积内核函数,KUU和KUG′为内核矩阵;采用径向基函数(RBF)内核,以获得核矩阵的KUU和KUG′;
C、分类
得到的系数向量γ后,令q∈{-1,1},测试候选样本的重建残差rq(G′)为:
其中δq(γ)是一种系数选择器,它只选择与类q相关的系数;γk为系数,q是一个类;
当τ′=1时,表示所检测图片为消防车。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710120494.0A CN106971196A (zh) | 2017-03-02 | 2017-03-02 | 一种基于代价敏感的核稀疏表示分类器的消防车识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710120494.0A CN106971196A (zh) | 2017-03-02 | 2017-03-02 | 一种基于代价敏感的核稀疏表示分类器的消防车识别方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN106971196A true CN106971196A (zh) | 2017-07-21 |
Family
ID=59328347
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710120494.0A Pending CN106971196A (zh) | 2017-03-02 | 2017-03-02 | 一种基于代价敏感的核稀疏表示分类器的消防车识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN106971196A (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109598218A (zh) * | 2018-11-23 | 2019-04-09 | 南通大学 | 一种车型的快速识别方法 |
CN111010530A (zh) * | 2018-10-05 | 2020-04-14 | 大陆汽车有限责任公司 | 应急车辆检测 |
CN111008291A (zh) * | 2019-10-23 | 2020-04-14 | 杭州屏行视界信息科技有限公司 | 一种基于图像特征提取的女性风格辨识方法 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102930271A (zh) * | 2012-09-21 | 2013-02-13 | 博康智能网络科技股份有限公司 | 一种视频图像的出租车实时识别方法 |
CN104281835A (zh) * | 2014-09-04 | 2015-01-14 | 台州学院 | 基于局部敏感的核稀疏表示的人脸识别方法 |
CN105426905A (zh) * | 2015-11-02 | 2016-03-23 | 国网山东省电力公司电力科学研究院 | 基于梯度直方图和支持向量机的机器人障碍物识别方法 |
-
2017
- 2017-03-02 CN CN201710120494.0A patent/CN106971196A/zh active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102930271A (zh) * | 2012-09-21 | 2013-02-13 | 博康智能网络科技股份有限公司 | 一种视频图像的出租车实时识别方法 |
CN104281835A (zh) * | 2014-09-04 | 2015-01-14 | 台州学院 | 基于局部敏感的核稀疏表示的人脸识别方法 |
CN105426905A (zh) * | 2015-11-02 | 2016-03-23 | 国网山东省电力公司电力科学研究院 | 基于梯度直方图和支持向量机的机器人障碍物识别方法 |
Non-Patent Citations (3)
Title |
---|
XU SUN等: "Bus detection based on sparse representation for transit signal priority", 《NEUROCOMPUTING》 * |
胡正平等: "稀疏扩展字典学习的代价敏感单样本人脸认证"", 《仪器仪表学报》 * |
陈慧岩: "《无人驾驶汽车概论》", 31 July 2014, 北京理工大学出版社 * |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111010530A (zh) * | 2018-10-05 | 2020-04-14 | 大陆汽车有限责任公司 | 应急车辆检测 |
US11341753B2 (en) | 2018-10-05 | 2022-05-24 | Continental Automotive Gmbh | Emergency vehicle detection |
CN109598218A (zh) * | 2018-11-23 | 2019-04-09 | 南通大学 | 一种车型的快速识别方法 |
CN111008291A (zh) * | 2019-10-23 | 2020-04-14 | 杭州屏行视界信息科技有限公司 | 一种基于图像特征提取的女性风格辨识方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9626598B2 (en) | Method and apparatus for image processing | |
CN102314602B (zh) | 使用最优定向线性轴线去除由基于车辆的相机捕获的图像中的阴影 | |
CN110210362A (zh) | 一种基于卷积神经网络的交通标志检测方法 | |
CN107392130A (zh) | 基于阈值自适应和卷积神经网络的多光谱图像分类方法 | |
CN107301405A (zh) | 自然场景下的交通标志检测方法 | |
CN109934154B (zh) | 一种遥感影像变化检测方法及检测装置 | |
CN111047554A (zh) | 一种基于实例分割的复合绝缘子过热缺陷检测方法 | |
CN106384117B (zh) | 一种车辆颜色识别方法及装置 | |
CN107507172A (zh) | 融合红外可见光的特高压线路绝缘子串深度学习识别方法 | |
CN102314600A (zh) | 用于畅通路径检测的去除由基于车辆的相机捕获的图像中的阴影 | |
CN106971196A (zh) | 一种基于代价敏感的核稀疏表示分类器的消防车识别方法 | |
CN114387528A (zh) | 松材线虫病监测天空地一体化监测方法 | |
CN103559500A (zh) | 一种基于光谱与纹理特征的多光谱遥感图像地物分类方法 | |
CN102842044B (zh) | 高分辨率可见光遥感图像变化检测方法 | |
CN102254174A (zh) | 崩滑体中裸地信息的自动提取方法 | |
CN104268879A (zh) | 基于遥感多光谱图像的建筑物实物量损毁评估方法 | |
CN102902956A (zh) | 一种地基可见光云图识别处理方法 | |
CN107392880A (zh) | 一种仿造迷彩自动生成方法 | |
CN105225235A (zh) | 一种基于多光谱特征的视频火焰检测方法 | |
CN102750771A (zh) | 一种应用于智能手机的第五套人民币面额识别方法 | |
CN104217440A (zh) | 一种从遥感图像中提取建成区的方法 | |
CN105678318A (zh) | 交通标牌的匹配方法及装置 | |
CN103778430B (zh) | 一种基于肤色分割和AdaBoost相结合的快速人脸检测方法 | |
CN110389114A (zh) | 一种基于无人机成像光谱的中小水体水质类型识别方法 | |
CN114078218A (zh) | 一种自适应融合的森林烟火识别数据增广方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WD01 | Invention patent application deemed withdrawn after publication |
Application publication date: 20170721 |
|
WD01 | Invention patent application deemed withdrawn after publication |