CN104657717B - 一种基于分层核稀疏表示的行人检测方法 - Google Patents

一种基于分层核稀疏表示的行人检测方法 Download PDF

Info

Publication number
CN104657717B
CN104657717B CN201510076218.XA CN201510076218A CN104657717B CN 104657717 B CN104657717 B CN 104657717B CN 201510076218 A CN201510076218 A CN 201510076218A CN 104657717 B CN104657717 B CN 104657717B
Authority
CN
China
Prior art keywords
mrow
pedestrian
msub
sample
msubsup
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
CN201510076218.XA
Other languages
English (en)
Other versions
CN104657717A (zh
Inventor
孙锐
张旭东
高隽
张广海
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hefei University of Technology
Original Assignee
Hefei University of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hefei University of Technology filed Critical Hefei University of Technology
Priority to CN201510076218.XA priority Critical patent/CN104657717B/zh
Publication of CN104657717A publication Critical patent/CN104657717A/zh
Application granted granted Critical
Publication of CN104657717B publication Critical patent/CN104657717B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Analysis (AREA)

Abstract

本发明公开了一种基于分层核稀疏表示的行人检测方法,其特征是按如下步骤进行:对采集的交通视频进行预处理,获得需要的正负样本,通过分层的子块划分,获得多尺度的特征向量,并构建两类字典矩阵;对待测的行人图像进行预处理,得到测试样本,用字典构建过程相同的方式进行行人特征提取,形成测试样本的特征向量;采用直方图交叉核函数,对测试样本的特征向量进行核稀疏分解,并在迭代解决过程中采用高斯函数加权,再通过重建误差实现行人检测。本发明可以获得较好的检测性能,有效提高了行人检测在部分遮挡情况下的准确性,增强了行人检测系统对于外观变化的鲁棒性。

Description

一种基于分层核稀疏表示的行人检测方法
技术领域
本发明属于智能交通领域,具体涉及一种基于分层核稀疏表示的行人检测方法。
背景技术
行人检测就是要把视频或者图像中出现的行人从背景中分割出来并精确定位,它在视频监控、智能驾驶等领域有着广泛的应用前景。但由于行人目标无论是在身材、衣着、姿势,还是在视角、光照方面都有着较大的变化,加之复杂的背景场景以及摄像头自身的移动和晃动,同时行人检测要求很高的精度和实时性,使得行人检测成为智能交通领域的最困难的课题之一。
目前行人检测系统一般分为外观特征提取和分类学习两部分,常用的外观特征如Harr小波,方向梯度直方图(Histograms of Oriented Gradient,HOG),基于Gabor滤波器皮层特征、流形特征、形状特征和颜色特征等。常用的分类学习方法有Adaboost集成学习、支持向量机 (Support Vector Machine,SVM),神经网络(Neural Network,NN)。
在驾驶辅助系统等应用中对行人检测的准确性有较高要求,但现有方法一般采用固定的算法流程提取目标的全局特征,如方向梯度直方图实现方法是先将图像分成小的方格单元连通区域;然后采集方格单元中各像素点的梯度方向或边缘方向直方图;最后把这些直方图组合起来就可以构成特征描述子,这种固有流程提取的全局特征不能够适应场景与行人外观的快速变换。同时由于街道附属物,车辆、树木等形成的部分遮挡,也使得通过分类器训练得到的分类模型难以准确的分辨行人,现有方法难以稳定的处理部分遮挡,视角变换等复杂情况。
发明内容
本发明为克服上述现有技术中存在的问题,提出一种基于分层核稀疏表示的行人检测方法,以期能有效地克服行人外观形变与部分遮挡的影响,增强行人检测对于外观变化的鲁棒性,从而实现行人的高效检测。
本发明为解决技术问题采用如下技术方案:
本发明一种基于分层核稀疏表示的行人检测方法的特点是按如下步骤进行:
步骤1、字典构建:
步骤1.1、从交通视频中获取N幅样本图像,从所述N幅样本图像中提取比例为x:y的行人区域和非行人区域;x表示所述行人区域或非行人区域的宽;y表示所述行人区域或非行人区域的高;且x≤y;将所述行人区域和非行人区域进行大小为a×b的归一化处理,分别获得行人正样本和非行人负样本;
步骤1.2、分别从所述行人正样本和非行人负样本中选取n个行人正样本和n个行人负样本;并分别转换为n个行人正样本的灰度图和n个行人负样本的灰度图;
对所述n个行人正样本的灰度图和n个行人负样本的灰度图分别进行梯度计算,获得n个行人正样本的梯度幅值和n个行人负样本的梯度幅值;
由所述n个行人正样本的梯度幅值构成n个正样本的特征图;由n个行人负样本的梯度幅值构成n个负样本的特征图;
步骤1.3、从所述n个正样本的特征图和n个负样本的特征图中选出第j个样本, 1≤j≤2n;对所述第j个样本进行三层划分,第一层以p1×q1进行划分,第二层以p2×q2进行划分,第三层以p3×q3进行划分,从而获得p1×q1+p2×q2+p3×q3=M个子块,且 p1×q1>p2×q2>p3×q3
步骤1.4、对所述第j个样本的第i个子块进行CENTRIST直方图描述子的提取,获得所述第j个样本的第i个子的m维局部特征向量从而获得所述第j个样本的M个m维局部特征向量1≤i≤M;
将所述M个m维局部特征向量进行级联,获得第j个样本的特征向量xj;从而获得2n个样本的特征向量{x1,x2,…,xj,…,x2n};其中,特征向量 {x1,x2,…,xn}为正样本的特征向量;特征向量{xn+1,xn+2,…,x2n}为负样本的特征向量;
步骤1.5、对所述正样本的特征向量{x1,x2,…,xn}按列排序形成正样本字典X0;对所述负样本的特征向量{xn+1,xn+2,…,x2n}按列排序形成负样本字典X1;由所述正样本字典X0和负样本字典X1构成字典X;由所述n个正样本或n个负样本中所有第i个子块构成的子字典记为第i个子字典Xi
步骤2:行人检测:
步骤2.1、假设测试图像为I,对所述测试图像I进行尺度为u倍到v倍之间的G次缩放处理,获得G幅不同尺度的待检测图像{S1,S2,…,Sg,…SG},Sg表示第g幅待检测图像; 1≤g≤G;u≥1;0<v<1;
步骤2.2、以a×b为检测窗对所述第g幅待检测图像Sg按照扫描步长为c的“Z”字型进行扫描获得若干个候选区域,记任意个候选区域为D;c∈[2,32];
步骤2.3、对所述任意个候选区域D进行梯度计算,获得所述任意个候选区域D的梯度幅值;由所述任意个候选区域D的梯度幅值构成所述任意个候选区域D的特征图;对所述任意个候选区域D的特征图进行三层划分,从而获得所述任意个候选区域D的M个子块;对所述任意个候选区域D的每个子块进行CENTRIST直方图描述子的提取,从而获得M个m 维局部特征向量{y1,y2,…,ys,…,yM};ys表示第s个子块所提取的m维局部特征向量; 1≤s≤M;对所述M个m维局部特征向量{y1,y2,…,ys,…,yM}进行级联,获得所述任意个候选区域D的特征向量y;
步骤2.4、对所述任意个候选区域D的第s个子块利用式(1)进行加权核稀疏表示αs
式(1)中,ωs表示第s个子块的加权系数,k(·,·)表示直方图交叉核函数;Xs表示第s个子字典;λ表示正则化因子;
步骤2.5、利用式(2)计算第s个子块的重建误差es
步骤2.6、利用式(3)所示的高斯加权函数计算第s个子块的加权系数ωs
式(3)中,σ表示高斯加权函数的方差;
步骤2.7、定义t为迭代次数,并初始化t=1;令第t次迭代下的第s个子块的加权系数利用式(4)所示的汇聚条件获得第t次迭代下的第s个子块的加权系数和第s个子块的重建误差
式(4)中,τ为迭代终止参数;
步骤2.8、利用所述第t次迭代下的所有子块的加权系数与重建误差的乘积和分别计算所述正样本字典X0的总重建误差和负样本字典X1的总重建误差;
步骤2.9、判断所述正样本字典X0的总重建误差是否小于所述负样本字典X1的总重建误差;若小于,则所述任意个候选区域D为行人区域;否则,所述任意个候选区域D为非行人区域;从而获得检测结果区域;进而获得所述第g幅待检测图像Sg中所有候选区域的检测结果区域;
步骤2.10、重复步骤2.2-步骤2.9,从而获得所述G幅不同尺度的待检测图像 {S1,S2,…,Sg,…SG}的所有检测结果区域;
步骤2.11、利用非极大抑制算法对所述所有检测结果区域中的重复的检测结果区域进行合并;从而输出行人区域。
与已有技术相比,本发明有益效果体现在:
1、本发明首先采用分层特征提取的方式,多尺度的提取图像的区分信息;然后选取典型的行人与非行人样本构成两类字典,不需要冗长的模型训练环节,提高了对不同场景的适应性;再次,采用加权核稀疏表示技术,充分利用嵌入在分层特征中的区分信息实现行人分类;最后,采用高斯模型有效测度行人的遮挡程度,自动降低遮挡对于检测性能的影响,从而解决了交通场景中外观形变与部分遮挡下的行人检测问题,提高行人检测的准确性,实现了行人的高效检测。
2、本发明采用分层特征提取的方式,将待测区域由密到疏划分成多个子块,从整体和局部多尺度的提取局部特征向量,构成可区分性的特征描述子,提高对外观形变和部分遮挡的适应能力。
3、本发明选取典型的行人与非行人样本,通过分层划分子块,提取每个子块的CENTRIST 特征描述子构成样本的特征向量,级联构成两类字典,不需要冗长的模型训练环节,样本的多样性也提高了对不同场景的适应性。
4、本发明采用核稀疏表示分类算法提高了方法的分类性能,稀疏表示使得待测候选区域在两类字典上做映射,并通过重建误差的大小实现行人分类,直方图核函数可以有效提高数据在非线性条件下的可区分性。
5、本发明采用高斯模型有效测度行人的遮挡程度,在稀疏表示求解过程中,对重建误差大的子块赋以比较小的加权系数,通过加权系数来降低行人的遮挡部分的影响,有效提高了行人检测在部分遮挡情况下的准确性。
附图说明
图1为本发明行人检测方法的流程图;
图2(a)为本发明示例行人图像;
图2(b )为本发明基于特征图的分层划分的示例行人图像的4×3划分;
图2(c)为本发明基于特征图的分层划分的示例行人图像的3×2划分;
图2(d)为本发明基于特征图的分层划分的示例行人图像的2×2划分。
具体实施方式
如图1所示,一种基于分层核稀疏表示的行人检测方法是对采集的交通视频进行预处理,获得需要的正负样本,通过分层的子块划分,获得多尺度的特征向量,并构建两类字典矩阵;对待测的行人图像进行预处理,得到测试样本,用字典构建过程相同的方式进行行人特征提取,形成测试样本的特征向量;采用直方图交叉核函数,对测试样本的特征向量进行核稀疏分解,并在迭代解决过程中采用高斯函数加权,再通过重建误差实现行人检测;具体地说,是按如下步骤进行:
步骤1、字典构建:
步骤1.1、从车载图像采集设备中采集交通视频,并从中获取N幅样本图像,从N幅样本图像中提取比例为x:y的行人区域和非行人区域;x表示行人区域或非行人区域的宽;y表示行人区域或非行人区域的高;且x≤y,具体实施时,比例x:y可为3:1或2:1;将行人区域和非行人区域进行大小为a×b的归一化处理,具体实施时,归一化大小a×b可为108:36或128:64,从而分别获得行人正样本和非行人负样本;
步骤1.2、分别从行人正样本和非行人负样本中选取n个行人正样本和n个行人负样本;样本的选择尽可能多的覆盖各类型外观和视角的行人目标,并分别转换为n个行人正样本的灰度图和n个行人负样本的灰度图;
对n个行人正样本的灰度图和n个行人负样本的灰度图分别进行梯度计算,获得n个行人正样本的梯度幅值和n个行人负样本的梯度幅值;具体实施中,可以使用Sobel梯度计算,样本中任一像素的梯度幅值为X方向的梯度幅值加上Y方向的梯度幅值,其中X方向和Y方向的3×3的梯度算子分别为
由n个行人正样本的梯度幅值构成n个正样本的特征图;由n个行人负样本的梯度幅值构成n个负样本的特征图;特征图主要包含样本图像的边缘轮廓信息。
步骤1.3、从n个正样本的特征图和n个负样本的特征图中选出第j个样本,1≤j≤2n;对第j个样本进行三层划分,第一层以p1×q1进行划分,第二层以p2×q2进行划分,第三层以p3×q3进行划分,从而获得p1×q1+p2×q2+p3×q3=M个子块,且 p1×q1>p2×q2>p3×q3
如图2(a)所示的一个正样本示例,对其做步骤1.2的处理后,第一层以4×3进行划分后,如图2(b)所示;第二层以3×2进行划分后,如图2(c)所示;第三层以2×2进行划分后,如图 2(d)所示;从而获得22个子块。
步骤1.4、对第j个样本的第i个子块进行CENTRIST直方图描述子的提取,获得第j个样本的第i个子的m维局部特征向量从而获得第j个样本的M个m维局部特征向量1≤i≤M;
CENTRIST(Census Transform Histogram)是针对场景分类提出的一种新型特征描述子,能很好的描述物体的轮廓,具体实现可以参考吴建军在2011年IEEE模式识别与人工智能汇刊第8期发表的引入文章。
将M个m维局部特征向量进行级联,获得第j个样本的特征向量xj;从而获得2n个样本的特征向量{x1,x2,…,xj,…,x2n};其中,特征向量{x1,x2,…,xn}为正样本的特征向量;特征向量{xn+1,xn+2,…,x2n}为负样本的特征向量;
步骤1.5、对正样本的特征向量{x1,x2,…,xn}按列排序形成正样本字典X0;对负样本的特征向量{xn+1,xn+2,…,x2n}按列排序形成负样本字典X1;由正样本字典X0和负样本字典X1构成字典X;由n个正样本或n个负样本中所有第i个子块构成的子字典记为第i个子字典 Xi
构建的正负样本的字典以矩阵的形式表示,该矩阵的列数应大于行数,若CENTRIST直方图的维数是16,则要求n≥M×16。
步骤2:行人检测:
步骤2.1、假设测试图像为I,对测试图像I进行尺度为u倍到v倍之间的G次缩放处理,获得G幅不同尺度的待检测图像{S1,S2,…,Sg,…SG},Sg表示第g幅待检测图像;1≤g≤G;u≥1;0<v<1;
具体实施中,可以对测试图像为I进行尺度为1.2倍到0.4倍之间的9次缩放处理,获得 9幅不同尺度的待检测图像,尺度缩放的原因是应对在测试图像中检测不同大小行人目标的需求。
步骤2.2、以a×b为检测窗对第g幅待检测图像Sg按照扫描步长为c的“Z”字型进行扫描获得若干个候选区域用于行人检测,记任意个候选区域为D;c∈[2,32];本实施例中,扫描步长可取8或16。
步骤2.3、对任意个候选区域D进行梯度计算,获得任意个候选区域D的梯度幅值;由任意个候选区域D的梯度幅值构成任意个候选区域D的特征图;对任意个候选区域D的特征图进行三层划分,从而获得任意个候选区域D的M个子块;对任意个候选区域D的每个子块进行CENTRIST直方图描述子的提取,从而获得M个m维局部特征向量 {y1,y2,…,ys,…,yM};ys表示第s个子块所提取的m维局部特征向量;1≤s≤M;对M个 m维局部特征向量{y1,y2,…,ys,…,yM}进行级联,获得任意个候选区域D的特征向量y;
步骤2.4、对任意个候选区域D的第s个子块利用式(1)进行加权核稀疏表示αs
式(1)中,ωs表示第s个子块的加权系数,k(·,·)表示直方图交叉核函数;Xs表示第s个子字典;λ表示正则化因子;
式(1)的最优化是一个NP难问题,没有一个确定解,只能通过算法迭代获得,这里各子块加权系数ωs的初始值为1,正则化因子λ可取0到1之间的数,本实例中其为0.3,直方图交叉核函数为:
k(u,v)=∑min(u,v)
其中,u,v泛指任意向量或矩阵。
步骤2.5、利用式(2)计算第s个子块的重建误差es
步骤2.6、利用式(3)所示的高斯加权函数计算第s个子块的加权系数ωs
式(3)中,σ表示高斯加权函数的方差;高斯加权函数在0和1之间取值,所以方差σ=0.4,若子块没有被遮挡,重建误差较小,加权系数接近于1,若子块遮挡严重时,重建误差较大,加权系数接近于0,这样处理降低了遮挡部分对检测结果的影响。
步骤2.7、定义t为迭代次数,并初始化t=1;令第t次迭代下的第s个子块的加权系数利用式(4)所示的汇聚条件获得第t次迭代下的第s个子块的加权系数和第s个子块的重建误差
式(4)中,τ为迭代终止参数;本实例中,τ=0.005。
步骤2.8、利用第t次迭代下的所有子块的加权系数与重建误差的乘积和分别计算正样本字典X0的总重建误差和负样本字典X1的总重建误差;
步骤2.9、判断正样本字典X0的总重建误差是否小于负样本字典X1的总重建误差;若小于,则任意个候选区域D为行人区域;否则,任意个候选区域D为非行人区域;从而获得检测结果区域;进而获得第g幅待检测图像Sg中所有候选区域的检测结果区域;
步骤2.10、重复步骤2.2-步骤2.9,从而获得G幅不同尺度的待检测图像 {S1,S2,…,Sg,…SG}的所有检测结果区域;
步骤2.11、利用非极大抑制算法对所有检测结果区域中的重复的检测结果区域进行合并;从而输出行人区域。因所采用的检测窗口一般大于行人目标,所以在扫描形成的候选窗口可能有多个窗口都包含目标,为了保证输出结果的唯一性,所以采用非极大抑制算法对同一目标的多次检测结果进行合并,合并的原则是当检测出行人的若干候选区域重合度大于50%时,认为这些候选区域是对同一目标的多次响应,仅保留最小重建误差的候选区域(即与目标最大相似的候选区域)作为最终输出。

Claims (1)

1.一种基于分层核稀疏表示的行人检测方法,其特征是按如下步骤进行:
步骤1、字典构建:
步骤1.1、从交通视频中获取N幅样本图像,从所述N幅样本图像中提取比例为x:y的行人区域和非行人区域;x表示所述行人区域或非行人区域的宽;y表示所述行人区域或非行人区域的高;且x≤y;将所述行人区域和非行人区域进行大小为a×b的归一化处理,分别获得行人正样本和非行人负样本;
步骤1.2、分别从所述行人正样本和非行人负样本中选取n个行人正样本和n个行人负样本;并分别转换为n个行人正样本的灰度图和n个行人负样本的灰度图;
对所述n个行人正样本的灰度图和n个行人负样本的灰度图分别进行梯度计算,获得n个行人正样本的梯度幅值和n个行人负样本的梯度幅值;
由所述n个行人正样本的梯度幅值构成n个正样本的特征图;由n个行人负样本的梯度幅值构成n个负样本的特征图;
步骤1.3、从所述n个正样本的特征图和n个负样本的特征图中选出第j个样本,1≤j≤2n;对所述第j个样本进行三层划分,第一层以p1×q1进行划分,第二层以p2×q2进行划分,第三层以p3×q3进行划分,从而获得p1×q1+p2×q2+p3×q3=M个子块,且p1×q1>p2×q2>p3×q3
步骤1.4、对所述第j个样本的第i个子块进行CENTRIST直方图描述子的提取,获得所述第j个样本的第i个子块的m维局部特征向量从而获得所述第j个样本的M个m维局部特征向量1≤i≤M;
将所述M个m维局部特征向量进行级联,获得第j个样本的特征向量xj;从而获得2n个样本的特征向量{x1,x2,…,xj,…,x2n};其中,特征向量{x1,x2,…,xn}为正样本的特征向量;特征向量{xn+1,xn+2,…,x2n}为负样本的特征向量;
步骤1.5、对所述正样本的特征向量{x1,x2,…,xn}按列排序形成正样本字典X0;对所述负样本的特征向量{xn+1,xn+2,…,x2n}按列排序形成负样本字典X1;由所述正样本字典X0和负样本字典X1构成字典X;由所述n个正样本和n个负样本中所有第i个子块构成的子字典记为第i个子字典Xi′;
步骤2:行人检测:
步骤2.1、假设测试图像为I,对所述测试图像I进行尺度为u倍到v倍之间的G次缩放处理,获得G幅不同尺度的待检测图像{S1,S2,…,Sg,…SG},Sg表示第g幅待检测图像;1≤g≤G;u≥1;0<v<1;
步骤2.2、以a×b为检测窗对所述第g幅待检测图像Sg按照扫描步长为c的“Z”字型进行扫描获得若干个候选区域,记任意个候选区域为D;c∈[2,32];
步骤2.3、对所述任意个候选区域D进行梯度计算,获得所述任意个候选区域D的梯度幅值;由所述任意个候选区域D的梯度幅值构成所述任意个候选区域D的特征图;对所述任意个候选区域D的特征图进行三层划分,从而获得所述任意个候选区域D的M个子块;对所述任意个候选区域D的每个子块进行CENTRIST直方图描述子的提取,从而获得M个m维局部特征向量{y1,y2,…,ys,…,yM};ys表示第s个子块所提取的m维局部特征向量;1≤s≤M;对所述M个m维局部特征向量{y1,y2,…,ys,…,yM}进行级联,获得所述任意个候选区域D的特征向量y;
步骤2.4、对所述任意个候选区域D的第s个子块利用式(1)进行加权核稀疏表示αs
<mrow> <munder> <mrow> <mi>m</mi> <mi>i</mi> <mi>n</mi> </mrow> <msub> <mi>&amp;alpha;</mi> <mi>s</mi> </msub> </munder> <mo>{</mo> <munderover> <mo>&amp;Sigma;</mo> <mrow> <mi>s</mi> <mo>=</mo> <mn>1</mn> </mrow> <mi>M</mi> </munderover> <msub> <mi>&amp;omega;</mi> <mi>s</mi> </msub> <mi>k</mi> <mrow> <mo>(</mo> <msub> <mi>y</mi> <mi>s</mi> </msub> <mo>,</mo> <msub> <mi>y</mi> <mi>s</mi> </msub> <mo>)</mo> </mrow> <mo>+</mo> <msubsup> <mi>&amp;alpha;</mi> <mi>s</mi> <mi>T</mi> </msubsup> <munderover> <mo>&amp;Sigma;</mo> <mrow> <mi>s</mi> <mo>=</mo> <mn>1</mn> </mrow> <mi>M</mi> </munderover> <msub> <mi>&amp;omega;</mi> <mi>s</mi> </msub> <mi>k</mi> <mrow> <mo>(</mo> <msubsup> <mi>X</mi> <mi>s</mi> <mo>&amp;prime;</mo> </msubsup> <mo>,</mo> <msubsup> <mi>X</mi> <mi>s</mi> <mo>&amp;prime;</mo> </msubsup> <mo>)</mo> </mrow> <msub> <mi>&amp;alpha;</mi> <mi>s</mi> </msub> <mo>-</mo> <mn>2</mn> <msubsup> <mi>&amp;alpha;</mi> <mi>s</mi> <mi>T</mi> </msubsup> <munderover> <mo>&amp;Sigma;</mo> <mrow> <mi>s</mi> <mo>=</mo> <mn>1</mn> </mrow> <mi>M</mi> </munderover> <msub> <mi>&amp;omega;</mi> <mi>s</mi> </msub> <mi>k</mi> <mrow> <mo>(</mo> <msubsup> <mi>X</mi> <mi>s</mi> <mo>&amp;prime;</mo> </msubsup> <mo>,</mo> <msub> <mi>y</mi> <mi>s</mi> </msub> <mo>)</mo> </mrow> <mo>+</mo> <mi>&amp;lambda;</mi> <mo>|</mo> <mo>|</mo> <msub> <mi>&amp;alpha;</mi> <mi>s</mi> </msub> <mo>|</mo> <msub> <mo>|</mo> <mn>1</mn> </msub> <mo>}</mo> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>1</mn> <mo>)</mo> </mrow> </mrow>
式(1)中,ωs表示第s个子块的加权系数,k(·,·)表示直方图交叉核函数;X′s表示第s个子字典;λ表示正则化因子;
步骤2.5、利用式(2)计算第s个子块的重建误差es
<mrow> <msub> <mi>e</mi> <mi>s</mi> </msub> <mo>=</mo> <mi>k</mi> <mrow> <mo>(</mo> <msub> <mi>y</mi> <mi>s</mi> </msub> <mo>,</mo> <msub> <mi>y</mi> <mi>s</mi> </msub> <mo>)</mo> </mrow> <mo>+</mo> <msubsup> <mi>&amp;alpha;</mi> <mi>s</mi> <mi>T</mi> </msubsup> <mi>k</mi> <mrow> <mo>(</mo> <msubsup> <mi>X</mi> <mi>s</mi> <mo>&amp;prime;</mo> </msubsup> <mo>,</mo> <msubsup> <mi>X</mi> <mi>s</mi> <mo>&amp;prime;</mo> </msubsup> <mo>)</mo> </mrow> <msub> <mi>&amp;alpha;</mi> <mi>s</mi> </msub> <mo>-</mo> <mn>2</mn> <msubsup> <mi>&amp;alpha;</mi> <mi>s</mi> <mi>T</mi> </msubsup> <mi>k</mi> <mrow> <mo>(</mo> <msubsup> <mi>X</mi> <mi>s</mi> <mo>&amp;prime;</mo> </msubsup> <mo>,</mo> <msub> <mi>y</mi> <mi>s</mi> </msub> <mo>)</mo> </mrow> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>2</mn> <mo>)</mo> </mrow> </mrow>
步骤2.6、利用式(3)所示的高斯加权函数计算第s个子块的加权系数ωs
<mrow> <msub> <mi>&amp;omega;</mi> <mi>s</mi> </msub> <mo>=</mo> <mfrac> <mn>1</mn> <msqrt> <mrow> <mn>2</mn> <msup> <mi>&amp;pi;&amp;sigma;</mi> <mn>2</mn> </msup> </mrow> </msqrt> </mfrac> <mi>exp</mi> <mrow> <mo>(</mo> <mo>-</mo> <mfrac> <mrow> <msup> <msub> <mi>e</mi> <mi>s</mi> </msub> <mn>2</mn> </msup> </mrow> <mrow> <mn>2</mn> <msup> <mi>&amp;sigma;</mi> <mn>2</mn> </msup> </mrow> </mfrac> <mo>)</mo> </mrow> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>3</mn> <mo>)</mo> </mrow> </mrow>
式(3)中,σ2表示高斯加权函数的方差;
步骤2.7、定义t为迭代次数,并初始化t=1;令初始迭代下的第s个子块的加权系数利用式(4)所示的汇聚条件获得满足式(4)时第t次迭代下的第s个子块的加权系数
<mrow> <munderover> <mo>&amp;Sigma;</mo> <mrow> <mi>s</mi> <mo>=</mo> <mn>1</mn> </mrow> <mi>M</mi> </munderover> <msup> <mrow> <mo>(</mo> <msubsup> <mi>&amp;omega;</mi> <mi>s</mi> <mrow> <mo>(</mo> <mi>t</mi> <mo>)</mo> </mrow> </msubsup> <mo>-</mo> <msubsup> <mi>&amp;omega;</mi> <mi>s</mi> <mrow> <mo>(</mo> <mi>t</mi> <mo>-</mo> <mn>1</mn> <mo>)</mo> </mrow> </msubsup> <mo>)</mo> </mrow> <mn>2</mn> </msup> <mo>/</mo> <munderover> <mo>&amp;Sigma;</mo> <mrow> <mi>s</mi> <mo>=</mo> <mn>1</mn> </mrow> <mi>M</mi> </munderover> <msup> <mrow> <mo>(</mo> <msubsup> <mi>&amp;omega;</mi> <mi>s</mi> <mrow> <mo>(</mo> <mi>t</mi> <mo>-</mo> <mn>1</mn> <mo>)</mo> </mrow> </msubsup> <mo>)</mo> </mrow> <mn>2</mn> </msup> <mo>&lt;</mo> <mi>&amp;tau;</mi> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>4</mn> <mo>)</mo> </mrow> </mrow>
式(4)中,τ为迭代终止参数;
步骤2.8、利用所述第t次迭代下的所有子块的加权系数与重建误差的乘积和分别计算所述正样本字典X0的总重建误差和负样本字典X1的总重建误差;
步骤2.9、判断所述正样本字典X0的总重建误差是否小于所述负样本字典X1的总重建误差;若小于,则所述任意个候选区域D为行人区域;否则,所述任意个候选区域D为非行人区域;从而获得判定结果;进而获得所述第g幅待检测图像Sg中所有候选区域的检测结果区域;
步骤2.10、重复步骤2.2-步骤2.9,从而获得所述G幅不同尺度的待检测图像{S1,S2,…,Sg,…SG}的所有检测结果区域;
步骤2.11、利用非极大抑制算法对所述所有检测结果区域中的重复的检测结果区域进行合并;从而输出行人区域。
CN201510076218.XA 2015-02-12 2015-02-12 一种基于分层核稀疏表示的行人检测方法 Expired - Fee Related CN104657717B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201510076218.XA CN104657717B (zh) 2015-02-12 2015-02-12 一种基于分层核稀疏表示的行人检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201510076218.XA CN104657717B (zh) 2015-02-12 2015-02-12 一种基于分层核稀疏表示的行人检测方法

Publications (2)

Publication Number Publication Date
CN104657717A CN104657717A (zh) 2015-05-27
CN104657717B true CN104657717B (zh) 2018-02-02

Family

ID=53248818

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201510076218.XA Expired - Fee Related CN104657717B (zh) 2015-02-12 2015-02-12 一种基于分层核稀疏表示的行人检测方法

Country Status (1)

Country Link
CN (1) CN104657717B (zh)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106326817B (zh) * 2015-07-03 2021-08-03 佳能株式会社 用于从图像中检测对象的方法和设备
CN105303162B (zh) * 2015-09-21 2019-06-04 华北电力大学(保定) 一种基于目标建议算法的航拍图像绝缘子识别方法
CN105654094B (zh) * 2015-11-25 2019-11-29 小米科技有限责任公司 特征提取方法及装置
CN105654092B (zh) * 2015-11-25 2019-08-30 小米科技有限责任公司 特征提取方法及装置
CN106067041B (zh) * 2016-06-03 2019-05-31 河海大学 一种改进的基于稀疏表示的多目标检测方法
CN106529437B (zh) * 2016-10-25 2020-03-03 广州酷狗计算机科技有限公司 一种人脸检测的方法和装置
CN108230292B (zh) * 2017-04-11 2021-04-02 北京市商汤科技开发有限公司 物体检测方法和神经网络的训练方法、装置及电子设备
CN108399620B (zh) * 2018-03-19 2022-04-19 嘉兴学院 一种基于低秩稀疏矩阵分解的图像质量评价方法
CN109002832B (zh) * 2018-06-11 2021-11-19 湖北大学 一种基于分层特征提取的图像识别方法
CN109141248B (zh) * 2018-07-26 2020-09-08 深源恒际科技有限公司 基于图像的猪体重测算方法及系统
CN111914688B (zh) * 2020-07-15 2022-08-30 南京邮电大学 一种适用于无人车的行人及障碍物检测算法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101667246A (zh) * 2009-09-25 2010-03-10 西安电子科技大学 基于核稀疏表示的人脸识别方法
CN102521616A (zh) * 2011-12-28 2012-06-27 江苏大学 基于稀疏表示的行人检测方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9122932B2 (en) * 2012-04-30 2015-09-01 Xerox Corporation Method and system for automatically detecting multi-object anomalies utilizing joint sparse reconstruction model

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101667246A (zh) * 2009-09-25 2010-03-10 西安电子科技大学 基于核稀疏表示的人脸识别方法
CN102521616A (zh) * 2011-12-28 2012-06-27 江苏大学 基于稀疏表示的行人检测方法

Also Published As

Publication number Publication date
CN104657717A (zh) 2015-05-27

Similar Documents

Publication Publication Date Title
CN104657717B (zh) 一种基于分层核稀疏表示的行人检测方法
Zhang et al. Deep learning–based fully automated pavement crack detection on 3D asphalt surfaces with an improved CrackNet
CN110163187B (zh) 基于f-rcnn的远距离交通标志检测识别方法
CN104392463B (zh) 一种基于联合稀疏多尺度融合的图像显著区域检测方法
CN111091105A (zh) 基于新的边框回归损失函数的遥感图像目标检测方法
CN108830188A (zh) 基于深度学习的车辆检测方法
CN103971123B (zh) 基于线性回归与Fisher判别字典学习的高光谱图像分类方法
CN110135267A (zh) 一种大场景sar图像细微目标检测方法
CN109325395A (zh) 图像的识别方法、卷积神经网络模型的训练方法及装置
CN106295601A (zh) 一种改进的安全带检测方法
CN106295124A (zh) 利用多种图像检测技术综合分析基因子图相似概率量的方法
CN110097053A (zh) 一种基于改进Faster-RCNN的电力设备外观缺陷检测方法
CN107545263A (zh) 一种物体检测方法及装置
CN110175524A (zh) 一种基于轻量级深度卷积网络的快速精确航拍车辆检测方法
He et al. Automatic recognition of traffic signs based on visual inspection
CN108776777A (zh) 一种基于Faster RCNN的遥感影像对象间空间关系的识别方法
CN112950780B (zh) 一种基于遥感影像的网络地图智能生成方法及系统
CN105405138A (zh) 基于显著性检测的水面目标跟踪方法
CN102024149B (zh) 物体检测的方法及层次型物体检测器中分类器的训练方法
CN109034213B (zh) 基于相关熵原则的高光谱图像分类方法和系统
CN102945374A (zh) 一种高分辨率遥感图像中民航飞机自动检测方法
CN103425995A (zh) 基于区域相似性低秩表示降维的高光谱图像分类方法
Shangzheng A traffic sign image recognition and classification approach based on convolutional neural network
CN109214331A (zh) 一种基于图像频谱的交通雾霾能见度检测方法
CN112633086B (zh) 基于多任务EfficientDet的近红外行人监测方法、系统、介质、设备

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20180202

Termination date: 20220212