CN108182381B - 基于快速Adaboost训练算法的自动扶梯乘客检测方法 - Google Patents

基于快速Adaboost训练算法的自动扶梯乘客检测方法 Download PDF

Info

Publication number
CN108182381B
CN108182381B CN201711267192.2A CN201711267192A CN108182381B CN 108182381 B CN108182381 B CN 108182381B CN 201711267192 A CN201711267192 A CN 201711267192A CN 108182381 B CN108182381 B CN 108182381B
Authority
CN
China
Prior art keywords
image
sample
gradient
algorithm
classifier
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201711267192.2A
Other languages
English (en)
Other versions
CN108182381A (zh
Inventor
田联房
余陆斌
杜启亮
朱斌
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
South China University of Technology SCUT
Original Assignee
South China University of Technology SCUT
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by South China University of Technology SCUT filed Critical South China University of Technology SCUT
Priority to CN201711267192.2A priority Critical patent/CN108182381B/zh
Publication of CN108182381A publication Critical patent/CN108182381A/zh
Application granted granted Critical
Publication of CN108182381B publication Critical patent/CN108182381B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • G06V20/53Recognition of crowd images, e.g. recognition of crowd congestion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2411Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • G06V10/462Salient features, e.g. scale invariant feature transforms [SIFT]

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • Multimedia (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于快速Adaboost训练算法的自动扶梯乘客检测方法,包括步骤:1)视频图像采集;2)生成正样本和负样本;3)提取正、负样本中的HOG特征;4)利用快速Adaboost算法训练分类器;5)利用得到的分类器进行乘客检测;6)利用camshift算法跟踪人体。通过本发明方法可以有效提高Adaboost分类器的训练速度,大大减少了在需要使用多分类器和需要多次训练分类器场合下的时间开销。

Description

基于快速Adaboost训练算法的自动扶梯乘客检测方法
技术领域
本发明涉及图像模式识别、机器学习及电梯生产的技术领域,尤其是指一种基于快速Adaboost训练算法的自动扶梯乘客检测方法。
背景技术
随着经济的增长,自动扶梯的使用已经越来越频繁,而随之而来的自动扶梯上的安全事故也越来越多。自动扶梯上安全事故的发生大多是因为当自动扶梯上乘客的状态或者行为出现异常情况时,自动扶梯不能及时地反应与应对,而是机械地维持同一种工作模式,从而造成异常情况的放大及恶化。而在每个自动扶梯旁都设置应急工作人员监控自动扶梯及乘客的状态是不可能的。因此,需要利用视频监控系统对自动扶梯上的乘客进行检测并跟踪。现有的主流视觉检测算法以利用机器学习算法为主,虽然具有较高的准确性,但存在分类器训练过慢的问题。
在利用Adaboost算法进行扶梯上乘客检测时,分类器的训练时间就成了算法开发中主要的时间开销。当训练样本和特征较多时,Adaboost的训练时间会变得很长,若需要多次训练,时间开销将会变得难以接受。大小为64*128的图片,HOG特征总共有3780个特征,当正样本个数达到2000个左右时,在CPU主频为1GHz的PC上的训练时间为3到4天。若需要针对不同使用场景训练分类器时,这几乎是不可实现的。因此,通过对训练样本的采样达到减少分类器训练时间是有必要的。
发明内容
本发明的目的在于克服现有技术的不足,提出了一种基于快速Adaboost训练算法的自动扶梯乘客检测方法,可以快速训练Adaboost分类器进行自动扶梯的乘客检测。
为实现上述目的,本发明所提供的技术方案为:基于快速Adaboost训练算法的自动扶梯乘客检测方法,通过采集视频样本,提取HOG特征,快速训练得到分类器,利用分类器进行自动扶梯上乘客检测;其包括以下步骤:
1)视频图像采集;
2)生成正样本和负样本;
3)提取正、负样本中的HOG特征;
4)利用快速Adaboost算法训练分类器;
5)利用得到的分类器进行乘客检测;
6)利用camshift算法跟踪人体。
在步骤1)中,采用摄像头进行图像采集,摄像头安装在自动扶梯运动方向的斜上方,其视角要求覆盖整个自动扶梯载客区,并且保证自动扶梯上的乘客于视频中间。
在步骤2)中,获得原始视频后截取正、负样本,包括以下步骤:
2.1)获取正样本
将采集到的视频逐帧保存成图像序列,得到原始图像的总数为Norigin;在得到的图片中逐帧截取包含完整人体的矩形图像,得到正样本图像的总数为Npos;将所有的矩形图像归一化为长为a像素,高为b像素的标准矩形图像;给所有正样本图像编号,并附上与编号对应的样本标签即完成了正样本的生成;
2.2)获取负样本
将采集到的视频逐帧保存成图像序列,剔除其中包含的人体图像;根据长与高比例为a:b在剩下的图像中截取样本图像,得到负样本图像的总数为Nneg;给所有负样本图像编号,并附上与编号对应的样本标签即完成了负样本的生成。
在步骤3)中,提取正、负样本中HOG特征,包括以下步骤:
3.1)灰度化
根据重要性及其它指标,将三个分量以不同的权值进行加权平均;由于人眼对绿色的敏感最高,对蓝色敏感最低;因此,按下式对RGB三分量进行加权平均能得到较合理的灰度图像:
I(x,y)=0.30R(x,y)+0.59G(x,y)+0.11B(x,y)
其中x,y为图像中某像素点的横坐标和纵坐标;I(x,y)为图像中点(x,y)的灰度值;R(x,y)为图像中点(x,y)的红色分量亮度;G(x,y)为图像中点(x,y)的绿色分量亮度;B(x,y)为图像中点(x,y)的蓝色分量亮度;
依次计算图像中所有像素点的灰度值即完成了图像的灰度化;
3.2)Gamma校正
为了抑制图像中的光照变化;对图像进行Gamma压缩,Gamma压缩公式为:
I(x,y)=I(x,y)Gamma
其中Gamma为固定常数;
3.3)计算图像每个像素的梯度
为了捕获轮廓,人影和一些纹理信息,进一步弱化光照的影响,需要计算图像横坐标和纵坐标方向的梯度,并据此计算每个像素位置的梯度方向值;设水平边缘算子为[-1 01],垂直边缘算子为[-1 0 1]T,则像素I(x,y)的方向梯度为:
Gx(x,y)=-I(x-1,y)+I(x+1,y)
Gy(x,y)=-I(x,y-1)+I(x,y+1)
其中Gx(x,y)为水平方向梯度,Gy(x,y)为垂直方向梯度,则像素I(x,y)的梯度为:
Figure GDA0002530862810000041
Figure GDA0002530862810000042
其中G(x,y)为梯度的幅值,α(x,y)为梯度的方向。
3.4)图像分割
为了方便之后的操作,首先将图像分割成多个胞元(cell);其中胞元为c×c的图像小块作为处理的基本单元;c为图像小块边长,单位为像素;
3.5)构建梯度方向直方图
为了统计局部图像梯度信息并进行量化,得到局部图像区域的特征描述向量;同时能够保持对图像中人体对象的姿势和外观的弱敏感性;需要为每个胞元构建梯度方向直方图;
采用Nbin个方向的直方图统计一个胞元的梯度信息,相当于将胞元的梯度方向由360°分为Nbin个方向块。以梯度幅值作为权值对各个方向块进行投票,得到该胞元的方向直方图,横坐标为将360°分为Nbin个部分的角度区间,纵坐标像素梯度为落入该区间的个数;此时每一个胞元对应一个Nbin维的特征向量;
3.6)梯度强度归一化
为了减少局部光照的变化以及前景背景对比度的影响,减小梯度强度的变化范围,需要对梯度强度做归一化;
把n个胞元组合成更大的、空间上连通的块(block);一个块内所有胞元的特征向量串联起来即该块的HOG特征向量;每一个胞元的特征会以不同的结果多次出现在最后的特征向量中;归一化之后的特征向量(块描述符)就称之为HOG特征(HOG描述符);
归一化函数为下式:
Figure GDA0002530862810000051
其中ν为一个块的HOG特征向量,||ν||2为ν的2范数,ε为一个小于0.01的正数,避免分母为0;
3.7)HOG特征提取
训练样本长为l,高为h;特征扫描窗的大小为块的大小(n个c×c的图像小块),移动的步长为胞元的边长c;扫描窗从图像的顶点开始,进行扫描提取,每提取一次之后,向水平方向移动一个步长,重复提取过程,当扫描窗触碰到图像边界后,向垂直方向移动一个步长,继续重复提取过程,当扫描窗提取完整幅样本图像中的块特征后,将所有块特征串联起来,得到一个(l/c-1)×(h/c-1)×n×Nbin维的特征向量即为该样本的HOG特征向量。
在步骤4)中,利用样本的HOG特征向量,调用快速Adaboost算法训练生成分类器,包括以下步骤:
4.1)前期准备
提取所有样本图像(包括正样本和负样本)的HOG特征,保存成(xi,yi)的形式;其中i为样本的序号,xi为第i号样本的HOG特征向量,yi为第i号样本的样本标签,当该样本为正样本时yi为1,当该样本为负样本时yi为-1;
4.2)初始化样本权值
输入训练集D={(x1,y1),(x2,y2),...,(xm,ym)},其中m=Npos+Nneg为样本总数;将训练集所有样本的权重初始化为
Figure GDA0002530862810000052
即:
Figure GDA0002530862810000053
其中d1(i)为第1轮迭代时第i号样本的初始权值;
4.3)训练弱分类器
令迭代次数n=1,2,…,N开始迭代训练分类器;
4.3.1)利用当前的样本分布Dn和训练集样本个数m,计算裁剪阈值T(maxn),抽取权重大于T(maxn)的样本,形成裁剪集合
Figure GDA0002530862810000061
基于裁剪集合
Figure GDA0002530862810000062
调用弱学习算法生成本轮迭代的弱分类器hn
T(maxn)的计算规则如下
T(maxn)=K*(max(dn)/m)
其中max(dn)为第n轮迭代中所有样本权值的最大值;K为固定倍数;
4.3.2)计算分类器hn在第n轮原始分布Dn下的错误率:
Figure GDA0002530862810000063
如果εn≥0.5且
Figure GDA0002530862810000064
则令N=n-1,同时停止迭代;
如果εn≥0.5且
Figure GDA0002530862810000065
则令T(maxn)=0,转至步骤4.3.1);
其中dn(i)为第n轮迭代中第i号样本的权值;其中D是原始样本集;
4.3.3)计算分类器hn在最终分类器集合中的加权系数:
Figure GDA0002530862810000066
4.3.4)更新样本分布:
Figure GDA0002530862810000067
其中Zn为规范化因子,更新训练集权重分布用于下一轮迭代;
4.4)弱分类器级联为强分类器
强分类器为弱分类器的线性组合,误差率越小的弱分类器在强分类器中的权重越大:
Figure GDA0002530862810000071
其中sign(·)为符号函数,在·<0,=0,>0时分别取值-1,0,1。
在步骤5)中,利用得到的分类器进行乘客检测,包括以下步骤:
5.1)利用滑动窗算法对待检测图像进行HOG特征提取,首先设定一个大小为WS×WS的初始滑动窗,以Step为步长历遍图像,每一次滑动时提取滑动窗的HOG特征,完成第一轮历遍;然后以φ为增长率扩大滑动窗的大小,重复图像历遍与特征提取过程;当滑动窗扩大至WE×WE时停止历遍,结束对图像的HOG特征提取;
5.2)将得到的每个HOG特征输入到分类器中,若判定结果为正,则记录此时滑动窗的位置和大小信息。
在步骤6)中,利用camshift算法跟踪人体,包括以下步骤:
6.1)色彩投影图
6.1.1)RGB颜色空间对光照亮度变化较为敏感,为了减少此变化对跟踪效果的影响,首先将图像从RGB空间转换到HSV空间;
6.1.2)然后对其中的H分量作直方图,在直方图中代表了不同H分量值出现的概率或者像素个数;
6.1.3)将图像中每个像素的值用其颜色出现的概率对替换,就得到了颜色概率分布图;这个过程就叫反向投影,颜色概率分布图是一个灰度图像;
6.2)meanshift算法
meanshift算法是一种密度函数梯度估计的非参数方法,通过迭代寻优找到概率分布的极值来定位目标,算法过程为:
6.2.1)在颜色概率分布图中选取搜索窗W
6.2.2)计算零阶距:
Figure GDA0002530862810000081
计算一阶距:
Figure GDA0002530862810000082
计算搜索窗的质心:xc=M10/M00,yc=M01/M00
其中(x,y)为图像中像素点的坐标,I(x,y)为像素点的灰度值,(xc,yc)为搜索窗的质心坐标;
6.2.3)调整搜索窗大小:宽度为s,长度为l;
其中,自适应窗口调整原理如下:
为了保证图像的大小,为了跟踪窗口尽可能的小,以便在跟踪的时候让窗口尽可能地不让无关物体进入,因此采用像素最大值来代替平均灰度值;同时为了防止因跟踪窗口的尺寸太小而导致算法收敛到局部最大值,将窗口宽度设置为s,由于人体的形状外轮廓比例的长度大于宽度,因此长度l设置为宽度固定倍数,即l=αs;
6.2.4)移动搜索窗的中心到质心,如果移动距离大于预设的固定阈值,则重复6.2.2)、6.2.3)、6.2.4),直到搜索窗的中心与质心间的移动距离小于预设的固定阈值,或者循环运算的次数达到某一最大值,停止计算;
6.3)camshift算法
将meanshift算法扩展到连续图像序列,就是camshift算法;它将视频的所有帧做meanshift运算,并将上一帧的结果,即搜索窗的大小和中心,作为下一帧meanshift算法搜索窗的初始值;如此迭代下去,就可以实现对目标的跟踪。算法过程为:
6.3.1)初始化搜索窗
6.3.2)计算搜索窗的颜色概率分布(反向投影)
6.3.3)运行meanshift算法,获得搜索窗新的大小和位置
6.3.4)在下一帧视频图像中用6.3.3)中的值重新初始化搜索窗的大小和位置,再跳转到6.3.2)继续进行。
本发明与现有技术相比,具有如下优点与有益效果:
原有的Adaboost算法在训练分类器时耗费时间过多,经常出现需要花几天时间训练的情况,通过本发明方法可以大大缩短训练分类器时间,减少实际使用时算法的调试时间,使需要多次训练分类器的实例变得可能。
附图说明
图1为本发明方法流程图。
图2为摄像头的安装位置示意图。
图3为视频监控原始图像。
图4a为正样本图像(未归一化)。
图4b为负样本图像(未归一化)。
图5为跟踪效果图。
具体实施方式
下面结合具体实施例对本发明作进一步说明。
如图1所示,本实施例所提供的基于快速Adaboost训练算法的自动扶梯乘客检测方法,主要是通过采集视频样本,提取HOG特征,快速训练得到分类器,利用分类器进行自动扶梯上乘客检测。在本算法中,感兴趣区域为自动扶梯的载客区,因此,摄像头安装在自动扶梯运动方向的斜上方,其具体情况如下:
1)采用摄像头进行图像采集,摄像头安装在手扶电梯运动方向的斜上方,其视角要求覆盖整个自动扶梯载客区,并且保证自动扶梯上的乘客于视频中间,参见图2。采用的摄像头具体为PAL制式的标清摄像头,其像素为640*480,每秒钟采集30帧图像数据,摄像头拍摄到的图像参见图3。
2)获得原始视频后截取正、负样本,包括以下步骤:
2.1)获取正样本
将采集到的视频逐帧保存成图像序列,得到原始图像的总数为Norigin;在得到的图片中逐帧截取包含完整人体的矩形图像,得到正样本图像的总数为Npos;将所有的矩形图像归一化为长为a像素,高为b像素的标准矩形图像;给所有正样本图像编号,并附上与编号对应的样本标签即完成了正样本的生成,未归一化的正样本图像参见图4a;
本实施例中,原始图像的总数Norigin为4000,正样本图像的总数Npos为2000,正样本图像的长为64像素,高为128像素。
2.2)获取负样本
将采集到的视频逐帧保存成图像序列,剔除其中包含的人体图像;根据长与高比例为a:b在剩下的图像中截取样本图像,得到负样本图像的总数为Nneg;给所有负样本图像编号,并附上与编号对应的样本标签即完成了负样本的生成。
本实施例中,负样本图像的总数Nneg为2000,负样本图像的长为64像素,高为128像素,未归一化的负样本图像参见图4b。
3)提取正、负样本中的HOG特征,包括以下步骤:
3.1)灰度化
根据重要性及其它指标,将三个分量以不同的权值进行加权平均;由于人眼对绿色的敏感最高,对蓝色敏感最低;因此,按下式对RGB三分量进行加权平均能得到较合理的灰度图像:
I(x,y)=0.30R(x,y)+0.59G(x,y)+0.11B(x,y)
其中x,y为图像中某像素点的横坐标和纵坐标;I(x,y)为图像中点(x,y)的灰度值;R(x,y)为图像中点(x,y)的红色分量亮度;G(x,y)为图像中点(x,y)的绿色分量亮度;B(x,y)为图像中点(x,y)的蓝色分量亮度;
依次计算图像中所有像素点的灰度值即完成了图像的灰度化;
3.2)Gamma校正
为了抑制图像中的光照变化;对图像进行Gamma压缩,Gamma压缩公式为:
I(x,y)=I(x,y)Gamma
其中Gamma为固定常数;
本实施例中,Gamma选为2000能取得较好的压缩效果。
3.3)计算图像每个像素的梯度
为了捕获轮廓,人影和一些纹理信息,进一步弱化光照的影响,需要计算图像横坐标和纵坐标方向的梯度,并据此计算每个像素位置的梯度方向值;设水平边缘算子为[-1 01],垂直边缘算子为[-1 0 1]T,则像素I(x,y)的方向梯度为:
Gx(x,y)=-I(x-1,y)+I(x+1,y)
Gy(x,y)=-I(x,y-1)+I(x,y+1)
其中Gx(x,y)为水平方向梯度,Gy(x,y)为垂直方向梯度,则像素I(x,y)的梯度为:
Figure GDA0002530862810000111
Figure GDA0002530862810000112
其中G(x,y)为梯度的幅值,α(x,y)为梯度的方向。
3.4)图像分割
为了方便之后的操作,首先将图像分割成多个胞元(cell);其中胞元为c×c的图像小块作为处理的基本单元;c为图像小块边长,单位为像素;
本实施例中,胞元大小选为8×8。
3.5)构建梯度方向直方图
为了统计局部图像梯度信息并进行量化,得到局部图像区域的特征描述向量;同时能够保持对图像中人体对象的姿势和外观的弱敏感性;需要为每个胞元构建梯度方向直方图;
采用Nbin个方向的直方图统计一个胞元的梯度信息,相当于将胞元的梯度方向由360°分为Nbin个方向块。以梯度幅值作为权值对各个方向块进行投票,得到该胞元的方向直方图,横坐标为将360°分为Nbin个部分的角度区间,纵坐标像素梯度为落入该区间的个数;此时每一个胞元对应一个Nbin维的特征向量;
本实施例中,角度区间个数Nbin选为9。
3.6)梯度强度归一化
为了减少局部光照的变化以及前景背景对比度的影响,减小梯度强度的变化范围,需要对梯度强度做归一化;
把n个胞元组合成更大的、空间上连通的块(block);一个块内所有胞元的特征向量串联起来即该块的HOG特征向量;每一个胞元的特征会以不同的结果多次出现在最后的特征向量中;归一化之后的特征向量(块描述符)就称之为HOG特征(HOG描述符);
归一化函数为下式:
Figure GDA0002530862810000121
其中ν为一个块的HOG特征向量,||ν||2为ν的2范数,ε为一个小于0.01的正数,避免分母为0;
本实施例中,构成块的胞元个数n选为4,ε选为10-5
3.7)HOG特征提取
训练样本长为l,高为h;特征扫描窗的大小为块的大小(n个c×c的图像小块),移动的步长为胞元的边长c;扫描窗从图像的顶点开始,进行扫描提取,每提取一次之后,向水平方向移动一个步长,重复提取过程,当扫描窗触碰到图像边界后,向垂直方向移动一个步长,继续重复提取过程,当扫描窗提取完整幅样本图像中的块特征后,将所有块特征串联起来,得到一个(l/c-1)×(h/c-1)×n×Nbin维的特征向量即为该样本的HOG特征向量。
本实施例中,训练样本长选为64,高选为128,特征扫描窗的大小为16×16,移动的步长,HOG特征向量维数为3780。
4)利用样本的HOG特征向量,调用快速Adaboost算法训练生成分类器,具体步骤如下:
4.1)前期准备
提取所有样本图像(包括正样本和负样本)的HOG特征,保存成(xi,yi)的形式;其中i为样本的序号,xi为第i号样本的HOG特征向量,yi为第i号样本的样本标签,当该样本为正样本时yi为1,当该样本为负样本时yi为-1;
4.2)初始化样本权值
输入训练集D={(x1,y1),(x2,y2),...,(xm,ym)},其中m=Npos+Nneg为样本总数;将训练集所有样本的权重初始化为
Figure GDA0002530862810000131
即:
Figure GDA0002530862810000132
其中d1(i)为第1轮迭代时第i号样本的初始权值;
本实施例中,初始样本权值为
Figure GDA0002530862810000133
4.3)训练弱分类器
令迭代次数n=1,2,…,N开始迭代训练分类器;
4.3.1)利用当前的样本分布Dn和训练集样本个数m,计算裁剪阈值T(maxn),抽取权重大于T(maxn)的样本,形成裁剪集合
Figure GDA0002530862810000141
基于裁剪集合
Figure GDA0002530862810000142
调用弱学习算法生成本轮迭代的弱分类器hn
T(maxn)的计算规则如下
T(maxn)=K*(max(dn)/m)
其中max(dn)为第n轮迭代中所有样本权值的最大值;K为固定倍数;
本实施例中,总迭代次数为N=200,固定倍数K=10。
4.3.2)计算分类器hn在第n轮原始分布Dn下的错误率:
Figure GDA0002530862810000143
如果εn≥0.5且
Figure GDA0002530862810000144
则令N=n-1,同时停止迭代;
如果εn≥0.5且
Figure GDA0002530862810000145
则令T(maxn)=0,转至步骤4.3.1);
其中dn(i)为第n轮迭代中第i号样本的权值;其中D是原始样本集;
4.3.3)计算分类器hn在最终分类器集合中的加权系数:
Figure GDA0002530862810000146
4.3.4)更新样本分布:
Figure GDA0002530862810000147
其中Zn为规范化因子,更新训练集权重分布用于下一轮迭代;
4.4)弱分类器级联为强分类器
强分类器为弱分类器的线性组合,误差率越小的弱分类器在强分类器中的权重越大:
Figure GDA0002530862810000151
其中sign(·)为符号函数,在·<0,=0,>0时分别取值-1,0,1。
5)利用得到的分类器进行乘客检测,包括以下步骤:
5.1)利用滑动窗算法对待检测图像进行HOG特征提取,首先设定一个大小为WS×WS的初始滑动窗,以Step为步长历遍图像,每一次滑动时提取滑动窗的HOG特征,完成第一轮历遍;然后以φ为增长率扩大滑动窗的大小,重复图像历遍与特征提取过程;当滑动窗扩大至WE×WE时停止历遍,结束对图像的HOG特征提取;
本实施例中,初始滑动窗大小为40×40,步长Step=5,增长率φ=1.1,结束滑动窗大小为190×190。
5.2)将得到的每个HOG特征输入到分类器中,若判定结果为正,则记录此时滑动窗的位置和大小信息。
6)利用camshift算法跟踪人体,包括以下步骤:
6.1)色彩投影图
6.1.1)RGB颜色空间对光照亮度变化较为敏感,为了减少此变化对跟踪效果的影响,首先将图像从RGB空间转换到HSV空间;
6.1.2)然后对其中的H分量作直方图,在直方图中代表了不同H分量值出现的概率或者像素个数;
6.1.3)将图像中每个像素的值用其颜色出现的概率对替换,就得到了颜色概率分布图;这个过程就叫反向投影,颜色概率分布图是一个灰度图像;
6.2)meanshift算法
meanshift算法是一种密度函数梯度估计的非参数方法,通过迭代寻优找到概率分布的极值来定位目标,算法过程为:
6.2.1)在颜色概率分布图中选取搜索窗W
6.2.2)计算零阶距:
Figure GDA0002530862810000161
计算一阶距:
Figure GDA0002530862810000162
计算搜索窗的质心:xc=M10/M00;yc=M01/M00
其中(x,y)为图像中像素点的坐标,I(x,y)为像素点的灰度值,(xc,yc)为搜索窗的质心坐标;
6.2.3)调整搜索窗大小:宽度为s,长度为l;
其中,自适应窗口调整原理如下:
为了保证图像的大小,为了跟踪窗口尽可能的小,以便在跟踪的时候让窗口尽可能地不让无关物体进入,因此采用像素最大值来代替平均灰度值;同时为了防止因跟踪窗口的尺寸太小而导致算法收敛到局部最大值,将窗口宽度设置为s,由于人体的形状外轮廓比例的长度大于宽度,因此长度l设置为宽度固定倍数,即l=αs;
本实施例中,宽度选为
Figure GDA0002530862810000163
α选为1.6,即l=1.6s能取得较好的跟踪效果。
6.2.4)移动搜索窗的中心到质心,如果移动距离大于预设的固定阈值,则重复2)3)4),直到搜索窗的中心与质心间的移动距离小于预设的固定阈值,或者循环运算的次数达到某一最大值,停止计算;
6.3)camshift算法
将meanshift算法扩展到连续图像序列,就是camshift算法;它将视频的所有帧做meanshift运算,并将上一帧的结果,即搜索窗的大小和中心,作为下一帧meanshift算法搜索窗的初始值;如此迭代下去,就可以实现对目标的跟踪。算法过程为:
6.3.1)初始化搜索窗;
6.3.2)计算搜索窗的颜色概率分布(反向投影);
6.3.3)运行meanshift算法,获得搜索窗新的大小和位置;
6.3.4)在下一帧视频图像中用6.3.3)中的值重新初始化搜索窗的大小和位置,再跳转到6.3.2)继续进行。
跟踪效果参见图5所示。
以上所述实施例只为本发明之较佳实施例,并非以此限制本发明的实施范围,故凡依本发明之形状、原理所作的变化,均应涵盖在本发明的保护范围内。

Claims (6)

1.基于快速Adaboost训练算法的自动扶梯乘客检测方法,该方法主要是通过采集视频样本,提取HOG特征,快速训练得到分类器,利用分类器进行自动扶梯上乘客检测,其包括以下步骤:
1)视频图像采集;
2)生成正样本和负样本;
3)提取正、负样本中的HOG特征;
4)利用样本的HOG特征向量,调用快速Adaboost算法训练生成分类器,包括以下步骤:
4.1)前期准备
提取所有样本图像的HOG特征,包括正样本和负样本,保存成(xi,yi)的形式,其中i为样本的序号,xi为第i号样本的HOG特征向量,yi为第i号样本的样本标签,当该样本为正样本时yi为1,当该样本为负样本时yi为-1;
4.2)初始化样本权值
输入训练集D={(x1,y1),(x2,y2),...,(xm,ym)},其中m=Npos+Nneg为样本总数;将训练集所有样本的权重初始化为
Figure FDA0002530862800000011
即:
Figure FDA0002530862800000012
其中,d1(i)为第1轮迭代时第i号样本的初始权值;
4.3)训练弱分类器
令迭代次数n=1,2,…,N开始迭代训练分类器;
4.3.1)利用当前的样本分布Dn和训练集样本个数m,计算裁剪阈值T(maxn),抽取权重大于T(maxn)的样本,形成裁剪集合
Figure FDA0002530862800000013
基于裁剪集合
Figure FDA0002530862800000014
调用弱学习算法生成本轮迭代的弱分类器hn
T(maxn)的计算规则如下
T(maxn)=K*(max(dn)/m)
其中,max(dn)为第n轮迭代中所有样本权值的最大值,K为固定倍数;
4.3.2)计算分类器hn在第n轮原始分布Dn下的错误率:
Figure FDA0002530862800000021
如果εn≥0.5且
Figure FDA0002530862800000025
则令N=n-1,同时停止迭代;
如果εn≥0.5且
Figure FDA0002530862800000026
则令T(maxn)=0,转至步骤4.3.1);
其中,dn(i)为第n轮迭代中第i号样本的权值;其中D是原始样本集;
4.3.3)计算分类器hn在最终分类器集合中的加权系数:
Figure FDA0002530862800000022
4.3.4)更新样本分布:
Figure FDA0002530862800000023
其中,Zn为规范化因子,更新训练集权重分布用于下一轮迭代;
4.4)弱分类器级联为强分类器
强分类器为弱分类器的线性组合,误差率越小的弱分类器在强分类器中的权重越大:
Figure FDA0002530862800000024
其中,sign(·)为符号函数,在·<0,=0,>0时分别取值-1,0,1;
5)利用得到的分类器进行乘客检测;
6)利用camshift算法跟踪人体。
2.根据权利要求1所述的基于快速Adaboost训练算法的自动扶梯乘客检测方法,其特征在于:在步骤1)中,采用摄像头进行图像采集,摄像头安装在手扶电梯运动方向的斜上方,其视角要求覆盖整个自动扶梯载客区,并且保证自动扶梯上的乘客于视频中间。
3.根据权利要求1所述的基于快速Adaboost训练算法的自动扶梯乘客检测方法,其特征在于,在步骤2)中,获得原始视频后截取正、负样本,包括以下步骤:
2.1)获取正样本
将采集到的视频逐帧保存成图像序列,得到原始图像的总数为Norigin;在得到的图片中逐帧截取包含完整人体的矩形图像,得到正样本图像的总数为Npos;将所有的矩形图像归一化为长为a像素,高为b像素的标准矩形图像;给所有正样本图像编号,并附上与编号对应的样本标签即完成了正样本的生成;
2.2)获取负样本
将采集到的视频逐帧保存成图像序列,剔除其中包含的人体图像;根据长与高比例为a:b在剩下的图像中截取样本图像,得到负样本图像的总数为Nneg;给所有负样本图像编号,并附上与编号对应的样本标签即完成了负样本的生成。
4.根据权利要求1所述的基于快速Adaboost训练算法的自动扶梯乘客检测方法,其特征在于,在步骤3)中,提取正、负样本中的HOG特征,包括以下步骤:
3.1)灰度化
由于人眼对绿色的敏感最高,对蓝色敏感最低;因此,按下式对RGB三分量进行加权平均能得到合理的灰度图像:
I(x,y)=0.30R(x,y)+0.59G(x,y)+0.11B(x,y)
其中,x,y为图像中某像素点的横坐标和纵坐标;I(x,y)为图像中点(x,y)的灰度值;R(x,y)为图像中点(x,y)的红色分量亮度;G(x,y)为图像中点(x,y)的绿色分量亮度;B(x,y)为图像中点(x,y)的蓝色分量亮度;
依次计算图像中所有像素点的灰度值即完成了图像的灰度化;
3.2)Gamma校正
为了抑制图像中的光照变化;对图像进行Gamma压缩,Gamma压缩公式为:
I(x,y)=I(x,y)Gamma
其中,Gamma为固定常数;
3.3)计算图像每个像素的梯度
为了捕获轮廓,人影和一些纹理信息,进一步弱化光照的影响,需要计算图像横坐标和纵坐标方向的梯度,并据此计算每个像素位置的梯度方向值;设水平边缘算子为[-1 0 1],垂直边缘算子为[-1 0 1]T,则像素I(x,y)的方向梯度为:
Gx(x,y)=-I(x-1,y)+I(x+1,y)
Gy(x,y)=-I(x,y-1)+I(x,y+1)
其中,Gx(x,y)为水平方向梯度,Gy(x,y)为垂直方向梯度,则像素I(x,y)的梯度为:
Figure FDA0002530862800000041
Figure FDA0002530862800000042
其中,G(x,y)为梯度的幅值,α(x,y)为梯度的方向;
3.4)图像分割
将图像分割成多个胞元,其中胞元为c×c的图像小块作为处理的基本单元,c为图像小块边长,单位为像素;
3.5)构建梯度方向直方图
为了统计局部图像梯度信息并进行量化,得到局部图像区域的特征描述向量,同时能够保持对图像中人体对象的姿势和外观的弱敏感性,需要为每个胞元构建梯度方向直方图;
采用Nbin个方向的直方图统计一个胞元的梯度信息,相当于将胞元的梯度方向由360°分为Nbin个方向块,以梯度幅值作为权值对各个方向块进行投票,得到该胞元的方向直方图,横坐标为将360°分为Nbin个部分的角度区间,纵坐标像素梯度为落入该区间的个数;此时每一个胞元对应一个Nbin维的特征向量;
3.6)梯度强度归一化
为了减少局部光照的变化以及前景背景对比度的影响,减小梯度强度的变化范围,需要对梯度强度做归一化;
把n个胞元组合成更大的、空间上连通的块,一个块内所有胞元的特征向量串联起来即该块的HOG特征向量;每一个胞元的特征会以不同的结果多次出现在最后的特征向量中;归一化之后的特征向量即块描述符就称之为HOG特征即HOG描述符;
归一化函数为下式:
Figure FDA0002530862800000051
其中,ν为一个块的HOG特征向量,||v||2为ν的2范数,ε为一个小于0.01的正数,避免分母为0;
3.7)HOG特征提取
训练样本长为l,高为h;特征扫描窗的大小为块的大小,即n个c×c的图像小块,移动的步长为胞元的边长c;扫描窗从图像的顶点开始,进行扫描提取,每提取一次之后,向水平方向移动一个步长,重复提取过程,当扫描窗触碰到图像边界后,向垂直方向移动一个步长,继续重复提取过程,当扫描窗提取完整幅样本图像中的块特征后,将所有块特征串联起来,得到一个(l/c-1)×(h/c-1)×n×Nbin维的特征向量即为该样本的HOG特征向量。
5.根据权利要求1所述的基于快速Adaboost训练算法的自动扶梯乘客检测方法,其特征在于,在步骤5)中,利用得到的分类器进行乘客检测,包括以下步骤:
5.1)利用滑动窗算法对待检测图像进行HOG特征提取,首先设定一个大小为WS×WS的初始滑动窗,以Step为步长历遍图像,每一次滑动时提取滑动窗的HOG特征,完成第一轮历遍;然后以φ为增长率扩大滑动窗的大小,重复图像历遍与特征提取过程;当滑动窗扩大至WE×WE时停止历遍,结束对图像的HOG特征提取;
5.2)将得到的每个HOG特征输入到分类器中,若判定结果为正,则记录此时滑动窗的位置和大小信息。
6.根据权利要求1所述的基于快速Adaboost训练算法的自动扶梯乘客检测方法,其特征在于:在步骤6)中,利用camshift算法跟踪人体,包括以下步骤:
6.1)色彩投影图
6.1.1)RGB颜色空间对光照亮度变化敏感,为了减少此变化对跟踪效果的影响,首先将图像从RGB空间转换到HSV空间;
6.1.2)然后对其中的H分量作直方图,在直方图中代表了不同H分量值出现的概率或者像素个数;
6.1.3)将图像中每个像素的值用其颜色出现的概率对替换,就得到颜色概率分布图;这个过程就叫反向投影,颜色概率分布图是一个灰度图像;
6.2)meanshift算法
meanshift算法是一种密度函数梯度估计的非参数方法,通过迭代寻优找到概率分布的极值来定位目标,算法过程为:
6.2.1)在颜色概率分布图中选取搜索窗W
6.2.2)计算零阶距:
Figure FDA0002530862800000071
计算一阶距:
Figure FDA0002530862800000072
计算搜索窗的质心:xc=M10/M00,yc=M01/M00
其中,(x,y)为图像中像素点的坐标,I(x,y)为像素点的灰度值,(xc,yc)为搜索窗的质心坐标;
6.2.3)调整搜索窗大小:宽度为s,长度为l;
其中,自适应窗口调整原理如下:
为了保证图像的大小,缩小跟踪窗口,以便在跟踪的时候减少无关物体进入窗口,因此采用像素最大值来代替平均灰度值;同时为了防止因跟踪窗口的尺寸太小而导致算法收敛到局部最大值,将窗口宽度设置为s,由于人体的形状外轮廓比例的长度大于宽度,因此长度l设置为宽度固定倍数,即l=αs;
6.2.4)移动搜索窗的中心到质心,如果移动距离大于预设的固定阈值,则重复6.2.2)、6.2.3)、6.2.4),直到搜索窗的中心与质心间的移动距离小于预设的固定阈值,或者循环运算的次数达到某一最大值,停止计算;
6.3)camshift算法
将meanshift算法扩展到连续图像序列,就是camshift算法;它将视频的所有帧做meanshift运算,并将上一帧的结果,即搜索窗的大小和中心,作为下一帧meanshift算法搜索窗的初始值;如此迭代下去,就能够实现对目标的跟踪;算法过程为:
6.3.1)初始化搜索窗;
6.3.2)计算搜索窗的颜色概率分布,即反向投影;
6.3.3)运行meanshift算法,获得搜索窗新的大小和位置;
6.3.4)在下一帧视频图像中用6.3.3)中的值重新初始化搜索窗的大小和位置,再跳转到6.3.2)继续进行。
CN201711267192.2A 2017-12-05 2017-12-05 基于快速Adaboost训练算法的自动扶梯乘客检测方法 Active CN108182381B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201711267192.2A CN108182381B (zh) 2017-12-05 2017-12-05 基于快速Adaboost训练算法的自动扶梯乘客检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201711267192.2A CN108182381B (zh) 2017-12-05 2017-12-05 基于快速Adaboost训练算法的自动扶梯乘客检测方法

Publications (2)

Publication Number Publication Date
CN108182381A CN108182381A (zh) 2018-06-19
CN108182381B true CN108182381B (zh) 2020-12-22

Family

ID=62545622

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201711267192.2A Active CN108182381B (zh) 2017-12-05 2017-12-05 基于快速Adaboost训练算法的自动扶梯乘客检测方法

Country Status (1)

Country Link
CN (1) CN108182381B (zh)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109359536B (zh) * 2018-09-14 2020-07-28 华南理工大学 基于机器视觉的乘客行为监控方法
CN110753214A (zh) * 2018-12-14 2020-02-04 成都极米科技股份有限公司 一种投影亮度调整方法及装置
CN110009650B (zh) * 2018-12-20 2021-06-29 浙江新再灵科技股份有限公司 一种扶梯扶手边界区域越界检测方法与系统
CN110222555B (zh) * 2019-04-18 2022-12-20 灏图科技(上海)有限公司 肤色区域的检测方法和装置
CN110287957B (zh) * 2019-06-24 2021-09-07 北京中电慧视科技有限公司 一种低慢小目标的定位方法及定位装置
CN110728697B (zh) * 2019-09-30 2023-06-13 华中光电技术研究所(中国船舶重工集团有限公司第七一七研究所) 基于卷积神经网络的红外弱小目标检测跟踪方法
CN112784828B (zh) * 2021-01-21 2022-05-17 珠海市杰理科技股份有限公司 基于方向梯度直方图的图像检测方法、装置、计算机设备

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101398893A (zh) * 2008-10-10 2009-04-01 北京科技大学 一种改进AdaBoost算法的鲁棒人耳检测方法
CN103116756A (zh) * 2013-01-23 2013-05-22 北京工商大学 一种人脸检测与跟踪方法及装置

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101398893A (zh) * 2008-10-10 2009-04-01 北京科技大学 一种改进AdaBoost算法的鲁棒人耳检测方法
CN103116756A (zh) * 2013-01-23 2013-05-22 北京工商大学 一种人脸检测与跟踪方法及装置

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
基于视频的室内空间人数统计算法研究;李峰松;《中国优秀硕士学位论文全文数据库(电子期刊)信息科技辑》;20150315;第17-20页 *
视频序列中运动目标检测与跟踪算法的研究;王丽娟;《中国优秀硕士学位论文全文数据库(电子期刊)信息科技辑》;20110515;第10、15、45-46、50、55-57页 *

Also Published As

Publication number Publication date
CN108182381A (zh) 2018-06-19

Similar Documents

Publication Publication Date Title
CN108182381B (zh) 基于快速Adaboost训练算法的自动扶梯乘客检测方法
CN106874894B (zh) 一种基于区域全卷积神经网络的人体目标检测方法
CN110543837B (zh) 一种基于潜在目标点的可见光机场飞机检测方法
CN109241985B (zh) 一种图像识别方法及装置
JP6482195B2 (ja) 画像認識装置、画像認識方法及びプログラム
US10242294B2 (en) Target object classification using three-dimensional geometric filtering
CN110688965B (zh) 基于双目视觉的ipt模拟训练手势识别方法
CN111260738A (zh) 基于相关滤波和自适应特征融合的多尺度目标跟踪方法
CN109685045B (zh) 一种运动目标视频跟踪方法及系统
CN109918971B (zh) 监控视频中人数检测方法及装置
KR20180109665A (ko) 객체 검출을 위한 영상 처리 방법 및 장치
CN109255326B (zh) 一种基于多维信息特征融合的交通场景烟雾智能检测方法
CN110929593A (zh) 一种基于细节辨别区别的实时显著性行人检测方法
TWI415032B (zh) Object tracking method
CN107315990B (zh) 一种基于xcs-lbp特征的行人检测算法
CN111489330B (zh) 基于多源信息融合的弱小目标检测方法
CN109919068B (zh) 基于视频分析适应密集场景人流实时监测方法
CN111833347A (zh) 一种输电线路防振锤缺陷检测方法及相关装置
CN108921872B (zh) 一种适用于长程跟踪的鲁棒性视觉目标跟踪方法
CN107679467B (zh) 一种基于hsv和sdalf的行人重识别算法实现方法
US20220366570A1 (en) Object tracking device and object tracking method
CN113221812A (zh) 人脸关键点检测模型的训练方法和人脸关键点检测方法
CN112733770A (zh) 一种区域入侵监测方法和装置
CN112989958A (zh) 基于YOLOv4与显著性检测的安全帽佩戴识别方法
CN117152670A (zh) 一种基于人工智能的行为识别方法及系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant