CN108805093A - 基于深度学习的手扶电梯乘客摔倒检测算法 - Google Patents

基于深度学习的手扶电梯乘客摔倒检测算法 Download PDF

Info

Publication number
CN108805093A
CN108805093A CN201810627161.1A CN201810627161A CN108805093A CN 108805093 A CN108805093 A CN 108805093A CN 201810627161 A CN201810627161 A CN 201810627161A CN 108805093 A CN108805093 A CN 108805093A
Authority
CN
China
Prior art keywords
passenger
face
escalator
frame
sample
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201810627161.1A
Other languages
English (en)
Other versions
CN108805093B (zh
Inventor
田联房
吴啟超
杜启亮
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
South China University of Technology SCUT
Original Assignee
South China University of Technology SCUT
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by South China University of Technology SCUT filed Critical South China University of Technology SCUT
Priority to CN201810627161.1A priority Critical patent/CN108805093B/zh
Publication of CN108805093A publication Critical patent/CN108805093A/zh
Application granted granted Critical
Publication of CN108805093B publication Critical patent/CN108805093B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/23Recognition of whole body movements, e.g. for sport training
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2411Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/19Recognition using electronic means
    • G06V30/192Recognition using electronic means using simultaneous comparisons or correlations of the image signals with a plurality of references
    • G06V30/194References adjustable by an adaptive method, e.g. learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • Human Computer Interaction (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Databases & Information Systems (AREA)
  • Image Analysis (AREA)
  • Escalators And Moving Walkways (AREA)

Abstract

本发明公开了一种基于深度学习的手扶电梯乘客摔倒检测算法,包括步骤:1)乘客搭乘手扶电梯视频图像采集;2)利用FHOG描述子和SVM分类器检测乘客人脸;3)利用KCF跟踪乘客人脸,基于乘客人脸信息新建乘客轨迹列表;4)用迁移学习重新训练yolo2算法模型来检测乘客人身;5)匹配乘客人脸和乘客人身,将人身信息加入到轨迹列表中;6)利用openpose深度学习算法提取乘客骨骼关节点序列;7)匹配乘客人身与乘客骨骼关节点序列,将骨骼关节点信息加入到轨迹列表中;8)分析轨迹列表中的骨骼关节点信息,检测乘客摔倒行为。通过本发明算法可以对搭乘手扶电梯的乘客进行摔倒行为检测,当发现摔倒行为时能及时启动应急方案将安全危害降至最低。

Description

基于深度学习的手扶电梯乘客摔倒检测算法
技术领域
本发明涉及图像处理及行为识别的技术领域,尤其是指一种基于深度学习的手扶电梯乘客摔倒检测算法。
背景技术
随着我国现代化进程的不断推进,人民经济生活水平的不断提高,越来越多公共设施出现在公共场所中以便于人民日常生产生活,手扶电梯作为一种方便乘客出行的公共设施,在商场、写字楼、地铁站等公共场所中随处可见,然而便捷出行的同时随之引起了一系列的安全问题,如在手扶电梯上乘客拥堵、乘客逆行、乘客跑动、乘客摔倒等行为,这些行为尤其是乘客摔倒行为会造成严重的安全事故问题,需要及时监控发现安全问题并发出警告或停运手扶电梯,目前主要是通过人工监控手扶电梯区域来预防手扶电梯发生的安全问题,然而如今人力成本越来越高,且重复枯燥的监控工作容易让工作人员出现懈怠而不能及时地处理突发的安全事故。因此,运用人工智能的方法,让机器代替人来监控手扶电梯区域,准确、稳定并及时地发现手扶电梯上出现的安全问题尤其是乘客摔倒问题,使人们从枯燥重复的监控工作中解放出来,具有重大的意义。
通过安装在手扶电梯上沿正上方的摄像头实时监控并采集手扶电梯区域图像,利用机器学习技术从输入图像中检测搭乘手扶电梯的乘客人脸,用KCF对乘客人脸进行跟踪进而跟踪乘客,利用深度学习算法检测乘客人身及乘客的骨骼关节点信息,并和对应的乘客进行配对,得到每个乘客搭乘手扶电梯时的骨骼关节点序列,据此来分析乘客是否发生摔倒行为。目前为止,国内针对手扶梯电梯应用场景的乘客行为识别尤其是摔倒行为识别几乎没有,鉴于机器代替人工监控的各种好处,应加快推进相应技术的研发并推广其应用,让先进的技术和平民百姓生产生活相辅相成,让此技术受惠于民。
发明内容
本发明的目的在于克服现有技术的缺点与不足,提出了一种基于深度学习的手扶电梯乘客摔倒检测算法,实时、稳定、准确地检测并跟踪搭乘手扶电梯乘客的人脸信息、人身信息及骨骼关节点信息,进而分析判断乘客是否发生摔倒行为。
为实现上述目的,本发明所提供的技术方案为:基于深度学习的手扶电梯乘客摔倒检测算法,包括以下步骤:
1)乘客搭乘手扶电梯视频图像采集;
2)利用FHOG描述子和SVM分类器进行手扶电梯乘客人脸检测;
3)利用核相关滤波器(KCF)对手扶电梯乘客人脸进行跟踪,基于乘客人脸信息新建乘客搭乘手扶电梯的轨迹列表;
4)利用yolo2深度学习算法,用迁移学习方法重新训练乘客检测模型,进行手扶电梯乘客人身检测;
5)将手扶电梯乘客人脸和手扶电梯乘客人身进行匹配,把乘客人身信息加入到乘客搭乘手扶电梯的轨迹列表之中;
6)利用openpose深度学习算法提取乘客搭乘手扶电梯时的骨骼关节点序列;
7)将手扶电梯乘客人身与手扶电梯乘客骨骼关节点序列进行匹配,把乘客骨骼关节点信息加入到乘客搭乘手扶电梯的轨迹列表之中;
8)通过分析乘客搭乘手扶电梯的轨迹列表中的乘客骨骼关节点信息,判别乘客搭乘手扶电梯过程中是否发生摔倒行为。
在步骤1)中,采用分辨率为640*480的USB广角摄像头进行手扶电梯区域图像采集,其广角为150度,可以360度旋转,输出格式为YUYV或者MJPG,摄像头倾斜安装在与手扶电梯楼层板水平且距离楼层板约4m的支架上,与手扶电梯中间处垂直对齐,摄像头方向朝向扶梯中部,使其拍摄范围覆盖手扶电梯的整个区域,且能够清楚地拍摄到搭乘手扶电梯的乘客。
在步骤2)中,利用FHOG描述子对搭乘手扶电梯的乘客人脸进行特征提取,然后利用SVM分类器作为人脸检测器进行乘客人脸检测,包括以下步骤:
2.1)图像金字塔上采样
利用图像金字塔对输入图像进行一次上采样,使输入图片的尺寸放大为原来的两倍。
2.2)颜色空间归一化
利用Gamma压缩在每个颜色通道上进行归一化操作,Gamma压缩公式为:
H(x,y)=H(x,y)Gamma
其中Gamma为压缩因子,取Gamma值为0.5,H(x,y)为像素点(x,y)的像素值;
2.3)计算图像每个像素点的梯度
在手扶电梯图像中任意一个像素点H(x,y)的梯度▽H(x,y)是一个向量:
其中,Gx(x,y)为像素点(x,y)在水平方向上的梯度,Gy(x,y)为像素点(x,y)在垂直方向上的梯度,应用一维离散微分模板[-1,0,1]和[-1,0,1]T简单快速地分别计算出Gx(x,y)和Gy(x,y):
梯度▽H(x,y)的幅值和方向分别为:
其中,G(x,y)为梯度▽H(x,y)的幅值,为梯度▽H(x,y)的方向;
2.4)提取整幅图像的FHOG特征
FHOG特征是HOG特征的改进,FHOG特征只保留了HOG特征中的细胞单元(Cell),而用于归一化操作的块(Block)则用另外的归一化操作来代替,定义Cell的大小为8*8的像素大小,将该Cell与位于其正上方、正左方和左上方的Cell做归一化操作,计算归一化后的Cell里的所有像素的梯度方向及梯度幅度,将0到360度每隔20度划分为一个bin区间,划分得到18个bin的梯度方向直方图,令每个像素的梯度方向以梯度幅值大小为权重加权投影到相应的bin区间中,这样即得到18维的特征向量,其对梯度方向符号敏感,然后将360度分成两个180度,每个0到180度均每隔20度划分为一个bin区间,划分得到9个bin的梯度方向直方图,令每个像素的梯度方向以梯度幅值大小为权重加权投影到相应的bin区间,得到9维的特征向量,其对梯度方向符号不敏感,然后分别将该Cell与位于其正上方、正右方和右上角的Cell做归一化,位于正下方、正右方和右下角的Cell做归一化,位于正下方、正左方和左下角的Cell做归一化,从而得到另外三个归一化的Cell,重复第一个归一化的Cell的梯度方向直方图计算操作,总共得到4*18维对梯度方向敏感的特征向量和4*9维对方向不敏感的特征向量,将其看作4*18的矩阵和4*9的矩阵,4*18的矩阵每列中的元素进行累加,得到FHOG特征的前18维特征,4*9的矩阵每行和每列中的元素进行累加,得到FHOG特征的后4+9=13维特征,最后在末尾添加一个0,补足得到一个32维的特征向量,即为每个Cell的FHOG特征向量,对整幅图像划分成若干个Cell,并依次提取FHOG特征,即可得到整幅图像的FHOG特征;
2.5)滑动扫描图片检测乘客人脸
设置扫描窗口大小为80*80,对原图像以的比率进行金字塔下采样,即每次采样缩小成上一层图像的最下层为原图,往上逐层递减,构成多层的图像金字塔,当采样得到的图像小于扫描窗口时停止下采样,通过设置固定大小的扫描窗口和构造多层的图像金字塔,即可达到在不同空间尺度上检测人脸的目的;
2.6)利用SVM分类器进行乘客人脸检测
假定训练集样本T={(x1,y1),(x2,y2),…,(xN,yN)},xi∈Rd,yi∈{+1,-1},其中xi为第i个训练样本,是d维向量,yi是第i个训练样本的标签,+1代表正样本,即乘客人脸样本,-1代表负样本,即非乘客人脸样本,线性SVM假设这些样本是线性可分的,则存在一个超平面ωTx+b=0,其中ω∈Rd是线性判别函数的权值,b是一个常数值的偏差量,能够将N个样本正确地划分开来,即:
调整b的尺度,并合并两个不等式可得到以下约束不等式:
yiTxi+b]≥1,i=1,2,…,N
离分类超平面最近的正负样本到分类超平面的距离称作分类间隔,分别是+1和-1,计算可得分类间隔M为:
SVM的目的是最大化分类间隔M,最大分类间隔对应的分类超平面称为最优分类超平面,求解最优分类超平面,可转化为不等式约束下的优化问题:
s.t yiTxi+b]-1≥0,i=1,2,…,N
通过拉格朗日法可求得上述优化问题的对偶问题:
αi≥0,i=1,2,…,N
其中αi≥0,i=1,2,…,N为拉格朗日乘子,α为拉格朗日乘子向量,该问题的最优解αi *,i=1,2,…,N可通过求二次优化问题求解,然而线性SVM只能解决线性问题,基于FHOG特征描述的手扶电梯乘客人脸检测问题属于非线性问题,需要引入特征变换来将原空间的非线性问题转化为新空间的线性问题,对样本特征x进行非线性变换,得到在新空间的样本特征其中为变换函数,通过拉格朗日求得的对偶问题变为:
αi≥0,i=1,2,…,N
令函数K(xi,xj)为核函数,引入核函数的目的是为了避免直接计算变换后的在高维空间的新特征而是一步到位地计算两个新特征的内积和,根据泛函空间的有关理论,任一核函数只要满足正定条件,肯定存在一个特征变换使其中x′为样本特征,特征变换后的空间也称作可再生核希尔伯特空间,在手扶电梯乘客人脸检测问题中,采用的核函数为:
该核函数又被称作是径向基(RBF)核函数,相当于将原来d维特征向量映射为新空间的无限维向量,考虑到变换后的特征在新空间出现线性不可分的情况,即不可能被所有样本满足,此时可为每个样本引入一个松弛变量ξi,i=1,2,…,N,使所有样本都满足以下不等式松弛变量之和越小,代表样本错分程度越低,SVM效果越好,所以需要将松弛变量之和作为一个正则项引入到求解最优分类超平面的目标函数中,即将变为:
其中C是一个常量超参数,C值越小,代表对错误分类样本的容忍度越大,对正确分类样本的分类间隔要求越高,C值越大,代表对错误分类样本的容忍度越小,对正确分类样本的分类间隔要求越低,引入松弛变量后的拉格朗日对偶问题变为:
0≤αi≤C,i=1,2,…,N
得到对偶问题的解后,即可得到原问题最终解:支持向量机的决策函数可写成其中b可通过以下式子来求解:
总而言之,SVM通过不断迭代求解二次优化问题求解αi *,i=1,2,…,N,进而得到当目标函数小于预先设定的阈值时,训练停止,得到最终的决策函数检测时,将该决策函数应用在滑动扫描窗口里的待测样本,若决策函数大于0则判断该样本为正样本,即检测得到搭乘手扶电梯的乘客人脸,并以外接矩形框框出。
在步骤3)中,利用核相关滤波器(Kernelized Correlation Filter,KCF)对手扶电梯乘客人脸进行跟踪,并基于乘客人脸信息新建乘客搭乘手扶电梯的轨迹列表,包括以下步骤:
3.1)令基于FHOG描述子和SVM分类器检测得到的手扶电梯乘客人脸外接矩形框为目标样本,方便起见记作向量x,由其循环移位可得到若干个训练样本,各训练样本表示成列向量xi,i=1,2,…n,将这n个向量依序排列可得到一个矩阵,形成了由x生成的循环矩阵,称作C(x),每个训练样本xi对应一个标签yi,以目标样本为正样本,其标签可设为1,由目标样本循环移位得到的目标周围样本看作负样本,标签根据与目标样本的距离分布到0到1之间,越靠近目标样本标签值越接近于1,所有训练样本的集合为矩阵X,所有样本标签的集合为列向量y;
3.2)由训练样本xi及其标签训练yi得到人脸检测器,首先假设该样本集线性可分,将其看作线性回归问题,则其决策函数为f(xi)=ωTxi,其中ω为列向量,表示各个训练样本在决策函数中的权重系数,考虑到决策函数的结构复杂性问题,为了提高其泛化能力,在决策函数的基础上添加一个正则项λ||ω||2,其中λ为正则项系数,则该线性回归问题的目标函数即为:
f(ω)=mωin||Xω-y||2+λ||ω||2
通过最小二乘法求得最优解ω*为:
ω*=(XHX+λI)-1XHy
其中I为单位矩阵,H为共轭转置。然而,线性回归只能解决线性问题,为了解决非线性问题,需要引入一个非线性映射函数φ(·)将原空间的xi映射到新空间的φ(xi),此时决策函数变为f(xi)=ωTφ(xi),目标函数变为:
通过拉格朗日法求得上述优化问题的对偶问题:
其中α为拉格朗日乘子,该问题为二次最优问题,对函数求导数,导数的零点即为拉格朗日最优解α*
α*=(φ(X)φ(X)T+λI)-1y
原问题的最优解ω*为:ω*=φ(X)Tα*
3.3)通过上一帧的训练样本训练得到决策函数f(xi)=ωTφ(xi)后,在新的一帧中,以上一帧的目标样本所在的区域作为初始预测区域,并通过循环移位得到初始预测区域的周围区域,得到测试样本zi,i=1,2,…n,构成测试样本矩阵Z,将测试样本zi代入决策函数求得该样本的响应为f(zi)=αTφ(X)φ(zi),则最大响应对应的测试样本即为在当前帧KCF跟踪得到的目标区域;
3.4)KCF算法将训练样本和测试样本写成循环矩阵的形式,利用循环矩阵在傅里叶空间中可对角化的性质,将运算过程中涉及的大量矩阵运算转化为矩阵点乘运算,大大降低了运算量,提高了跟踪算法的运算速度,使利用KCF跟踪搭乘手扶电梯的乘客人脸满足实时性的要求,求解目标函数对偶问题时,可令K表示新空间的核矩阵,则K=φ(X)φ(X)T,于是α*=(K+λI)-1y,可证明K是一个循环矩阵,由循环矩阵的分解性质可知:
其中,F是离散傅里叶矩阵,为Kxx的傅里叶变换,Kxx=φ(x)Tφ(X)T为行向量,是K中的第一行,则式子两边做傅里叶变换,再用傅里叶反变换得到:
同理,求解测试样本响应时,令Kz表示新空间的核矩阵,则Kz=φ(X)φ(Z)T,可证明Kz也是一个核矩阵,由循环矩阵的分解性质可知:
其中,Kxz为Kz的第一行,然后将式子两边做傅里叶变换,再用傅里叶反变换得到:
此外,上述采用的核函数为高斯核函数:
其中x′为样本特征;
3.5)通过KCF跟踪上一帧的手扶电梯乘客人脸,可在当前帧得到一系列跟踪框,令其中心点tj,j=1,2,…,n,其中n为跟踪框的个数,然后在当前帧通过步骤2)的FHOG描述子和SVM分类器检测得到手扶电梯乘客人脸pi,i=1,2,…,m,其中m为检测框的个数,计算pi和tj中心之间的欧氏距离dij,并以其为矩阵元素构成一个n行m列的矩阵,注意若m大于n,代表人脸检测器出现误检或者有新人脸出现,则矩阵添加m-n行构成一个方阵,且新增行里的元素全为0,若m小于n,则代表人脸检测器出现漏检或者人脸离开监控区域,此时维持矩阵不变,若m等于n,则代表人脸检测器正确检测或者上述错误情况发生重叠导致,此时维持矩阵不变,得到人脸矩阵后,判断dij是否大于预先设定的阈值,如果大于则代表跟踪到的人脸框和检测到的人脸框相距太远,不可能为同一目标,将dij改为无穷大,若一列中所有元素都为无穷大,则删除该列,经过以上步骤,即可构成人脸匹配矩阵,然后矩阵每一列取一个行号不重复的元素,共计有k种可能的组合,选择其中元素和最小的组合作为最优组合,则最优目标为:其中每个dij中的j要互不相同,该最优组合中对应的每个元素dij的行列号分别代表第i个人脸检测框和第j个人脸跟踪框匹配成功,为每个人脸检测框新建一个乘客轨迹列表,其中乘客轨迹列表以时间为次序每帧对应列表中的一个元素,每个元素包含该乘客在对应帧的一系列信息,如人脸检测框的大小及宽高等信息,及累加检测强度ConfFace,计算公式为:
ConfFace=ConfFace+ConfFramek
ConfFarmek=a(FT)2-a(FT-1)2-b(NFT)2+b(NFT-1)2
其中,ConfFramek为第k帧的检测强度,a为匹配系数,b为不匹配系数,FT为人脸检测框和人脸跟踪框连续匹配的帧数,NFT为人脸检测框和人脸跟踪框连续不匹配的帧数,显然可知FT*NFT=0,即有且仅有一个不为0,此外ConfFace若超出上限阈值ConfFaceup,则使ConfFace=ConfFaceup,计算乘客轨迹在当前帧图像的ConfFace后,添加进乘客轨迹列表中,将其和预先设置的起始阈值TFaceBeg和终止阈值TFaceEnd进行比较,若大于TFaceBeg,则认为人脸检测器准确检测到一个手扶电梯的乘客人脸,显示人脸检测结果,若小于等于TFaceBeg,则停止显示人脸检测结果,若小于TFaceEnd,则认为该轨迹中的乘客人脸已经消失在监控区域中,应删除该对应的乘客轨迹,以与当前帧乘客在下一帧的人脸跟踪框相匹配的人脸检测框,作为乘客在下一帧对应的人脸检测框,并将该人脸检测框信息添加到下一帧的乘客轨迹列表之中,若再找不到当前帧乘客在下一帧的人脸跟踪框相匹配的人脸检测框,则采用乘客在下一帧的人脸跟踪框作为下一帧对应的人脸检测框,并将该人脸检测框信息添加到下一帧的乘客轨迹列表之中。
在步骤4)中,利用yolo2深度学习算法,用迁移学习方法重新训练乘客检测模型,进行手扶电梯乘客人身检测,包括以下步骤:
4.1)训练时,将乘客搭乘手扶电梯的图像作为输入图像,将其分成S*S个网格,每个网格要预测B个外接框(bounding box),每个bounding box包含5个元素,分别是该框的中心横坐标x、中心纵坐标y、框宽w、框高h和框的预测置信度confidence共5个值,其中,x和y要分别减去所属网格的左上角顶点坐标值再除以网格的宽和高来归一化到0-1之间,w和h要分别除以图像的宽和高归一化到0-1之间,confidence的计算公式为:
Object为待预测目标,Pr(Object)为检测到物体的概率,若有目标落入网格中,则Pr(Object)=1,否则为0,为预测的bounding box和实际的待预测目标(groudtruth box)之间的重叠度,用交并比(Intersection Over Union,IOU)来衡量,若遇到某个bounding box和多个groud truth box相交的情况,则取最大IOU值作为得到的confidence即为最大IOU对应类别的预测置信度,即一个bounding box只预测一个类别,此外,每个网格还有预测C种待预测类别的条件概率Pr(Classi|Object),即当有Object落在网格时其为第i类类别的概率;
4.2)预测时,将每个bounding box预测的confidence值和所属网格的Pr(Classi|Object)相乘得到bounding box预测的某一类的概率(class-specific confidencescore),和预先设置的阈值进行比较,保留高于阈值的bounding box,并进行非极大值抑制(Non-maximum suppression,NMS)处理,该处理是为了从一堆互相重叠的检测框中筛选出最终有用的检测框,经此处理最终得到检测结果;
4.3)深度学习需要大量的样本进行模型的训练,样本越多模型的训练效果越好,而实际场景中获取训练样本的成本较高,所以需要迁移学习对模型进行训练,迁移学习的核心思想是先用别的训练集对模型进行训练,该训练集通常采用网上公开的大容量训练集,且包含目标类别,由于要进行手扶电梯乘客人身检测,所以采用PASCAL VOC训练集进行预训练,该训练集中包含行人在内的20个类别的训练样本,训练得到预训练模型后,去除yolo2模型的最后一层全连接层,并根据实际问题设计新的全连接层来替代,在此即为乘客有无两种类别,保留除了该全连接层外的所有参数作为模型再训练的初始参数,向该修改后的模型输入自己本地的训练样本作再训练,迭代参数训练得到最终的yolo2模型,用该模型预测待测试图片,并以bounding box的形式进行输出,即预测搭乘手扶电梯的乘客人身并以外接矩形框进行标记。
在步骤5)中,将手扶电梯乘客人脸和手扶电梯乘客人身进行匹配,把乘客人身信息加入到乘客搭乘手扶电梯的轨迹列表之中,包括以下步骤:
5.1)将步骤4)中得到的乘客人身检测框PPBodyj,j=1,2…,n和乘客轨迹列表中的人脸检测框PPFacei,i=1,2…,m进行匹配,其中n为人身检测框的个数,m为轨迹列表中的人脸检测框或乘客的个数,对PPFacei和PPBodyj进行匹配;
5.2)对于每个PPFacei,统计其重复出现于人身检测框的的次数记为PPFaceNumi,若PPFaceNumi=1,则说明该人脸检测框有且仅出现在一个人身检测框PPBodyj中,则PPFacei和PPBodyj匹配成功,并从匹配序列中消除成功匹配的PPFacei和PPBodyj,然后重新进行匹配,直到找不到匹配的PPFacei和PPBodyj
5.3)匹配完有且仅出现在一个人身检测框的PPFacei后,此时出现两种情况,一是PPFaceNumi=0,说明人脸检测框找不到对应的人身检测框,可采用乘客轨迹中上一帧乘客人脸检测框对应的人身检测框来代替该帧人脸检测框对应的人身检测框,若PPFaceNumi>1,则根据先验规则选择与其匹配度最高的人身检测框PPBodyj,匹配成功后消除成功匹配的PPFacei和PPBodyj
5.4)重复执行5.2)和5.3),直到只剩下PPFaceNumi=0对应的人脸检测框,则乘客轨迹中的所有人脸检测框与人身检测框匹配过程结束,将与人脸检测框匹配对应的人身检测框信息添加到乘客轨迹列表中对应乘客的人身检测框元素之中。
在步骤6)中,利用openpose深度学习算法提取乘客搭乘手扶电梯时的骨骼关节点信息,其中乘客的全身骨骼关节点用一串序列表示,序列中包含18个元素,每个元素包含一个骨骼关节点信息(x,y,confidence),其中x和y分别是骨骼关节点在图像中的横坐标和纵坐标,confidence为该骨骼关节点的检测置信度,其值为0到1之间,18个关节点按顺序从前到后分别是鼻子(Nose)、颈(Neck)、右肩(RShoulder)、右肘(RElbow)、右手腕(RWrist)、左肩(LShoulder)、左肘(LElbow)、左手腕(LWrist)、右髋(RHip)、右膝盖(RKnee)、右脚踝(RAnkle)、左髋(LHip)、左膝盖(LKnee)、左脚踝(LAnkle)、右眼(REye)、左眼(LEye)、右耳(REar)、左耳(LEar)。
在步骤7)中,将手扶电梯乘客人身与手扶电梯乘客骨骼关节点进行匹配,将乘客骨骼关节点信息加入到乘客搭乘手扶电梯的轨迹列表之中,包括以下步骤:
7.1)针对每个乘客的骨骼关节点序列,使其中18个骨骼关节点坐标(x,y)分别和每个乘客轨迹中的人身检测框计算重合度Cskeleton,若序列中的某个骨骼关节点坐标落在人身检测框中,则重合度加一,若骨骼关节点序列与一个以上的人身检测框重合度相同,则使Cskeleton乘以一个权重系数ωskeleton以作修正再进行进一步的大小比较,即骨骼关节点在分布人身检测框中分布越均匀,权重系数ωskeleton越大,ωskeleton计算公式如下:
其中,maxΔPPSkeletonx为骨骼关节点序列中关节点横坐标差值的最大值,maxΔPPSkeletony为骨骼关节点序列中关节点纵坐标差值的最大值,PPBodywidth为对应的乘客人身检测框宽度,PPBodyheight为对应的乘客人身检测框高度,计算骨骼关节点序列与每个人身检测框的重合度,选择最大重合度对应的人身检测框作为该骨骼关节点序列对应的人身检测框,并将该骨骼关节点序列添加到乘客轨迹列表中对应乘客的骨骼关节点序列元素之中;
7.2)归一化乘客轨迹列表中的骨骼关节点序列元素中的18个骨骼关节点横纵坐标x和y,将x和y分别减去对应人身检测框的左上角顶点的横纵坐标,然后除以人身检测框的宽和高进行归一化,归一化后的的横纵坐标取值为0到1之间。
在步骤8)中,通过分析乘客搭乘手扶电梯的轨迹列表中的乘客骨骼关节点信息,判别乘客搭乘手扶电梯过程中是否发生摔倒行为,包括以下步骤:
8.1)采集乘客搭乘手扶电梯过程中摔倒行为的视频帧,得到乘客摔倒时的骨骼关节点序列,分析乘客摔倒行为,从骨骼关节点信息方面找到摔倒行为的共性,提取一系列具有代表性的关键骨骼关节点序列,以此为模板进行待匹配;
8.2)测试时,在当前帧图像从乘客轨迹列表中得到每个乘客对应的骨骼关节点序列,使其和预先制作好的摔倒行为骨骼关节点序列模板进行匹配,计算匹配相似度并选择其中最大值Mskeleton,和预先设定的阈值Tskeleton进行比较,其中采用乘客骨骼关节点序列和模板之间的欧氏距离的负对数作为匹配相似度,若大于该阈值则认为乘客在该帧图像发生摔倒行为,然后从乘客刚出现摔倒行为的帧FrameSkeletonbegin开始,直到乘客恢复正常行为的帧FrameSkeletonend为止,统计发生摔倒行为的帧数为FrameSkeletonsum,若FrameSkeletonsum大于预先设定的阈值TSkeletonsum,则检测到乘客在搭乘手扶电梯的过程中发生摔倒行为,并将摔倒行为异常情况反馈至手扶电梯控制台。
本发明与现有技术相比,具有如下优点与有益效果:
本发明可以对手扶电梯区域进行实时监控,稳定准确地分析搭乘手扶电梯的乘客行为,进而判断乘客是否发生摔倒及其它安全事故,并将突发的安全事故问题通过通信设备及时反馈到手扶电梯控制台,从而根据安全事故类别启动相应的应急方案,最大化地减少安全事故造成的不良影响。此外,本发明存储了搭乘手扶电梯的乘客人脸信息、人身信息和骨骼关节点信息,可通过这些中间信息更深入地挖掘出乘客的自身内在信息,有助于系统后续的扩展及改善。
附图说明
图1为本发明的算法流程图。
图2为本发明中摄像头的安装位置示意图。
图3为摄像头实时采集的原始图像。
图4为搭乘手扶电梯的乘客人脸检测图。
图5为基于乘客人脸的历史乘客轨迹图。
图6为预测搭乘手扶电梯的乘客人身并以外接矩形框进行标记的示意图。
图7为将乘客骨骼关节点序列中的18个关节点按照一定顺序用直线连接在一起构成火柴人形状的示意图。
具体实施方式
下面结合具体实施例对本发明作进一步说明。
本实施例所提供的基于深度学习的手扶电梯乘客摔倒检测算法,首先利用FHOG描述子和SVM分类器检测乘客人脸,用KCF跟踪乘客人脸,基于乘客人脸信息新建乘客轨迹列表,接着用迁移学习重新训练yolo2算法模型来检测乘客人身,匹配乘客人脸和乘客人身,将人身信息加入到轨迹列表中,然后利用openpose深度学习算法提取乘客骨骼关节点序列,匹配乘客人身与乘客骨骼关节点序列,将骨骼关节点信息加入到轨迹列表中,最后分析轨迹列表中的骨骼关节点信息,检测乘客摔倒行为,算法流程图如图1所示,其具体情况如下:
1)乘客搭乘手扶电梯视频图像采集;
采用分辨率为640*480的USB接口广角摄像头进行手扶电梯区域图像采集,其广角为150度,可以360度旋转,带UVC驱动在Linux系统免驱使用,输出格式为YUYV(默认格式)或者MJPG,如图2所示,摄像头倾斜安装在与手扶电梯楼层板水平且距离楼层板约4m的支架上,与手扶电梯中间处垂直对齐,摄像头方向朝向扶梯中部,使其拍摄范围覆盖手扶电梯的整个区域,且能够清楚地拍摄到搭乘手扶电梯的乘客,采集的乘客搭乘手扶电梯原始视频图像如图3所示。
2)利用FHOG描述子和SVM分类器进行手扶电梯乘客人脸检测;
利用FHOG描述子对搭乘手扶电梯的乘客人脸进行特征提取,然后利用SVM分类器作为人脸检测器进行乘客人脸检测,进行乘客人脸检测是因为乘客人脸不容易发生形变且面积小不容易产生重叠,方便后续的KCF跟踪,包括以下步骤:
2.1)图像金字塔上采样
利用图像金字塔对输入图像进行一次上采样,使输入图片的尺寸放大为原来的两倍,该做法的目的是为了避免图像中的人脸尺寸过小而导致漏检。
2.2)颜色空间归一化
手扶电梯场景容易受到外部光照的干扰,而颜色空间归一化通过对图像颜色信息进行归一化降低光照不均匀对手扶电梯乘客图像的影响,利用Gamma压缩在每个颜色通道上进行归一化操作,Gamma压缩公式为:
H(x,y)=H(x,y)Gamma
其中Gamma为压缩因子,取Gamma值为0.5,H(x,y)为像素点(x,y)的像素值;
2.3)计算图像每个像素点的梯度
梯度对应一阶导数,在手扶电梯图像中任意一个像素点H(x,y)的梯度▽H(x,y)是一个向量:
其中,Gx(x,y)为像素点(x,y)在水平方向上的梯度,Gy(x,y)为像素点(x,y)在垂直方向上的梯度,Gx(x,y)和Gy(x,y)可用数字图像中像素值的差分运算来计算,应用一维离散微分模板[-1,0,1]和[-1,0,1]T简单快速地分别计算出Gx(x,y)和Gy(x,y):
梯度▽H(x,y)的幅值和方向分别为:
其中,G(x,y)为梯度▽H(x,y)的幅值,为梯度▽H(x,y)的方向;
2.4)提取整幅图像的FHOG特征
FHOG特征是HOG特征的改进,FHOG特征只保留了HOG特征中的细胞单元(Cell),而用于Cell归一化操作的块(Block)则用另外的归一化操作来代替,定义Cell的大小为8*8的像素大小,将该Cell与位于其正上方、正左方和左上方的Cell做归一化操作,计算归一化后的Cell里的所有像素的梯度方向及梯度幅度,将0到360度每隔20度划分为一个bin区间,划分得到18个bin的梯度方向直方图,令每个像素的梯度方向以梯度幅值大小为权重加权投影到相应的bin区间中,这样即得到18维的特征向量,其对梯度方向符号敏感,然后将360度分成两个180度,每个0到180度均每隔20度划分为一个bin区间,划分得到9个bin的梯度方向直方图,令每个像素的梯度方向以梯度幅值大小为权重加权投影到相应的bin区间,得到9维的特征向量,其对梯度方向符号不敏感,然后分别将该Cell与位于其正上方、正右方和右上角的Cell做归一化,位于正下方、正右方和右下角的Cell做归一化,位于正下方、正左方和左下角的Cell做归一化,从而得到另外三个归一化的Cell,重复第一个归一化的Cell的梯度方向直方图计算操作,总共得到4*18维对梯度方向敏感的特征向量和4*9维对方向不敏感的特征向量,将其看作4*18的矩阵和4*9的矩阵,4*18的矩阵每列中的元素进行累加,得到FHOG特征的前18维特征,4*9的矩阵每行和每列中的元素进行累加,得到FHOG特征的后4+9=13维特征,最后在末尾添加一个0,补足得到一个32维的特征向量,即为每个Cell的FHOG特征向量,对整幅图像划分成若干个Cell,并依次提取FHOG特征,即可得到整幅图像的FHOG特征;
2.5)滑动扫描图片检测乘客人脸
设置扫描窗口大小为80*80,对原图像以的比率进行金字塔下采样,即每次采样缩小成上一层图像的最下层为原图,往上逐层递减,构成多层的图像金字塔,当采样得到的图像小于扫描窗口时停止下采样,通过设置固定大小的扫描窗口和构造多层的图像金字塔,即可达到在不同空间尺度上检测人脸的目的;
2.6)利用SVM分类器进行乘客人脸检测
假定训练集样本T={(x1,y1),(x2,y2),…,(xN,yN)},xi∈Rd,yi∈{+1,-1},其中xi为第i个训练样本,是d维向量,yi是第i个训练样本的标签,+1代表正样本,即乘客人脸样本,-1代表负样本,即非乘客人脸样本,线性SVM假设这些样本是线性可分的,则存在一个超平面ωTx+b=0,其中ω∈Rd是线性判别函数的权值,b是一个常数值的偏差量,能够将N个样本正确地划分开来,即:
调整b的尺度,并合并两个不等式可得到以下约束不等式:
yiTxi+b]≥1,i=1,2,…,N
离分类超平面最近的正负样本到分类超平面的距离称作分类间隔,分别是+1和-1,计算可得分类间隔M为:
SVM的目的是最大化分类间隔M,最大分类间隔对应的分类超平面称为最优分类超平面,求解最优分类超平面,可转化为不等式约束下的优化问题:
s.t yiTxi+b]-1≥0,i=1,2,…,N
通过拉格朗日法可求得上述优化问题的对偶问题:
αi≥0,i=1,2,…,N
其中αi≥0,i=1,2,…,N为拉格朗日乘子,α为拉格朗日乘子向量,该问题的最优解αi *,i=1,2,…,N可通过求二次优化问题求解,然而线性SVM只能解决线性问题,基于FHOG特征描述的手扶电梯乘客人脸检测问题属于非线性问题,需要引入特征变换来将原空间的非线性问题转化为新空间的线性问题,对样本特征x进行非线性变换,得到在新空间的样本特征其中为变换函数,通过拉格朗日求得的对偶问题变为:
αi≥0,i=1,2,…,N
令函数K(xi,xj)为核函数,引入核函数的目的是为了避免直接计算变换后的在高维空间的新特征而是一步到位地计算两个新特征的内积和,根据泛函空间的有关理论,任一核函数只要满足正定条件,肯定存在一个特征变换使其中x′为样本特征,特征变换后的空间也称作可再生核希尔伯特空间,在手扶电梯乘客人脸检测问题中,采用的核函数为:
该核函数又被称作是径向基(RBF)核函数,相当于将原来d维特征向量映射为新空间的无限维向量,考虑到变换后的特征在新空间出现线性不可分的情况,即不可能被所有样本满足,此时可为每个样本引入一个松弛变量ξi,i=1,2,…,N,使所有样本都满足以下不等式松弛变量之和越小,代表样本错分程度越低,SVM效果越好,所以需要将松弛变量之和作为一个正则项引入到求解最优分类超平面的目标函数中,即将变为:
其中C是一个常量超参数,C值越小,代表对错误分类样本的容忍度越大,对正确分类样本的分类间隔要求越高,C值越大,代表对错误分类样本的容忍度越小,对正确分类样本的分类间隔要求越低,手扶电梯的乘客人脸识别问题中,设置C值为1,引入松弛变量后的
拉格朗日对偶问题变为:
0≤αi≤C,i=1,2,…,N
得到对偶问题的解后,即可得到原问题最终解:支持向量机的决策函数可写成其中b可通过以下式子来求解:
总而言之,SVM通过不断迭代求解二次优化问题求解αi *,i=1,2,…,N,进而得到当目标函数小于预先设定的阈值时,训练停止,得到最终的决策函数检测时,将该决策函数应用在滑动扫描窗口里的待测样本,若决策函数大于0则判断该样本为正样本,即检测得到搭乘手扶电梯的乘客人脸,并以外接矩形框框出,如图4所示。
3)利用核相关滤波器(KCF)对手扶电梯乘客人脸进行跟踪,基于乘客人脸信息新建乘客搭乘手扶电梯的轨迹列表;
利用核相关滤波器(Kernelized Correlation Filter,KCF)对手扶电梯乘客人脸进行跟踪,并基于乘客人脸信息新建乘客搭乘手扶电梯的轨迹列表,包括以下步骤:
3.1)令基于FHOG描述子和SVM分类器检测得到的手扶电梯乘客人脸外接矩形框为目标样本,方便起见记作向量x,由其循环移位可得到若干个训练样本,各训练样本表示成列向量xi,i=1,2,…n,将这n个向量依序排列可得到一个矩阵,形成了由x生成的循环矩阵,称作C(x),每个训练样本xi对应一个标签yi,以目标样本为正样本,其标签可设为1,由目标样本循环移位得到的目标周围样本看作负样本,标签根据与目标样本的距离分布到0到1之间,越靠近目标样本标签值越接近于1,所有训练样本的集合为矩阵X,所有样本标签的集合为列向量y;
3.2)由训练样本xi及其标签训练yi得到人脸检测器,首先假设该样本集线性可分,将其看作线性回归问题,则其决策函数为f(xi)=ωTxi,其中ω为列向量,表示各个训练样本在决策函数中的权重系数,考虑到决策函数的结构复杂性问题,为了提高其泛化能力,在决策函数的基础上添加一个正则项λ||ω||2,其中λ为正则项系数,则该线性回归问题的目标函数即为:
通过最小二乘法求得最优解ω*为:
ω*=(XHX+λI)-1XHy
其中I为单位矩阵,H为共轭转置。然而,线性回归只能解决线性问题,为了解决非线性问题,需要引入一个非线性映射函数φ(·)将原空间的xi映射到新空间的φ(xi),此时决策函数变为f(xi)=ωTφ(xi),目标函数变为:
通过拉格朗日法求得上述优化问题的对偶问题:
其中α为拉格朗日乘子,该问题为二次最优问题,对函数求导数,导数的零点即为拉格朗日最优解α*
α*=(φ(X)φ(X)T+λI)-1y
原问题的最优解ω*为:ω*=φ(X)Tα*
3.3)通过上一帧的训练样本训练得到决策函数f(xi)=ωTφ(xi)后,在新的一帧中,以上一帧的目标样本所在的区域作为初始预测区域,并通过循环移位得到初始预测区域的周围区域,得到测试样本zi,i=1,2,…n,构成测试样本矩阵Z,将测试样本zi代入决策函数求得该样本的响应为f(zi)=αTφ(X)φ(zi),则最大响应对应的测试样本即为在当前帧KCF跟踪得到的目标区域;
3.4)KCF算法将训练样本和测试样本写成循环矩阵的形式,利用循环矩阵在傅里叶空间中可对角化的性质,将运算过程中涉及的大量矩阵运算转化为矩阵点乘运算,大大降低了运算量,提高了跟踪算法的运算速度,使利用KCF跟踪搭乘手扶电梯的乘客人脸满足实时性的要求,求解目标函数对偶问题时,可令K表示新空间的核矩阵,则K=φ(X)φ(X)T,于是α*=(K+λI)-1y,可证明K是一个循环矩阵,由循环矩阵的分解性质可知:
其中,F是离散傅里叶矩阵,为Kxx的傅里叶变换,Kxx=φ(x)Tφ(X)T为行向量,是K中的第一行,则式子两边做傅里叶变换,再用傅里叶反变换得到:
同理,求解测试样本响应时,令Kz表示新空间的核矩阵,则Kz=φ(X)φ(Z)T,可证明Kz也是一个核矩阵,由循环矩阵的分解性质可知:
其中,Kxz为Kz的第一行,然后将式子两边做傅里叶变换,再用傅里叶反变换得到:
此外,上述采用的核函数为高斯核函数:
其中x′为样本特征;
3.5)通过KCF跟踪上一帧的手提电梯乘客人脸,可在当前帧得到一系列跟踪框,令其中心点tj,j=1,2,…,n,其中n为跟踪框的个数,然后在当前帧通过步骤2)的FHOG描述子和SVM分类器检测得到手扶电梯乘客人脸pi,i=1,2,…,m,其中m为检测框的个数,计算pi和tj中心之间的欧氏距离dij,并以其为矩阵元素构成一个n行m列的矩阵,注意若m大于n,代表人脸检测器出现误检或者有新人脸出现,则矩阵添加m-n行构成一个方阵,且新增行里的元素全为0,若m小于n,则代表人脸检测器出现漏检或者人脸离开监控区域,此时维持矩阵不变,若m等于n,则代表人脸检测器正确检测或者上述错误情况发生重叠导致,此时维持矩阵不变,得到人脸矩阵后,判断dij是否大于预先设定的阈值,如果大于则代表跟踪到的人脸框和检测到的人脸框相距太远,不可能为同一目标,将dij改为无穷大,若一列中所有元素都为无穷大,则删除该列,经过以上步骤,即可构成人脸匹配矩阵,然后矩阵每一列取一个行号不重复的元素,共计有k种可能的组合,选择其中元素和最小的组合作为最优组合,则最优目标为:其中每个dij中的j要互不相同,该最优组合中对应的每个元素dij的行列号分别代表第i个人脸检测框和第j个人脸跟踪框匹配成功,为每个人脸检测框新建一个乘客轨迹列表,其中乘客轨迹列表以时间为次序每帧对应列表中的一个元素,每个元素包含该乘客在对应帧的一系列信息,如人脸检测框的大小及宽高等信息,及累加检测强度ConfFace,计算公式为:
ConfFace=ConfFace+ConfFramek
ConfFarmek=a(FT)2-a(FT-1)2-b(NFT)2+b(NFT-1)2
其中,ConfFramek为第k帧的检测强度,a为匹配系数,b为不匹配系数,FT为人脸检测框和人脸跟踪框连续匹配的帧数,NFT为人脸检测框和人脸跟踪框连续不匹配的帧数,显然可知FT*NFT=0,即有且仅有一个不为0,此外ConfFace若超出上限阈值ConfFaceup,则使ConfFace=ConfFaceup,计算乘客轨迹在当前帧图像的ConfFace后,添加进乘客轨迹列表中,将其和预先设置的起始阈值TFaceBeg和终止阈值TFaceEnd进行比较,若大于TFaceBeg,则认为人脸检测器准确检测到一个手扶电梯的乘客人脸,显示人脸检测结果,若小于等于TFaceBeg,则停止显示人脸检测结果,若小于TFaceEnd,则认为该轨迹中的乘客人脸已经消失在监控区域中,应删除该对应的乘客轨迹,以与当前帧乘客在下一帧的人脸跟踪框相匹配的人脸检测框,作为乘客在下一帧对应的人脸检测框,并将该人脸检测框信息添加到下一帧的乘客轨迹列表之中,若再找不到当前帧乘客在下一帧的人脸跟踪框相匹配的人脸检测框,则采用乘客在下一帧的人脸跟踪框作为下一帧对应的人脸检测框,并将该人脸检测框信息添加到下一帧的乘客轨迹列表之中,基于乘客轨迹中的人脸检测框信息记录乘客的历史轨迹,如图5所示,其中乘客在每一帧的位置用乘客人脸检测框的中心点表示,其中中心点在图中用不同颜色的空心圆点表示,统计乘客轨迹显示的第一帧到当前帧的各帧乘客位置,构成乘客的历史轨迹。
4)利用yolo2深度学习算法,用迁移学习方法重新训练乘客检测模型,进行手扶电梯乘客人身检测;
利用yolo2深度学习算法,用迁移学习方法重新训练乘客检测模型,进行手扶电梯乘客人身检测,包括以下步骤:
4.1)训练时,将乘客搭乘手扶电梯的图像作为输入图像,将其分成S*S个网格,每个网格要预测B个外接框(bounding box),每个bounding box包含5个元素,分别是该框的中心横坐标x、中心纵坐标y、框宽w、框高h和框的预测置信度confidence共5个值,其中,x和y要分别减去所属网格的左上角顶点坐标值再除以网格的宽和高来归一化到0-1之间,w和h要分别除以图像的宽和高归一化到0-1之间,confidence的计算公式为:
Object为待预测目标,Pr(Object)为检测到物体的概率,若有目标落入网格中,则Pr(Object)=1,否则为0,为预测的bounding box和实际的待预测目标(groudtruth box)之间的重叠度,用交并比(Intersection Over Union,IOU)来衡量,若遇到某个bounding box和多个groud truth box相交的情况,则取最大IOU值作为得到的confidence即为最大IOU对应类别的预测置信度,即一个bounding box只预测一个类别,此外,每个网格还有预测C种待预测类别的条件概率Pr(Classi|Object),即当有Object落在网格时其为第i类类别的概率,算法中设S为7,B为2,根据训练数据设C为20,则每张图片需要回归7*7*(2*5+20)=1470个参数,即输出的是一个7*7*30的张量(tensor);
4.2)预测时,将每个bounding box预测的confidence值和所属网格的Pr(Classi|Object)相乘得到bounding box预测的某一类的概率(class-specific confidencescore),和预先设置的阈值进行比较,保留高于阈值的bounding box,并进行非极大值抑制(Non-maximum suppression,NMS)处理,该处理是为了从一堆互相重叠的检测框中筛选出最终有用的检测框,经此处理最终得到检测结果;
4.3)深度学习需要大量的样本进行模型的训练,样本越多模型的训练效果越好,而实际场景中获取训练样本的成本较高,所以需要迁移学习对模型进行训练,迁移学习的核心思想是先用别的训练集对模型进行训练,该训练集通常采用网上公开的大容量训练集,且包含目标类别,由于要进行手扶电梯乘客人身检测,所以采用PASCAL VOC训练集进行预训练,该训练集中包含行人在内的20个类别的训练样本,且每种样本的数量均有成千上万个,满足深度学习模型训练的样本数量要求,训练得到预训练模型后,去除yolo2模型的最后一层全连接层,并用根据实际问题设计新的全连接层来替代,在此即为乘客有无两种类别,保留除了该全连接层外的所有参数作为模型再训练的初始参数,向该修改后的模型输入自己本地的训练样本作再训练,迭代参数训练得到最终的yolo2模型,用该模型预测待测试图片,并以bounding box的形式进行输出,即预测搭乘手扶电梯的乘客人身并以外接矩形框进行标记,如图6所示。
5)将手扶电梯乘客人脸和手扶电梯乘客人身进行匹配,把乘客人身信息加入到乘客搭乘手扶电梯的轨迹列表之中;
因为KCF跟踪算法只对乘客人脸进行跟踪,为了跟踪到乘客人身,需要将手扶电梯乘客人脸和手扶电梯乘客人身进行匹配,把乘客人身信息加入到乘客搭乘手扶电梯的轨迹列表之中,包括以下步骤:
5.1)将步骤4)中得到的乘客人身检测框PPBodyj,j=1,2…,n和乘客轨迹列表中的人脸检测框PPFacei,i=1,2…,m进行匹配,其中n为人身检测框的个数,m为轨迹列表中的人脸检测框或乘客的个数,对PPFacei和PPBodyj进行匹配;
5.2)对于每个PPFacei,统计其重复出现于人身检测框的的次数记为PPFaceNumi,若PPFaceNumi=1,则说明该人脸检测框有且仅出现在一个人身检测框PPBodyj中,则PPFacei和PPBodyj匹配成功,并从匹配序列中消除成功匹配的PPFacei和PPBodyj,然后重新进行匹配,直到找不到匹配的PPFacei和PPBodyj
5.3)匹配完有且仅出现在一个人身检测框的PPFacei后,此时出现两种情况,一是PPFaceNumi=0,说明人脸检测框找不到对应的人身检测框,可采用乘客轨迹中上一帧乘客人脸检测框对应的人身检测框来代替该帧人脸检测框对应的人身检测框,若PPFaceNumi>1,则根据先验规则选择与其匹配度最高的人身检测框PPBodyj,匹配成功后消除成功匹配的PPFacei和PPBodyj
5.4)重复执行5.2)和5.3),直到只剩下PPFaceNumi=0对应的人脸检测框,则乘客轨迹中的所有人脸检测框与人身检测框匹配过程结束,将与人脸检测框匹配对应的人身检测框信息添加到乘客轨迹列表中对应乘客的人身检测框元素之中。
6)利用openpose深度学习算法提取乘客搭乘手扶电梯时的骨骼关节点信息;
利用openpose深度学习算法提取乘客搭乘手扶电梯时的骨骼关节点信息,其中乘客的全身骨骼关节点用一串序列PPSkeleton表示,序列中包含18个元素,每个元素包含一个骨骼关节点信息(x,y,confidence),其中x和y分别是骨骼关节点在图像中的横坐标和纵坐标,confidence为该骨骼关节点的检测置信度,其值为0到1之间,18个关节点按顺序从前到后分别是鼻子(Nose)、颈(Neck)、右肩(RShoulder)、右肘(RElbow)、右手腕(RWrist)、左肩(LShoulder)、左肘(LElbow)、左手腕(LWrist)、右髋(RHip)、右膝盖(RKnee)、右脚踝(RAnkle)、左髋(LHip)、左膝盖(LKnee)、左脚踝(LAnkle)、右眼(REye)、左眼(LEye)、右耳(REar)、左耳(LEar),将乘客骨骼关节点序列中的18个关节点按照一定顺序用直线连接在一起,构成火柴人形状,如图7所示。
7)将手扶电梯乘客人身与手扶电梯乘客骨骼关节点进行匹配,将乘客骨骼关节点信息加入到乘客搭乘手扶电梯的轨迹列表之中;
因为跟踪算法只跟踪到乘客人脸及与其匹配的乘客人身,所以需要将手扶电梯乘客人身与手扶电梯乘客骨骼关节点进行匹配,将乘客骨骼关节点信息加入到乘客搭乘手扶电梯的轨迹列表之中,包括以下步骤:
7.1)针对每个乘客的骨骼关节点序列,使其中18个骨骼关节点坐标(x,y)分别和每个乘客轨迹中的人身检测框计算重合度Cskeleton,若序列中的某个骨骼关节点坐标落在人身检测框中,则重合度加一,若骨骼关节点序列与一个以上的人身检测框重合度相同,则使Cskeleton乘以一个权重系数ωskeleton以作修正再进行进一步的大小比较,即骨骼关节点在分布人身检测框中分布越均匀,权重系数ωskeleton越大,ωskeleton计算公式如下:
其中,maxΔPPSkeletonx为骨骼关节点序列中关节点横坐标差值的最大值,maxΔPPSkeletony为骨骼关节点序列中关节点纵坐标差值的最大值,PPBodywidth为对应的乘客人身检测框宽度,PPBodyheight为对应的乘客人身检测框高度,计算骨骼关节点序列与每个人身检测框的重合度Cskeleton,选择最大重合度对应的人身检测框作为该骨骼关节点序列对应的人身检测框,并将该骨骼关节点序列添加到乘客轨迹列表中对应乘客的骨骼关节点序列元素之中;
7.2)归一化乘客轨迹列表中的骨骼关节点序列元素中的18个骨骼关节点横纵坐标x和y,将x和y分别减去对应人身检测框的左上角顶点的横纵坐标,然后除以人身检测框的宽和高进行归一化,归一化后的的横纵坐标取值为0到1之间。
8)通过分析乘客搭乘手扶电梯的轨迹列表中的乘客骨骼关节点信息,判别乘客搭乘手扶电梯过程中是否发生摔倒行为。
因为乘客发生摔倒行为时人体关节点会有明显的变化,所以可通过乘客骨骼关节点序列信息推断乘客摔倒行为,利用模板匹配的思想,提取关键帧的乘客骨骼关节点序列作为模板,在检测摔倒行为时将提取得到的骨骼关节点与模板进行匹配,可判别乘客搭乘手扶电梯过程中是否发生摔倒行为,包括以下步骤:
8.1)采集乘客搭乘手扶电梯过程中摔倒行为的视频帧,得到乘客摔倒时的骨骼关节点序列,分析乘客摔倒行为,从骨骼关节点信息方面找到摔倒行为的共性,提取一系列具有代表性的关键骨骼关节点序列,以此为模板进行待匹配;
8.2)测试时,在当前帧图像从乘客轨迹列表中得到每个乘客对应的骨骼关节点序列,使其和预先制作好的摔倒行为骨骼关节点序列模板进行匹配,计算匹配相似度并选择其中最大值Mskeleton,和预先设定的阈值Tskeleton进行比较,其中采用乘客骨骼关节点序列和模板之间的欧氏距离的负对数作为匹配相似度,若大于该阈值则认为乘客在该帧图像发生摔倒行为,然后从乘客刚出现摔倒行为的帧FrameSkeletonbegin开始,直到乘客恢复正常行为的帧FrameSkeletonend为止,统计发生摔倒行为的帧数为FrameSkeletonsum,若FrameSkeletonsum大于预先设定的阈值TSkeletonsum,则检测到乘客在搭乘手扶电梯的过程中发生摔倒行为,并将摔倒行为异常情况反馈至手扶电梯控制台。
以上所述实施例只为本发明之较佳实施例,并非以此限制本发明的实施范围,故凡依本发明之形状、原理所作的变化,均应涵盖在本发明的保护范围内。

Claims (9)

1.基于深度学习的手扶电梯乘客摔倒检测算法,其特征在于:该方法主要是通过检测并跟踪搭乘手扶电梯的乘客,基于乘客骨骼关节点信息判别乘客摔倒行为,包括以下步骤:
1)乘客搭乘手扶电梯视频图像采集;
2)利用FHOG描述子和SVM分类器进行手扶电梯乘客人脸检测;
3)利用核相关滤波器KCF对手扶电梯乘客人脸进行跟踪,基于乘客人脸信息新建乘客搭乘手扶电梯的轨迹列表;
4)利用yolo2深度学习算法,用迁移学习方法重新训练乘客检测模型,进行手扶电梯乘客人身检测;
5)将手扶电梯乘客人脸和手扶电梯乘客人身进行匹配,把乘客人身信息加入到乘客搭乘手扶电梯的轨迹列表之中;
6)利用openpose深度学习算法提取乘客搭乘手扶电梯时的骨骼关节点序列;
7)将手扶电梯乘客人身与手扶电梯乘客骨骼关节点序列进行匹配,把乘客骨骼关节点信息加入到乘客搭乘手扶电梯的轨迹列表之中;
8)通过分析乘客搭乘手扶电梯的轨迹列表中的乘客骨骼关节点信息,判别乘客搭乘手扶电梯过程中是否发生摔倒行为。
2.根据权利要求1所述的基于深度学习的手扶电梯乘客摔倒检测算法,其特征在于:在步骤1)中,采用广角摄像头进行手扶电梯区域图像采集,摄像头倾斜安装在与手扶电梯楼层板水平且距离楼层板预设距离的支架上,与手扶电梯中间处垂直对齐,摄像头方向朝向扶梯中部,使其拍摄范围覆盖手扶电梯的整个区域,且能够清楚地拍摄到搭乘手扶电梯的乘客。
3.根据权利要求1所述的基于深度学习的手扶电梯乘客摔倒检测算法,其特征在于:在步骤2)中,利用FHOG描述子对搭乘手扶电梯的乘客人脸进行特征提取,然后利用SVM分类器作为人脸检测器进行乘客人脸检测,包括以下步骤:
2.1)图像金字塔上采样
利用图像金字塔对输入图像进行一次上采样,使输入图片的尺寸放大为原来的两倍;
2.2)颜色空间归一化
利用Gamma压缩在每个颜色通道上进行归一化操作,Gamma压缩公式为:
H(x,y)=H(x,y)Gamma
其中,Gamma为压缩因子,取Gamma值为0.5,H(x,y)为像素点(x,y)的像素值;
2.3)计算图像每个像素点的梯度
在手扶电梯图像中任意一个像素点H(x,y)的梯度▽H(x,y)是一个向量:
其中,Gx(x,y)为像素点(x,y)在水平方向上的梯度,Gy(x,y)为像素点(x,y)在垂直方向上的梯度,应用一维离散微分模板[-1,0,1]和[-1,0,1]T简单快速地分别计算出Gx(x,y)和Gy(x,y):
梯度▽H(x,y)的幅值和方向分别为:
其中,G(x,y)为梯度▽H(x,y)的幅值,为梯度▽H(x,y)的方向;
2.4)提取整幅图像的FHOG特征
FHOG特征是HOG特征的改进,FHOG特征只保留了HOG特征中的细胞单元Cell,而用于归一化操作的块Block则用另外的归一化操作来代替,定义Cell的大小为8*8的像素大小,将该Cell与位于其正上方、正左方和左上方的Cell做归一化操作,计算归一化后的Cell里的所有像素的梯度方向及梯度幅度,将0到360度每隔20度划分为一个bin区间,划分得到18个bin的梯度方向直方图,令每个像素的梯度方向以梯度幅值大小为权重加权投影到相应的bin区间中,这样即得到18维的特征向量,其对梯度方向符号敏感,然后将360度分成两个180度,每个0到180度均每隔20度划分为一个bin区间,划分得到9个bin的梯度方向直方图,令每个像素的梯度方向以梯度幅值大小为权重加权投影到相应的bin区间,得到9维的特征向量,其对梯度方向符号不敏感,然后分别将该Cell与位于其正上方、正右方和右上角的Cell做归一化,位于正下方、正右方和右下角的Cell做归一化,位于正下方、正左方和左下角的Cell做归一化,从而得到另外三个归一化的Cell,重复第一个归一化的Cell的梯度方向直方图计算操作,总共得到4*18维对梯度方向敏感的特征向量和4*9维对方向不敏感的特征向量,将其看作4*18的矩阵和4*9的矩阵,4*18的矩阵每列中的元素进行累加,得到FHOG特征的前18维特征,4*9的矩阵每行和每列中的元素进行累加,得到FHOG特征的后4+9=13维特征,最后在末尾添加一个0,补足得到一个32维的特征向量,即为每个Cell的FHOG特征向量,对整幅图像划分成若干个Cell,并依次提取FHOG特征,即可得到整幅图像的FHOG特征;
2.5)滑动扫描图片检测乘客人脸
设置扫描窗口大小为80*80,对原图像以的比率进行金字塔下采样,即每次采样缩小成上一层图像的最下层为原图,往上逐层递减,构成多层的图像金字塔,当采样得到的图像小于扫描窗口时停止下采样,通过设置固定大小的扫描窗口和构造多层的图像金字塔,即可达到在不同空间尺度上检测人脸的目的;
2.6)利用SVM分类器进行乘客人脸检测
假定训练集样本T={(x1,y1),(x2,y2),…,(xN,yN)},xi∈Rd,yi∈{+1,-1},其中xi为第i个训练样本,是d维向量,yi是第i个训练样本的标签,+1代表正样本,即乘客人脸样本,-1代表负样本,即非乘客人脸样本,线性SVM假设这些样本是线性可分的,则存在一个超平面ωTx+b=0,其中ω∈Rd是线性判别函数的权值,b是一个常数值的偏差量,能够将N个样本正确地划分开来,即:
调整b的尺度,合并两个不等式得到以下约束不等式:
yiTxi+b]≥1,i=1,2,…,N
离分类超平面最近的正负样本到分类超平面的距离称作分类间隔,分别是+1和-1,计算可得分类间隔M为:
SVM的目的是最大化分类间隔M,最大分类间隔对应的分类超平面称为最优分类超平面,求解最优分类超平面,转化为不等式约束下的优化问题:
s.t yiTxi+b]-1≥0,i=1,2,…,N
通过拉格朗日法可求得上述优化问题的对偶问题:
其中αi≥0,i=1,2,…,N为拉格朗日乘子,α为拉格朗日乘子向量,该问题的最优解αi *,i=1,2,…,N通过求二次优化问题求解,然而线性SVM只能解决线性问题,基于FHOG特征描述的手扶电梯乘客人脸检测问题属于非线性问题,需要引入特征变换来将原空间的非线性问题转化为新空间的线性问题,对样本特征x进行非线性变换,得到在新空间的样本特征其中为变换函数,通过拉格朗日求得的对偶问题变为:
令函数K(xi,xj)为核函数,引入核函数的目的是为了避免直接计算变换后的在高维空间的新特征而是一步到位地计算两个新特征的内积和,根据泛函空间的有关理论,任一核函数只要满足正定条件,肯定存在一个特征变换使其中x′为样本特征,特征变换后的空间也称作可再生核希尔伯特空间,在手扶电梯乘客人脸检测问题中,采用的核函数为:
该核函数又被称作是径向基RBF核函数,相当于将原来d维特征向量映射为新空间的无限维向量,考虑到变换后的特征在新空间出现线性不可分的情况,即不可能被所有样本满足,此时为每个样本引入一个松弛变量ξi,i=1,2,…,N,使所有样本都满足以下不等式松弛变量之和越小,代表样本错分程度越低,SVM效果越好,所以需要将松弛变量之和作为一个正则项引入到求解最优分类超平面的目标函数中,即将变为:
其中C是一个常量超参数,C值越小,代表对错误分类样本的容忍度越大,对正确分类样本的分类间隔要求越高,C值越大,代表对错误分类样本的容忍度越小,对正确分类样本的分类间隔要求越低,引入松弛变量后的拉格朗日对偶问题变为:
得到对偶问题的解后,即可得到原问题最终解:支持向量机的决策函数能够写成其中b通过以下式子来求解:
总而言之,SVM通过不断迭代求解二次优化问题求解αi *,i=1,2,…,N,进而得到当目标函数小于预先设定的阈值时,训练停止,得到最终的决策函数检测时,将该决策函数应用在滑动扫描窗口里的待测样本,若决策函数大于0则判断该样本为正样本,即检测得到搭乘手扶电梯的乘客人脸,并以外接矩形框框出。
4.根据权利要求1所述的基于深度学习的手扶电梯乘客摔倒检测算法,其特征在于:在步骤3)中,利用核相关滤波器KCF对手扶电梯乘客人脸进行跟踪,并基于乘客人脸信息新建乘客搭乘手扶电梯的轨迹列表,包括以下步骤:
3.1)令基于FHOG描述子和SVM分类器检测得到的手扶电梯乘客人脸外接矩形框为目标样本,记作向量x,由其循环移位得到若干个训练样本,各训练样本表示成列向量xi,i=1,2,…n,将这n个向量依序排列得到一个矩阵,形成了由x生成的循环矩阵,称作C(x),每个训练样本xi对应一个标签yi,以目标样本为正样本,其标签可设为1,由目标样本循环移位得到的目标周围样本看作负样本,标签根据与目标样本的距离分布在0到1之间,越靠近目标样本标签值越接近于1,所有训练样本的集合为矩阵X,所有样本标签的集合为列向量y;
3.2)由训练样本xi及其标签训练yi得到人脸检测器,首先假设该样本集线性可分,将其看作线性回归问题,则其决策函数为f(xi)=ωTxi,其中ω为列向量,表示各个训练样本在决策函数中的权重系数,考虑到决策函数的结构复杂性问题,为了提高其泛化能力,在决策函数的基础上添加一个正则项λ||ω||2,其中λ为正则项系数,则该线性回归问题的目标函数即为:
通过最小二乘法求得最优解ω*为:
ω*=(XHX+λI)-1XHy
其中I为单位矩阵,H为共轭转置。然而,线性回归只能解决线性问题,为了解决非线性问题,需要引入一个非线性映射函数φ(·)将原空间的xi映射到新空间的φ(xi),此时决策函数变为f(xi)=ωTφ(xi),目标函数变为:
通过拉格朗日法求得上述优化问题的对偶问题:
其中α为拉格朗日乘子,该问题为二次最优问题,对函数求导数,导数的零点即为拉格朗日最优解α*
α*=(φ(X)φ(X)T+λI)-1y
原问题的最优解ω*为:ω*=φ(X)Tα*
3.3)通过上一帧的训练样本训练得到决策函数f(xi)=ωTφ(xi)后,在新的一帧中,以上一帧的目标样本所在的区域作为初始预测区域,并通过循环移位得到初始预测区域的周围区域,得到测试样本zi,i=1,2,…n,构成测试样本矩阵Z,将测试样本zi代入决策函数求得该样本的响应为f(zi)=αTφ(X)φ(zi),则最大响应对应的测试样本即为在当前帧KCF跟踪得到的目标区域;
3.4)KCF算法将训练样本和测试样本写成循环矩阵的形式,利用循环矩阵在傅里叶空间中可对角化的性质,将运算过程中涉及的大量矩阵运算转化为矩阵点乘运算,大大降低运算量,提高跟踪算法的运算速度,使利用KCF跟踪搭乘手扶电梯的乘客人脸满足实时性的要求,求解目标函数对偶问题时,令K表示新空间的核矩阵,则K=φ(X)φ(X)T,于是α*=(K+λI)-1y,证明K是一个循环矩阵,由循环矩阵的分解性质可知:
其中,F是离散傅里叶矩阵,为Kxx的傅里叶变换,Kxx=φ(x)Tφ(X)T为行向量,是K中的第一行,则式子两边做傅里叶变换,再用傅里叶反变换得到:
同理,求解测试样本响应时,令Kz表示新空间的核矩阵,则Kz=φ(X)φ(Z)T,证明Kz也是一个核矩阵,由循环矩阵的分解性质可知:
其中,Kxz为Kz的第一行,然后将式子两边做傅里叶变换,再用傅里叶反变换得到:
此外,上述采用的核函数为高斯核函数:
其中x′为样本特征;
3.5)通过KCF跟踪上一帧的手扶电梯乘客人脸,在当前帧得到一系列跟踪框,令其中心点tj,j=1,2,…,n,其中n为跟踪框的个数,然后在当前帧通过步骤2)的FHOG描述子和SVM分类器检测得到手扶电梯乘客人脸pi,i=1,2,…,m,其中m为检测框的个数,计算pi和tj中心之间的欧氏距离dij,并以其为矩阵元素构成一个n行m列的矩阵,注意若m大于n,代表人脸检测器出现误检或者有新人脸出现,则矩阵添加m-n行构成一个方阵,且新增行里的元素全为0,若m小于n,则代表人脸检测器出现漏检或者人脸离开监控区域,此时维持矩阵不变,若m等于n,则代表人脸检测器正确检测或者上述错误情况发生重叠导致,此时维持矩阵不变,得到人脸矩阵后,判断dij是否大于预先设定的阈值,如果大于则代表跟踪到的人脸框和检测到的人脸框相距超过预设值,不可能为同一目标,将dij改为无穷大,若一列中所有元素都为无穷大,则删除该列,经过以上步骤,即可构成人脸匹配矩阵,然后矩阵每一列取一个行号不重复的元素,共计有k种可能的组合,选择其中元素和最小的组合作为最优组合,则最优目标为:其中每个dij中的j要互不相同,该最优组合中对应的每个元素dij的行列号分别代表第i个人脸检测框和第j个人脸跟踪框匹配成功,为每个人脸检测框新建一个乘客轨迹列表,其中乘客轨迹列表以时间为次序每帧对应列表中的一个元素,每个元素包含该乘客在对应帧的一系列信息,包括人脸检测框的大小及宽高信息,及累加检测强度ConfFace,计算公式为:
ConfFace=ConfFace+ConfFramek
ConfFarmek=a(FT)2-a(FT-1)2-b(NFT)2+b(NFT-1)2
其中,ConfFramek为第k帧的检测强度,a为匹配系数,b为不匹配系数,FT为人脸检测框和人脸跟踪框连续匹配的帧数,NFT为人脸检测框和人脸跟踪框连续不匹配的帧数,显然可知FT*NFT=0,即有且仅有一个不为0,此外ConfFace若超出上限阈值ConfFaceup,则使ConfFace=ConfFaceup,计算乘客轨迹在当前帧图像的ConfFace后,添加进乘客轨迹列表中,将其和预先设置的起始阈值TFaceBeg和终止阈值TFaceEnd进行比较,若大于TFaceBeg,则认为人脸检测器准确检测到一个手扶电梯的乘客人脸,显示人脸检测结果,若小于等于TFaceBeg,则停止显示人脸检测结果,若小于TFaceEnd,则认为该轨迹中的乘客人脸已经消失在监控区域中,应删除该对应的乘客轨迹,以与当前帧乘客在下一帧的人脸跟踪框相匹配的人脸检测框,作为乘客在下一帧对应的人脸检测框,并将该人脸检测框信息添加到下一帧的乘客轨迹列表之中,若再找不到当前帧乘客在下一帧的人脸跟踪框相匹配的人脸检测框,则采用乘客在下一帧的人脸跟踪框作为下一帧对应的人脸检测框,并将该人脸检测框信息添加到下一帧的乘客轨迹列表之中。
5.根据权利要求1所述的基于深度学习的手扶电梯乘客摔倒检测算法,其特征在于:在步骤4)中,利用yolo2深度学习算法,用迁移学习方法重新训练乘客检测模型,进行手扶电梯乘客人身检测,包括以下步骤:
4.1)训练时,将乘客搭乘手扶电梯的图像作为输入图像,将其分成S*S个网格,每个网格要预测B个外接框bounding box,每个bounding box包含5个元素,分别是该框的中心横坐标x、中心纵坐标y、框宽w、框高h和框的预测置信度confidence共5个值,其中,x和y要分别减去所属网格的左上角顶点坐标值再除以网格的宽和高来归一化到0-1之间,w和h要分别除以图像的宽和高归一化到0-1之间,confidence的计算公式为:
其中,Object为待预测目标,Pr(Object)为检测到物体的概率,若有目标落入网格中,则Pr(Object)=1,否则为0,为预测的bounding box和实际的待预测目标groudtruth box之间的重叠度,用交并比IOU来衡量,若遇到某个bounding box和多个groudtruth box相交的情况,则取最大IOU值作为得到的confidence即为最大IOU对应类别的预测置信度,即一个bounding box只预测一个类别,此外,每个网格还有预测C种待预测类别的条件概率Pr(Classi|Object),即当有Object落在网格时其为第i类类别的概率;
4.2)预测时,将每个bounding box预测的confidence值和所属网格的Pr(Classi|Object)相乘得到bounding box预测的某一类的概率class-specific confidence score,和预先设置的阈值进行比较,保留高于阈值的bounding box,并进行非极大值抑制NMS处理,该处理是为了从一堆互相重叠的检测框中筛选出最终有用的检测框,经此处理最终得到检测结果;
4.3)深度学习需要大量的样本进行模型的训练,样本越多模型的训练效果越好,而实际场景中获取训练样本的成本较高,所以需要迁移学习对模型进行训练,迁移学习的核心思想是先用别的训练集对模型进行训练,该训练集通常采用网上公开的大容量训练集,且包含目标类别,由于要进行手扶电梯乘客人身检测,所以采用PASCAL VOC训练集进行预训练,该训练集中包含行人在内的20个类别的训练样本,训练得到预训练模型后,去除yolo2模型的最后一层全连接层,并根据实际问题设计新的全连接层来替代,在此即为乘客有无两种类别,保留除了该全连接层外的所有参数作为模型再训练的初始参数,向该修改后的模型输入自己本地的训练样本作再训练,迭代参数训练得到最终的yolo2模型,用该模型预测待测试图片,并以bounding box的形式进行输出,即预测搭乘手扶电梯的乘客人身并以外接矩形框进行标记。
6.根据权利要求1所述的基于深度学习的手扶电梯乘客摔倒检测算法,其特征在于:在步骤5)中,将手扶电梯乘客人脸和手扶电梯乘客人身进行匹配,把乘客人身信息加入到乘客搭乘手扶电梯的轨迹列表之中,包括以下步骤:
5.1)将步骤4)中得到的乘客人身检测框PPBodyj,j=1,2…,n和乘客轨迹列表中的人脸检测框PPFacei,i=1,2…,m进行匹配,其中n为人身检测框的个数,m为轨迹列表中的人脸检测框或乘客的个数,对PPFacei和PPBodyj进行匹配;
5.2)对于每个PPFacei,统计其重复出现于人身检测框的的次数记为PPFaceNumi,若PPFaceNumi=1,则说明该人脸检测框有且仅出现在一个人身检测框PPBodyj中,则PPFacei和PPBodyj匹配成功,并从匹配序列中消除成功匹配的PPFacei和PPBodyj,然后重新进行匹配,直到找不到匹配的PPFacei和PPBodyj
5.3)匹配完有且仅出现在一个人身检测框的PPFacei后,此时出现两种情况,一是PPFaceNumi=0,说明人脸检测框找不到对应的人身检测框,采用乘客轨迹中上一帧乘客人脸检测框对应的人身检测框来代替该帧人脸检测框对应的人身检测框,若PPFaceNumi>1,则根据先验规则选择与其匹配度最高的人身检测框PPBodyj,匹配成功后消除成功匹配的PPFacei和PPBodyj
5.4)重复执行5.2)和5.3),直到只剩下PPFaceNumi=0对应的人脸检测框,则乘客轨迹中的所有人脸检测框与人身检测框匹配过程结束,将与人脸检测框匹配对应的人身检测框信息添加到乘客轨迹列表中对应乘客的人身检测框元素之中。
7.根据权利要求1所述的基于深度学习的手扶电梯乘客摔倒检测算法,其特征在于:在步骤6)中,利用openpose深度学习算法提取乘客搭乘手扶电梯时的骨骼关节点信息,其中乘客的全身骨骼关节点用一串序列表示,序列中包含18个元素,每个元素包含一个骨骼关节点信息(x,y,confidence),其中x和y分别是骨骼关节点在图像中的横坐标和纵坐标,confidence为该骨骼关节点的检测置信度,其值为0到1之间,18个关节点按顺序从前到后分别是鼻子Nose、颈Neck、右肩RShoulder、右肘RElbow、右手腕RWrist、左肩LShoulder、左肘LElbow、左手腕LWrist、右髋RHip、右膝盖RKnee、右脚踝RAnkle、左髋LHip、左膝盖LKnee、左脚踝LAnkle、右眼REye、左眼LEye、右耳REar、左耳LEar。
8.根据权利要求1所述的基于深度学习的手扶电梯乘客摔倒检测算法,其特征在于:在步骤7)中,将手扶电梯乘客人身与手扶电梯乘客骨骼关节点进行匹配,将乘客骨骼关节点信息加入到乘客搭乘手扶电梯的轨迹列表之中,包括以下步骤:
7.1)针对每个乘客的骨骼关节点序列,使其中18个骨骼关节点坐标(x,y)分别和每个乘客轨迹中的人身检测框计算重合度Cskeleton,若序列中的某个骨骼关节点坐标落在人身检测框中,则重合度加一,若骨骼关节点序列与一个以上的人身检测框重合度相同,则使Cskeleton乘以一个权重系数ωskeleton以作修正再进行进一步的大小比较,即骨骼关节点在分布人身检测框中分布越均匀,权重系数ωskeleton越大,ωskeleton计算公式如下:
其中,maxΔPPSkeletonx为骨骼关节点序列中关节点横坐标差值的最大值,maxΔPPSkeletony为骨骼关节点序列中关节点纵坐标差值的最大值,PPBodywidth为对应的乘客人身检测框宽度,PPBodyheight为对应的乘客人身检测框高度,计算骨骼关节点序列与每个人身检测框的重合度,选择最大重合度对应的人身检测框作为该骨骼关节点序列对应的人身检测框,并将该骨骼关节点序列添加到乘客轨迹列表中对应乘客的骨骼关节点序列元素之中;
7.2)归一化乘客轨迹列表中的骨骼关节点序列元素中的18个骨骼关节点横纵坐标x和y,将x和y分别减去对应人身检测框的左上角顶点的横纵坐标,然后除以人身检测框的宽和高进行归一化,归一化后的的横纵坐标取值为0到1之间。
9.根据权利要求1所述的基于深度学习的手扶电梯乘客摔倒检测算法,其特征在于:在步骤8)中,通过分析乘客搭乘手扶电梯的轨迹列表中的乘客骨骼关节点信息,判别乘客搭乘手扶电梯过程中是否发生摔倒行为,包括以下步骤:
8.1)采集乘客搭乘手扶电梯过程中摔倒行为的视频帧,得到乘客摔倒时的骨骼关节点序列,分析乘客摔倒行为,从骨骼关节点信息方面找到摔倒行为的共性,提取一系列具有代表性的关键骨骼关节点序列,以此为模板进行待匹配;
8.2)测试时,在当前帧图像从乘客轨迹列表中得到每个乘客对应的骨骼关节点序列,使其和预先制作好的摔倒行为骨骼关节点序列模板进行匹配,计算匹配相似度并选择其中最大值Mskeleton,和预先设定的阈值Tskeleton进行比较,其中采用乘客骨骼关节点序列和模板之间的欧氏距离的负对数作为匹配相似度,若大于该阈值则认为乘客在该帧图像发生摔倒行为,然后从乘客刚出现摔倒行为的帧FrameSkeletonbegin开始,直到乘客恢复正常行为的帧FrameSkeletonend为止,统计发生摔倒行为的帧数为FrameSkeletonsum,若FrameSkeletonsum大于预先设定的阈值TSkeletonsum,则检测到乘客在搭乘手扶电梯的过程中发生摔倒行为,并将摔倒行为异常情况反馈至手扶电梯控制台。
CN201810627161.1A 2018-06-19 2018-06-19 基于深度学习的手扶电梯乘客摔倒检测方法 Active CN108805093B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810627161.1A CN108805093B (zh) 2018-06-19 2018-06-19 基于深度学习的手扶电梯乘客摔倒检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810627161.1A CN108805093B (zh) 2018-06-19 2018-06-19 基于深度学习的手扶电梯乘客摔倒检测方法

Publications (2)

Publication Number Publication Date
CN108805093A true CN108805093A (zh) 2018-11-13
CN108805093B CN108805093B (zh) 2020-09-22

Family

ID=64083349

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810627161.1A Active CN108805093B (zh) 2018-06-19 2018-06-19 基于深度学习的手扶电梯乘客摔倒检测方法

Country Status (1)

Country Link
CN (1) CN108805093B (zh)

Cited By (32)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109684933A (zh) * 2018-11-30 2019-04-26 广州大学 一种前方行人窜出马路的预警方法
CN109711263A (zh) * 2018-11-29 2019-05-03 国政通科技有限公司 考试系统及其处理方法
CN109753931A (zh) * 2019-01-04 2019-05-14 广州广电卓识智能科技有限公司 卷积神经网络训练方法、系统及人脸特征点检测方法
CN109815800A (zh) * 2018-12-17 2019-05-28 广东电网有限责任公司 基于回归算法的目标检测方法及系统
CN109919135A (zh) * 2019-03-27 2019-06-21 华瑞新智科技(北京)有限公司 基于深度学习的行为检测方法、装置
CN109948560A (zh) * 2019-03-25 2019-06-28 南开大学 融合骨骼识别和IFace-TLD的移动机器人目标跟踪系统
CN109977783A (zh) * 2019-02-28 2019-07-05 浙江新再灵科技股份有限公司 基于直梯场景婴儿车单独乘梯检测的方法
CN110008804A (zh) * 2018-12-12 2019-07-12 浙江新再灵科技股份有限公司 基于深度学习的电梯监控关键帧获取及检测方法
CN110009650A (zh) * 2018-12-20 2019-07-12 浙江新再灵科技股份有限公司 一种扶梯扶手边界区域越界检测方法与系统
CN110135258A (zh) * 2019-04-12 2019-08-16 深圳壹账通智能科技有限公司 自动扶梯控制方法、装置、存储介质和计算机设备
CN110211152A (zh) * 2019-05-14 2019-09-06 华中科技大学 一种基于机器视觉的内窥镜器械跟踪方法
CN110287825A (zh) * 2019-06-11 2019-09-27 沈阳航空航天大学 一种基于关键骨骼点轨迹分析的摔倒动作检测方法
CN110327053A (zh) * 2019-07-12 2019-10-15 广东工业大学 一种基于电梯空间的人体行为安全监测方法、设备及系统
CN110443150A (zh) * 2019-07-10 2019-11-12 思百达物联网科技(北京)有限公司 一种跌倒检测方法、装置、存储介质
CN110458061A (zh) * 2019-07-30 2019-11-15 四川工商学院 一种识别老年人跌倒的方法及陪伴机器人
CN110717476A (zh) * 2019-10-22 2020-01-21 上海眼控科技股份有限公司 图像处理方法、装置、计算机设备和计算机可读存储介质
CN110765964A (zh) * 2019-10-30 2020-02-07 常熟理工学院 基于计算机视觉的电梯轿厢内异常行为的检测方法
CN110781843A (zh) * 2019-10-29 2020-02-11 首都师范大学 课堂行为检测方法及电子设备
CN111507185A (zh) * 2020-03-11 2020-08-07 杭州电子科技大学 一种基于堆叠空洞卷积网络的摔倒检测方法
CN111680613A (zh) * 2020-06-03 2020-09-18 安徽大学 一种实时检测手扶电梯乘客摔倒行为的方法
CN111738075A (zh) * 2020-05-18 2020-10-02 深圳奥比中光科技有限公司 一种基于行人检测的关节点跟踪方法及系统
CN111738262A (zh) * 2020-08-21 2020-10-02 北京易真学思教育科技有限公司 目标检测模型训练、检测方法、装置、设备及存储介质
CN111797993A (zh) * 2020-06-16 2020-10-20 东软睿驰汽车技术(沈阳)有限公司 深度学习模型的评价方法、装置、电子设备及存储介质
CN112507894A (zh) * 2020-12-14 2021-03-16 天时地理(深圳)智能科技有限公司 一种车辆识别跟踪方法及系统
CN112800900A (zh) * 2021-01-18 2021-05-14 上海云话科技有限公司 一种基于视觉感知的矿山人员倒地检测方法
CN112883808A (zh) * 2021-01-23 2021-06-01 招商新智科技有限公司 一种行人搭乘扶梯异常行为检测方法、装置及电子设备
CN113095239A (zh) * 2021-04-15 2021-07-09 深圳市英威诺科技有限公司 一种关键帧提取方法、终端及计算机可读存储介质
CN113361366A (zh) * 2021-05-27 2021-09-07 北京百度网讯科技有限公司 人脸标注方法、装置、电子设备和存储介质
CN113591797A (zh) * 2021-08-23 2021-11-02 苏州大学 一种深度视频行为识别方法
CN114663977A (zh) * 2022-03-24 2022-06-24 龙港市添誉信息科技有限公司 长时间跨度视频图像行人监测精准追踪方法
CN115393396A (zh) * 2022-08-18 2022-11-25 西安电子科技大学 一种基于掩码预训练的无人机目标跟踪方法
CN117315550A (zh) * 2023-11-29 2023-12-29 南京市特种设备安全监督检验研究院 自动扶梯乘客危险行为的检测方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101670973A (zh) * 2008-09-09 2010-03-17 东芝电梯株式会社 自动扶梯监视系统
CN106127148A (zh) * 2016-06-21 2016-11-16 华南理工大学 一种基于机器视觉的手扶电梯乘客异常行为检测算法
CN107239762A (zh) * 2017-06-06 2017-10-10 电子科技大学 一种基于视觉的公交车内乘客人数统计方法
JP6271698B1 (ja) * 2016-12-27 2018-01-31 東芝エレベータ株式会社 乗客コンベアシステム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101670973A (zh) * 2008-09-09 2010-03-17 东芝电梯株式会社 自动扶梯监视系统
CN106127148A (zh) * 2016-06-21 2016-11-16 华南理工大学 一种基于机器视觉的手扶电梯乘客异常行为检测算法
JP6271698B1 (ja) * 2016-12-27 2018-01-31 東芝エレベータ株式会社 乗客コンベアシステム
CN107239762A (zh) * 2017-06-06 2017-10-10 电子科技大学 一种基于视觉的公交车内乘客人数统计方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
杜启亮等: "基于Adaboost和码本模型的手扶电梯出入口视频监控方法", 《计算机应用》 *
杜启亮等: "基于IMX6的手扶电梯智能视频监控系统设计", 《现代电子技术》 *

Cited By (42)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109711263A (zh) * 2018-11-29 2019-05-03 国政通科技有限公司 考试系统及其处理方法
CN109684933A (zh) * 2018-11-30 2019-04-26 广州大学 一种前方行人窜出马路的预警方法
CN110008804B (zh) * 2018-12-12 2021-07-06 浙江新再灵科技股份有限公司 基于深度学习的电梯监控关键帧获取及检测方法
CN110008804A (zh) * 2018-12-12 2019-07-12 浙江新再灵科技股份有限公司 基于深度学习的电梯监控关键帧获取及检测方法
CN109815800A (zh) * 2018-12-17 2019-05-28 广东电网有限责任公司 基于回归算法的目标检测方法及系统
CN110009650A (zh) * 2018-12-20 2019-07-12 浙江新再灵科技股份有限公司 一种扶梯扶手边界区域越界检测方法与系统
CN109753931A (zh) * 2019-01-04 2019-05-14 广州广电卓识智能科技有限公司 卷积神经网络训练方法、系统及人脸特征点检测方法
CN109977783A (zh) * 2019-02-28 2019-07-05 浙江新再灵科技股份有限公司 基于直梯场景婴儿车单独乘梯检测的方法
CN109948560B (zh) * 2019-03-25 2023-04-07 南开大学 融合骨骼识别和IFace-TLD的移动机器人目标跟踪系统
CN109948560A (zh) * 2019-03-25 2019-06-28 南开大学 融合骨骼识别和IFace-TLD的移动机器人目标跟踪系统
CN109919135A (zh) * 2019-03-27 2019-06-21 华瑞新智科技(北京)有限公司 基于深度学习的行为检测方法、装置
CN110135258A (zh) * 2019-04-12 2019-08-16 深圳壹账通智能科技有限公司 自动扶梯控制方法、装置、存储介质和计算机设备
CN110211152A (zh) * 2019-05-14 2019-09-06 华中科技大学 一种基于机器视觉的内窥镜器械跟踪方法
CN110287825A (zh) * 2019-06-11 2019-09-27 沈阳航空航天大学 一种基于关键骨骼点轨迹分析的摔倒动作检测方法
CN110287825B (zh) * 2019-06-11 2022-12-02 沈阳航空航天大学 一种基于关键骨骼点轨迹分析的摔倒动作检测方法
CN110443150A (zh) * 2019-07-10 2019-11-12 思百达物联网科技(北京)有限公司 一种跌倒检测方法、装置、存储介质
CN110327053A (zh) * 2019-07-12 2019-10-15 广东工业大学 一种基于电梯空间的人体行为安全监测方法、设备及系统
CN110458061B (zh) * 2019-07-30 2022-04-05 四川工商学院 一种识别老年人跌倒的方法及陪伴机器人
CN110458061A (zh) * 2019-07-30 2019-11-15 四川工商学院 一种识别老年人跌倒的方法及陪伴机器人
CN110717476A (zh) * 2019-10-22 2020-01-21 上海眼控科技股份有限公司 图像处理方法、装置、计算机设备和计算机可读存储介质
CN110781843A (zh) * 2019-10-29 2020-02-11 首都师范大学 课堂行为检测方法及电子设备
CN110765964B (zh) * 2019-10-30 2022-07-15 常熟理工学院 基于计算机视觉的电梯轿厢内异常行为的检测方法
CN110765964A (zh) * 2019-10-30 2020-02-07 常熟理工学院 基于计算机视觉的电梯轿厢内异常行为的检测方法
CN111507185A (zh) * 2020-03-11 2020-08-07 杭州电子科技大学 一种基于堆叠空洞卷积网络的摔倒检测方法
CN111738075A (zh) * 2020-05-18 2020-10-02 深圳奥比中光科技有限公司 一种基于行人检测的关节点跟踪方法及系统
CN111680613B (zh) * 2020-06-03 2023-04-14 安徽大学 一种实时检测手扶电梯乘客摔倒行为的方法
CN111680613A (zh) * 2020-06-03 2020-09-18 安徽大学 一种实时检测手扶电梯乘客摔倒行为的方法
CN111797993B (zh) * 2020-06-16 2024-02-27 东软睿驰汽车技术(沈阳)有限公司 深度学习模型的评价方法、装置、电子设备及存储介质
CN111797993A (zh) * 2020-06-16 2020-10-20 东软睿驰汽车技术(沈阳)有限公司 深度学习模型的评价方法、装置、电子设备及存储介质
CN111738262A (zh) * 2020-08-21 2020-10-02 北京易真学思教育科技有限公司 目标检测模型训练、检测方法、装置、设备及存储介质
CN112507894A (zh) * 2020-12-14 2021-03-16 天时地理(深圳)智能科技有限公司 一种车辆识别跟踪方法及系统
CN112800900A (zh) * 2021-01-18 2021-05-14 上海云话科技有限公司 一种基于视觉感知的矿山人员倒地检测方法
CN112883808A (zh) * 2021-01-23 2021-06-01 招商新智科技有限公司 一种行人搭乘扶梯异常行为检测方法、装置及电子设备
CN113095239A (zh) * 2021-04-15 2021-07-09 深圳市英威诺科技有限公司 一种关键帧提取方法、终端及计算机可读存储介质
CN113361366A (zh) * 2021-05-27 2021-09-07 北京百度网讯科技有限公司 人脸标注方法、装置、电子设备和存储介质
CN113591797A (zh) * 2021-08-23 2021-11-02 苏州大学 一种深度视频行为识别方法
CN113591797B (zh) * 2021-08-23 2023-07-28 苏州大学 一种深度视频行为识别方法
CN114663977A (zh) * 2022-03-24 2022-06-24 龙港市添誉信息科技有限公司 长时间跨度视频图像行人监测精准追踪方法
CN115393396A (zh) * 2022-08-18 2022-11-25 西安电子科技大学 一种基于掩码预训练的无人机目标跟踪方法
CN115393396B (zh) * 2022-08-18 2024-02-02 西安电子科技大学 一种基于掩码预训练的无人机目标跟踪方法
CN117315550A (zh) * 2023-11-29 2023-12-29 南京市特种设备安全监督检验研究院 自动扶梯乘客危险行为的检测方法
CN117315550B (zh) * 2023-11-29 2024-02-23 南京市特种设备安全监督检验研究院 自动扶梯乘客危险行为的检测方法

Also Published As

Publication number Publication date
CN108805093B (zh) 2020-09-22

Similar Documents

Publication Publication Date Title
CN108805093A (zh) 基于深度学习的手扶电梯乘客摔倒检测算法
Kaseko et al. A neural network-based methodology for pavement crack detection and classification
CN107220603A (zh) 基于深度学习的车辆检测方法及装置
CN109740463A (zh) 一种车载环境下的目标检测方法
CN110018524A (zh) 一种基于视觉-属性的x射线安检违禁品识别方法
CN110188807A (zh) 基于级联超分辨率网络与改进Faster R-CNN的隧道行人目标检测方法
CN106886755A (zh) 一种基于交通标志识别的交叉口车辆违章检测系统
CN106529448A (zh) 利用聚合通道特征进行多视角人脸检测的方法
CN106909902A (zh) 一种基于改进的层次化显著模型的遥感目标检测方法
CN108280397A (zh) 基于深度卷积神经网络的人体图像头发检测方法
CN110298265A (zh) 一种基于yolo神经网络的电梯中特定目标检测方法
CN114283469B (zh) 一种基于改进YOLOv4-tiny的轻量型目标检测方法及系统
CN103514456A (zh) 基于压缩感知多核学习的图像分类方法及其装置
CN104166841A (zh) 一种视频监控网络中指定行人或车辆的快速检测识别方法
CN109583315A (zh) 一种面向智能视频监控的多通道快速人体姿态识别方法
CN104298974A (zh) 一种基于深度视频序列的人体行为识别方法
Zinchenko et al. Computer vision in control and optimization of road traffic
Chen et al. Building area estimation in drone aerial images based on mask R-CNN
CN102819733A (zh) 一种快速的街景图像中人脸的检测模糊方法
CN107483894A (zh) 基于场景判断实现客运管理的高铁车站视频监控系统
CN113762201A (zh) 基于yolov4的口罩检测方法
CN109961425A (zh) 一种动态水的水质识别方法
CN116824335A (zh) 一种基于YOLOv5改进算法的火灾预警方法及系统
CN106056078A (zh) 一种基于多特征回归式集成学习的人群密度估计方法
CN109583499A (zh) 一种基于无监督sdae网络的输电线路背景目标分类系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant