CN109460702B - 基于人体骨架序列的乘客异常行为识别方法 - Google Patents

基于人体骨架序列的乘客异常行为识别方法 Download PDF

Info

Publication number
CN109460702B
CN109460702B CN201811072438.5A CN201811072438A CN109460702B CN 109460702 B CN109460702 B CN 109460702B CN 201811072438 A CN201811072438 A CN 201811072438A CN 109460702 B CN109460702 B CN 109460702B
Authority
CN
China
Prior art keywords
passenger
skeleton
sequence
matching
detection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201811072438.5A
Other languages
English (en)
Other versions
CN109460702A (zh
Inventor
田联房
吴啟超
杜启亮
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
South China University of Technology SCUT
Zhuhai Institute of Modern Industrial Innovation of South China University of Technology
Original Assignee
South China University of Technology SCUT
Zhuhai Institute of Modern Industrial Innovation of South China University of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by South China University of Technology SCUT, Zhuhai Institute of Modern Industrial Innovation of South China University of Technology filed Critical South China University of Technology SCUT
Priority to CN201811072438.5A priority Critical patent/CN109460702B/zh
Publication of CN109460702A publication Critical patent/CN109460702A/zh
Application granted granted Critical
Publication of CN109460702B publication Critical patent/CN109460702B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2411Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/262Analysis of motion using transform domain methods, e.g. Fourier domain methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/277Analysis of motion involving stochastic approaches, e.g. using Kalman filters
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/103Static body considered as a whole, e.g. static pedestrian or occupant recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30232Surveillance

Abstract

本发明公开了一种基于人体骨架序列的乘客异常行为识别方法,包括步骤:1)通过摄像头拍摄扶梯区域监控视频图像;2)通过SVM检测乘客人脸并用KCF对其跟踪,得到乘客在扶梯中的运动轨迹;3)利用OpenPose深度学习网络从图像中提取人体骨架;4)将人体骨架匹配到相应的乘客轨迹,构建乘客的人体骨架序列;5)通过模板匹配从乘客人体骨架序列中检测得到异常行为骨架序列;6)利用DTW将其与各类异常行为骨架序列模板匹配,识别异常行为。通过本发明可以基于人体骨架序列准确实时地识别扶梯中乘客的多种异常行为,根据异常行为类别控制扶梯的运行情况,避免安全事故的发生。

Description

基于人体骨架序列的乘客异常行为识别方法
技术领域
本发明涉及图像处理及行为识别的技术领域,尤其是指一种基于人体骨架序列的乘客异常行为识别方法。
背景技术
智能视频监控系统凭借其成本低廉,准确稳定的特点,在公共场所的安全防范领域中越来越受到重视。人的异常行为识别是智能视频监控系统其中一个重要应用,其通过视频序列检测并跟踪运动目标,对目标行为进行分析,检测出异常行为片段,进而识别异常行为类别。乘客搭乘扶梯时,摔倒、攀爬扶手带、探头探手等异常行为会造成严重的安全事故问题,因此,应用智能视频监控系统准确稳定地识别各种异常行为并及时监控处理具有重要意义,吸引了国内外学者进行相关的研究。
传统异常行为识别只能在单一简单的环境中进行几类特定动作的识别,在复杂环境下容易受环境干扰导致识别率降低,目前已有的算法不能在复杂环境中实时准确地检测并识别出多种异常行为。通过摄像头拍摄扶梯区域的监控视频图像,通过支持向量机(Support Vector Machine,SVM)检测乘客人脸并用改进的核相关滤波器(KernelizedCorrelation Filter,KCF)对其跟踪,构建乘客在扶梯中的运动轨迹,进而基于OpenPose深度学习网络得到轨迹中乘客的人体骨架序列,再应用骨架方向余弦通过模板匹配从中检测出异常行为骨架序列,最后,利用动态时间规整(Dynamic Time Warping,DTW)匹配识别各类异常行为,并将异常行为识别结果传送到扶梯控制器,控制扶梯的运行。目前为止,国内针对手扶梯电梯应用场景的实时乘客行为识别技术研究较少,鉴于智能视频监控系统相对人工监控在实时性和稳定性中具有较大的优势,应加快并推广相应技术的研发,让先进的技术受惠于民。
发明内容
本发明的目的在于克服现有技术的不足,提出了一种基于人体骨架序列的乘客异常行为识别方法,实时、稳定、准确地识别手扶电梯上乘客的多种异常行为。
为实现上述目的,本发明所提供的技术方案为:基于人体骨架序列的乘客异常行为识别方法,包括以下步骤:
1)通过摄像头拍摄扶梯区域监控视频图像;
2)通过支持向量机SVM检测乘客人脸并用核相关滤波KCF对其跟踪,得到乘客在扶梯中的运动轨迹;
3)利用OpenPose深度学习网络从图像中提取人体骨架;
4)将人体骨架匹配到相应的乘客轨迹,构建乘客的人体骨架序列;
5)通过模板匹配从乘客人体骨架序列中检测得到异常行为骨架序列;
6)利用DTW将其与各类异常行为骨架序列模板匹配,识别异常行为。
在步骤1)中,通过安装在扶梯上楼层板天花板的摄像头拍摄扶梯区域监控视频图像,摄像头方向朝向扶梯中部,安装时调整摄像头的倾斜角度,使监控区域刚好囊括整个扶梯。
在步骤2)中,通过SVM检测乘客人脸并用KCF对其跟踪,得到乘客在扶梯中的运动轨迹,扶梯中的乘客运动轨迹构建问题本质是多目标跟踪,通过对搭乘扶梯的所有乘客进行连续跟踪,构建得到各位乘客在扶梯中的运动轨迹,由于扶梯区域狭小,客流密集时容易出现由于乘客拥挤而导致的人体相互遮挡情况,因此选择不容易发生遮挡且具有明显形状特征的乘客人脸作为检测和跟踪对象,并基于人脸目标构建乘客在扶梯中的运动轨迹,包括以下步骤:
2.1)基于SVM检测乘客人脸位置
使用基于可变形组建模型(Deformable Part Model,DPM)特征的SVM分类器进行乘客人脸检测,DPM特征计算图像局部区域的梯度方向直方图,定义细胞单元大小为8×8像素大小的矩形块,计算矩形块的梯度方向直方图,然后分别与对角线邻域的四个Cell进行归一化操作,再将特征矩阵行列相加得到32维的特征向量,检测人脸时,提取原始图像的DPM特征图,分别和训练好的8×8分辨率的根滤波器和4×4分辨率大小的组件滤波器进行卷积操作计算DPM响应值,利用训练好的SVM人脸分类器进行人脸检测,SVM是一种二分类模型,其基于统计学习理论构建一个最优分类超平面,使样本正确地分开且离超平面最近的正负样本到超平面的距离是最大的;
已知训练集样本T={(x1,y1),(x2,y2),…,(xN,yN)},xi∈Rd,yi∈{+1,-1},其中xi为第i个训练样本,yi为第i个样本标签,N为样本个数,d为特征维数,当正负样本线性可分时,则存在一个超平面:
ωTx+b=0,ω∈Rd
其中,ω为权值向量,b为偏移系数,正确划分N个样本,求解最优分类超平面,可转化为不等式约束下的优化问题:
Figure GDA0003212474150000031
s.t yiTxi+b]-1≥0,i=1,2,…,N
并通过拉格朗日法求解该问题的对偶问题从而找到该问题的解,然而乘客人脸分类属于非线性问题,需对原空间非线性可分的特征x通过非线性变换
Figure GDA0003212474150000032
转化为高维空间线性可分特征,引入核函数一步到位计算新特征的内积和,避免单独计算复杂的非线性变换新特征,本文采用径向基核函数:
Figure GDA0003212474150000033
其中,σ为方差参数,此外,考虑到个别样本不能被正确划分,为每个样本引入松弛变量:
ξi,i=1,2,…,N
引入松弛变量且对特征进行非线性变换后的拉格朗日对偶问题变为:
Figure GDA0003212474150000041
Figure GDA0003212474150000042
0≤αi≤C,i=1,2,…,N
其中,α为拉格朗日向量,αij为拉格朗日乘子,C是一个常量超参数,C值越小,代表对错误分类样本的容忍度越大,对偶问题的最优解为αi *,i=1,2,…,N,训练得到最优超平面决策函数为:
Figure GDA0003212474150000043
其中偏差系数b*通过式子:
Figure GDA0003212474150000044
求解,检测时,若决策函数大于0,则检测得到乘客人脸;
2.2)利用KCF跟踪乘客人脸位置
利用SVM人脸分类器检测扶梯中的乘客人脸时,误差来源主要有以下三个部分,一是在光照不均匀、阴影存在、等环境因素的干扰下,会出现漏检或误检的情况,二是当乘客频繁进出或乘客拥挤造成相互遮挡时,会出现漏检情况,三是人脸分类器性能有限,造成漏检或误检情况,因此,检测得到乘客人脸后,利用判别式模型跟踪方法KCF跟踪乘客人脸,将跟踪结果与人脸检测结果进行匹配,矫正人脸漏检与误检情况,与其它生成式模型跟踪方法不同,KCF不需要通过对目标运动过程建模来进行目标跟踪,而是采用判别与跟踪相结合的方式,以当前帧目标为正样本,目标周围背景作为负样本,利用脊回归通过最小二乘法训练目标分类器,并用训练好的分类器在下一帧图像中寻找目标的最优预估位置作为目标在下一帧的跟踪位置,KCF使用目标周围背景信息,有效地提高了跟踪精度,且将目标和周围背景样本组合成循环矩阵,利用傅里叶空间中循环矩阵可对角化的性质,大幅度地提高了跟踪速度;
2.3)利用匈牙利算法匹配人脸检测与跟踪结果
利用KCF对上一帧的人脸检测目标进行跟踪,将上一帧的人脸跟踪目标与当前帧的人脸检测目标进行匹配,可更新检测目标的检测置信度,修正人脸检测结果,在此基础上,实现相邻帧对应乘客人脸目标的匹配跟踪,得到乘客在扶梯中的运动轨迹,将上一帧Mt个人脸跟踪框中心点T记为:
Figure GDA0003212474150000051
其中,ti为第i个人脸跟踪框中心点位置,当前帧Nd个人脸检测框中心点D记为:
Figure GDA0003212474150000052
其中,di为第i个人脸检测框中心点位置,需要基于欧氏距离对两组点进行一对一匹配,使得总距离c:
Figure GDA0003212474150000053
最小
其中,ci为di到某个人脸跟踪框的距离,为了最小化总距离c,可通过匈牙利算法进行匹配,将待匹配的两组点看成是一个二分图,以边上两点的欧氏距离的导数作为边的权值,实现带权最大匹配,即在保证两组点一对一配对的情况下使匹配边的权值最大,匹配完成后,判断匹配点之间的欧氏距离是否大于最大匹配阈值,若是则取消匹配点的匹配状态;
修正匹配结果后,将匹配成功的上一帧人脸跟踪目标和当前帧人脸检测目标的对数记为L,表示L个目标在上一帧及当前帧中均被分类器检测得到,匹配失败的上一帧人脸跟踪目标数目为Mt-L,表示由于当前帧分类器漏检或目标离开检测区域导致Mt-L个目标在当前帧检测不到,匹配失败的当前帧人脸检测目标数目为Nd-L,表示由于当前帧分类器误检或目标进入检测区域导致Nd-L个目标在上一帧检测不到,针对人脸分类器出现漏检的情况,需要将Mt-L个匹配失败的上一帧人脸跟踪目标新增到当前帧的人脸检测目标序列中,即用上一帧Mt-L个目标的跟踪值当作是目标在当前帧的检测值;
2.4)计算目标检测置信度模型,修正乘客目标位置
为了对分类器漏检和误检情况进行修正,需要为每个乘客人脸目标建立检测置信度模型,根据当前帧人脸目标的检测置信度修正人脸分类器的检测结果,更新当前帧人脸检测目标的检测置信度时,将L个匹配成功的目标的连续检测帧数MD加一,连续丢失帧数NMD置零,提高其检测置信度,初始化Nd-L个匹配失败的目标,将其检测置信度置零,MD和NMD均置零,将新增的Mt-L个目标的MD置零,NMD加一,降低其检测置信度,最后,按照以下公式对当前帧目标的检测置信度进行更新:
CFi=CFi-1+MD2-NMD3
其中,CFi和CFi-1分别是乘客目标在第i帧和第i-1帧的检测置信度,当目标的检测置信度小于保留阈值,将该目标删除,记录修正后的乘客人脸检测目标在每一帧的位置,即可按时间顺序连接得到乘客在扶梯中的运动轨迹,轨迹从乘客进入扶梯开始构建,离开扶梯或乘客发生异常行为后停止构建。
在步骤3)中,利用OpenPose深度学习网络从图像中提取人体骨架,具体如下:
人体二维姿态估计需要寻找人体关键点建立动作特征模型,而人体各个身体部位的关节点作为关键点能够很好地反映人的动作姿势,目前的姿态估计方法可分为自上而下和自下而上的方法,自上而下进行姿态估计先从图像中检测出每个人,再分别对单人进行姿态估计,该方法受限于行人检测器的性能,且人越多计算越耗时,自下而上进行姿态估计不需要行人检测且计算耗时与人数无关,但却没有利用行人整体与其所属部位这一关联信息,需采用其他方法将行人部位关联到整体,针对自下而上这一问题,OpenPose深度学习网络采用了一种自下而上进行实时多人姿态估计的改进方法,提出部分亲和字段(PartAffinity Fields,PAFs)对人体部位关键点关联进行明确的非参数表示,PAFs是一组二维向量字段的集合,每段身体骨骼对应一幅PAFs图,与原图大小一致,图中的每一点是一个二维向量,即水平方向和竖直方向分量,其编码了一段骨骼的位置和方向,利用PAFs可将属于一个行人整体的身体部位关节点连接起来,提取乘客二维骨架;
训练时,首先利用卷积神经网络生成一组特征图集合F,卷积神经网络采用VGG-19的前10层进行初始化,然后输入到模型第一阶段,该阶段包含两个分支,第一分支利用卷积神经网络产生一组身体关节置信图S1,第二分支利用CNN产生一组PAFs图L1,从第二阶段开始,阶段t输入前一阶段的St-1和Lt-1,并输入F监督阶段中间结果,利用CNN产生St和Lt,再利用L2范数计算每个阶段预测得到的St和Lt与实际值之间的损失函数,并累加得到总损失函数,迭代训练整个模型,优化总损失函数,最后模型收敛训练结束;
检测时,输入图像通过训练好的模型输出预测得到的一系列关节点置信图和骨骼PAFs图,然后将人体两两关节点最优连接问题转化为最大权值二分图匹配问题,将待匹配关节点作为二分图中的节点,将PAFs作为二分图中边的权值,利用贪心解析算法,提取每个人的二维人体骨架,提取得到的人体二维骨架包括鼻子、颈、左肩、左肘、左腕、左髋、左膝盖、左脚踝、右肩、右肘、右腕、右髋、右膝盖、右脚踝共14个人体关节点和由其相连而成的13段人体骨骼。
在步骤4)中,将人体骨架匹配到相应的乘客轨迹,构建乘客的人体骨架序列,具体如下:
动作特征模型是指从图像中抽取具有代表性的特征来表征人体动作行为,相对于其它动作特征,人体骨架特征能够直观地反映人体头部及四肢的动作,有效地描述人体行为,在此基础上将人体骨架按时间顺序组合成人体骨架序列能符合行为的动态特性,能更准确地描述乘客的行为;
利用OpenPose深度学习能够自下而上地提取人体骨架,但自下而上的骨架提取方式割裂了乘客整体和乘客骨架的联系,为建立人体骨架序列,需要将两者进行匹配重新建立两者的联系,匹配规则为当人体骨架的鼻子包含于某个乘客的人脸跟踪框时,则对两者进行匹配,将骨架匹配到对应的乘客,乘客轨迹构建结束后,得到该乘客在轨迹中的人体骨架序列SK为:
Figure GDA0003212474150000081
其中
Figure GDA0003212474150000082
为乘客在运动轨迹中按时间顺序提取得到的第msk个骨架。
在步骤5)中,通过模板匹配从乘客人体骨架序列中检测得到异常行为骨架序列,具体如下:
乘客异常行为识别的识别对象是乘客的异常行为骨架序列,因此,需要从乘客人体骨架序列中检测出异常行为骨架,按时间顺序依次组合得到异常行为骨架序列;
乘客搭乘扶梯时的正常行为通常是站立在扶梯上,双手自然放在身体两侧,抬头望向前方,相对于异常行为具有比较明显的特性,因此,根据正常行为的特性,在扶梯不同环境多个运行阶段中,选取远近不一的不同乘客,制作20个正常行为模板,分别与乘客人体骨架序列中的骨架进行模板匹配,检测出骨架序列中的异常行为骨架,为了适应人体距离远近和个体体型差异造成的大小变化,进行模板匹配时,分别提取乘客骨架和模板骨架的人体姿态特征向量,然后基于向量的欧氏距离计算两者的匹配相似度,若乘客骨架与所有模板骨架的匹配相似度均大于正常阈值,则判断为正常行为骨架,否则,判断为异常行为骨架,若乘客骨架连续3帧以上判断为异常骨架,则检测出异常行为;
计算骨架的人体姿态特征向量时,将人体骨架的13段骨骼看作是包含13个二维向量元素的序列:
J={J1,J2,…,J13}
其中Jm为由起始关节点Bm与终止关节点Em相连而成的第m段骨骼,骨骼向量起点坐标为
Figure GDA0003212474150000083
Figure GDA0003212474150000084
为起点横坐标,
Figure GDA0003212474150000085
为起点纵坐标,终点坐标为
Figure GDA0003212474150000086
Figure GDA0003212474150000087
为终点横坐标,
Figure GDA0003212474150000088
为终点纵坐标,水平方向角为αm,竖直方向角为βm,骨骼向量表示为
Figure GDA0003212474150000089
水平方向余弦值和竖直方向的余弦值分别为:
Figure GDA00032124741500000810
依次计算13个骨骼向量的水平和竖直方向余弦值,排列得到一个26维的特征向量:
{cosα1,cosβ1,…,cosα13,cosβ13}
将其作为人体姿态特征,进而计算待匹配骨架SKD和模板骨架SKT的匹配相似度O(SKD,SKT)为:
Figure GDA0003212474150000091
其中,
Figure GDA0003212474150000092
是待匹配骨架第i段骨骼的方向余弦值,
Figure GDA0003212474150000093
为模板骨架第i段骨骼的方向余弦值。
在步骤6)中,利用DTW将其与各类异常行为骨架序列模板匹配,识别异常行为,具体如下:
异常行为识别是基于乘客异常行为骨架序列进行异常行为识别,当乘客检测出异常行为,且异常骨架序列中的帧数大于25,或者乘客骨架连续1帧以上判断为正常骨架且异常行为骨架序列中的帧数大于等于6,或者乘客被删除且异常行为骨架序列中的帧数大于等于6,若符合以上三种情况中的任意一个,则将异常骨架序列与各类异常行为骨架序列模板进行DTW匹配,选出匹配度最高的模板对应的异常行为作为识别结果,进行异常行为识别;
乘客搭乘扶梯过程中,发生的异常行为种类有限,因此,可以将乘客异常行为识别问题转化为模板匹配问题,将乘客的异常行为骨架序列与各类异常行为骨架序列模板进行匹配,计算匹配相似度,选出匹配相似度最高的模板对应的异常行为作为乘客异常行为识别结果,传统的基于序列之间欧式距离的匹配相似度计算方法要求两段序列长度相等,由于个体的差异性,人体动作行为有快有慢,导致待识别的异常行为骨架序列具有不同的长度,与异常行为模板序列的长度不一致,其中,序列长度为序列中包含的骨架个数,在此情况下不能基于欧氏距离计算两个序列间的匹配相似度,利用DTW基于动态规划(dynamicprogramming,DP)的思想把序列进行部分延伸,使两段序列长度相等,再计算序列间的欧氏距离得到两个序列间的匹配相似度,设两段序列分别为Xs和Ys,对应长度为|Xs|和|Ys|,通过延伸部分序列后得到规整路径:
Figure GDA0003212474150000094
其中,Ks是规整路径的长度,每个元素wk是一个二维向量
Figure GDA0003212474150000095
表示Xs中的第
Figure GDA0003212474150000096
个元素和Ys中的第
Figure GDA0003212474150000097
个元素进行匹对,DTW对规整路径有三个限制条件,一是路径起始点为w1=(1,1),结束点为
Figure GDA0003212474150000101
以保证Xs和Ys的每个点都出现在W中,二是满足单调性条件,即
Figure GDA0003212474150000102
Figure GDA0003212474150000103
以保证序列从前往后匹对,三是满足梯级大小条件,即wk+1-wk∈{(1,0),(0,1),(1,1)},以保证序列逐个元素匹对,满足上述限制条件后,计算规整路径中每个匹对点的欧氏距离,累加得到规整路径距离,规整路径距离越小,两段序列的匹配度越高,可利用动态规划来求解距离最短的规整路径,递归公式为:
D(i,j)=Dist(i,j)+min{D(i-1,j),D(i,j-1),D(i-1,j-1)}
其中Dist(i,j)表示X中第i个坐标到Y中第j个坐标的欧氏距离,D(i,j)表示以(1,1)为起点,(i,j)为终点的最短规整路径距离,多次递归最终得到两段序列Xs和Ys的距离最短规整路径D(|Xs|,|Ys|),以此计算两段序列的匹配度;
设r为通过DTW算法延伸后的两段序列长度,针对待匹配骨架序列:
Figure GDA0003212474150000104
其中
Figure GDA0003212474150000105
为待匹配序列中第i个骨架,和模板骨架序列:
Figure GDA0003212474150000106
其中
Figure GDA0003212474150000107
为模板序列中第i个骨架,基于DTW计算两者的匹配相似度OSK为:
Figure GDA0003212474150000108
经实际观察,乘客搭乘扶梯时,发生的异常行为主要有向前摔倒、向后摔倒、攀爬扶手带、往扶梯外探头和往扶梯外探手五种异常行为,其他种类的异常行为都可归类到上述五种行为之中,因此,制作异常行为骨架序列模板时,为以上五种行为每种制作10个模板,并综合考虑匹配计算时间、序列长度范围、匹配准确度等因素,统一每个模板序列长度,每个模板序列中的骨架为从具有代表性的异常行为序列中按时间顺序均匀采样。
本发明与现有技术相比,具有如下优点与有益效果:
本发明可以通过摄像头对手扶电梯区域进行在线监控,准确稳定地构建乘客在手扶电梯中的运动轨迹,利用深度学习方法在复杂环境中提取人体骨架,进而基于人体骨架序列识别扶梯中乘客的异常行为,根据异常行为类别控制扶梯的运行情况,避免安全事故的发生。此外,本发明方法是一种端到端实时的多人异常行为识别方法,可以实时处理摄像头拍摄得到的扶梯区域视频图像,得到不同乘客的异常行为识别结果,及时地处理扶梯中发生的安全事故。
附图说明
图1为本发明方法的流程图。
图2为本发明中摄像头的安装位置示意图。
图3为人脸分类器检测结果图。
图4为匈牙利算法匹配示意图。
图5为乘客轨迹构建结果。
图6为人体二维骨架提取效果图。
图7为人体骨架骨骼向量示意图。
图8为向前摔倒异常行为的识别效果图。
具体实施方式
下面结合具体实施例对本发明作进一步说明。
本实施例所提供的基于人体骨架序列的乘客异常行为识别方法,首先通过SVM检测乘客人脸并用KCF对其跟踪,得到乘客在扶梯中的运动轨迹,接着利用OpenPose深度学习网络从图像中提取人体骨架,然后将人体骨架匹配到相应的乘客轨迹,构建乘客的人体骨架序列,通过模板匹配从乘客人体骨架序列中检测得到异常行为骨架序列,最后利用DTW将其与各类异常行为骨架序列模板匹配,识别异常行为,方法流程图如图1所示,其具体情况如下:
1)通过摄像头拍摄扶梯区域监控视频图像
通过安装在扶梯上楼层板天花板的摄像头拍摄扶梯区域监控视频图像,摄像头方向朝向扶梯中部,安装时调整摄像头的倾斜角度,使监控区域刚好囊括整个扶梯,摄像头安装位置示意图如图2所示。
2)通过SVM检测乘客人脸并用KCF对其跟踪,得到乘客在扶梯中的运动轨迹;
通过SVM检测乘客人脸并用KCF对其跟踪,得到乘客在扶梯中的运动轨迹,扶梯中的乘客运动轨迹构建问题本质是多目标跟踪,通过对搭乘扶梯的所有乘客进行连续跟踪,构建得到各位乘客在扶梯中的运动轨迹,由于扶梯区域狭小,客流密集时容易出现由于乘客拥挤而导致的人体相互遮挡情况,因此选择不容易发生遮挡且具有明显形状特征的乘客人脸作为检测和跟踪对象,并基于人脸目标构建乘客在扶梯中的运动轨迹,包括以下步骤:
2.1)基于SVM检测乘客人脸位置
使用基于DPM特征的SVM分类器进行乘客人脸检测,DPM特征计算图像局部区域的梯度方向直方图,定义细胞单元大小为8×8像素大小的矩形块,计算矩形块的梯度方向直方图,然后分别与对角线邻域的四个Cell进行归一化操作,再将特征矩阵行列相加得到32维的特征向量,检测人脸时,提取原始图像的DPM特征图,分别和训练好的8×8分辨率的根滤波器和4×4分辨率大小的组件滤波器进行卷积操作计算DPM响应值,利用训练好的SVM人脸分类器进行人脸检测,SVM是一种二分类模型,其基于统计学习理论构建一个最优分类超平面,使样本正确地分开且离超平面最近的正负样本到超平面的距离是最大的;
已知训练集样本T={(x1,y1),(x2,y2),…,(xN,yN)},xi∈Rd,yi∈{+1,-1},其中xi为第i个训练样本,yi为第i个样本标签,N为样本个数,d为特征维数,当正负样本线性可分时,则存在一个超平面:
ωTx+b=0,ω∈Rd
其中,ω为权值向量,b为偏移系数,正确划分N个样本,求解最优分类超平面,可转化为不等式约束下的优化问题:
Figure GDA0003212474150000131
s.t yiTxi+b]-1≥0,i=1,2,…,N
并通过拉格朗日法求解该问题的对偶问题从而找到该问题的解,然而乘客人脸分类属于非线性问题,需对原空间非线性可分的特征x通过非线性变换
Figure GDA0003212474150000132
转化为高维空间线性可分特征,引入核函数一步到位计算新特征的内积和,避免单独计算复杂的非线性变换新特征,本文采用径向基核函数:
Figure GDA0003212474150000133
其中,σ为方差参数,此外,考虑到个别样本不能被正确划分,为每个样本引入松弛变量:
ξi,i=1,2,…,N
引入松弛变量且对特征进行非线性变换后的拉格朗日对偶问题变为:
Figure GDA0003212474150000134
Figure GDA0003212474150000135
0≤αi≤C,i=1,2,…,N
其中,α为拉格朗日向量,αij为拉格朗日乘子,C是一个常量超参数,C值越小,代表对错误分类样本的容忍度越大,训练时,正样本为包含在900张图片中的2752个乘客人脸样本,负样本通过对900张图片随机截取背景区域进行生成,设置滑动检测窗口为80×80分辨率,松弛系数为1,采用径向基核函数,最大风险间隔为0.01,最大迭代次数为200,通过不断迭代优化风险间隔得到SVM人脸分类器,当风险间隔小于预设阈值时停止训练,得到对偶问题的最优解为αi *,i=1,2,…,N,训练得到最优超平面决策函数为:
Figure GDA0003212474150000136
其中,偏差系数b*通过式子:
Figure GDA0003212474150000141
求解,检测时,若决策函数大于0,则检测得到乘客人脸,图3为人脸分类器检测结果图,人脸检测结果用圆形框标记;
2.2)利用KCF跟踪乘客人脸位置
利用SVM人脸分类器检测扶梯中的乘客人脸时,误差来源主要有以下三个部分,一是在光照不均匀、阴影存在、等环境因素的干扰下,会出现漏检或误检的情况,二是当乘客频繁进出或乘客拥挤造成相互遮挡时,会出现漏检情况,三是人脸分类器性能有限,造成漏检或误检情况,因此,检测得到乘客人脸后,利用判别式模型跟踪方法KCF跟踪乘客人脸,将跟踪结果与人脸检测结果进行匹配,矫正人脸漏检与误检情况,与其它生成式模型跟踪方法不同,KCF不需要通过对目标运动过程建模来进行目标跟踪,而是采用判别与跟踪相结合的方式,以当前帧目标为正样本,目标周围背景作为负样本,利用脊回归通过最小二乘法训练目标分类器,并用训练好的分类器在下一帧图像中寻找目标的最优预估位置作为目标在下一帧的跟踪位置,KCF使用目标周围背景信息,有效地提高了跟踪精度,且将目标和周围背景样本组合成循环矩阵,利用傅里叶空间中循环矩阵可对角化的性质,大幅度地提高了跟踪速度;
2.3)利用匈牙利算法匹配人脸检测与跟踪结果
利用KCF对上一帧的人脸检测目标进行跟踪,将上一帧的人脸跟踪目标与当前帧的人脸检测目标进行匹配,可更新检测目标的检测置信度,修正人脸检测结果,在此基础上,实现相邻帧对应乘客人脸目标的匹配跟踪,得到乘客在扶梯中的运动轨迹,将上一帧Mt个人脸跟踪框中心点T记为:
Figure GDA0003212474150000142
其中,ti为第i个人脸跟踪框中心点位置,当前帧Nd个人脸检测框中心点D记为:
Figure GDA0003212474150000143
其中,di为第i个人脸检测框中心点位置,需要基于欧氏距离对两组点进行一对一匹配,使得总距离c:
Figure GDA0003212474150000151
最小
其中,ci为di到某个人脸跟踪框的距离,为了最小化总距离c,可通过匈牙利算法进行匹配,将待匹配的两组点看成是一个二分图,以边上两点的欧氏距离的导数作为边的权值,实现带权最大匹配,即在保证两组点一对一配对的情况下使匹配边的权值最大,匹配完成后,判断匹配点之间的欧氏距离是否大于最大匹配阈值,若是则取消匹配点的匹配状态;
修正匹配结果后,将匹配成功的上一帧人脸跟踪目标和当前帧人脸检测目标的对数记为L,表示L个目标在上一帧及当前帧中均被分类器检测得到,匹配失败的上一帧人脸跟踪目标数目为Mt-L,表示由于当前帧分类器漏检或目标离开检测区域导致Mt-L个目标在当前帧检测不到,匹配失败的当前帧人脸检测目标数目为Nd-L,表示由于当前帧分类器误检或目标进入检测区域导致Nd-L个目标在上一帧检测不到,针对人脸分类器出现漏检的情况,需要将Mt-L个匹配失败的上一帧人脸跟踪目标新增到当前帧的人脸检测目标序列中,即用上一帧Mt-L个目标的跟踪值当作是目标在当前帧的检测值;
2.4)计算目标检测置信度模型,修正乘客目标位置
为了对分类器漏检和误检情况进行修正,需要为每个乘客人脸目标建立检测置信度模型,根据当前帧人脸目标的检测置信度修正人脸分类器的检测结果,更新当前帧人脸检测目标的检测置信度时,将L个匹配成功的目标的连续检测帧数MD加一,连续丢失帧数NMD置零,提高其检测置信度,初始化Nd-L个匹配失败的目标,将其检测置信度置零,MD和NMD均置零,将新增的Mt-L个目标的MD置零,NMD加一,降低其检测置信度,最后,按照以下公式对当前帧目标的检测置信度进行更新:
CFi=CFi-1+MD2-NMD3
其中,CFi和CFi-1分别是乘客目标在第i帧和第i-1帧的检测置信度,当目标的检测置信度小于保留阈值,将该目标删除,记录修正后的乘客人脸检测目标在每一帧的位置,即可按时间顺序连接得到乘客在扶梯中的运动轨迹,轨迹从乘客进入扶梯开始构建,离开扶梯或乘客发生异常行为后停止构建,乘客在运动轨迹中的位置用人脸跟踪框的中心点表示,图5为乘客轨迹构建结果,用矩形框表示乘客在当前帧的人脸跟踪结果,用点序列表示乘客轨迹。
3)利用OpenPose深度学习网络从图像中提取人体骨架,具体如下:
人体二维姿态估计需要寻找人体关键点建立动作特征模型,而人体各个身体部位的关节点作为关键点能够很好地反映人的动作姿势,目前的姿态估计方法可分为自上而下和自下而上的方法,自上而下进行姿态估计先从图像中检测出每个人,再分别对单人进行姿态估计,该方法受限于行人检测器的性能,且人越多计算越耗时,自下而上进行姿态估计不需要行人检测且计算耗时与人数无关,但却没有利用行人整体与其所属部位这一关联信息,需采用其他方法将行人部位关联到整体,针对自下而上这一问题,OpenPose深度学习网络采用了一种自下而上进行实时多人姿态估计的改进方法,提出PAFS对人体部位关键点关联进行明确的非参数表示,PAFs是一组二维向量字段的集合,每段身体骨骼对应一幅PAFs图,与原图大小一致,图中的每一点是一个二维向量,即水平方向和竖直方向分量,其编码了一段骨骼的位置和方向,利用PAFs可将属于一个行人整体的身体部位关节点连接起来,提取乘客二维骨架;
训练时,首先利用卷积神经网络生成一组特征图集合F,卷积神经网络采用VGG-19的前10层进行初始化,然后输入到模型第一阶段,该阶段包含两个分支,第一分支利用卷积神经网络产生一组身体关节置信图S1,第二分支利用CNN产生一组PAFs图L1,从第二阶段开始,阶段t输入前一阶段的St-1和Lt-1,并输入F监督阶段中间结果,利用CNN产生St和Lt,再利用L2范数计算每个阶段预测得到的St和Lt与实际值之间的损失函数,并累加得到总损失函数,迭代训练整个模型,优化总损失函数,最后模型收敛训练结束;
检测时,输入图像通过训练好的模型输出预测得到的一系列关节点置信图和骨骼PAFs图,然后将人体两两关节点最优连接问题转化为最大权值二分图匹配问题,将待匹配关节点作为二分图中的节点,将PAFs作为二分图中边的权值,利用贪心解析算法,提取每个人的二维人体骨架,提取得到的人体二维骨架包括鼻子、颈、左肩、左肘、左腕、左髋、左膝盖、左脚踝、右肩、右肘、右腕、右髋、右膝盖、右脚踝共14个人体关节点和由其相连而成的13段人体骨骼,图6为人体二维骨架提取效果图,其中关节点用实心圆形标记,骨骼用直线段表示。
4)将人体骨架匹配到相应的乘客轨迹,构建乘客的人体骨架序列,具体如下:
动作特征模型是指从图像中抽取具有代表性的特征来表征人体动作行为,相对于其它动作特征,人体骨架特征能够直观地反映人体头部及四肢的动作,有效地描述人体行为,在此基础上将人体骨架按时间顺序组合成人体骨架序列能符合行为的动态特性,能更准确地描述乘客的行为;
利用OpenPose深度学习能够自下而上地提取人体骨架,但自下而上的骨架提取方式割裂了乘客整体和乘客骨架的联系,为建立人体骨架序列,需要将两者进行匹配重新建立两者的联系,匹配规则为当人体骨架的鼻子包含于某个乘客的人脸跟踪框时,则对两者进行匹配,将骨架匹配到对应的乘客,乘客轨迹构建结束后,得到该乘客在轨迹中的人体骨架序列SK为:
Figure GDA0003212474150000171
其中
Figure GDA0003212474150000172
为乘客在运动轨迹中按时间顺序提取得到的第msk个骨架。
5)通过模板匹配从乘客人体骨架序列中检测得到异常行为骨架序列,具体如下:
乘客异常行为识别的识别对象是乘客的异常行为骨架序列,因此,需要从乘客人体骨架序列中检测出异常行为骨架,按时间顺序依次组合得到异常行为骨架序列,乘客搭乘扶梯时的正常行为通常是站立在扶梯上,双手自然放在身体两侧,抬头望向前方,相对于异常行为具有比较明显的特性,因此,根据正常行为的特性,在扶梯不同环境多个运行阶段中,选取远近不一的不同乘客,制作20个正常行为模板,分别与乘客人体骨架序列中的骨架进行模板匹配,检测出骨架序列中的异常行为骨架,为了适应人体距离远近和个体体型差异造成的大小变化,进行模板匹配时,分别提取乘客骨架和模板骨架的人体姿态特征向量,然后基于向量的欧氏距离计算两者的匹配相似度,若乘客骨架与所有模板骨架的匹配相似度均大于正常阈值,则判断为正常行为骨架,否则,判断为异常行为骨架,若乘客骨架连续3帧以上判断为异常骨架,则检测出异常行为;
计算骨架的人体姿态特征向量时,将人体骨架的13段骨骼看作是包含13个二维向量元素的序列:
J={J1,J2,…,J13}
其中Jm为由起始关节点Bm与终止关节点Em相连而成的第m段骨骼,骨骼向量起点坐标为
Figure GDA0003212474150000181
Figure GDA0003212474150000182
为起点横坐标,
Figure GDA0003212474150000183
为起点纵坐标,终点坐标为
Figure GDA0003212474150000184
Figure GDA0003212474150000185
为终点横坐标,
Figure GDA0003212474150000186
为终点纵坐标,水平方向角为αm,竖直方向角为βm,骨骼向量表示为
Figure GDA0003212474150000187
水平方向余弦值和竖直方向的余弦值分别为:
Figure GDA0003212474150000188
依次计算13个骨骼向量的水平和竖直方向余弦值,排列得到一个26维的特征向量:
{cosα1,cosβ1,…,cosα13,cosβ13}
将其作为人体姿态特征,进而计算待匹配骨架SKD和模板骨架SKT的匹配相似度O(SKD,SKT)为:
Figure GDA0003212474150000189
其中,
Figure GDA00032124741500001810
是待匹配骨架第i段骨骼的方向余弦值,
Figure GDA00032124741500001811
为模板骨架第i段骨骼的方向余弦值,图7为人体骨架骨骼向量示意图。
6)利用DTW将其与各类异常行为骨架序列模板匹配,识别异常行为,具体如下:
异常行为识别是基于乘客异常行为骨架序列进行异常行为识别,当乘客检测出异常行为,且异常骨架序列中的帧数大于25,或者乘客骨架连续1帧以上判断为正常骨架且异常行为骨架序列中的帧数大于等于6,或者乘客被删除且异常行为骨架序列中的帧数大于等于6,若符合以上三种情况中的任意一个,则将异常骨架序列与各类异常行为骨架序列模板进行DTW匹配,选出匹配度最高的模板对应的异常行为作为识别结果,进行异常行为识别;
乘客搭乘扶梯过程中,发生的异常行为种类有限,因此,可以将乘客异常行为识别问题转化为模板匹配问题,将乘客的异常行为骨架序列与各类异常行为骨架序列模板进行匹配,计算匹配相似度,选出匹配相似度最高的模板对应的异常行为作为乘客异常行为识别结果,传统的基于序列之间欧式距离的匹配相似度计算方法要求两段序列长度相等,由于个体的差异性,人体动作行为有快有慢,导致待识别的异常行为骨架序列具有不同的长度,与异常行为模板序列的长度不一致,其中,序列长度为序列中包含的骨架个数,在此情况下不能基于欧氏距离计算两个序列间的匹配相似度,利用DTW基于动态规划(dynamicprogramming,DP)的思想把序列进行部分延伸,使两段序列长度相等,再计算序列间的欧氏距离得到两个序列间的匹配相似度,设两段序列分别为Xs和Ys,对应长度为|Xs|和|Ys|,通过延伸部分序列后得到规整路径:
Figure GDA0003212474150000198
其中,Ks是规整路径的长度,每个元素wk是一个二维向量
Figure GDA0003212474150000191
表示Xs中的第
Figure GDA0003212474150000192
个元素和Ys中的第
Figure GDA0003212474150000193
个元素进行匹对,DTW对规整路径有三个限制条件,一是路径起始点为w1=(1,1),结束点为
Figure GDA0003212474150000194
以保证Xs和Ys的每个点都出现在W中,二是满足单调性条件,即
Figure GDA0003212474150000195
Figure GDA0003212474150000196
以保证序列从前往后匹对,三是满足梯级大小条件,即wk+1-wk∈{(1,0),(0,1),(1,1)},以保证序列逐个元素匹对,满足上述限制条件后,计算规整路径中每个匹对点的欧氏距离,累加得到规整路径距离,规整路径距离越小,两段序列的匹配度越高,可利用动态规划来求解距离最短的规整路径,递归公式为:
D(i,j)=Dist(i,j)+min{D(i-1,j),D(i,j-1),D(i-1,j-1)}
其中Dist(i,j)表示X中第i个坐标到Y中第j个坐标的欧氏距离,D(i,j)表示以(1,1)为起点,(i,j)为终点的最短规整路径距离,多次递归最终得到两段序列Xs和Ys的距离最短规整路径D(|Xs|,|Ys|),以此计算两段序列的匹配度;
设r为通过DTW算法延伸后的两段序列长度,针对待匹配骨架序列:
Figure GDA0003212474150000197
其中
Figure GDA0003212474150000201
为待匹配序列中第i个骨架,和模板骨架序列:
Figure GDA0003212474150000202
其中
Figure GDA0003212474150000203
为模板序列中第i个骨架,基于DTW计算两者的匹配相似度OSK为:
Figure GDA0003212474150000204
经实际观察,乘客搭乘扶梯时,发生的异常行为主要有向前摔倒、向后摔倒、攀爬扶手带、往扶梯外探头和往扶梯外探手五种异常行为,其他种类的异常行为都可归类到上述五种行为之中,因此,制作异常行为骨架序列模板时,为以上五种行为每种制作10个模板,并综合考虑匹配计算时间、序列长度范围、匹配准确度等因素,统一每个模板序列长度,每个模板序列中的骨架为从具有代表性的异常行为序列中按时间顺序均匀采样,其中,向前摔倒异常行为的识别效果图如图8所示,图中的圆点序列标记乘客在扶梯中的运动轨迹,直线段标记乘客的各段骨骼,fall over字样是乘客向前摔倒的英文表示。
以上所述实施例只为本发明之较佳实施例,并非以此限制本发明的实施范围,故凡依本发明之形状、原理所作的变化,均应涵盖在本发明的保护范围内。

Claims (6)

1.基于人体骨架序列的乘客异常行为识别方法,其特征在于:该方法主要是通过检测并跟踪搭乘手扶电梯的乘客,构建乘客在扶梯中的运动轨迹,并基于人体骨架序列识别乘客的异常行为,包括以下步骤:
1)通过摄像头拍摄扶梯区域监控视频图像;
2)通过支持向量机SVM检测乘客人脸并用核相关滤波KCF对其跟踪,得到乘客在扶梯中的运动轨迹;
3)利用OpenPose深度学习网络从图像中提取人体骨架,具体如下:
OpenPose深度学习网络采用了一种自下而上进行实时多人姿态估计的改进方法,提出部分亲和字段PAFs对人体部位关键点关联进行明确的非参数表示,PAFs是一组二维向量字段的集合,每段身体骨骼对应一幅PAFs图,与原图大小一致,图中的每一点是一个二维向量,即水平方向和竖直方向分量,其编码了一段骨骼的位置和方向,利用PAFs能够将属于一个行人整体的身体部位关节点连接起来,提取乘客二维骨架;
训练时,首先利用卷积神经网络生成一组特征图集合F,卷积神经网络采用VGG-19的前10层进行初始化,然后输入到模型第一阶段,该阶段包含两个分支,第一分支利用卷积神经网络产生一组身体关节置信图S1,第二分支利用CNN产生一组PAFs图L1,从第二阶段开始,阶段t输入前一阶段的St-1和Lt-1,并输入F监督阶段中间结果,利用CNN产生St和Lt,再利用L2范数计算每个阶段预测得到的St和Lt与实际值之间的损失函数,并累加得到总损失函数,迭代训练整个模型,优化总损失函数,最后模型收敛训练结束;
检测时,输入图像通过训练好的模型输出预测得到的一系列关节点置信图和骨骼PAFs图,然后将人体两两关节点最优连接问题转化为最大权值二分图匹配问题,将待匹配关节点作为二分图中的节点,将PAFs作为二分图中边的权值,利用贪心解析算法,提取每个人的二维人体骨架,提取得到的人体二维骨架包括鼻子、颈、左肩、左肘、左腕、左髋、左膝盖、左脚踝、右肩、右肘、右腕、右髋、右膝盖、右脚踝共14个人体关节点和由其相连而成的13段人体骨骼;
4)将人体骨架匹配到相应的乘客轨迹,构建乘客的人体骨架序列;
5)通过模板匹配从乘客人体骨架序列中检测得到异常行为骨架序列;
6)利用DTW将其与各类异常行为骨架序列模板匹配,识别异常行为。
2.根据权利要求1所述的基于人体骨架序列的乘客异常行为识别方法,其特征在于:在步骤1)中,通过安装在扶梯上楼层板天花板的摄像头拍摄扶梯区域监控视频图像,摄像头方向朝向扶梯中部,安装时调整摄像头的倾斜角度,使监控区域刚好囊括整个扶梯。
3.根据权利要求1所述的基于人体骨架序列的乘客异常行为识别方法,其特征在于:在步骤2)中,通过SVM检测乘客人脸并用KCF对其跟踪,得到乘客在扶梯中的运动轨迹,扶梯中的乘客运动轨迹构建问题本质是多目标跟踪,通过对搭乘扶梯的所有乘客进行连续跟踪,构建得到各位乘客在扶梯中的运动轨迹,由于扶梯区域狭小,客流密集时容易出现由于乘客拥挤而导致的人体相互遮挡情况,因此选择不容易发生遮挡且具有明显形状特征的乘客人脸作为检测和跟踪对象,并基于人脸目标构建乘客在扶梯中的运动轨迹,包括以下步骤:
2.1)基于SVM检测乘客人脸位置
使用基于可变形组建模型DPM特征的SVM分类器进行乘客人脸检测,DPM特征计算图像局部区域的梯度方向直方图,定义细胞单元大小为8×8像素大小的矩形块,计算矩形块的梯度方向直方图,然后分别与对角线邻域的四个Cell进行归一化操作,再将特征矩阵行列相加得到32维的特征向量,检测人脸时,提取原始图像的DPM特征图,分别和训练好的8×8分辨率的根滤波器和4×4分辨率大小的组件滤波器进行卷积操作计算DPM响应值,利用训练好的SVM人脸分类器进行人脸检测,SVM是一种二分类模型,其基于统计学习理论构建一个最优分类超平面,使样本正确地分开且离超平面最近的正负样本到超平面的距离是最大的;
已知训练集样本T={(x1,y1),(x2,y2),…,(xN,yN)},xi∈Rd,yi∈{+1,-1},其中xi为第i个训练样本,yi为第i个样本标签,N为样本个数,d为特征维数,当正负样本线性可分时,则存在一个超平面:
ωTx+b=0,ω∈Rd
其中,ω为权值向量,b为偏移系数,正确划分N个样本,求解最优分类超平面,转化为不等式约束下的优化问题:
Figure FDA0003212474140000031
s.t yiTxi+b]-1≥0,i=1,2,…,N
并通过拉格朗日法求解该问题的对偶问题从而找到该问题的解,然而乘客人脸分类属于非线性问题,需对原空间非线性可分的特征x通过非线性变换
Figure FDA0003212474140000033
转化为高维空间线性可分特征,引入核函数一步到位计算新特征的内积和,避免单独计算复杂的非线性变换新特征,采用径向基核函数:
Figure FDA0003212474140000032
其中,σ为方差参数,此外,考虑到个别样本不能被正确划分,为每个样本引入松弛变量:
ξi,i=1,2,…,N
引入松弛变量且对特征进行非线性变换后的拉格朗日对偶问题变为:
Figure FDA0003212474140000041
Figure FDA0003212474140000042
0≤αi≤C,i=1,2,…,N
其中,α为拉格朗日向量,αij为拉格朗日乘子,C是一个常量超参数,C值越小,代表对错误分类样本的容忍度越大,对偶问题的最优解为αi *,i=1,2,…,N,训练得到最优超平面决策函数为:
Figure FDA0003212474140000043
其中,偏差系数b*通过式子:
Figure FDA0003212474140000044
求解,检测时,若决策函数大于0,则检测得到乘客人脸;
2.2)利用KCF跟踪乘客人脸位置
检测得到乘客人脸后,利用判别式模型跟踪方法KCF跟踪乘客人脸,将跟踪结果与人脸检测结果进行匹配,矫正人脸漏检与误检情况,与其它生成式模型跟踪方法不同,KCF不需要通过对目标运动过程建模来进行目标跟踪,而是采用判别与跟踪相结合的方式,以当前帧目标为正样本,目标周围背景作为负样本,利用脊回归通过最小二乘法训练目标分类器,并用训练好的分类器在下一帧图像中寻找目标的最优预估位置作为目标在下一帧的跟踪位置,KCF使用目标周围背景信息,有效地提高了跟踪精度,且将目标和周围背景样本组合成循环矩阵,利用傅里叶空间中循环矩阵可对角化的性质,大幅度地提高了跟踪速度;
2.3)利用匈牙利算法匹配人脸检测与跟踪结果
利用KCF对上一帧的人脸检测目标进行跟踪,将上一帧的人脸跟踪目标与当前帧的人脸检测目标进行匹配,可更新检测目标的检测置信度,修正人脸检测结果,在此基础上,实现相邻帧对应乘客人脸目标的匹配跟踪,得到乘客在扶梯中的运动轨迹,将上一帧Mt个人脸跟踪框中心点T记为:
Figure FDA0003212474140000051
其中,ti为第i个人脸跟踪框中心点位置,当前帧Nd个人脸检测框中心点D记为:
Figure FDA0003212474140000052
其中,di为第i个人脸检测框中心点位置,需要基于欧氏距离对两组点进行一对一匹配,使得总距离c:
Figure FDA0003212474140000053
最小
其中,ci为di到某个人脸跟踪框的距离,为了最小化总距离c,可通过匈牙利算法进行匹配,将待匹配的两组点看成是一个二分图,以边上两点的欧氏距离的导数作为边的权值,实现带权最大匹配,即在保证两组点一对一配对的情况下使匹配边的权值最大,匹配完成后,判断匹配点之间的欧氏距离是否大于最大匹配阈值,若是则取消匹配点的匹配状态;
修正匹配结果后,将匹配成功的上一帧人脸跟踪目标和当前帧人脸检测目标的对数记为L,表示L个目标在上一帧及当前帧中均被分类器检测得到,匹配失败的上一帧人脸跟踪目标数目为Mt-L,表示由于当前帧分类器漏检或目标离开检测区域导致Mt-L个目标在当前帧检测不到,匹配失败的当前帧人脸检测目标数目为Nd-L,表示由于当前帧分类器误检或目标进入检测区域导致Nd-L个目标在上一帧检测不到,针对人脸分类器出现漏检的情况,需要将Mt-L个匹配失败的上一帧人脸跟踪目标新增到当前帧的人脸检测目标序列中,即用上一帧Mt-L个目标的跟踪值当作是目标在当前帧的检测值;
2.4)计算目标检测置信度模型,修正乘客目标位置
为了对分类器漏检和误检情况进行修正,需要为每个乘客人脸目标建立检测置信度模型,根据当前帧人脸目标的检测置信度修正人脸分类器的检测结果,更新当前帧人脸检测目标的检测置信度时,将L个匹配成功的目标的连续检测帧数MD加一,连续丢失帧数NMD置零,提高其检测置信度,初始化Nd-L个匹配失败的目标,将其检测置信度置零,MD和NMD均置零,将新增的Mt-L个目标的MD置零,NMD加一,降低其检测置信度,最后,按照以下公式对当前帧目标的检测置信度进行更新:
CFi=CFi-1+MD2-NMD3
其中,CFi和CFi-1分别是乘客目标在第i帧和第i-1帧的检测置信度,当目标的检测置信度小于保留阈值,将该目标删除,记录修正后的乘客人脸检测目标在每一帧的位置,即可按时间顺序连接得到乘客在扶梯中的运动轨迹,轨迹从乘客进入扶梯开始构建,离开扶梯或乘客发生异常行为后停止构建。
4.根据权利要求1所述的基于人体骨架序列的乘客异常行为识别方法,其特征在于:在步骤4)中,将人体骨架匹配到相应的乘客轨迹,构建乘客的人体骨架序列,具体如下:
动作特征模型是指从图像中抽取具有代表性的特征来表征人体动作行为,相对于其它动作特征,人体骨架特征能够直观地反映人体头部及四肢的动作,有效地描述人体行为,在此基础上将人体骨架按时间顺序组合成人体骨架序列能符合行为的动态特性,能更准确地描述乘客的行为;
利用OpenPose深度学习能够自下而上地提取人体骨架,但自下而上的骨架提取方式割裂了乘客整体和乘客骨架的联系,为建立人体骨架序列,需要将两者进行匹配重新建立两者的联系,匹配规则为当人体骨架的鼻子包含于某个乘客的人脸跟踪框时,则对两者进行匹配,将骨架匹配到对应的乘客,乘客轨迹构建结束后,得到该乘客在轨迹中的人体骨架序列SK为:
Figure FDA0003212474140000061
其中
Figure FDA0003212474140000062
为乘客在运动轨迹中按时间顺序提取得到的第msk个骨架。
5.根据权利要求1所述的基于人体骨架序列的乘客异常行为识别方法,其特征在于:在步骤5)中,通过模板匹配从乘客人体骨架序列中检测得到异常行为骨架序列,具体如下:
乘客异常行为识别的识别对象是乘客的异常行为骨架序列,因此,需要从乘客人体骨架序列中检测出异常行为骨架,按时间顺序依次组合得到异常行为骨架序列;
乘客搭乘扶梯时的正常行为通常是站立在扶梯上,双手自然放在身体两侧,抬头望向前方,相对于异常行为具有明显的特性,因此,根据正常行为的特性,在扶梯不同环境多个运行阶段中,选取远近不一的不同乘客,制作20个正常行为模板,分别与乘客人体骨架序列中的骨架进行模板匹配,检测出骨架序列中的异常行为骨架,为了适应人体距离远近和个体体型差异造成的大小变化,进行模板匹配时,分别提取乘客骨架和模板骨架的人体姿态特征向量,然后基于向量的欧氏距离计算两者的匹配相似度,若乘客骨架与所有模板骨架的匹配相似度均大于正常阈值,则判断为正常行为骨架,否则,判断为异常行为骨架,若乘客骨架连续3帧以上判断为异常骨架,则检测出异常行为;
计算骨架的人体姿态特征向量时,将人体骨架的13段骨骼看作是包含13个二维向量元素的序列:
J={J1,J2,…,J13}
其中Jm为由起始关节点Bm与终止关节点Em相连而成的第m段骨骼,骨骼向量起点坐标为
Figure FDA0003212474140000071
Figure FDA0003212474140000072
为起点横坐标,
Figure FDA0003212474140000073
为起点纵坐标,终点坐标为
Figure FDA0003212474140000074
Figure FDA0003212474140000075
为终点横坐标,
Figure FDA0003212474140000076
为终点纵坐标,水平方向角为αm,竖直方向角为βm,骨骼向量表示为
Figure FDA0003212474140000077
水平方向余弦值和竖直方向的余弦值分别为:
Figure FDA0003212474140000078
依次计算13个骨骼向量的水平和竖直方向余弦值,排列得到一个26维的特征向量:
{cosα1,cosβ1,…,cosα13,cosβ13}
将其作为人体姿态特征,进而计算待匹配骨架SKD和模板骨架SKT的匹配相似度O(SKD,SKT)为:
Figure FDA0003212474140000081
其中,
Figure FDA0003212474140000082
是待匹配骨架第i段骨骼的方向余弦值,
Figure FDA0003212474140000083
为模板骨架第i段骨骼的方向余弦值。
6.根据权利要求1所述的基于人体骨架序列的乘客异常行为识别方法,其特征在于:在步骤6)中,利用DTW将其与各类异常行为骨架序列模板匹配,识别异常行为,具体如下:
异常行为识别是基于乘客异常行为骨架序列进行异常行为识别,当乘客检测出异常行为,且异常骨架序列中的帧数大于25,或者乘客骨架连续1帧以上判断为正常骨架且异常行为骨架序列中的帧数大于等于6,或者乘客被删除且异常行为骨架序列中的帧数大于等于6,若符合以上三种情况中的任意一个,则将异常骨架序列与各类异常行为骨架序列模板进行DTW匹配,选出匹配度最高的模板对应的异常行为作为识别结果,进行异常行为识别;
乘客搭乘扶梯过程中,发生的异常行为种类有限,因此,将乘客异常行为识别问题转化为模板匹配问题,将乘客的异常行为骨架序列与各类异常行为骨架序列模板进行匹配,计算匹配相似度,选出匹配相似度最高的模板对应的异常行为作为乘客异常行为识别结果,利用DTW基于动态规划DP的思想把序列进行部分延伸,使两段序列长度相等,再计算序列间的欧氏距离得到两个序列间的匹配相似度,设两段序列分别为Xs和Ys,对应长度为|Xs|和|Ys|,通过延伸部分序列后得到规整路径:
Figure FDA0003212474140000084
其中,Ks是规整路径的长度,每个元素wk是一个二维向量
Figure FDA0003212474140000085
表示Xs中的第
Figure FDA0003212474140000086
个元素和Ys中的第
Figure FDA0003212474140000087
个元素进行匹对,DTW对规整路径有三个限制条件,一是路径起始点为w1=(1,1),结束点为
Figure FDA0003212474140000088
以保证Xs和Ys的每个点都出现在W中,二是满足单调性条件,即
Figure FDA0003212474140000091
Figure FDA0003212474140000092
以保证序列从前往后匹对,三是满足梯级大小条件,即wk+1-wk∈{(1,0),(0,1),(1,1)},以保证序列逐个元素匹对,满足上述限制条件后,计算规整路径中每个匹对点的欧氏距离,累加得到规整路径距离,规整路径距离越小,两段序列的匹配度越高,可利用动态规划来求解距离最短的规整路径,递归公式为:
D(i,j)=Dist(i,j)+min{D(i-1,j),D(i,j-1),D(i-1,j-1)}
其中Dist(i,j)表示X中第i个坐标到Y中第j个坐标的欧氏距离,D(i,j)表示以(1,1)为起点,(i,j)为终点的最短规整路径距离,多次递归最终得到两段序列Xs和Ys的距离最短规整路径D(|Xs|,|Ys|),以此计算两段序列的匹配度;
设r为通过DTW算法延伸后的两段序列长度,针对待匹配骨架序列:
Figure FDA0003212474140000093
其中
Figure FDA0003212474140000094
为待匹配序列中第i个骨架,和模板骨架序列:
Figure FDA0003212474140000095
其中
Figure FDA0003212474140000096
为模板序列中第i个骨架,基于DTW计算两者的匹配相似度OSK为:
Figure FDA0003212474140000097
经实际观察,乘客搭乘扶梯时,发生的异常行为主要有向前摔倒、向后摔倒、攀爬扶手带、往扶梯外探头和往扶梯外探手五种异常行为,其它种类的异常行为都能够归类到上述五种行为之中,因此,制作异常行为骨架序列模板时,为以上五种行为每种制作10个模板,并综合考虑匹配计算时间、序列长度范围、匹配准确度因素,统一每个模板序列长度,每个模板序列中的骨架为从具有代表性的异常行为序列中按时间顺序均匀采样。
CN201811072438.5A 2018-09-14 2018-09-14 基于人体骨架序列的乘客异常行为识别方法 Active CN109460702B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201811072438.5A CN109460702B (zh) 2018-09-14 2018-09-14 基于人体骨架序列的乘客异常行为识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201811072438.5A CN109460702B (zh) 2018-09-14 2018-09-14 基于人体骨架序列的乘客异常行为识别方法

Publications (2)

Publication Number Publication Date
CN109460702A CN109460702A (zh) 2019-03-12
CN109460702B true CN109460702B (zh) 2022-02-15

Family

ID=65606650

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201811072438.5A Active CN109460702B (zh) 2018-09-14 2018-09-14 基于人体骨架序列的乘客异常行为识别方法

Country Status (1)

Country Link
CN (1) CN109460702B (zh)

Families Citing this family (87)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109919132B (zh) * 2019-03-22 2021-04-23 广东省智能制造研究所 一种基于骨架检测的行人跌倒识别方法
CN109993116B (zh) * 2019-03-29 2022-02-11 上海工程技术大学 一种基于人体骨骼相互学习的行人再识别方法
CN110147717B (zh) * 2019-04-03 2023-10-20 平安科技(深圳)有限公司 一种人体动作的识别方法及设备
CN111815671B (zh) * 2019-04-10 2023-09-15 曜科智能科技(上海)有限公司 目标数量统计方法、系统、计算机装置及存储介质
CN110298248A (zh) * 2019-05-27 2019-10-01 重庆高开清芯科技产业发展有限公司 一种基于语义分割的多目标跟踪方法及系统
CN110472473A (zh) * 2019-06-03 2019-11-19 浙江新再灵科技股份有限公司 基于姿态估计检测扶梯上人跌倒的方法
CN110222665B (zh) * 2019-06-14 2023-02-24 电子科技大学 一种基于深度学习和姿态估计的监控中人体动作识别方法
CN110287848A (zh) * 2019-06-19 2019-09-27 北京卡路里信息技术有限公司 视频的生成方法及装置
CN110298279A (zh) * 2019-06-20 2019-10-01 暨南大学 一种肢体康复训练辅助方法及系统、介质、设备
CN110427811A (zh) * 2019-06-21 2019-11-08 武汉倍特威视系统有限公司 基于视频流数据的人体骨骼化打架识别方法
CN110362715B (zh) * 2019-06-28 2021-11-19 西安交通大学 一种基于图卷积网络的未剪辑视频动作时序定位方法
CN112183153A (zh) * 2019-07-01 2021-01-05 中国移动通信集团浙江有限公司 一种基于视频分析的对象行为检测方法及装置
CN110363131B (zh) * 2019-07-08 2021-10-15 上海交通大学 基于人体骨架的异常行为检测方法、系统及介质
CN110334668A (zh) * 2019-07-10 2019-10-15 中国民航信息网络股份有限公司 一种个人信息展示方法和系统
CN110327053A (zh) * 2019-07-12 2019-10-15 广东工业大学 一种基于电梯空间的人体行为安全监测方法、设备及系统
CN110490901A (zh) * 2019-07-15 2019-11-22 武汉大学 抗姿态变化的行人检测跟踪方法
CN110660017A (zh) * 2019-09-02 2020-01-07 北京航空航天大学 一种基于三维姿态识别的舞谱记录与演示方法
CN110969078A (zh) * 2019-09-17 2020-04-07 博康智能信息技术有限公司 基于人体关键点的异常行为识别方法
CN110738163A (zh) * 2019-10-12 2020-01-31 中国矿业大学 一种矿井人员违规动作识别系统
CN110717460A (zh) * 2019-10-12 2020-01-21 中国矿业大学 一种矿井人员违规动作识别方法
CN111062238B (zh) * 2019-10-12 2023-07-07 杭州安脉盛智能技术有限公司 基于人体骨架信息及多目标跟踪的扶梯流量监测方法及系统
CN110717476A (zh) * 2019-10-22 2020-01-21 上海眼控科技股份有限公司 图像处理方法、装置、计算机设备和计算机可读存储介质
CN110929584A (zh) * 2019-10-28 2020-03-27 九牧厨卫股份有限公司 网络训练方法、监控方法、系统、存储介质和计算机设备
CN110796077A (zh) * 2019-10-29 2020-02-14 湖北民族大学 姿态动作实时检测校正方法
CN112800807B (zh) * 2019-11-13 2023-05-23 上海高德威智能交通系统有限公司 版面图像的识别方法、识别装置、计算设备及存储介质
CN110852303A (zh) * 2019-11-21 2020-02-28 中科智云科技有限公司 一种基于OpenPose的吃东西行为识别方法
CN111178216B (zh) * 2019-12-23 2023-06-09 东北大学 一种基于姿态时空特征的考场异常行为识别方法
CN111046832B (zh) * 2019-12-24 2023-06-02 广州地铁设计研究院股份有限公司 基于图像识别的逆行判断方法、装置、设备和存储介质
CN111103891B (zh) * 2019-12-30 2021-03-16 西安交通大学 一种基于骨骼点检测的无人机快速姿势控制系统与方法
CN111199211A (zh) * 2019-12-31 2020-05-26 武汉星巡智能科技有限公司 具有红外唤醒功能的智能监控设备、监控方法及存储介质
CN111274948B (zh) * 2020-01-19 2021-07-30 杭州微洱网络科技有限公司 针对电商图像中人体脚部及鞋子关键点的检测方法
CN111401144B (zh) * 2020-02-26 2023-04-07 华南理工大学 一种基于视频监控的手扶电梯乘客行为识别方法
CN111353426A (zh) * 2020-02-28 2020-06-30 山东浪潮通软信息科技有限公司 异常行为的检测方法及装置
CN111382705A (zh) * 2020-03-10 2020-07-07 创新奇智(广州)科技有限公司 逆行行为检测方法、装置、电子设备及可读存储介质
CN111368791B (zh) * 2020-03-18 2020-09-29 南通大学 基于Quick-OpenPose模型的引体向上测试计数方法及系统
CN111401260B (zh) * 2020-03-18 2020-09-29 南通大学 基于Quick-OpenPose模型的仰卧起坐测试计数方法及系统
CN111461041B (zh) * 2020-04-07 2022-12-09 西安交通大学 一种基于生成对抗网络的多因素联合判别异常行人方法
CN111401305B (zh) * 2020-04-08 2021-06-04 北京精准沟通传媒科技股份有限公司 一种4s店顾客统计方法、装置及电子设备
CN111476183A (zh) * 2020-04-13 2020-07-31 腾讯科技(深圳)有限公司 客流信息处理方法及装置
CN111539981B (zh) * 2020-04-13 2023-03-10 北京航空航天大学 基于人工智能的运动预测系统
CN111507252A (zh) * 2020-04-16 2020-08-07 上海眼控科技股份有限公司 人体跌倒检测装置、方法、电子终端及存储介质
CN111539298A (zh) * 2020-04-20 2020-08-14 深知智能科技(金华)有限公司 一种基于动态数据的身份信息融合系统及方法
CN111553229B (zh) * 2020-04-21 2021-04-16 清华大学 基于三维骨骼与lstm的工人动作识别方法及装置
WO2021212482A1 (zh) * 2020-04-24 2021-10-28 华为技术有限公司 一种目标检测中难例挖掘的方法及装置
CN111768427B (zh) * 2020-05-07 2023-12-26 普联国际有限公司 一种多运动目标跟踪方法、装置及存储介质
CN111652076A (zh) * 2020-05-11 2020-09-11 重庆大学 一种面向ad量表理解能力测试的姿态自动识别系统
CN111597970B (zh) * 2020-05-14 2023-05-02 中国银行股份有限公司 异常行为的识别方法及装置
CN113705274B (zh) * 2020-05-20 2023-09-05 杭州海康威视数字技术股份有限公司 攀高行为检测方法、装置、电子设备及存储介质
CN111738095B (zh) * 2020-05-28 2022-06-21 复旦大学 一种基于骨架姿态的人物识别方法
CN111738096B (zh) * 2020-05-28 2022-08-19 复旦大学 一种基于骨架姿态的人物跟踪方法
CN111639632A (zh) * 2020-07-31 2020-09-08 南京浦和数据有限公司 一种基于支持向量机的地铁驾驶员动作序列识别方法
CN112001335A (zh) * 2020-08-27 2020-11-27 武汉科技大学 一种地铁乘客不安全行为风险评估界面系统
CN112651275A (zh) * 2020-09-01 2021-04-13 武汉科技大学 人员密集场所踩踏事故诱因行为智能识系统
CN111814775B (zh) * 2020-09-10 2020-12-11 平安国际智慧城市科技股份有限公司 目标对象异常行为识别方法、装置、终端及存储介质
CN112287758B (zh) * 2020-09-26 2022-08-26 浙江汉德瑞智能科技有限公司 基于关键点检测的攀爬识别方法
CN112149588A (zh) * 2020-09-28 2020-12-29 北京工业大学 一种基于行人姿态估计的电梯智能调度方法
CN112184785B (zh) * 2020-09-30 2023-03-24 西安电子科技大学 基于mcd度量和vtm的多模态遥感图像配准方法
CN112200088A (zh) * 2020-10-10 2021-01-08 普联技术有限公司 一种坐姿监测方法、装置、设备以及系统
CN112232176A (zh) * 2020-10-13 2021-01-15 济南轨道交通集团有限公司 一种城市轨道交通车站行人跟踪与轨迹重建方法及系统
CN112418213A (zh) * 2020-11-06 2021-02-26 北京航天自动控制研究所 一种车辆行驶轨迹识别方法、装置及存储介质
CN112446313A (zh) * 2020-11-20 2021-03-05 山东大学 一种基于改进动态时间规整算法的排球动作识别方法
CN112541421A (zh) * 2020-12-08 2021-03-23 浙江科技学院 一种开放空间的行人换装重识别方法
CN112465065B (zh) * 2020-12-11 2022-10-14 中国第一汽车股份有限公司 一种传感器数据关联方法、装置、设备及存储介质
CN112784680B (zh) * 2020-12-23 2024-02-02 中国人民大学 一种人流密集场所锁定密集接触者的方法和系统
CN112733807A (zh) * 2021-02-22 2021-04-30 佳都新太科技股份有限公司 一种人脸比对的图卷积神经网络训练方法及装置
CN113011290A (zh) * 2021-03-03 2021-06-22 上海商汤智能科技有限公司 事件检测方法及装置、电子设备和存储介质
CN112949503B (zh) * 2021-03-05 2022-08-09 齐齐哈尔大学 一种用于冰雪体育运动的场地监测管理方法与系统
CN113155070B (zh) * 2021-03-25 2023-03-24 深圳英飞拓科技股份有限公司 一种脚手架攀爬安全检测方法及系统
CN112926522B (zh) * 2021-03-30 2023-11-24 广东省科学院智能制造研究所 一种基于骨骼姿态与时空图卷积网络的行为识别方法
CN112926541B (zh) * 2021-04-09 2022-11-08 济南博观智能科技有限公司 一种睡岗检测方法、装置及相关设备
CN113033523B (zh) * 2021-05-25 2021-08-17 杭州雄迈集成电路技术股份有限公司 跌倒判断模型的构建方法及系统、跌倒判断方法及系统
CN113518180B (zh) * 2021-05-25 2022-08-05 宁夏宁电电力设计有限公司 一种用于电力作业车的车载摄像头安装方法
CN113554609B (zh) * 2021-07-19 2022-07-08 同济大学 一种基于视觉的颈部肌张力障碍识别系统
CN113591712A (zh) * 2021-07-30 2021-11-02 天津市府易科技股份有限公司 一种基于ai识别的用户异常行为识别方法及装置
CN113537137B (zh) * 2021-08-02 2022-09-13 浙江索思科技有限公司 一种面向电扶梯的人体动作本征特征提取的方法及系统
CN113554682B (zh) * 2021-08-03 2023-03-17 同济大学 一种基于目标跟踪的安全帽检测方法
CN113435430B (zh) * 2021-08-27 2021-11-09 中国科学院自动化研究所 基于自适应时空纠缠的视频行为识别方法、系统、设备
CN113962245A (zh) * 2021-09-08 2022-01-21 华南理工大学 一种人体行为识别方法与系统
CN113688797A (zh) * 2021-09-27 2021-11-23 江南大学 一种基于骨架提取的异常行为识别方法及系统
CN113822250A (zh) * 2021-11-23 2021-12-21 中船(浙江)海洋科技有限公司 一种船舶驾驶异常行为检测方法
CN114581843B (zh) * 2022-02-22 2024-04-26 华南理工大学 一种基于深度学习的扶梯乘客危险行为识别方法
CN116168350B (zh) * 2023-04-26 2023-06-27 四川路桥华东建设有限责任公司 基于物联网实现施工人员违规行为的智能监测方法及装置
CN116645727B (zh) * 2023-05-31 2023-12-01 江苏中科优胜科技有限公司 一种基于Openpose模型算法的行为捕捉识别方法
CN116957475A (zh) * 2023-08-09 2023-10-27 南京沃德睿医疗科技有限公司 基于云计算的口腔诊所库房管理方法、系统及装置
CN117011946B (zh) * 2023-10-08 2023-12-19 武汉海昌信息技术有限公司 一种基于人体行为识别的无人救援方法
CN117218324A (zh) * 2023-10-17 2023-12-12 广东迅扬科技股份有限公司 一种基于人工智能的摄像头调控系统及方法
CN117315550B (zh) * 2023-11-29 2024-02-23 南京市特种设备安全监督检验研究院 自动扶梯乘客危险行为的检测方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105930767A (zh) * 2016-04-06 2016-09-07 南京华捷艾米软件科技有限公司 一种基于人体骨架的动作识别方法
CN106127125A (zh) * 2016-06-16 2016-11-16 山东大学 基于人体行为特征的分布式dtw人体行为意图识别方法
CN106571014A (zh) * 2016-10-24 2017-04-19 上海伟赛智能科技有限公司 一种在视频中识别异常动作的方法和系统
CN108052896A (zh) * 2017-12-12 2018-05-18 广东省智能制造研究所 基于卷积神经网络与支持向量机的人体行为识别方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9355306B2 (en) * 2013-09-27 2016-05-31 Konica Minolta Laboratory U.S.A., Inc. Method and system for recognition of abnormal behavior

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105930767A (zh) * 2016-04-06 2016-09-07 南京华捷艾米软件科技有限公司 一种基于人体骨架的动作识别方法
CN106127125A (zh) * 2016-06-16 2016-11-16 山东大学 基于人体行为特征的分布式dtw人体行为意图识别方法
CN106571014A (zh) * 2016-10-24 2017-04-19 上海伟赛智能科技有限公司 一种在视频中识别异常动作的方法和系统
CN108052896A (zh) * 2017-12-12 2018-05-18 广东省智能制造研究所 基于卷积神经网络与支持向量机的人体行为识别方法

Also Published As

Publication number Publication date
CN109460702A (zh) 2019-03-12

Similar Documents

Publication Publication Date Title
CN109460702B (zh) 基于人体骨架序列的乘客异常行为识别方法
CN110147743B (zh) 一种复杂场景下的实时在线行人分析与计数系统及方法
CN109522793B (zh) 基于机器视觉的多人异常行为检测与识别方法
Kim et al. Simultaneous gesture segmentation and recognition based on forward spotting accumulative HMMs
CN111709310B (zh) 一种基于深度学习的手势跟踪与识别方法
Migdal et al. Background subtraction using markov thresholds
CN105069434B (zh) 一种视频中人体动作行为识别方法
CN112989889B (zh) 一种基于姿态指导的步态识别方法
CN111523559B (zh) 一种基于多特征融合的异常行为检测方法
CN106778501A (zh) 基于压缩跟踪与ihdr增量学习的视频人脸在线识别方法
CN108537181A (zh) 一种基于大间距深度度量学习的步态识别方法
CN112580525B (zh) 一种基于行人再识别的病例活动轨迹监测方法
CN113608663B (zh) 一种基于深度学习和k-曲率法的指尖跟踪方法
CN113989851A (zh) 一种基于异构融合图卷积网络的跨模态行人重识别方法
Asif et al. Sshfd: Single shot human fall detection with occluded joints resilience
Zhang et al. A Gaussian mixture based hidden Markov model for motion recognition with 3D vision device
CN113642482A (zh) 一种基于视频时空上下文的视频人物关系分析方法
Benabbas et al. Action recognition using direction models of motion
Serpush et al. Complex human action recognition in live videos using hybrid FR-DL method
Algabri et al. Robust person following under severe indoor illumination changes for mobile robots: online color-based identification update
Hai et al. An efficient star skeleton extraction for human action recognition using hidden Markov models
CN108416325B (zh) 一种结合视角转换模型与隐马尔可夫模型的步态识别方法
Chikkanna et al. Kinect based real-time gesture spotting using HCRF
Huang et al. View-independent behavior analysis
Endres et al. Graph-based action models for human motion classification

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant