CN113688797A - 一种基于骨架提取的异常行为识别方法及系统 - Google Patents

一种基于骨架提取的异常行为识别方法及系统 Download PDF

Info

Publication number
CN113688797A
CN113688797A CN202111138326.7A CN202111138326A CN113688797A CN 113688797 A CN113688797 A CN 113688797A CN 202111138326 A CN202111138326 A CN 202111138326A CN 113688797 A CN113688797 A CN 113688797A
Authority
CN
China
Prior art keywords
skeleton
human body
target
space
video
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202111138326.7A
Other languages
English (en)
Inventor
颜文旭
吴晨
樊启高
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Jiangnan University
Original Assignee
Jiangnan University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Jiangnan University filed Critical Jiangnan University
Priority to CN202111138326.7A priority Critical patent/CN113688797A/zh
Publication of CN113688797A publication Critical patent/CN113688797A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2415Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person

Abstract

本发明涉及一种基于骨架提取的异常行为识别方法及系统。本发明包括:获取具有人体图像的视频;对视频中的人体图像进行目标人员检测,并对检测到的目标人员进行跟踪;对跟踪到的目标人员提取人体关节置信度图和骨骼漂移场图,构建人体骨架;将视频的每帧图像中目标人员的人体骨架按时间顺序组合得到骨架序列,根据骨架序列构建时空图,对时空图采用时空图卷积操作进行行为特征提取,并对行为特征进行分类,识别目标人员是否存在异常行为。通过对视频进行目标人员检测及跟踪、进行骨架提取、运用时空图卷积网络识别目标人员是否存在异常行为,实现了对异常行为的准确检测,解决了现有技术中不能准确地对异常行为进行识别的问题。

Description

一种基于骨架提取的异常行为识别方法及系统
技术领域
本发明涉及图像处理及行为识别的技术领域,尤其涉及一种基于骨架提取的异常行为识别方法及系统。
背景技术
电力工程施工点多、面广、任务重,普遍存在高空交叉作业、野外施工环境恶劣、大件起重吊装、人员触电等高风险因素,且工程分包、转包形式多,企业施工能力、安全管理能力不足,发生人身事故的风险大。目前,随着电网规模的不断增大、设备的迅速增加和现代城市化进程的提速,电力基建、技改、迁改、大修等施工现场的规模数量也随之剧增,因此,电力施工现场安全管控的需求也越来越大。
而传统的安全管控基本依靠人工的现场监护和稽查,安全监督人员数量有限、管控效果高度依赖人员责任心,已远远无法满足全过程、立体式、智能化的安全管控要求。因此,迫切需要提出一种解决方案,在施工现场安全事故发生之前就发现施工过程的异常行为,并提供预警,从根本上遏制、减少事故发生的问题。
对施工人员的异常行为进行识别主要涉及3个方面的算法:人员检测、人员跟踪及行为识别。
常用的人员检测算法大致可以分为基于图像空间、基于特征空间两种,前者主要利用图像中目标的轮廓边缘、区域大小、灰度及形状与纹理等特征进行目标检测;后者则是将识别图像经过空间变换后,利用特征空间提取图像的特征来实现目标检测,但是这两种算法都容易受光照等因素干扰。
实现人员跟踪可以有许多算法,如均值漂移、卡尔曼滤波等。均值漂移本质是局部检测,在局部区域内寻找密度最大的点,计算简单,但当背景较为复杂或目标纹理较为丰富时,会有很大的噪声。卡尔曼滤波用于跟踪有一个很大的问题,即在跟踪的过程中只用到了位置信息,丰富色彩的信息没有被利用到,这是一种对信息的浪费。
行为识别大致可分为基于低级视觉物征和基于粒子流两个方面。基于低级视觉物征提取的方法先提取目标图像的低级特征,再利用分类器进行异常检测,能从数据上直观地反映目标的运动状态,但提取的信息单一,实时性和准确性不高;基于粒子流的方法假定目标受长期外作用力进行运动,再计算相互作用力,设定阈值来检测异常,其中的典型是社会力模型,但模型建立复杂,计算量大导致实时性差。
综上所述,亟需一种准确性高、抗干扰能力强的施工现场异常行为识别方法以及时避免安全事故的发生。
发明内容
鉴于上述分析,本发明旨在提供一种基于骨架提取的异常行为识别方法,用以解决现有技术不能准确地对施工现场作业人员的异常行为进行识别的问题。
为解决上述问题,本发明提供了一种基于骨架提取的异常行为识别方法,包括如下步骤:
步骤S1:获取具有人体图像的视频;
步骤S2:对视频中的人体图像进行目标人员检测,并对检测到的目标人员进行跟踪;
步骤S3:提取跟踪到的目标人员的人体关节置信度图和骨骼漂移场图,对人体关节置信度图采取非极大值抑制,得到一系列候选关节点,将候选关节点之间相互连接构成二分图,将骨骼漂移场图作为二分图中边的权值,并对二分图进行优化构建人体骨架;
步骤S4:将视频的每帧图像中目标人员的人体骨架按时间顺序组合得到骨架序列,根据骨架序列构建时空图,对时空图采用时空图卷积操作提取行为特征,并对行为特征进行分类,识别目标人员是否存在异常行为。
在本发明的一种实施方式中,步骤S2中,所述对视频中的人体图像进行目标人员检测的方法包括:
步骤S21:利用labelImg工具对视频的视频帧图像中的人头位置进行标注,获得标记边界框,利用YOLOv3网络对视频帧图像进行统一尺寸并划分栅格,获得栅格内的预测目标边界框;
步骤S22:根据标记边界框和预测目标边界框,得到预测目标边界框的分类置信分数;
步骤S23:若分类置信分数小于预设置信阈值,则将预测目标边界框删除,若分类置信分数大于等于预设置信阈值,则将预测目标边界框保留,将保留的预测目标边界框进行非最大抑制滤波,输出最终目标人员位置。
在本发明的一种实施方式中,所述分类置信分数为:
Figure BDA0003282891180000031
Figure BDA0003282891180000032
其中,如有目标落入栅格,则Pr(Object)=1,否则为0;
Figure BDA0003282891180000033
为预测目标边界框与标记边界框的交互比,Detection为预测目标边界框,GroundTruth为标记边界框,
Figure BDA0003282891180000034
表示预测目标边界框与标记边界框一致。
在本发明的一种实施方式中,所述对检测到的目标人员进行跟踪的方法包括:
利用YOLOv3网络获取目标人员的YOLOv3网络边界框,利用RT-MDNet算法获取目标人员的RT-MDNet算法边界框;
计算YOLOv3网络边界框和RT-MDNet算法边界框的重叠度;
当重叠度大于或等于预设重叠度阈值时,选择RT-MDNet算法边界框作为下一帧跟踪器模型的更新输入;否则,选择YOLOv3网络边界框作为下一帧跟踪器模型的更新输入,所述下一帧跟踪器模型为:
Figure BDA0003282891180000041
其中,xd为输入为d域的图片,R为边界框,K是训练数据集总数,φd为计算d域最后一层全连接层的前景和背景的二分类得分的函数。
在本发明的一种实施方式中,所述重叠度为:
Figure BDA0003282891180000042
其中
Figure BDA0003282891180000043
为YOLOv3网络边界框,x1,y11,h1分别为YOLOv3网络边界框中心在图像中的横坐标、纵坐标、边界框宽、边界框高,
Figure BDA0003282891180000044
为RT-MDNet算法边界框,x2,y22,h2分别为RT-MDNet算法边界框在图像中的横坐标、纵坐标、边界框宽、边界框高。
在本发明的一种实施方式中,步骤S3中,所述对人体关节置信度图采取非极大值抑制,得到一系列候选关节点的方法包括:
对于第k个人的骨骼c上关节j对应的真实像素点xj,k,第k个人的个人置信图为
Figure BDA0003282891180000045
在p点
Figure BDA0003282891180000046
的值定义为
Figure BDA0003282891180000047
其中,σ控制着峰值的传播,P是个二维的坐标点,表示人体关节置信度图中的每一个点;
通过非极大值抑制获得候选关节点:
Figure BDA0003282891180000051
在本发明的一种实施方式中,步骤S3中,所述将候选关节点之间相互连接构成二分图,将骨骼漂移场图作为二分图中边的权值,并对二分图进行优化来构建完整的人体骨架的方法包括:
步骤S31:将候选关节点的集合用
Figure BDA0003282891180000052
表示,Nj为关节点j的个数,
Figure BDA0003282891180000053
表示关节点j第m个候选点的位置;
对候选两个检测部位dj1和dj2,沿着其连接线段来计算它们之间连接边的置信度:
Figure BDA0003282891180000054
其中,Lc表示沿着
Figure BDA00032828911800000512
Figure BDA00032828911800000513
的连接线段,p(u)表示
Figure BDA00032828911800000514
Figure BDA00032828911800000515
之间的像素点,
Figure BDA00032828911800000516
当图像中出现多人肢体重合时,Lc的groud truth计算如下:
Figure BDA0003282891180000055
其中,nc(p)表示在p点处非零向量的个数,k为在p点处重叠的人的个数,
Figure BDA0003282891180000056
其中,
Figure BDA0003282891180000057
是骨骼方向的单位向量,判断点p在骨骼c上需要满足两个条件:
Figure BDA0003282891180000058
其中,
Figure BDA0003282891180000059
是两个关键点之间的长度,
Figure BDA00032828911800000510
Figure BDA00032828911800000511
是图像中第k个人的骨骼c上关节j1和j2对应的真实像素点,σl是以像素为单位的骨骼宽度,v是v的垂直分量;
步骤S32:在所有连接线段中选择一组边使得最终二分图的总权重最大,目标函数如下式:
Figure BDA0003282891180000061
Figure BDA0003282891180000062
Figure BDA0003282891180000063
其中,定义变量
Figure BDA0003282891180000064
来表示两个关节点
Figure BDA0003282891180000065
是否连接,Ec是骨骼c在图中所有的相关性置信度,Zc是骨骼c连接集合z的子集,Emn是两个关节点
Figure BDA0003282891180000066
的连接置信度,由步骤S31中的E计算得到。
在本发明的一种实施方式中,步骤S4中,所述将视频的每帧图像中目标人员的人体骨架按时间顺序组合得到骨架序列,根据骨架序列构建时空图的方法包括:
在一个T帧的有N个关节的骨架序列上构建时空图G=(V,E),节点集V={vti|t=1,…,T,i=1,…,N}包含了骨架序列中的所有关节,E由两个子集组成,空间边ES={vtivtj|(i,j)∈H}描述了每一帧的内部骨架连接,H是一组自然连接的人体关节,时间边EF={vtiv(t+1)i}则在连续帧中连接相同的关节。
在本发明的一种实施方式中,步骤S4中,所述对时空图采用时空图卷积操作提取行为特征,并对行为特征进行分类,识别目标人员是否存在异常行为的方法包括:将所述节点集、空间边、时间边进行正则化后输入时空图卷积网络;所述时空图卷积网络包括九层时空图卷积,前三层输出64通道,中间三层输出128通道,最后三层输出256通道,一共有9个时间卷积核,在每一个时空图卷积层使用残差链接,第4、7层的时间卷积层设置为poling层;将256通道的输出进行全局pooling后得到256维特征向量,并由softmax进行分类,根据分类结果来识别目标人员是否存在异常行为。
本发明还提供一种基于骨架提取的异常行为识别系统,包括:
视频获取模块,用于获取具有人体图像的视频;
检测跟踪模块,用于对视频中的人体图像进行目标人员检测,并对检测到的目标人员进行跟踪;
人体骨架构建模块,用于提取跟踪到的目标人员的人体关节置信度图和骨骼漂移场图,对人体关节置信度图采取非极大值抑制,得到一系列候选关节点,将候选关节点之间相互连接构成二分图,将骨骼漂移场图作为二分图中边的权值,并对二分图进行优化构建人体骨架;
行为特征分类模块,用于将视频的每帧图像中目标人员的人体骨架按时间顺序组合得到骨架序列,根据骨架序列构建时空图,对时空图采用时空图卷积操作提取行为特征,并对行为特征进行分类,识别目标人员是否存在异常行为。
本发明有益效果如下:
本发明通过对视频进行目标人员检测及跟踪、利用OpenPose深度学习网络对检测到的目标人员进行骨架提取、运用时空图卷积网络识别目标人员是否存在异常行为,实现了对异常行为的准确检测,解决了现有技术中不能准确地对异常行为进行识别的问题。
附图说明
下面结合附图和具体实施方式对本发明作进一步描述:
图1为本发明实施例的一种基于骨架提取的异常行为识别方法的流程示意图。
具体实施方式
下面结合具体实施例来对本发明作进一步说明。
实施例1
本实施例提供一种基于骨架提取的异常行为识别方法,流程框图如图1所示,具体包括:
步骤S1:获取具有人体图像的视频;
采用分辨率为720P的广角摄像头以斜上方往下的角度拍摄施工区域,摄像头光轴与巡检机器人平行,拍摄角度覆盖整个工作现场,采集略带俯视角度的监控视频图像。
步骤S2:对视频中的人体图像进行目标人员检测和跟踪;
本实施例使用YOLOv3网络检测视频中的人体,YOLOv3网络采用多尺度融合进行目标检测,对目标尺度的变化具有良好的适应性;YOLOv3网络采用K-means算法对边界框的初始尺寸进行聚类,这种先验知识对算法的速度有一定提高。具体为:
步骤S21:利用开源标注工具labelImg对视频的视频帧图像中的人头位置进行标注,获得标记边界框,标注信息为(x,y,ω,h,c),分别代表目标人头在图像中的相对横坐标、相对纵坐标、相对宽、相对高以及类别,由于只有一类,故c统一标注为0,然后将数据集按7:3的比例划分为用于训练的训练集和用于模型择优的验证集;
步骤S22:利用YOLOv3网络对视频帧图像进行统一尺寸并划分S×S的栅格,如果图像中目标的中心落在某个栅格内,则该栅格对目标进行预测;每个栅格预测多个边界框及其置信度(confidence),置信度反映了栅格内是否含有物体以及包含物体情况下预测框的准确性。
Figure BDA0003282891180000081
Figure BDA0003282891180000082
其中,如有中心目标落入该栅格,则Pr(Object)=1,否则为0;
Figure BDA0003282891180000083
为预测边界框与真实边界框的交互比,Detection为模型预测出来的边界框,GroundTruth为样本数据集中标记的边界框,
Figure BDA0003282891180000084
表示预测边界框与真实边界框一致。
Pr(classi|Object)为栅格预测第i类目标的置信概率,本实施例中目标只有1类,即人体,每个预测框的分类置信分数为预测目标类别的置信概率和预测框预测置信度的乘积;
Figure BDA0003282891180000091
得到分类置信分数之后,设置阈值将得分低的预测框筛除掉,即可得到最终的检测结果。本发明中,阈值设为0.3,因为只有人被检测到,而人体的姿势变化很大。最后,对剩余的预测框进行非最大抑制滤波,输出最终的预测目标位置及其类别。
步骤S23:对检测到的目标人员进行跟踪
RT-MDNet将一个视频看做一个域,多个视频就形成多个域,其定义外观模型为fd=[φ1(xd;R),φ2(xd;R),…,φK(xd;R)]∈R2×K,其中输入为d域的图片xd和边界框R,K是训练数据集总数,φd函数计算d域最后一层全连接层的前景和背景的二分类得分,得分最高的前景即为当前帧目标边界框的预测值。
定义YOLOv3网络边界框为
Figure BDA0003282891180000092
x1,y11,h1分别为YOLOv3网络边界框中心在图像中的横坐标、纵坐标、边界框宽、边界框高,RT-MDNet算法边界框为
Figure BDA0003282891180000093
两个边界框的重叠度为
Figure BDA0003282891180000094
x2,y22,h2分别为RT-MDNet算法边界框在图像中的横坐标、纵坐标、边界框宽、边界框高。
目标跟踪算法整体流程具体包括:采用YOLOv3网络检测第一帧图像时初始化RT-MDNet算法,然后当IoU大于阈值T时,RT-MDNet算法跟踪结果被判定为可信度高,选择
Figure BDA0003282891180000095
作为模型fd的更新输入;当IoU小于阈值T时,当前帧被判定为目标跟踪失败,为了再次找回目标,选择
Figure BDA0003282891180000096
作为下一帧跟踪器模型fd的输入。本实施例中,阈值T设为0.4,中心误差最小。
步骤S3:提取骨架特征
相对于光流、外观和深度等信息,骨架能够更好地描述目标人员的行为信息,而利用OpenPose深度学习网络能够在光照不均匀、存在阴影的条件下准确、实时、稳定地提取其二维人体骨架。
目前的姿态估计方法可分为自底向上(bottom-up)与自顶到下(top-down)两种,前者采用在全局进行关键点检测,然后分别对关键点进行聚类,获得不同人物的整体姿态,该方法具有良好的实时性;后者首先在图像中检测到多个人物整体,然后单独对每个人物进行关节点定位,这类方法的时间消耗会随着个体的增加呈线性增长,并且对于距离较近的人物整体检测效果不佳。因此,本发明采取自底向上进行实时的姿态估计。
实际测试时,输入图像通过网络后可输出一系列人体关节置信度图和骨骼PAFs(骨骼漂移场)图,其中人体关节置信度图的数量与骨架关节数量一致、骨骼PAFs图的数量与骨架骨骼段数量一致。人体关节置信度反映了骨架关节出现在每个像素位置的可能性,骨骼PAFs反映了每一对人体部位探测的相关性,即它们是否属于同一个人。
本实施例利用OpenPose等网络提取人体关节置信度图和骨骼漂移场图,对人体关节置信度图采取非极大值抑制,得到一系列候选关节点,将候选关节点之间相互连接构成二分图,将骨骼漂移场图作为二分图中边的权值,并对二分图进行优化构建人体骨架。具体为:
步骤S31:对于第k个人的骨骼c上关节j对应的真实像素点xj,k,第k个人的个人置信图为
Figure BDA0003282891180000101
在p点
Figure BDA0003282891180000102
的值定义为
Figure BDA0003282891180000103
其中,σ控制着峰值的传播,P是个二维的坐标点,表示人体关节置信度图中的每一个点;本发明中取置信度图的最大值以使接近峰值的精度保持明显,并通过非最大抑制获得身体部位候选。
Figure BDA0003282891180000111
步骤S32:将候选关节点的集合用
Figure BDA0003282891180000112
表示,Nj为关节点j的个数,
Figure BDA0003282891180000113
表示关节点j第m个候选点的位置;
对候选两个检测部位
Figure BDA0003282891180000114
Figure BDA0003282891180000115
沿着其连接线段来计算它们之间连接边的置信度:
Figure BDA0003282891180000116
其中,Lc表示沿着
Figure BDA0003282891180000117
Figure BDA0003282891180000118
的连接线段,p(u)表示
Figure BDA0003282891180000119
Figure BDA00032828911800001110
之间的像素点,
Figure BDA00032828911800001111
在实际应用中,通过抽样和求和等间距的u的值来近似积分。
当图像中出现多人肢体重合时,Lc的groud truth计算如下:
Figure BDA00032828911800001112
其中,nc(p)表示在p点处非零向量的个数,k为在p点处重叠的人的个数,
Figure BDA00032828911800001113
Figure BDA00032828911800001114
是图像中第k个人的骨骼c上关节j1和j2对应的真实像素点,如果点p在骨骼c上,那么在p点处置为向量v,否则为0。
Figure BDA00032828911800001115
其中,
Figure BDA00032828911800001116
是骨骼方向的单位向量,判断点p在骨骼c上需要满足两个条件:
Figure BDA00032828911800001117
其中,
Figure BDA00032828911800001118
是两个关键点之间的长度,σl是以像素为单位的骨骼宽度,v是v的垂直分量;
步骤S33:人体二维骨架包括14个人体关节和由其相连而成的13段人体骨骼,然后将人体两两关节的最优连接问题转化为最大权值二分图匹配问题,利用贪心算法和匈牙利匹配算法,将骨架关节作为二分图中的节点、将PAFs作为二分图中边的权值,确定人体各个关节的位置,使骨架关节和骨骼相连得到完整的人体骨架特征。
Figure BDA0003282891180000121
Figure BDA0003282891180000122
表示第j个关节集合中的第m个点,
Figure BDA0003282891180000123
定义变量
Figure BDA0003282891180000124
来表示两个候选检测对象
Figure BDA0003282891180000125
是否联通,目标是不让两条边共享一个节点,找到所有可能连接集的最优分配。在所有边中选择一组边使得最终二分图的总权重最大,目标函数如下式:
Figure BDA0003282891180000126
Figure BDA0003282891180000127
Figure BDA0003282891180000128
其中,定义变量
Figure BDA0003282891180000129
来表示两个关节点
Figure BDA00032828911800001210
是否连接,Ec是骨骼c在图中所有的相关性置信度,Zc是骨骼c连接集合z的子集,Emn是两个关节点
Figure BDA00032828911800001211
的连接置信度。
采用匈牙利算法获取最好的匹配,选择最小数量的边来获得人体姿势的生成树骨架而不是使用完整图,并进一步将匹配问题分解为一组二分匹配子问题,独立地确定相邻树节点中的匹配。分别获得每种肢体类型的肢体连接候选后,通过所有肢体连接候选,将共享相同部位检测候选的连接组合成人体的全身姿势。
步骤S4:将视频的每帧图像中目标人员的人体骨架按时间顺序组合得到骨架序列,根据骨架序列构建时空图,对时空图采用时空图卷积操作行为特征,并对行为特征进行分类,识别目标人员是否存在异常行为。
早期基于骨架进行动作识别的方法只是在各个时间步骤使用关节坐标形成特征向量,并对其进行时序分析,但这些方法能力有限,因为它们没有明确利用人类关节的空间关系。而时空图卷积网络通过将图卷积网络扩展到时空图模型,设计了用于行为识别的骨架序列通用表示。图中存在两种类型的边,即符合关节自然连接的空间边(spatial edge)和在连续的时间步骤中连接相同关节的时间边(temporal edge)。在此基础上构建多层的时空图卷积,它允许信息沿着空间和时间两个维度进行整合。
在一个T帧的有N个关节的骨架序列上构建时空图G=(V,E),节点集V={vti|t=1,…,T,i=1,…,N}包含了骨架序列中的所有关节,E由两个子集组成,空间边ES={vtivtj|(i,j)∈H}描述了每一帧的内部骨架连接,H是一组自然连接的人体关节,时间边EF={vtiv(t+1)i}则在连续帧中连接相同的关节。
给定核大小为K×K的卷积算子和通道数为c的输入特征映射fin,在空间位置x处的单个通道的输出值为
Figure BDA0003282891180000131
其采样函数p(x,h,ω)=x′+p′(h,ω)枚举了位置x的邻点,权函数w:Z2→Rc提供了c维空间中的权值向量,用于计算与c维采样输入特征向量的内积。
将上述公式拓展到空间域上,d(vtj,vti)表示从vtj到vti任意路径的最短长度,定义邻集B(vti)={vtj|d(vtj,vti)≤D},本发明中令D=1,在邻集上定义采样函数,则p(vti,vtj)=vtj。将邻集B(vti)划分为固定数量的K个子集,其中每个子集都有一个数字标签,映射lti:B(vti)→{0,…,K-1},则权函数w(vti,vtj)=w′(lti(vtj))。
将空间域的模型拓展到时间域中,邻集为
Figure BDA0003282891180000132
标签映射为
Figure BDA0003282891180000133
q是对时间域的拓展,其中Γ是控制时间域的卷积核大小,lti(vtj)是vti处单帧情况的标签映射。
将节点的1邻域划分为3个子集,第1个子集连接空间位置上比根节点更远离整个骨架的邻居节点,第2个子集连接更靠近中心的邻居节点,第3个子集为根节点本身,分别表示了离心运动、向心运动和静止的运动特征。
实际测试时,输入的骨架序列数据首先进行正则化。将所述节点集、空间边、时间边进行正则化后输入时空图卷积网络;所述时空图卷积网络包括九层时空图卷积,前三层输出64通道,中间三层输出128通道,最后三层输出256通道,一共有9个时间卷积核,在每一个时空图卷积层使用残差链接,使用dropout进行特征正则化处理,将一半的神经元进行dropout处理。第4、7层的时间卷积层设置为poling层;将256通道的输出进行全局pooling后得到256维特征向量,并由softmax进行分类,根据分类结果来识别目标人员是否存在异常行为。
综上所述,本实施例通过YOLOv3网络对目标进行检测,对检测到的人员,利用RT-MDNet算法进行跟踪;接着采用OpenPose深度学习网络实现人体骨架特征的提取;最后利用时空图卷积网络对骨架序列进行分类,从而实现异常行为的识别和报警。
实施例2
基于同一发明构思,本实施例提供了一种基于骨架提取的异常行为识别系统,其解决问题的原理与所述一种基于骨架提取的异常行为识别方法类似,重复之处不再赘述。
本实施例提供了一种基于骨架提取的异常行为识别系统,包括:
视频获取模块,用于获取具有人体图像的视频;
检测跟踪模块,用于对视频中的人体图像进行目标人员检测,并对检测到的目标人员进行跟踪;
人体骨架构建模块,用于提取跟踪到的目标人员的人体关节置信度图和骨骼漂移场图,对人体关节置信度图采取非极大值抑制,得到一系列候选关节点,将候选关节点之间相互连接构成二分图,将骨骼漂移场图作为二分图中边的权值,并对二分图进行优化构建人体骨架;
行为特征分类模块,用于将视频的每帧图像中目标人员的人体骨架按时间顺序组合得到骨架序列,根据骨架序列构建时空图,对时空图采用时空图卷积操作提取行为特征,并对行为特征进行分类,识别目标人员是否存在异常行为。
以上所述,仅为本发明的具体实施方式,但本发明的保护范围并不局限于此,熟悉该本领域的技术人员应该明白本发明包括但不限于上面具体实施方式中描述的内容。任何不偏离本发明的功能和结构原理的修改都将包括在权利要求书的范围中。
本领域内的技术人员应明白,本申请的实施例可提供为方法、系统、或计算机程序产品。因此,本申请可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本申请可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本申请是参照根据本申请实施例的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
显然,上述实施例仅仅是为清楚地说明所作的举例,并非对实施方式的限定。对于所属领域的普通技术人员来说,在上述说明的基础上还可以做出其它不同形式变化或变动。这里无需也无法对所有的实施方式予以穷举。而由此所引申出的显而易见的变化或变动仍处于本发明创造的保护范围之中。

Claims (10)

1.一种基于骨架提取的异常行为识别方法,其特征在于,包括如下步骤:
步骤S1:获取具有人体图像的视频;
步骤S2:对视频中的人体图像进行目标人员检测,并对检测到的目标人员进行跟踪;
步骤S3:提取跟踪到的目标人员的人体关节置信度图和骨骼漂移场图,对人体关节置信度图采取非极大值抑制,得到一系列候选关节点,将候选关节点之间相互连接构成二分图,将骨骼漂移场图作为二分图中边的权值,并对二分图进行优化构建人体骨架;
步骤S4:将视频的每帧图像中目标人员的人体骨架按时间顺序组合得到骨架序列,根据骨架序列构建时空图,对时空图采用时空图卷积操作提取行为特征,并对行为特征进行分类,识别目标人员是否存在异常行为。
2.根据权利要求2所述的一种基于骨架提取的异常行为识别方法,其特征在于,步骤S2中,所述对视频中的人体图像进行目标人员检测的方法包括:
步骤S21:利用labelImg工具对视频的视频帧图像中的人头位置进行标注,获得标记边界框,利用YOLOv3网络对视频帧图像进行统一尺寸并划分栅格,获得栅格内的预测目标边界框;
步骤S22:根据标记边界框和预测目标边界框,得到预测目标边界框的分类置信分数;
步骤S23:若分类置信分数小于预设置信阈值,则将预测目标边界框删除,若分类置信分数大于等于预设置信阈值,则将预测目标边界框保留,将保留的预测目标边界框进行非最大抑制滤波,输出最终目标人员位置。
3.根据权利要求2所述的一种基于骨架提取的异常行为识别方法,其特征在于,所述分类置信分数为:
Figure FDA0003282891170000021
Figure FDA0003282891170000022
其中,如有目标落入栅格,则Pr(Object)=1,否则为0;
Figure FDA0003282891170000023
为预测目标边界框与标记边界框的交互比,Detection为预测目标边界框,GroundTruth为标记边界框,
Figure FDA0003282891170000024
表示预测目标边界框与标记边界框一致。
4.根据权利要求1所述的一种基于骨架提取的异常行为识别方法,其特征在于,所述对检测到的目标人员进行跟踪的方法包括:
利用YOLOv3网络获取目标人员的YOLOv3网络边界框,利用RT-MDNet算法获取目标人员的RT-MDNet算法边界框;
计算YOLOv3网络边界框和RT-MDNet算法边界框的重叠度;
当重叠度大于或等于预设重叠度阈值时,选择RT-MDNet算法边界框作为下一帧跟踪器模型的更新输入;否则,选择YOLOv3网络边界框作为下一帧跟踪器模型的更新输入,所述下一帧跟踪器模型为:
fd=[φ1(xd;R),φ2(xd;R),...,φK(xd;R)]∈R2×K
其中,xd为输入为d域的图片,R为边界框,K是训练数据集总数,φd为计算d域最后一层全连接层的前景和背景的二分类得分的函数。
5.根据权利要求4所述的一种基于骨架提取的异常行为识别方法,其特征在于,所述重叠度为:
Figure FDA0003282891170000025
其中
Figure FDA0003282891170000026
为YOLOv3网络边界框,x1,y11,h1分别为YOLOv3网络边界框中心在图像中的横坐标、纵坐标、边界框宽、边界框高,
Figure FDA0003282891170000031
为RT-MDNet算法边界框,x2,y22,h2分别为RT-MDNet算法边界框在图像中的横坐标、纵坐标、边界框宽、边界框高。
6.根据权利要求1所述的一种基于骨架提取的异常行为识别方法,其特征在于,步骤S3中,所述对人体关节置信度图采取非极大值抑制,得到一系列候选关节点的方法包括:
对于第k个人的骨骼c上关节j对应的真实像素点xj,k,第k个人的个人置信图为
Figure FDA0003282891170000032
在p点
Figure FDA0003282891170000033
的值定义为
Figure FDA0003282891170000034
其中,σ控制着峰值的传播,P是个二维的坐标点,表示人体关节置信度图中的每一个点;
通过非极大值抑制获得候选关节点:
Figure FDA0003282891170000035
7.根据权利要求1所述的一种基于骨架提取的异常行为识别方法,其特征在于,步骤S3中,所述将候选关节点之间相互连接构成二分图,将骨骼漂移场图作为二分图中边的权值,并对二分图进行优化来构建完整的人体骨架的方法包括:
步骤S31:将候选关节点的集合用
Figure FDA0003282891170000036
表示,Nj为关节点j的个数,
Figure FDA0003282891170000037
表示关节点j第m个候选点的位置;
对候选两个检测部位
Figure FDA0003282891170000038
Figure FDA0003282891170000039
沿着其连接线段来计算它们之间连接边的置信度:
Figure FDA00032828911700000310
其中,Lc表示沿着
Figure FDA00032828911700000311
Figure FDA00032828911700000312
的连接线段,p(u)表示
Figure FDA00032828911700000313
Figure FDA00032828911700000314
之间的像素点,
Figure FDA0003282891170000041
当图像中出现多人肢体重合时,Lc的groud truth计算如下:
Figure FDA0003282891170000042
其中,nc(p)表示在p点处非零向量的个数,k为在p点处重叠的人的个数,
Figure FDA0003282891170000043
其中,
Figure FDA0003282891170000044
是骨骼方向的单位向量,判断点p在骨骼c上需要满足两个条件:
Figure FDA0003282891170000045
其中,
Figure FDA0003282891170000046
是两个关键点之间的长度,
Figure FDA0003282891170000047
Figure FDA0003282891170000048
是图像中第k个人的骨骼c上关节j1和j2对应的真实像素点,σl是以像素为单位的骨骼宽度,v是v的垂直分量;
步骤S32:在所有连接线段中选择一组边使得最终二分图的总权重最大,目标函数如下式:
Figure FDA0003282891170000049
Figure FDA00032828911700000410
Figure FDA00032828911700000411
其中,定义变量
Figure FDA00032828911700000412
来表示两个关节点
Figure FDA00032828911700000413
是否连接,Ec是骨骼c在图中所有的相关性置信度,Zc是骨骼c连接集合z的子集,Emn是两个关节点
Figure FDA00032828911700000414
的连接置信度,由步骤S31中的E计算得到。
8.根据权利要求1所述的一种基于骨架提取的异常行为识别方法,其特征在于,步骤S4中,所述将视频的每帧图像中目标人员的人体骨架按时间顺序组合得到骨架序列,根据骨架序列构建时空图的方法包括:
在一个T帧的有N个关节的骨架序列上构建时空图G=(V,E),节点集V={vti|t=1,...,T,i=1,...,N}包含了骨架序列中的所有关节,E由两个子集组成,空间边ES={vtivtj|(i,j)∈H}描述了每一帧的内部骨架连接,H是一组自然连接的人体关节,时间边EF={vtiv(t+1)i}则在连续帧中连接相同的关节。
9.根据权利要求8所述的一种基于骨架提取的异常行为识别方法,其特征在于,步骤S4中,所述对时空图采用时空图卷积操作提取行为特征,并对行为特征进行分类,识别目标人员是否存在异常行为的方法包括:将所述节点集、空间边、时间边进行正则化后输入时空图卷积网络;所述时空图卷积网络包括九层时空图卷积,前三层输出64通道,中间三层输出128通道,最后三层输出256通道,一共有9个时间卷积核,在每一个时空图卷积层使用残差链接,第4、7层的时间卷积层设置为poling层;将256通道的输出进行全局pooling后得到256维特征向量,并由softmax进行分类,根据分类结果来识别目标人员是否存在异常行为。
10.一种基于骨架提取的异常行为识别系统,其特征在于,包括:
视频获取模块,用于获取具有人体图像的视频;
检测跟踪模块,用于对视频中的人体图像进行目标人员检测,并对检测到的目标人员进行跟踪;
人体骨架构建模块,用于提取跟踪到的目标人员的人体关节置信度图和骨骼漂移场图,对人体关节置信度图采取非极大值抑制,得到一系列候选关节点,将候选关节点之间相互连接构成二分图,将骨骼漂移场图作为二分图中边的权值,并对二分图进行优化构建人体骨架;
行为特征分类模块,用于将视频的每帧图像中目标人员的人体骨架按时间顺序组合得到骨架序列,根据骨架序列构建时空图,对时空图采用时空图卷积操作提取行为特征,并对行为特征进行分类,识别目标人员是否存在异常行为。
CN202111138326.7A 2021-09-27 2021-09-27 一种基于骨架提取的异常行为识别方法及系统 Pending CN113688797A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202111138326.7A CN113688797A (zh) 2021-09-27 2021-09-27 一种基于骨架提取的异常行为识别方法及系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111138326.7A CN113688797A (zh) 2021-09-27 2021-09-27 一种基于骨架提取的异常行为识别方法及系统

Publications (1)

Publication Number Publication Date
CN113688797A true CN113688797A (zh) 2021-11-23

Family

ID=78587261

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111138326.7A Pending CN113688797A (zh) 2021-09-27 2021-09-27 一种基于骨架提取的异常行为识别方法及系统

Country Status (1)

Country Link
CN (1) CN113688797A (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115620212A (zh) * 2022-12-14 2023-01-17 南京迈能能源科技有限公司 一种基于监控视频的行为识别方法及系统
CN116229560A (zh) * 2022-09-08 2023-06-06 广东省泰维思信息科技有限公司 一种基于人体姿态的异常行为识别方法及系统
CN117036327A (zh) * 2023-08-22 2023-11-10 广州市疾病预防控制中心(广州市卫生检验中心、广州市食品安全风险监测与评估中心、广州医科大学公共卫生研究院) 一种防护用品检视方法、系统、设备及介质
CN117058767A (zh) * 2023-10-12 2023-11-14 广州鼎飞航空科技有限公司 训练场监测方法、设备、存储介质及装置

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109460702A (zh) * 2018-09-14 2019-03-12 华南理工大学 基于人体骨架序列的乘客异常行为识别方法
CN109522793A (zh) * 2018-10-10 2019-03-26 华南理工大学 基于机器视觉的多人异常行为检测与识别方法
CN110135319A (zh) * 2019-05-09 2019-08-16 广州大学 一种异常行为检测方法及其系统
CN111582062A (zh) * 2020-04-21 2020-08-25 电子科技大学 一种基于YOLOv3的目标跟踪中的重检测方法
CN111627044A (zh) * 2020-04-26 2020-09-04 上海交通大学 基于深度网络的目标追踪攻击与防御方法
CN112241969A (zh) * 2020-04-28 2021-01-19 北京新能源汽车技术创新中心有限公司 基于交通监控视频的目标检测跟踪方法、装置及存储介质
US20210027106A1 (en) * 2019-07-22 2021-01-28 International Business Machines Corporation Object detection optimization
CN112836639A (zh) * 2021-02-03 2021-05-25 江南大学 基于改进YOLOv3模型的行人多目标跟踪视频识别方法

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109460702A (zh) * 2018-09-14 2019-03-12 华南理工大学 基于人体骨架序列的乘客异常行为识别方法
CN109522793A (zh) * 2018-10-10 2019-03-26 华南理工大学 基于机器视觉的多人异常行为检测与识别方法
CN110135319A (zh) * 2019-05-09 2019-08-16 广州大学 一种异常行为检测方法及其系统
US20210027106A1 (en) * 2019-07-22 2021-01-28 International Business Machines Corporation Object detection optimization
CN111582062A (zh) * 2020-04-21 2020-08-25 电子科技大学 一种基于YOLOv3的目标跟踪中的重检测方法
CN111627044A (zh) * 2020-04-26 2020-09-04 上海交通大学 基于深度网络的目标追踪攻击与防御方法
CN112241969A (zh) * 2020-04-28 2021-01-19 北京新能源汽车技术创新中心有限公司 基于交通监控视频的目标检测跟踪方法、装置及存储介质
CN112836639A (zh) * 2021-02-03 2021-05-25 江南大学 基于改进YOLOv3模型的行人多目标跟踪视频识别方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
牟清萍等: "目标丢失判别机制的视觉跟踪算法及应用研究", 《计算及工程与应用》 *
郭孟汗: "基于深度学习的人体骨架点检测研究", 《中国优秀硕士学位论文全文数据库 信息科技辑》 *

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116229560A (zh) * 2022-09-08 2023-06-06 广东省泰维思信息科技有限公司 一种基于人体姿态的异常行为识别方法及系统
CN116229560B (zh) * 2022-09-08 2024-03-19 广东省泰维思信息科技有限公司 一种基于人体姿态的异常行为识别方法及系统
CN115620212A (zh) * 2022-12-14 2023-01-17 南京迈能能源科技有限公司 一种基于监控视频的行为识别方法及系统
CN117036327A (zh) * 2023-08-22 2023-11-10 广州市疾病预防控制中心(广州市卫生检验中心、广州市食品安全风险监测与评估中心、广州医科大学公共卫生研究院) 一种防护用品检视方法、系统、设备及介质
CN117036327B (zh) * 2023-08-22 2024-03-12 广州市疾病预防控制中心(广州市卫生检验中心、广州市食品安全风险监测与评估中心、广州医科大学公共卫生研究院) 一种防护用品检视方法、系统、设备及介质
CN117058767A (zh) * 2023-10-12 2023-11-14 广州鼎飞航空科技有限公司 训练场监测方法、设备、存储介质及装置
CN117058767B (zh) * 2023-10-12 2024-02-09 广州鼎飞航空科技有限公司 训练场监测方法、设备、存储介质及装置

Similar Documents

Publication Publication Date Title
CN110147743B (zh) 一种复杂场景下的实时在线行人分析与计数系统及方法
CN109492581B (zh) 一种基于tp-stg框架的人体动作识别方法
CN113688797A (zh) 一种基于骨架提取的异常行为识别方法及系统
CN111626128A (zh) 一种基于改进YOLOv3的果园环境下行人检测方法
CN109859238B (zh) 一种基于多特征最优关联的在线多目标跟踪方法
CN111932583A (zh) 一种基于复杂背景下的时空信息一体化智能跟踪方法
CN110569843B (zh) 一种矿井目标智能检测与识别方法
CN113240688A (zh) 一种一体化洪涝灾害精准监测预警方法
KR102373753B1 (ko) 딥러닝 기반의 차량식별추적 방법, 및 시스템
CN104537689B (zh) 基于局部对比显著性联合特征的目标跟踪方法
Guo et al. Evaluation-oriented façade defects detection using rule-based deep learning method
CN108734109B (zh) 一种面向图像序列的视觉目标跟踪方法及系统
CN106952293A (zh) 一种基于非参数在线聚类的目标跟踪方法
CN110688512A (zh) 基于ptgan区域差距与深度神经网络的行人图像搜索算法
CN114332644A (zh) 一种基于视频卫星数据的大视场交通密度获取方法
CN112288809B (zh) 一种用于多物体复杂场景的机器人抓取检测方法
CN112734747A (zh) 一种目标检测方法、装置、电子设备和存储介质
Hwang et al. Object Detection for Cargo Unloading System Based on Fuzzy C Means.
CN114067360A (zh) 一种行人属性检测方法及装置
Yang et al. Locator slope calculation via deep representations based on monocular vision
Zhang et al. Semantic segmentation of point clouds of field obstacle-crossing terrain for multi-legged rescue equipment based on random forest
Gurau et al. Challenges in Using Semantic Knowledge for 3D Object Classification.
CN117058627B (zh) 一种公共场所人群安全距离监测方法、介质及系统
Yazid et al. Automated system form concrete damage classification identification using pretrained deep learning model
Ching et al. Understanding the Amazon from space

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication
RJ01 Rejection of invention patent application after publication

Application publication date: 20211123