CN110135319B - 一种异常行为检测方法及其系统 - Google Patents

一种异常行为检测方法及其系统 Download PDF

Info

Publication number
CN110135319B
CN110135319B CN201910382161.4A CN201910382161A CN110135319B CN 110135319 B CN110135319 B CN 110135319B CN 201910382161 A CN201910382161 A CN 201910382161A CN 110135319 B CN110135319 B CN 110135319B
Authority
CN
China
Prior art keywords
skeleton
network
human
model
rnn
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201910382161.4A
Other languages
English (en)
Other versions
CN110135319A (zh
Inventor
伍冯洁
潘伟旋
詹逸
李锦韬
林佳翰
郑振勤
黄成浩
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Guangzhou University
Original Assignee
Guangzhou University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Guangzhou University filed Critical Guangzhou University
Priority to CN201910382161.4A priority Critical patent/CN110135319B/zh
Publication of CN110135319A publication Critical patent/CN110135319A/zh
Application granted granted Critical
Publication of CN110135319B publication Critical patent/CN110135319B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/049Temporal neural networks, e.g. delay elements, oscillating neurons or pulsed inputs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition

Abstract

本发明公开了一种异常行为检测方法,包括步骤:使用神经网络人体骨架提取模型,提取视频中的动态的人体骨骼关节点,形成骨骼数据集;通过ST‑GCN网络获得与骨骼相对应的更高级的行为特征图,即表面行为特征;将行为特征图输入到异常行为分类器模型中,匹配以识别行为类型。本发明还公开了一种异常行为检测系统,包括视频监控模块、网络模型集成模块。本发明可实现准确高效地处理多种人体行为与大量人体骨骼数据,自动识别视频监控中出现的异常行为。

Description

一种异常行为检测方法及其系统
技术领域
本发明涉及智能识别领域,特别涉及一种异常行为检测方法及其系统。
背景技术
人工智能时代已悄然到来,基于此背景下,智能识别更是当今世界的主题,人脸识别作为模式识别领域的热点研究问题受到了广泛的关注,异常行为的智能识别更是顺应了现在对公共安全的需求,均旨在提升生活实用领域的人工智能水平,建立具有适应性、资源效率的智能识别算法。
目前监控系统往往只是对视频信号进行简单录制与传输,尚停留在监控人员对视频信号的人工监视和事后录像分析上,存在工作量巨大、异常事件响应速度慢或漏检漏报等不足。特别是对突发性异常事件的检测,由于异常行为发生的随机性大且无特定规律可寻,显然,这种依靠人工检测异常事件的方式已远远不能满足目前视频监控的需要,寻求一种能直接处理并识别的监控方法,迫在眉睫。
市面上常用的危险人物检测只能够通过X光人工对刀具进行识别,或者使用传统算法对刀具进行检测,再由人工进行判断,非常繁琐且不方便。
发明内容
本发明的目的在于克服现有技术的缺点与不足,提供一种异常行为检测方法及其系统,此方法及其系统可实现准确高效地处理多种人体行为与大量人体骨骼数据,自动识别视频监控中出现的异常行为。
本发明的目的通过以下的技术方案实现:一种异常行为检测方法,包括步骤:
使用神经网络人体骨架提取模型,提取视频中的动态的人体骨骼关节点,形成骨骼数据集;
通过ST-GCN(空间-时间图卷积)网络获得与骨骼相对应的更高级的行为特征图,即表面行为特征;
将行为特征图输入到异常行为分类器模型中,匹配以识别行为类型;
其中,所述人体骨架提取模型的建立步骤如下:
提取训练集中的人体骨骼关节点,生成关节序列;
堆叠RNN网络以提供每个时间步长的所有关节的级联坐标,分层RNN以模拟不同部位以及整个身体的动作,对关节点提取识别人物动作;通过视图自适应子网络确定观察视点,得到骨架数据;
迭代训练以最小化损失函数,最终得到人体骨架提取模型;
所述ST-GCN网络是基于使用双流递归时间动态和空间配置的神经网络人体骨架提取模型,进一步提取了动态的人体骨骼;
所述异常行为分类器模型的建立步骤如下:
针对想要识别的各种异常行为,提取人体骨骼关节点形成骨骼数据集作为训练集;
用训练集训练Softmax分类器并最小化损失函数,得到区分不同异常行为的分类器模型。
优选的,所述提取训练集中的人体骨骼关节点的具体步骤为:
利用3D转换技术选取关节物理结构并获取人体在运动中的骨骼3D坐标;
使用遍历方法将坐标关节图转换成矩阵参数,矩阵参数的顺序与访问顺序相同,从而提取视频人体骨骼关节点。
优选的,所述堆叠RNN网络堆叠两层RNN,由于骨架序列的长度相对较长,故对所有层采用LSTM神经元。
优选的,将人体骨骼分成五个部位,即两个手臂、两个腿和一个躯干;
所述分层RNN将分层结构垂直分为两层:
在第一层使用第一RNN,根据每个时间步关节的连接坐标来模拟每个骨骼部位的时间运动;
在第二层,将不同部位的RNN输出连接起来,并采用第二RNN来模拟整个身体的运动。采用此结构更加简洁明了,并在使用soft-max-activation的 logistic回归分类器之前不使用额外的完全连接层。
优选的,所述通过视图自适应子网络确定观察视点,得到骨架数据的步骤具体为:
在对应于第t帧的时隙处,利用skeletonVtas输入,利用LSTM子网的旋转分支子网和转换分支子网,学习旋转参数αt,βt,γt和转换参数dt以获得旋转矩阵Rt,以及对应于全局坐标系的转化矢量;
具体计算公式为:
(1)旋转参数:
Figure GDA0002092579590000031
其中,
Figure GDA0002092579590000032
是LSTM层的隐藏输出向量,其中包含LSTM中子数;Wr∈R3×N和br∈R3×1分别表示FC层的权重矩阵和偏移矢量;
(2)转换参数:
Figure GDA0002092579590000033
其中
Figure GDA0002092579590000034
是其LSTM的隐藏输出向量,Wr∈R3×N和br∈R3×1表示FC层的权重矩阵和偏移向量;
在第t帧的观察视角下,通过视图自适应递归图得到骨架的表示。
更进一步的,所述视图自适应子网络结构为分离的两个LSTM层,并对分离的两层使用相同的骨架输入;其中的主LSTM网络从视图调节的骨架数据中从头到尾学习时间动态并执行特征映射以进行动作识别。
优选的,所述异常行为分类器模型的建立步骤具体为:
行为类别标签y>2时,给定m个训练样本:
{(x(1),y(1)),(x(2),y(2)),…,(x(m),y(m))}
对于Softmax回归算法,输入特征为
Figure GDA0002092579590000041
标记样本为y(i)∈ {0,1,…k};设定一个假设函数ζ:
Figure GDA0002092579590000042
其中,θ表示引入的假设参数,
Figure GDA0002092579590000043
则分类任务被转换为概率的计算:
Figure GDA0002092579590000044
在实现Softmax回归的过程中,使用一个k×(n+1)的矩阵去代表θ:
Figure GDA0002092579590000045
定义一个损失函数J,来判定分类的优劣性,并迭代优化损失函数;Softmax 回归的损失函数为:
Figure GDA0002092579590000051
Softmax回归求解:
在获得了损失函数的定义后,使用迭代优化算法,将损失函数J(θ)优化,便可对Softmax回归进行求解,我们使用梯度下降的方法求解;经过求导,可以获得:
Figure GDA0002092579590000052
其中
Figure GDA0002092579590000053
是一个向量,它的第l个元素
Figure GDA0002092579590000054
是J(θ)是θj的第l个分量的偏导;
在得到了求导后的损失函数后,将其带入梯度下降等迭代优化算法中以优化J(θ),获得异常行为分类器模型。
所述Softmax回归是Logistic回归算法在多分类上的拓展,解决了 Logistic回归只能适用于二分类的问题。
更进一步的,在损失函数中引入权重衰减项,以解决Softmax回归容易出现多个解的问题,通过添加权重衰减项
Figure GDA0002092579590000055
修改相应的损失函数:
Figure GDA0002092579590000056
其中,λ是一个0到1范围内的随机常数;
引入衰减项后,损失函数J(θ)变成了严格的凸函数,便可以保证有唯一最优解;
新的损失函数的导数可以写为:
Figure GDA0002092579590000061
同样的,将新的损失函数的导数代入迭代优化算法中,最小化J(θ),得到一个可用的多分类模型。
优选的,所述异常行为检测方法还包括:利用yolov3特征提取模型检测危险品;
所述yolov3特征提取模型的训练由以下步骤训练得出:
利用神经网络的卷积层对公共场所人物所携带的刀具进行识别,获取图片中的目标框;所述目标框是将需要检测的物体进行框定,但是会存在一个物体被多个目标框所框的问题,还有多个物体重合在一起导致的目标框重合;
对目标框进行多标签分类,并利用FPN网络提取目标框特征,去除掉错误的目标框;
最后进行预测(例如边界框的坐标、类别标签、目标框的重合度等),迭代训练以最小化损失函数,最终得到yolov3特征提取模型。
更进一步的,当视频中检测出危险品时,直接判定视频中存在异常行为,而无需再重复异常行为检测。
更进一步的,所述yolov3特征提取模型包括上采样层、75个卷积层,通过步幅为2的卷积层对特征图进行下采样;
上述yolov3特征提取模型的卷积层核心尺寸为1×1×(B×(5+C));其中B代表每个单元可以预测的边界框数量,每个边界框都有5+C个属性;
所述yolov3特征提取模型还包括shortcut connection结构;
该yolov3卷积层没有用任何形式的池化,以防止低级特征丢失利用1×1 大小卷积核的卷积层来替代yolov3卷积网络中全连接层。
更进一步的,所述获取目标框的具体步骤为:
在三个(num=3)不同的尺度预测boxes,对每个边界框预测四个坐标值分别是tx,ty,tw和th
每张被识别的图被划分成S×S个网格cell,对于预测的cell,根据图像左上角的偏移(cx,cy),以及之前得到的边界框的宽pw和高ph,对边界框进行预测:
通过逻辑回归,针对每个边界框预测一个物体的得分;
若预测的边界框与真实的边框值大部分重合,且比其他所有预测的要好,则该值为1;
若重叠未达到预先设定的阈值,则该预测的边界框将会被无视,即显示成无损失值,该预测结果被废弃。
更进一步的,所述对目标框进行多标签分类时,采用二值交叉熵损失:
YOLO v3在每个单元中预测3个边界框;不预测边界框中心的确切坐标,而是预测目标的网格单元左上角相关的偏移;使用特征图单元的维度进行归一化的偏移。
yolov3使用这样的方式使得模型可以获取到更多的语义信息,模型得到了更好的表现。
更进一步的,所述利用FPN网络提取目标框特征具体是,用FPN(feature pyramidnetwork)网络,改变yolov3使用的特征提取模型,最后预测得到一个包含边界框信息、对象信息以及多少个类的预测信息的3-d tensor;
在深度方面,特征图中有(B x(5+C))个条目,其中B是指每个单元可以预测的边界框数量,B边界框中的每一个都可能专门用于检测某种对象。每个边界框都有5+C个属性,分别描述每个边界框的中心坐标、维度、objectness 分数和C类置信度;
使用k-Means聚类来得到边界框的先验,选择9个簇以及3个尺度,将9 个簇均匀分布在这所选择的尺度上。同时,因为使用了9个目标,从而提高了 IOU(Intersection-over-Union)。
更进一步的,所述采用yolov3检测算法检测危险品时,使用非最大值抑制确保算法只对每个对象只检测一次,从而避免对同一个对象做出多次的检测,提高算法检测速度。
优选的,所述异常行为检测方法还包括利用人脸识别技术识别异常行为的行为人,具体步骤为:
通过卷积计算得到待检测图像的编码;对于一个卷积神经网络结构,我们去掉最后的Softmax层,将一个图片样本输入网络,最后由网络输出一个N维的向量,这N维向量则代表整个图片的编码;
将待检测图像的编码与数据库人脸图片编码一起输入人脸识别神经网络模型,以提高系统预测的效率,节省计算时间;
识别预测出人脸对应的身份;
所述人脸识别神经网络模型由以下步骤训练得出:
定义Triplet损失函数,并在其之上运用梯度下降;
选取图片训练集,并分成Anchor(目标)、Positive、Negative三组数据,其中Anchor(A):目标图片;Positive(P):与Anchor属于同一个人脸或的图;Negative(N):与Anchor不属于同一个人脸的图片;
L(A,P,N)=max(||f(A)-f(P)||2-||f(A)-f(N)||2+α,0)
其中L为距离值函数,f表示由待检测图像的编码和数据库人脸图片编码一起输入神经网络后得出的编码;
则整个网络的代价函数Jc为:
Figure GDA0002092579590000091
以编码差的范数表示目标:
d(A,P)=||f(A)-f(P)||2≤||f(A)-f(N)||2=d(A,N)
也即||f(A)-f(P)||2-||f(A)-f(N)||2≤0;
选用sigmoid函数作为模型神经网络阈值函数:
Figure GDA0002092579590000092
迭代训练求取wi和b,获得人脸识别神经网络模型。
更进一步的,将||f(A)-f(P)||2-||f(A)-f(N)||2≤0修改为||f(A)- f(P)||2-||f(A)-f(N)||2≤-α以避免神经网络学习到的函数总是输出0;
设置不同α值,会对模型学习产生不同的效果,因为α可拉大Anchor与Positive图片对和Anchor与Negative图片对之间的差距。
一种异常行为检测系统,包括视频监控模块、网络模型集成模块;
所述视频监控模块,用于获取待检测视频;
所述模型集成模块包括人体骨架提取模型、ST-GCN网络、异常行为分类器模型;
所述人体骨架提取模型用于提取视频中的动态的人体骨骼关节点,形成骨骼数据集;
所述ST-GCN网络用于获得骨骼的行为特征图;
所述异常行为分类器用于匹配行为特征图以识别行为类型。
优选的,所述网络模型集成模块还包括yolov3特征提取模型,用于检测危险品。
优选的,所述网络模型集成模块还包括人脸识别神经网络模型,以识别异常行为的行为人。
本发明与现有技术相比,具有如下优点和有益效果:
1、本发明考虑到了动作的时间和空间的双向维度,是在递归神经网络上结合时间和空间的双流法,应用了时空图卷积(ST-GCN)的多层结构,以逐渐在图上生成更高级别的动作特征图,再结合损失函数,极大地减小了误识别率,既可以提高动作特征图的表达能力以更好地象征动作,也可以提高ST-GCN网络通用能力以识别多种动作。
2、本发明通过视频监控的硬件设备获取待检测视频后,由于摆脱了对其他外来设备的依赖性,依靠算法即可实现实时的视频动作识别,并可进行大规模的增量训练,处理多种人体行为与大量人体骨骼数据。
3、本发明直接处理并识别监控视频中的异常行为,从现有的人工监视和事后录像分析发展至实时处理并识别监控中的异常行为,即时响应异常事件。
4、本发明选用yolov3算法,在检测异常行为的同时检测危险品,如刀具、枪支等,进一步提高识别效率。
5、本发明还进一步识别异常行为人的身份,完善异常行为预警信息。
附图说明
图1是本发明实施例1一种单人异常行为检测方法流程图。
图2是本发明实施例1空间图卷积神经网络。
图3是本发明实施例1关节提取方法示意图。
图4是本发明实施例1用于基于骨架的动作识别的分层RNN。
图5是本发明实施例1识别关节点位置的分类器模型图。
图6是本发明实施例1yolov3卷积网络结构。
图7是本发明实施例1检测刀具算法实现效果图。
图8是本发明实施例1人脸编码效果图。
图9是本发明实施例2关键点置信度网络和亲和度向量场网络示意图。
图10是本发明实施例1yolov3的目标框预测坐标分类示意图。
图11是本发明实施例1异常检测系统工作示意图。
具体实施方式
为了更好的理解本发明的技术方案,下面结合附图详细描述本发明提供的实施例,但本发明的实施方式不限于此。
实施例1
如图1所示,一种单人异常行为检测方法,包括步骤:
S1、使用神经网络人体骨架提取模型,提取视频中的动态的人体骨骼关节点,形成骨骼数据集;
S2、通过ST-GCN(空间-时间图卷积)网络获得与骨骼相对应的更高级的行为特征图,即表面行为特征;
S3、将行为特征图输入到异常行为分类器模型中,匹配以识别行为类型;
S4、用yolov3特征提取模型检测危险品,如识别检测出刀具;
1、其中,所述人体骨架提取模型的建立步骤如下:
将人体骨骼分成五个部位,即两个手臂、两个腿和一个躯干;
利用3D转换技术选取关节物理结构并获取人体在运动中的骨骼3D坐标;
使用遍历方法将坐标关节图转换成矩阵参数,矩阵参数的顺序与访问顺序相同,从而提取视频人体骨骼关节点,生成关节序列;如图3所示,选取20个关节的物理结构,将点图转换成序列,手臂的关节先出现,然后是身体的关节,最后是腿的关节。
堆叠RNN网络以提供每个时间步长的所有关节的级联坐标,分层RNN以模拟不同部位以及整个身体的动作,对关节点提取识别人物动作;通过视图自适应子网络确定观察视点,得到骨架数据;
迭代训练以最小化损失函数,最终得到人体骨架提取模型;
所述堆叠RNN网络堆叠两层RNN,由于骨架序列的长度相对较长,故对所有层采用LSTM神经元。
所述分层RNN将分层结构垂直分为两层:
在第一层使用第一RNN,根据每个时间步关节的连接坐标来模拟每个骨骼部位的时间运动;
在第二层,如图4所示,将不同部位的RNN输出连接起来,并采用第二RNN 来模拟整个身体的运动。采用此结构更加简洁明了,并在使用 soft-max-activation的logistic回归分类器之前不使用额外的完全连接层,与堆叠结构相比,层级结构具有相对较少的参数,减少过度填充的可能。
所述通过视图自适应子网络确定观察视点,得到骨架数据的步骤具体为:
在对应于第t帧的时隙处,利用skeletonVtas输入,利用LSTM子网的旋转分支子网和转换分支子网,学习旋转参数αt,βt,γt和转换参数dt以获得旋转矩阵Rt,以及对应于全局坐标系的转化矢量。
具体计算公式为:
(1)旋转参数:
Figure GDA0002092579590000131
其中,
Figure GDA0002092579590000132
是LSTM层的隐藏输出向量,其中包含LSTM中子数;Wr∈R3×N和br∈R3×1分别表示FC层的权重矩阵和偏移矢量;
(2)转换参数:
Figure GDA0002092579590000133
其中
Figure GDA0002092579590000134
是其LSTM的隐藏输出向量,Wr∈R3×N和br∈R3×1表示FC层的权重矩阵和偏移向量;
在第t帧的观察视角下,通过视图自适应递归图得到骨架的表示。
所述视图自适应子网络结构为分离的两个LSTM层,并对分离的两层使用相同的骨架输入;其中的主LSTM网络从视图调节的骨架数据中从头到尾学习时间动态并执行特征映射以进行动作识别,此种视图适应子网可得到骨架的精确表示。
2、所述ST-GCN网络是基于使用双流递归时间动态和空间配置的神经网络人体骨架提取模型,进一步提取了动态的人体骨骼;
获得提取到的动态的人体骨骼后进一步进行姿态识别,我们将姿态识别看作为一个结构化预测问题(structured prediction)。
假设
Figure GDA0002092579590000136
为图片内所有关节点位置(u,v)集合,
Figure GDA0002092579590000137
表示关节点p的像素位置,即关节点位置置信值。
人体姿态估计的目标是:标识出图片中P个人体关节点位置Y=(Y1,…,YP)。这个估计机由multi-clas预测器序列组成,识别关节点位置的分类器模型如图 5所示:
其中gt(·)是待训练的分类器模型,用于预测每一个层中各人体关节点的位置。
对于所有的t∈{1,…,T},分类器gt(·)输出的每一个关节点位置的置信值
Figure GDA0002092579590000135
这些置信值都是基于图像某一个点中提取的特征xz∈Rd以及先前层中分类器输出的YP领域空间内容信息进行分类的。其中:
Figure GDA0002092579590000141
Figure GDA0002092579590000142
当stage t=1时:
Figure GDA0002092579590000143
记在图片的每一个位置z=(u,v)T关节点位置p的所有置信分数为
Figure GDA0002092579590000144
Figure GDA0002092579590000145
其中w为图片的宽,h为图片的高,那么:
Figure GDA0002092579590000146
当stage t>1时,分类器需要基于两种输入来预测置信值:
①与上述一致的图片特征xz∈Rd
②前一层中分类器输出的空间内容信息;
Figure GDA0002092579590000147
由于姿态估计往往需要参考周围的图像信息,并且可能会受到遮挡物的影响,我们可以引入CNN卷积神经网络的特性,因为上层网络具有更大的接收域 (receptivefield),以此来同时考虑周围的资讯。
故整个算法的流程可以归纳为:
(1)对图像中所有出现的人进行识别,回归得到每个人的关节点;
(2)根据center map去除其他人的影响;
(3)通过重复预测得到最终的结果。
3、所述异常行为分类器模型的建立步骤如下:
针对想要识别的各种异常行为,提取人体骨骼关节点形成骨骼数据集作为训练集;
用训练集训练Softmax分类器并最小化损失函数,得到区分不同异常行为的分类器模型。
所述异常行为分类器模型的建立步骤具体为:
行为类别标签y>2时,给定m个训练样本:
{(x(1),y(1)),(x(2),y(2)),…,(x(m),y(m))}
对于Softmax回归算法,输入特征为
Figure GDA0002092579590000151
标记样本为y(i)∈ {0,1,…k};设定一个假设函数ζ:
Figure GDA0002092579590000152
其中,θ表示引入的假设参数,
Figure GDA0002092579590000153
则分类任务被转换为概率的计算:
Figure GDA0002092579590000154
在实现Softmax回归的过程中,使用一个k×(n+1)的矩阵去代表θ:
Figure GDA0002092579590000155
定义一个损失函数J,来判定分类的优劣性,并迭代优化损失函数;Softmax 回归的损失函数为:
Figure GDA0002092579590000156
Softmax回归求解:
在获得了损失函数的定义后,使用迭代优化算法,将损失函数J(θ)优化,便可对Softmax回归进行求解,我们使用梯度下降的方法求解;经过求导,可以获得:
Figure GDA0002092579590000157
其中
Figure GDA0002092579590000158
是一个向量,它的第l个元素
Figure GDA0002092579590000159
是J(θ)是θj的第l个分量的偏导;
在得到了求导后的损失函数后,将其带入梯度下降等迭代优化算法中以优化J(θ),获得异常行为分类器模型。
所述Softmax回归是Logistic回归算法在多分类上的拓展,解决了 Logistic回归只能适用于二分类的问题。
在损失函数中引入权重衰减项,以解决Softmax回归容易出现多个解的问题,通过添加权重衰减项
Figure GDA0002092579590000161
修改相应的损失函数:
Figure GDA0002092579590000162
其中,λ是一个0到1范围内的随机常数;
引入衰减项后,损失函数J(θ)变成了严格的凸函数,便可以保证有唯一最优解;
新的损失函数的导数可以写为:
Figure GDA0002092579590000163
同样的,将新的损失函数的导数代入迭代优化算法中,最小化J(θ),得到一个可用的多分类模型。
所述异常行为检测方法还包括:
所述yolov3特征提取模型的训练由以下步骤训练得出:
利用神经网络的卷积层对公共场所人物所携带的刀具进行识别,获取图片中的目标框;所述目标框是将需要检测的物体进行框定,但是会存在一个物体被多个目标框所框的问题,还有多个物体重合在一起导致的目标框重合。对目标框进行多标签分类,并利用FPN网络提取目标框特征,去除掉错误的目标框;
最后进行预测(例如边界框的坐标、类别标签、目标框的重合度等),迭代训练以最小化损失函数,最终得到yolov3特征提取模型。
所述yolov3特征提取模型包括上采样层、75个卷积层,通过步幅为2的卷积层对特征图进行下采样;
上述yolov3特征提取模型的卷积层核心尺寸为1×1×(B×(5+C));其中B代表每个单元可以预测的边界框数量,每个边界框都有5+C个属性;
所述yolov3特征提取模型还包括shortcut connection结构;
所述yolov3卷积网络结构如图6所示;
该yolov3卷积层没有用任何形式的池化,以防止低级特征丢失利用1×1 大小卷积核的卷积层来替代yolov3卷积网络中全连接层。
所述获取目标框的具体步骤为:
在三个(num=3)不同的尺度预测boxes,对每个边界框(bounding box)预测四个坐标值分别是tx,ty,tw和th
每张被识别的图被划分成S×S个网格cell,对于预测的cell,根据图像左上角的偏移(cx,cy),以及之前得到的边界框的宽pw和高ph,对边界框进行预测:
通过逻辑回归,针对每个边界框预测一个物体的得分;
若预测的边界框与真实的边框值大部分重合,且比其他所有预测的要好,则该值为1;
若重叠未达到预先设定的阈值,则该预测的边界框将会被无视,即显示成无损失值。
所述对目标框进行多标签分类时,采用二值交叉熵损失,如图10所示:
yolov3在每个单元中预测3个边界框;不预测边界框中心的确切坐标,而是预测目标的网格单元左上角相关的偏移;使用特征图单元的维度进行归一化的偏移。
yolov3使用这样的方式使得模型可以获取到更多的语义信息,模型得到了更好的表现。
所述利用FPN网络提取目标框特征具体是,用FPN(feature pyramid network)网络,改变yolov3使用的特征提取模型,最后预测得到一个包含边界框信息、对象信息以及多少个类的预测信息的3-d tensor;
在深度方面,特征图中有(B x(5+C))个条目,其中B是指每个单元可以预测的边界框数量,B边界框中的每一个都可能专门用于检测某种对象。每个边界框都有5+C个属性,分别描述每个边界框的中心坐标、维度、objectness 分数和C类置信度;
使用k-Means聚类来得到边界框的先验,选择9个簇以及3个尺度,将9 个簇均匀分布在这所选择的尺度上。同时,因为使用了9个目标,从而提高了 IOU(Intersection-over-Union)。
所述采用yolov3检测算法检测刀具时,使用非最大值抑制确保算法只对每个对象只检测一次,从而避免对同一个对象做出多次的检测,提高算法检测速度。
所述利用yolov3深度学习算法进行刀具自动检测的效果图如图7所示。
所述异常行为检测方法还包括:
S5、人脸识别技术识别异常行为的行为人,具体步骤为:
通过卷积计算得到待检测图像的编码;对于一个卷积神经网络结构,我们去掉最后的Softmax层,将一个图片样本输入网络,最后由网络输出一个N维的向量,这N维向量则代表整个图片的编码;将待检测图像的编码与数据库人脸图片编码一起输入人脸识别神经网络模型,以提高系统预测的效率,节省计算时间;
识别预测出人脸对应的身份;
所述人脸识别神经网络模型由以下步骤训练得出:
定义Triplet损失函数,并在其之上运用梯度下降;
选取图片训练集,并分成Anchor(目标)、Positive、Negative三组数据,其中Anchor(A):目标图片;Positive(P):与Anchor属于同一个人脸或的图;Negative(N):与Anchor不属于同一个人脸的图片;
L(A,P,N)=max(||f(A)-f(P)||2-||f(A)-f(N)||2+α,0)
其中L为距离值函数,f表示由待检测图像的编码和数据库人脸图片编码一起输入神经网络后得出的编码;
则整个网络的代价函数为:
Figure GDA0002092579590000191
以编码差的范数表示目标:
d(A,P)=||f(A)-f(P)||2≤||f(A)-f(N)||2=d(A,N)
也即||f(A)-f(P)||2-||f(A)-f(N)||2≤0。
选用sigmoid函数作为模型神经网络阈值函数:
Figure GDA0002092579590000192
迭代训练求取wi和b,获得人脸识别神经网络模型。
更进一步的,将||f(A)-f(P)||2-||f(A)-f(N)||2≤0修改为||f(A)- f(P)||2-||f(A(-f(N)||2≤-α以避免神经网络学习到的函数总是输出0。
设置不同α值,会对模型学习产生不同的效果,因为α可拉大Anchor与Positive图片对和Anchor与Negative图片对之间的差距。
网络层的函数是通过自行一层层写入,最后训练出模型,人脸进入以后则会将人脸进行编码,变成1×128的矩阵,最后通过计算欧式距离,选择欧式距离最小的作为识别结果,其中人脸编码效果图如图8所示。
为了保证网络的有效训练,使用规则化的交叉熵损失来驱动模型学习过程,并据此制定联合训练策略。
一种异常行为检测系统,包括视频监控模块、网络模型集成模块;
所述视频监控模块,用于获取待检测视频;
所述网络模型集成模块包括人体骨架提取模型、ST-GCN网络、异常行为分类器模型、yolov3特征提取模型、人脸识别神经网络模型;
所述人体骨架提取模型用于提取视频中的动态的人体骨骼关节点,形成骨骼数据集;
所述ST-GCN网络用于获得骨骼的行为特征图;
所述异常行为分类器用于匹配行为特征图以识别行为类型。
所述yolov3特征提取模型用于检测危险品。
所述人脸识别神经网络模型用于识别异常行为的行为人。
所述异常行为检测系统通过服务器端与移动报警端、移动客户端的结合,实现异常行为的实时检测和报警。
实施例2
一种多人异常行为检测方法,其中的多人姿态估计基于单人姿态估计,模型的整体处理过程为:
①读取一张图片为宽w×高h的图片;
②传进10层的VGG-19网络训练出一个同样为w×h的图像特征F;
③传入两层不同卷积神经网络,可以获得:
关键点置信度网络S=(S1,S2,…,SJ)其中J代表人体有J个部位:
Sj∈Rw×h,j∈{1…J}.
关键点亲和度向量场Lc∈Rw×h×2,c∈{1,…,C}。
④关键点聚类获得骨架,关键点的置信度网路和亲和度向量场网络示意图如图9所示,S是置信度网络,L是亲和度向量场网络:
Figure GDA0002092579590000211
Figure GDA0002092579590000212
整个模型的损失函数为两个卷积网络的真实值(ground_truth)和预测值的平均平方和。
Figure GDA0002092579590000213
Figure GDA0002092579590000214
Figure GDA0002092579590000215
在前面的过程中,根据置信值网络得到一组离散的关键点侯选位置,因为图片中可能存在多个人体,或者存在不正确的关键点,每个关键点可能有很多个不同的侯选位置,因此我们需要对这些侯选的关键点们计算一个分数。
假设模型得到所有的侯选关键点组成一个集合
Figure GDA0002092579590000216
Figure GDA0002092579590000217
其中Nj为侯选关键点的位置数量,
Figure GDA0002092579590000218
为关键点j的第m 个候选像素的坐标。
我们的目标是将属于同一个人的关键点练成躯干,故定义一个变量来衡量这些点是否属于一个人:
Figure GDA0002092579590000219
即:
Figure GDA00020925795900002110
对于不同的两个关键点j1,j2他们对应的侯选关键点集应该是
Figure GDA00020925795900002111
Figure GDA00020925795900002112
通过线性方程组的方法便可以找到正确的关键点:
Figure GDA0002092579590000221
Figure GDA0002092579590000222
Figure GDA0002092579590000223
其中Ec为c躯干对应的权值,代表的是躯干c上涉及的两类关键点间连接总亲和度,
Figure GDA0002092579590000225
为c躯干对应的
Figure GDA0002092579590000226
的一个子集;
最终问题就可以看为:
Figure GDA0002092579590000224
多人异常行为的其他步骤与实施例1中相同。
上述实施例为本发明较佳的实施方式,但本发明的实施方式并不受上述实施例的限制,其他的任何未背离本发明的精神实质与原理下所作的改变、修饰、替代、组合、简化,均应为等效的置换方式,都包含在本发明的保护范围之内。

Claims (6)

1.一种异常行为检测方法,其特征在于,包括步骤:
使用神经网络人体骨架提取模型,提取视频中的动态的人体骨骼关节点,形成骨骼数据集;
通过ST-GCN网络获得与骨骼相对应的更高级的行为特征图,即表面行为特征;
将行为特征图输入到异常行为分类器模型中,匹配以识别行为类型;
其中,所述人体骨架提取模型的建立步骤如下:
提取训练集中的人体骨骼关节点,生成关节序列;
堆叠RNN网络以提供每个时间步长的所有关节的级联坐标,分层RNN以模拟不同部位以及整个身体的动作,对关节点提取识别人物动作;通过视图自适应子网络确定观察视点,得到骨架数据;
迭代训练以最小化损失函数,最终得到人体骨架提取模型;
所述ST-GCN网络是基于使用双流递归时间动态和空间配置的神经网络人体骨架提取模型,进一步提取了动态的人体骨骼;
所述异常行为分类器模型的建立步骤如下:
针对想要识别的各种异常行为,提取人体骨骼关节点形成骨骼数据集作为训练集;
用训练集训练Softmax分类器并最小化损失函数,得到区分不同异常行为的分类器模型;
所述堆叠RNN网络堆叠两层RNN,对所有层采用LSTM神经元;
将人体骨骼分成五个部位,即两个手臂、两个腿和一个躯干;
所述分层RNN将分层结构垂直分为两层:
在第一层使用第一RNN,根据每个时间步关节的连接坐标来模拟每个骨骼部位的时间运动;
在第二层,将不同部位的RNN输出连接起来,并采用第二RNN来模拟整个身体的运动;
所述通过视图自适应子网络确定观察视点,得到骨架数据的步骤具体为:
在对应于第t帧的时隙处,利用Skeleton-Kinetics输入,利用LSTM子网的旋转分支子网和转换分支子网,学习旋转参数αt,βt,γt和转换参数dt以获得旋转矩阵Rt,以及对应于全局坐标系的转化矢量;
具体计算公式为:
(1)旋转参数:
Figure FDA0003788147220000021
其中,
Figure FDA0003788147220000022
是LSTM层的隐藏输出向量,其中包含LSTM中子数;Wr∈R3×N和br∈R3×1分别表示FC层的权重矩阵和偏移矢量;
(2)转换参数:
Figure FDA0003788147220000023
其中
Figure FDA0003788147220000024
是其LSTM的隐藏输出向量,Wr∈R3×N和br∈R3×1表示FC层的权重矩阵和偏移向量;
在第t帧的观察视角下,通过视图自适应递归图得到骨架的表示;
所述视图自适应子网络结构为分离的两个LSTM层,并对分离的两层使用相同的骨架输入;其中的主LSTM网络从视图调节的骨架数据中从头到尾学习时间动态并执行特征映射以进行动作识别。
2.根据权利要求1所述的异常行为检测方法,其特征在于,所述提取训练集中的人体骨骼关节点的具体步骤为:
利用3D转换技术选取关节物理结构并获取人体在运动中的骨骼3D坐标;
使用遍历方法将坐标关节图转换成矩阵参数,矩阵参数的顺序与访问顺序相同,从而提取视频人体骨骼关节点。
3.根据权利要求1所述的异常行为检测方法,其特征在于,所述异常行为分类器模型的建立步骤具体为:
行为类别标签y>2时,给定m个训练样本:
{(x(1),y(1)),(x(2),y(2)),…,(x(m),y(m))}
对于Softmax回归算法,输入特征为
Figure FDA0003788147220000025
标记样本为y(i)∈{0,1,…k};设定一个假设函数ζ:
Figure FDA0003788147220000031
其中,θ表示引入的假设参数,
Figure FDA0003788147220000032
则分类任务被转换为概率的计算:
Figure FDA0003788147220000033
在实现Softmax回归的过程中,使用一个k×(n+1)的矩阵去代表θ:
Figure FDA0003788147220000034
定义一个损失函数J,来判定分类的优劣性,并迭代优化损失函数;Softmax回归的损失函数为:
Figure FDA0003788147220000035
Softmax回归求解:
在获得了损失函数的定义后,使用迭代优化算法,将损失函数J(θ)优化,便可对Softmax回归进行求解,使用梯度下降的方法求解;经过求导获得:
Figure FDA0003788147220000036
其中
Figure FDA0003788147220000037
是一个向量;
在得到了求导后的损失函数后,将其带入梯度下降迭代优化算法中以优化J(θ),获得异常行为分类器模型。
4.根据权利要求1所述的异常行为检测方法,其特征在于,所述异常行为检测方法还包括:利用yolov3特征提取模型检测危险品;
所述yolov3特征提取模型的训练由以下步骤训练得出:
利用神经网络的卷积层对公共场所人物所携带的刀具进行识别,获取图片中的目标框;对目标框进行多标签分类,并利用FPN网络提取目标框特征,去除掉错误的目标框;
最后进行预测,迭代训练以最小化损失函数,最终得到yolov3特征提取模型。
5.根据权利要求1所述的异常行为检测方法,其特征在于,所述异常行为检测方法还包括利用人脸识别神经网络模型识别异常行为的行为人,具体步骤为:
通过卷积计算得到待检测图像的编码;
将待检测图像的编码与数据库人脸图片编码一起输入人脸识别神经网络模型;
识别预测出人脸对应的身份;
所述人脸识别神经网络模型由以下步骤训练得出:
定义Triplet损失函数,并在其之上运用梯度下降;
选取图片训练集,并分成Anchor、Positive、Negative三组数据,其中Anchor:目标图片A;Positive:与Anchor属于同一个人脸的图P;Negative:与Anchor不属于同一个人脸的图片N;
L(A,P,N)=max(||f(A)-f(P)||2-||f(A)-f(N)||2+α,0)
其中L为距离值函数,f表示由待检测图像的编码和数据库人脸图片编码一起输入神经网络后得出的编码;
则整个网络的代价函数Jc为:
Figure FDA0003788147220000041
以编码差的范数表示目标:
d(A,P)=||f(A)-f(P)||2≤||f(A)-f(N)||2=d(A,N)
也即||f(A)-f(P)||2-||f(A)-f(N)||2≤0;
选用sigmoid函数作为模型神经网络阈值函数:
Figure FDA0003788147220000051
迭代训练求取ωi和b,获得人脸识别神经网络模型。
6.一种异常行为检测系统,其特征在于,包括视频监控模块、网络模型集成模块;
所述视频监控模块,用于获取待检测视频;
所述网络模型集成模块包括人体骨架提取模型、ST-GCN网络、异常行为分类器模型;
所述人体骨架提取模型用于提取视频中的动态的人体骨骼关节点,形成骨骼数据集;
所述人体骨架提取模型的建立步骤如下:
提取训练集中的人体骨骼关节点,生成关节序列;
堆叠RNN网络以提供每个时间步长的所有关节的级联坐标,分层RNN以模拟不同部位以及整个身体的动作,对关节点提取识别人物动作;通过视图自适应子网络确定观察视点,得到骨架数据;
迭代训练以最小化损失函数,最终得到人体骨架提取模型;
提取训练集中的人体骨骼关节点的具体步骤为:
利用3D转换技术选取关节物理结构并获取人体在运动中的骨骼3D坐标;
使用遍历方法将坐标关节图转换成矩阵参数,矩阵参数的顺序与访问顺序相同,从而提取视频人体骨骼关节点;
所述ST-GCN网络用于获得骨骼的行为特征图;
所述异常行为分类器用于匹配行为特征图以识别行为类型;
所述堆叠RNN网络堆叠两层RNN,对所有层采用LSTM神经元;
将人体骨骼分成五个部位,即两个手臂、两个腿和一个躯干;
所述分层RNN将分层结构垂直分为两层:
在第一层使用第一RNN,根据每个时间步关节的连接坐标来模拟每个骨骼部位的时间运动;
在第二层,将不同部位的RNN输出连接起来,并采用第二RNN来模拟整个身体的运动;
所述通过视图自适应子网络确定观察视点,得到骨架数据的步骤具体为:
在对应于第t帧的时隙处,利用Skeleton-Kinetics输入,利用LSTM子网的旋转分支子网和转换分支子网,学习旋转参数αt,βt,γt和转换参数dt以获得旋转矩阵Rt,以及对应于全局坐标系的转化矢量;
具体计算公式为:
(1)旋转参数:
Figure FDA0003788147220000061
其中,
Figure FDA0003788147220000062
是LSTM层的隐藏输出向量,其中包含LSTM中子数;Wr∈R3×N和br∈R3×1分别表示FC层的权重矩阵和偏移矢量;
(2)转换参数:
Figure FDA0003788147220000063
其中
Figure FDA0003788147220000064
是其LSTM的隐藏输出向量,Wr∈R3×N和br∈R3×1表示FC层的权重矩阵和偏移向量;
在第t帧的观察视角下,通过视图自适应递归图得到骨架的表示;
所述视图自适应子网络结构为分离的两个LSTM层,并对分离的两层使用相同的骨架输入;其中的主LSTM网络从视图调节的骨架数据中从头到尾学习时间动态并执行特征映射以进行动作识别。
CN201910382161.4A 2019-05-09 2019-05-09 一种异常行为检测方法及其系统 Active CN110135319B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910382161.4A CN110135319B (zh) 2019-05-09 2019-05-09 一种异常行为检测方法及其系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910382161.4A CN110135319B (zh) 2019-05-09 2019-05-09 一种异常行为检测方法及其系统

Publications (2)

Publication Number Publication Date
CN110135319A CN110135319A (zh) 2019-08-16
CN110135319B true CN110135319B (zh) 2022-09-16

Family

ID=67576742

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910382161.4A Active CN110135319B (zh) 2019-05-09 2019-05-09 一种异常行为检测方法及其系统

Country Status (1)

Country Link
CN (1) CN110135319B (zh)

Families Citing this family (43)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110472604B (zh) * 2019-08-20 2021-05-14 中国计量大学 一种基于视频的行人与人群行为识别方法
CN110969078A (zh) * 2019-09-17 2020-04-07 博康智能信息技术有限公司 基于人体关键点的异常行为识别方法
CN110781771A (zh) * 2019-10-08 2020-02-11 北京邮电大学 一种基于深度学习的异常行为实时监测方法
CN110929584A (zh) * 2019-10-28 2020-03-27 九牧厨卫股份有限公司 网络训练方法、监控方法、系统、存储介质和计算机设备
CN110969187B (zh) * 2019-10-30 2020-12-11 创意信息技术股份有限公司 一种图谱迁移的语义分析方法
CN110826453B (zh) * 2019-10-30 2023-04-07 西安工程大学 一种通过提取人体关节点坐标的行为识别方法
CN110991274B (zh) * 2019-11-18 2022-03-18 杭州电子科技大学 一种基于混合高斯模型和神经网络的行人摔倒检测方法
CN111160170B (zh) * 2019-12-19 2023-04-21 青岛联合创智科技有限公司 一种自学习的人体行为识别与异常检测方法
CN111160277A (zh) * 2019-12-31 2020-05-15 深圳中兴网信科技有限公司 行为识别分析方法和系统、计算机可读存储介质
CN111242048A (zh) * 2020-01-15 2020-06-05 南京理工大学 基于时空协同关注循环神经网络的人体骨架动作预测方法
CN111339883A (zh) * 2020-02-19 2020-06-26 国网浙江省电力有限公司 复杂场景下基于人工智能的变电站内异常行为识别与检测方法
CN111382679B (zh) * 2020-02-25 2022-08-02 上海交通大学 帕金森病步态运动障碍严重程度的评估方法、系统及设备
CN111428757B (zh) * 2020-03-05 2021-09-10 支付宝(杭州)信息技术有限公司 模型训练方法、异常数据检测方法、装置和电子设备
CN111523421B (zh) * 2020-04-14 2023-05-19 上海交通大学 基于深度学习融合各种交互信息的多人行为检测方法及系统
CN111586051B (zh) * 2020-05-08 2021-06-01 清华大学 一种基于超图结构质量优化的网络异常检测方法
CN111931549B (zh) * 2020-05-20 2024-02-02 浙江大学 一种基于多任务非自回归解码的人体骨架的动作预测方法
CN111753665A (zh) * 2020-05-26 2020-10-09 济南浪潮高新科技投资发展有限公司 一种基于姿态估计的园区异常行为识别方法及装置
CN111783530A (zh) * 2020-05-26 2020-10-16 武汉盛元鑫博软件有限公司 一种在限制区域内监控及鉴别行为的安全系统及方法
CN111626199B (zh) * 2020-05-27 2023-08-08 多伦科技股份有限公司 面向大型多人车厢场景的异常行为分析方法
CN111813841A (zh) * 2020-06-23 2020-10-23 华电忻州广宇煤电有限公司 基于多源数据融合的复杂环境智能安全管控系统
CN111711868B (zh) * 2020-06-24 2021-07-20 中国科学院自动化研究所 基于视听多模态的舞蹈生成方法、系统、装置
CN111914547A (zh) * 2020-07-17 2020-11-10 深圳宜搜天下科技股份有限公司 一种改进的语义意图识别方法以及lstm构架系统
CN111967379B (zh) * 2020-08-14 2022-04-08 西北工业大学 一种基于rgb视频和骨架序列的人体行为识别方法
CN112016435A (zh) * 2020-08-25 2020-12-01 中移(杭州)信息技术有限公司 异常行为的检测方法、装置、电子设备和存储介质
CN111967433A (zh) * 2020-08-31 2020-11-20 重庆科技学院 一种基于自监督学习网络的动作识别办法
CN112001347B (zh) * 2020-08-31 2023-07-21 重庆科技学院 一种基于人体骨架形态与检测目标的动作识别方法
CN112163537B (zh) * 2020-09-30 2024-04-26 中国科学院深圳先进技术研究院 一种行人异常行为检测方法、系统、终端以及存储介质
CN112149618B (zh) * 2020-10-14 2022-09-09 紫清智行科技(北京)有限公司 适用于巡检车的行人异常行为检测方法与装置
CN112528811A (zh) * 2020-12-02 2021-03-19 建信金融科技有限责任公司 行为识别方法和装置
CN112613359B (zh) * 2020-12-09 2024-02-02 苏州玖合智能科技有限公司 用于人员异常行为检测的神经网络的构建方法
CN112733819B (zh) * 2021-03-30 2021-06-18 成都大学 一种基于深度学习图像处理的多模式安保监测方法
CN113095196B (zh) * 2021-04-02 2022-09-30 山东师范大学 基于图结构姿态聚类的人体异常行为检测方法及系统
CN113158853A (zh) * 2021-04-08 2021-07-23 浙江工业大学 一种结合人脸与人体姿态的闯红灯行人识别系统
CN113065515B (zh) * 2021-04-22 2023-02-03 上海交通大学 基于相似度图神经网络的异常行为智能检测方法及系统
CN113033495B (zh) * 2021-04-30 2022-08-02 重庆大学 一种基于k-means算法的弱监督行为识别方法
CN113378638B (zh) * 2021-05-11 2023-12-22 大连海事大学 基于人体关节点检测和d-gru网络的轮机员异常行为识别方法
CN113269103B (zh) * 2021-05-28 2022-08-19 山东大学 基于空间图卷积网络的异常行为检测方法、系统、存储介质和设备
CN113505662B (zh) * 2021-06-23 2024-03-01 广州大学 一种健身指导方法、装置及存储介质
CN113743257A (zh) * 2021-08-20 2021-12-03 江苏大学 一种融合时空特征的施工高空作业失稳状态检测方法
CN113688797A (zh) * 2021-09-27 2021-11-23 江南大学 一种基于骨架提取的异常行为识别方法及系统
CN116229560B (zh) * 2022-09-08 2024-03-19 广东省泰维思信息科技有限公司 一种基于人体姿态的异常行为识别方法及系统
CN116189311B (zh) * 2023-04-27 2023-07-25 成都愚创科技有限公司 一种防护服穿戴标准化流程监测系统
CN116863638B (zh) * 2023-06-01 2024-02-23 国药集团重庆医药设计院有限公司 一种基于主动预警的人员异常行为检测方法及安防系统

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107273782A (zh) * 2016-04-08 2017-10-20 微软技术许可有限责任公司 使用递归神经网络的在线动作检测
CN108052896A (zh) * 2017-12-12 2018-05-18 广东省智能制造研究所 基于卷积神经网络与支持向量机的人体行为识别方法
CN108229355A (zh) * 2017-12-22 2018-06-29 北京市商汤科技开发有限公司 行为识别方法和装置、电子设备、计算机存储介质、程序
CN108960078A (zh) * 2018-06-12 2018-12-07 温州大学 一种基于单目视觉、从动作识别身份的方法
CN109446927A (zh) * 2018-10-11 2019-03-08 西安电子科技大学 基于先验知识的双人交互行为识别方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107273782A (zh) * 2016-04-08 2017-10-20 微软技术许可有限责任公司 使用递归神经网络的在线动作检测
CN108052896A (zh) * 2017-12-12 2018-05-18 广东省智能制造研究所 基于卷积神经网络与支持向量机的人体行为识别方法
CN108229355A (zh) * 2017-12-22 2018-06-29 北京市商汤科技开发有限公司 行为识别方法和装置、电子设备、计算机存储介质、程序
CN108960078A (zh) * 2018-06-12 2018-12-07 温州大学 一种基于单目视觉、从动作识别身份的方法
CN109446927A (zh) * 2018-10-11 2019-03-08 西安电子科技大学 基于先验知识的双人交互行为识别方法

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
《Modeling temporal dynamics and spatial configurations of actions using Two-stream Recurrent Neural Network》;Wang HS et al;《IEEE》;20171109;全文 *
《Spatial Temporal Graph Convolutional Networks for Skeleton-Based Action Recognition》;Yan SJ et al;《arXiv.org》;20180125;全文 *
《View Adaptive Recurrent Neural Networks for High Performance Human Action Recognition from Skeleton Data》;Zhang PF et al;《IEEE》;20171225;全文 *
《基于时空结构关系的3D人体行为识别研究》;万晓依;《中国优秀硕士学位论文全文数据库(信息科技辑)》;20190115(第2019年第01期);全文 *

Also Published As

Publication number Publication date
CN110135319A (zh) 2019-08-16

Similar Documents

Publication Publication Date Title
CN110135319B (zh) 一种异常行为检测方法及其系统
CN107766894B (zh) 基于注意力机制和深度学习的遥感图像自然语言生成方法
CN111259786B (zh) 一种基于视频的外观和运动信息同步增强的行人重识别方法
CN113196289B (zh) 人体动作识别方法、人体动作识别系统及设备
CN109919977B (zh) 一种基于时间特征的视频运动人物跟踪与身份识别方法
CN114241282A (zh) 一种基于知识蒸馏的边缘设备场景识别方法及装置
CN112347861B (zh) 一种基于运动特征约束的人体姿态估计方法
KR102462934B1 (ko) 디지털 트윈 기술을 위한 영상 분석 시스템
CN112884742A (zh) 一种基于多算法融合的多目标实时检测、识别及跟踪方法
CN107067410A (zh) 一种基于增广样本的流形正则化相关滤波目标跟踪方法
CN111626090A (zh) 一种基于深度帧差卷积神经网络的运动目标检测方法
CN111898566B (zh) 姿态估计方法、装置、电子设备和存储介质
CN111914676A (zh) 人体摔倒检测方法、装置、电子设备和存储介质
CN111368634B (zh) 基于神经网络的人头检测方法、系统及存储介质
CN112507893A (zh) 一种基于边缘计算的分布式无监督行人重识别方法
CN108875555B (zh) 基于神经网络的视频兴趣区域和显著目标提取与定位系统
CN114187506A (zh) 视点意识的动态路由胶囊网络的遥感图像场景分类方法
CN112069979B (zh) 一种实时动作识别人机交互系统
CN112927127A (zh) 一种运行在边缘设备上的视频隐私数据模糊化方法
CN112906520A (zh) 一种基于姿态编码的动作识别方法及装置
CN116453025A (zh) 一种缺帧环境下融合时空信息的排球比赛群体行为识别方法
CN108596068B (zh) 一种动作识别的方法和装置
Li et al. Few-shot meta-learning on point cloud for semantic segmentation
CN117079416B (zh) 基于人工智能算法的多人5d雷达跌倒检测方法及系统
CN117315791B (zh) 骨骼动作识别方法、设备及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant