CN112733656A - 基于多流空间注意力图卷积sru网络的骨架动作识别方法 - Google Patents

基于多流空间注意力图卷积sru网络的骨架动作识别方法 Download PDF

Info

Publication number
CN112733656A
CN112733656A CN202011618844.4A CN202011618844A CN112733656A CN 112733656 A CN112733656 A CN 112733656A CN 202011618844 A CN202011618844 A CN 202011618844A CN 112733656 A CN112733656 A CN 112733656A
Authority
CN
China
Prior art keywords
data
network
sru
skeleton
joint
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202011618844.4A
Other languages
English (en)
Other versions
CN112733656B (zh
Inventor
赵俊男
佘青山
陈云
马玉良
梅从立
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hangzhou Dianzi University
Original Assignee
Hangzhou Dianzi University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hangzhou Dianzi University filed Critical Hangzhou Dianzi University
Priority to CN202011618844.4A priority Critical patent/CN112733656B/zh
Publication of CN112733656A publication Critical patent/CN112733656A/zh
Application granted granted Critical
Publication of CN112733656B publication Critical patent/CN112733656B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/251Fusion techniques of input or preprocessed data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent

Abstract

本发明提出了一种基于多流空间注意力图卷积SRU网络的骨架动作识别方法。本发明首先,在简单循环单元中嵌入图卷积算子构建出图卷积模型,来捕获骨架数据的时空域信息。同时,为了加强关节点之间的区分性,设计了空间注意力网络和多流数据融合方式,进一步将图卷积简单循环网络模型拓展成多流空间注意力图卷积SRU。本发明在保持高分类精度的同时,显著地减少方法复杂度,提高了模型的推理速度,达到了计算效率和分类精度的平衡,该方法具有十分广阔的应用前景。

Description

基于多流空间注意力图卷积SRU网络的骨架动作识别方法
技术领域
本发明属于模式识别领域,是一种利用图卷积和简单循环单元(SRU)并结合空间注意力机制和多流数据融合方式,对骨架数据建模和动作分类的方法。
背景技术
人类行为的识别是计算机视觉中一项基本又富有挑战性的任务,促进了许多应用的产生,如智能视频监控、人机交互、视频摘要和理解、异常行为检测等。与传统利用RGB图片流或者视频流进行动作识别的方法相比,基于骨架的动作识别不受背景杂波、光照变化等限制,对目标动作的表示更加健壮。早期的基于骨架的动作识别方法大都简单地利用关节点坐标构造成向量序列,几乎不会考虑各个关节点之间的联系。随着该领域研究的不断发展,研究人员开始将骨架数据构造成伪图像,再利用卷积神经网络和循环神经网络等深度学习方法实现动作的预测。
近年来,研究人员充分挖掘骨架数据的图结构信息,开始将图卷积网络推广到骨架图上,来进行动作识别任务。Yan等人首次提出了基于图的动态骨架建模通用公式,提出时空图卷积网络(Spatio-Temporal Graph Convolutional Networks,ST-GCN)应用于骨架动作识别。ST-GCN包含了空间图卷积和时间卷积模块,采用空间图卷积捕捉骨骼数据的空间信息,利用时间卷积对骨骼数据在时间维度上建模,来增强对骨骼数据的充分理解,获得了更好的识别效果。而Si等人发挥了传统的长短时记忆网络(Long short time memory,LSTM)强大的序列建模性能,替代时间卷积对数据进行时间维度的建模的能力,并将空间图卷积操作嵌入LSTM的门计算中,提出了注意力增强图卷积网络(AGC-LSTM),取得了比ST-GCN更好的效果。Lei等人则更多地关注骨骼数据蕴含的二阶信息,包括骨骼的长度和方向,提出了多流注意增强型自适应图卷积网络(MS-AAGCN)。这种数据驱动的方法大大增加了骨骼图构造模型的灵活性,增强了模型的泛化能力,显著提高了识别精度。然而,上述算法为了达到更高的识别精度,采取叠加多层网络或者使用LSTM这种时间维度建模能力强的模块,会导致模型在训练和测试时使用更长的时间。因此基于GCN的算法仍然存在模型推理速度慢、计算复杂度高等问题,值得进一步研究。
最近,Lei等人提出了一种简单循环单元(SRU)结构,该结构简化了计算,具有比LSTM和GRU更高的并行性和更快的训练和推理速度。She等人提出一种全局上下文注意力时空SRU模型(GCA-ST-SRU)。该方法首先通过关节点的时空依赖来构建ST-SRU模型以克服LSTM推理速度慢、计算复杂度高的问题,并引入全局上下文注意力机制到ST-SRU,构成GCA-ST-SRU方法。该方法加快了模型推理速度,同时取得了比较好的分类精度。但是该方法缺乏考虑骨骼之间的结构联系,而且对骨骼数据地利用比较单一。
发明内容
针对上述骨架动作识别方法存在的不足,本发明提出了一种新的多流空间注意图卷积简单循环网络(MSAGC-SRU)方法。
本发明首先在简单循环单元(Simple Recurrent Unit,SRU)中嵌入图卷积算子构建出图卷积SRU(GC-SRU)模型,来捕获骨架数据的时空域信息。同时,为了加强关节点之间的区分性,设计了空间注意力网络和多流数据融合方式,进一步将GC-SRU模型拓展成多流空间注意力图卷积SRU(MSAGC-SRU)方法。
为了实现以上目的,本发明方法主要包括以下步骤:
步骤(1),原始关节点坐标为输入的节点流,以关节点空间坐标的差分为输入的骨骼流,以及基于节点流和骨骼流数据在时间维度上的差得到的动态数据流。将这四种流数据进行数据融合,得到要输入网络的融合数据。
步骤(2),将简单循环单元门结构中的全连接计算替换成图卷积计算,构建图卷积简单循环网络(GC-SRU),对骨骼数据的时间和空间依赖关系进行建模。
步骤(3),在GC-SRU中引入空间注意力机制。GC-SRU网络的隐藏状态
Figure BDA0002871892310000031
为空间注意力网络的输入,帮助模型给每个关节点不同程度的关注,从而进一步提高动作分类的准确率。
本发明与已有的基于人体骨架的动作识别方法相比,具有如下优点:
1、使用多流数据融合方式处理输入数据
很多基于骨架的动作识别方法,只是用了原始数据进行驱动,训练模型。但是原始的骨架数据缺少对数据二阶信息(骨骼的方向和长度)以及它们的动态信息的挖掘和利用。这些信息是区分不同动作的重要依据。本发明提出的多流数据融合方式,将骨架数据的四种模式融合,能探索骨架动作数据中更多的动作信息,提升动作识别效率。
2、采用图卷积结合SRU,并引入注意力网络提取特征
循环网络模型比如LSTM、GRU等都被应用于基于人体关节的动作分类中,都取得了一定的研究成果。由于存在计算上的顺序依赖,无法并行化计算,导致训练时间较长,这不利于超参数调整。本发明提出的GC-SRU方法,将简单循环单元与图卷积结合,并进一步引入空间注意力机制和多流数据融合方式,提出了MSAGC-SRU,克服了已有方法计算速度慢的问题,也保持了良好的动作识别准确率。
附图说明
图1为本发明方法的流程图。
图2为注意力图卷积简单循环网络(SAGC-SRU)的结构图。
图3图卷积的可视化操作。
图4空间注意力网络。
图5(a)、图5(b)和图5(c)分别为SRU、MSAGC-SRU、AGC-LSTM三种方法在骨架数据集Northwestern-UCLA上实验,得到的分类结果混淆矩阵图。
具体实施方式
下面结合附图对本发明的实施例作详细说明:本实施例在以本发明技术方案为前提下进行实施,给出了详细的实施方案和具体的操作过程。
如图1,本发明方法主要包括三个步骤:(1)多流数据融合方法处理原始数据;(2)将SRU门结构中的全连接计算替换成图卷积计算,构建图卷积简单循环网络(GC-SRU);(3)在GC-SRU网络中引入空间注意力机制,最后得到动作分类结果。
下面逐一对各步骤进行详细说明。
步骤一:
本发明使用4种模式的数据流,分别为以原始关节点坐标为输入的节点流,以关节点空间坐标的差分为输入的骨骼流,以及基于节点流和骨骼流数据在时间维度上的差分得到的动态数据流。一般定义靠近骨架重心的关节点为父关节i,远离中心的节点为子关节j。在第t帧的骨架中,设父关节vi,t=(xi,t,yi,t,zi,t)和子关节vj,t=(xj,t,yj,t,zj,t),则骨骼可表示为
ei,j,t=(xj,t-xi,t,yj,t-yi,t,zj,t-zi,t) (1)
同样,设vi,t=(xi,t,yi,t,zi,t)为第t帧的关节,vi,t+1=(xi,t+1,yi,t+1,zi,t+1)为第t+1帧的关节,则两帧间关节点的动态流信息可以表示为:
mi,t,t+1=(xi,t+1-xi,t,yi,t+1-yi,t,zi,t+1-zi,t) (2)
如图1的数据融合部分所示,多流数据融合方法步骤如下:
1、原始骨架序列数据为关节点流数据,经过上述骨骼的定义(1),得到骨骼流信息数据;
2、将步骤1获得的两流数据拼接后,通过一个全连接层,将数据信息编码成高维向量,作为两流数据的融合特征;
3、将步骤2得到的两流融合数据通过式(2)获取其动态流数据,再和它拼接后经过全连接层和ReLU激活函数,得到要输入模型的多流融合数据。
步骤二:本发明选择图卷积与SRU结合。
Figure BDA0002871892310000061
表示第t帧的人体骨骼图,vt={vt1,vt2,...,vtN}是N个关节点的集合,则εt={(vti,vtj):vti,vtj∈vt,vti~vtj}可以表示成骨骼边的集合,vti~vtj表示节点i和节点j是无向边连接.邻接矩阵At可以通过εt指定。
Figure BDA0002871892310000062
在一个骨架图上,定义节点vti的邻集B(vti)={vtj|d(vtj,vti)≤D},其中d(vtj,vti)表示从节点vti到vtj的任何路径的最小长度,可以给出在点vti上的图卷积公式:
Figure BDA0002871892310000063
其中X(vtj)表示节点vtj的特征,W(·)是一个权重函数,vtj为与vti距离为1的相邻节点,l(·)是一个映射函数。因为邻集B(vti)的节点数量是变化的,权重函数数量是固定的,需要映射函数将所有相邻的节点映射到一个固定标签的子集中,每个子集都有一个唯一的关联权重向量。本发明的映射策略为:将B(vti)分为三个子集:第一个子集为vtj本身,第二个为空间位置上比vtj更靠近骨架重心的邻点集合,第三个则为更远离重心的邻点集合。Zti(vtj)即为对应子集个数。引入邻接矩阵,图卷积可以表示为:
Figure BDA0002871892310000071
其中,k∈{1,2,...,k}是根据映射策略得到的子集的固定标签。Ak是标签k空间构型中的邻接矩阵,
Figure BDA0002871892310000072
是一个度矩阵。为了更好地理解空域图卷积在骨架序列数据中的计算过程,图2给出了其可视化形式。
SRU使用输入门、遗忘门、重置门完成结构功能,门计算使用全连接计算。如图3所示,为实现对骨架序列数据的建模,将SRU的输入门、遗忘门、重置门的全连接操作通过下面的公式替换成图卷积计算,来捕获骨架动作数据的空间信息:
Figure BDA0002871892310000073
Figure BDA0002871892310000074
Figure BDA0002871892310000075
Figure BDA0002871892310000076
Figure BDA0002871892310000077
其中,
Figure BDA0002871892310000078
表示图卷积算子,
Figure BDA0002871892310000079
表示W和xt的图卷积,Wf、Wr、Wr表示可学习的参数权重矩阵,bt、br表示偏置量。⊙表示哈达玛积,σ(·)是sigmoid激活函数,g(·)表示tanh激活函数。
步骤三:在GC-SRU网络中引入空间注意力机制,如图4为空间注意力网络。空间注意力网络的输入是GC-SRU网络的隐藏状态
Figure BDA00028718923100000710
首先将每个节点的输出信息通过一层全连接层和ReLU激活函数,聚合成一个查询向量Qt
Figure BDA0002871892310000081
N表示关节点个数,W表示权重矩阵,Qt可以帮助模型给每个关节点不同程度的关注,可以通过以下公式计算:
αt=Sigmoid(WqQt+bq) (9)
其中,αt=(αt1t2,...,αtN)表示每个关节点的注意力分数,Wq表示权重矩阵,bq表示偏置量。
GC-SRU网络引入空间注意力机制后,得到空间注意力图卷积简单循环网络(SAGC-SRU),如图4所示。得到输出为:
Figure BDA0002871892310000082
其中fatt(·)是一种能够选择关键节点信息的空间注意力网络。
在经过最后一层SAGC-SRU后,本发明将所有节点的聚合特征作为全局特征Ft g,将聚焦于节点加权后的特征作为局部特征Ft l,并根据Ft g和Ft l来预测动作类别。将每个时间步长的全局特征和局部特征转换成C类的分数
Figure BDA0002871892310000083
Figure BDA0002871892310000084
其中ot={ot1,ot2,...,otC},i类的预测可以表示成公式(13)的形式:
Figure BDA0002871892310000085
Figure BDA0002871892310000086
Figure BDA0002871892310000087
其中,N表示关节点个数,
Figure BDA0002871892310000088
表示第t帧第i个节点的GC-SRU网络隐藏层的输出,Hti表示
Figure BDA0002871892310000089
经过注意力网络后的输出,见公式(10)。
采用下面的损失函数来监督模型:
Figure BDA0002871892310000091
其中,Tj表示第j层SAGC-SRU上的时间步长,j是网络层数,C是动作类别数,N表示关节点数量;αtnj表示第j层SAGC-SRU上第t帧中的第n个关节点的注意力分数,y={y1,y2,...,yC}表示动作的真实标签,与预测标签
Figure BDA0002871892310000092
进行对比;
Figure BDA0002871892310000093
表示在t时间步长时全局特征预测标签i的概率值,
Figure BDA0002871892310000094
表示局部特征预测标签i的概率值;λ和β是权重衰减系数,平衡了这两个正则化项的作用,减轻了反向传播中的梯度消失和过拟合现象。本发明分别设置λ和β为0.01和0.001。最后预测动作类别是只用
Figure BDA0002871892310000095
Figure BDA0002871892310000096
的最后一个时间步长的和概率来预测动作类别。
将经过上述步骤得到的MSAGC-SRU方法对骨架动作数据进行动作识别分类,并与AGC-LSTM等算法在相同的数据集上进行性能对比。
为了验证本发明方法的有效性,在相同参数设置和实验环境下,测试MSAGC-SRU、AGC-LSTM方法的每秒浮点运算次数(FLOPS)和在Northwestern-UCLA数据集、NTU RGB+D数据集上的分类准确率,实验结果如表1、表2所示:
表1 Northwestern-UCLA数据集上实验结果比较
Figure BDA0002871892310000097
Figure BDA0002871892310000101
从表1可以看出,MSAGC-SRU方法在Northwestern-UCLA数据集上实验得到的动作类别分类准确率达到93.1%,FLOPS为2.8G,分类准确率比GC-SRU、GC-LSTM两种方法得到结果都高,而且MSAGC-SRU方法的FLOPS值是GC-LSTM的3/5。与AGC-LSTM方法相比,MSAGC-SRU的分类准确率仅仅低了0.2%,但是FLOPS约是AGC-LSTM的1/4。上述结果说明在MSAGC-SRU在大大减小模型计算复杂度的情况下,只损失了较小的分类准确率。
为了验证本发明提出方法的泛化能力,继续在更大的骨架动作数据集NTU RGB+D上实验,结果如下:
表2在NTU RGB+D数据集上实验结果比较
Figure BDA0002871892310000102
从表2中的3种方法可以看出,在跨视角评估协议中,本发明提出的MSAGC-SRU方法比ST-GCN提高了5.2%的分类准确率;在跨受试者评估协议中,MSAGC-SRU方法提高了6.8%的准确率,并且每秒浮点次运算次数比ST-GCN低2.2G;与AGC-LSTM相比,跨视角评估协议中,MSAGC-SRU的分类精度低了1.5%,跨受试者评估协议中低了0.9%,但每秒浮点次运算次数值仅为AGC-LSTM的1/4。MSAGC-SRU方法在选择提高训练效率和测试效率时,仍然会损失一部分分类精度,但是明显降低了算法运算复杂度。在重视设备的运行效率的场景下,比如一些嵌入式或移动端的应用场景中,MSAGC-SRU可以尽可能保持损失很小的精度来满足非常高效的训练和测试任务。
在Northwestern-UCLA数据集的实验中用混淆矩阵分析训练模型的测试分类结果。从图5(a)中可以看到,SRU方法在“单手捡起”和“双手捡起”两种动作间分类精度不高,在“丢垃圾”和“四处走动”两个动作也不能很好的区分,尤其是“扔”的动作识别效果很差,主要因为这些动作间的相似度较高,普通的SRU方法不能很好的区分。而本发明提出的MSAGC-SRU方法很好的提高了对这些动作的分类精度,见图5(b),即使与AGC-LSTM相比,在“自处走动”、“搬”等动作的分类精度会略微高一些,见图5(c)。这些结果表明MSAGC-SRU方法在骨架动作识别任务中是一种有效的方法。

Claims (1)

1.基于多流空间注意力图卷积SRU网络的骨架动作识别方法,其特征在于该方法包括以下主要步骤:
步骤(1),多流数据融合处理原始数据;
定义靠近骨架重心的关节点为父关节i,远离中心的节点为子关节j;在第t帧的骨架中,设父关节vi,t=(xi,t,yi,t,zi,t)和子关节vj,t=(xj,t,yj,t,zj,t),则骨骼表示为:
ei,j,t=(xj,t-xi,t,yj,t-yi,t,zj,t-zi,t) (1)
同样,设vi,t=(xi,t,yi,t,zi,t)为第t帧的关节,vi,t+1=(xi,t+1,yi,t+1,zi,t+1)为第t+1帧的关节,则两帧间关节点的动态流信息表示为:
mi,t,t+1=(xi,t+1-xi,t,yi,t+1-yi,t,zi,t+1-zi,t) (2)
基于上述定义,多流数据融合步骤如下:
1-1、原始骨架序列数据为关节点流数据,经过上述骨骼的定义式(1),得到骨骼流信息数据;
1-2、将1-1获得的两流数据拼接后,通过一个全连接层,将数据信息编码成高维向量,作为两流数据的融合特征;
1-3、将1-2得到的两流融合数据通过式(2)获取其动态流数据,再和它拼接后经过全连接层和ReLU激活函数,得到要输入模型的多流融合数据;
步骤(2),将简单循环单元门结构中的全连接计算替换成图卷积计算,构建图卷积简单循环网络,对骨骼数据的时间和空间依赖关系进行建模;
具体是:简单循环单元门使用输入门、遗忘门、重置门完成结构功能,门计算使用全连接计算,为实现对骨架序列数据的建模,将简单循环单元的输入门、遗忘门、重置门的全连接操作通过下面的公式替换成图卷积计算,来捕获骨架动作数据的空间信息:
Figure FDA0002871892300000021
Figure FDA0002871892300000022
Figure FDA0002871892300000023
Figure FDA0002871892300000024
Figure FDA0002871892300000025
其中,
Figure FDA0002871892300000026
表示图卷积算子,
Figure FDA0002871892300000027
表示W和xt的图卷积,Wf、Wr、Wr表示可学习的参数权重矩阵,bt、br表示偏置量;⊙表示哈达玛积,σ(·)是sigmoid激活函数,g(·)表示tanh激活函数;
步骤(3),在图卷积简单循环网络中引入空间注意力机制
空间注意力网络的输入是图卷积简单循环网络的隐藏状态
Figure FDA0002871892300000028
将每个节点的输出信息通过一层全连接层和ReLU激活函数,聚合成一个查询向量Qt
Figure FDA0002871892300000029
N表示关节点个数,W表示权重矩阵;Qt用于帮助模型给每个关节点不同程度的关注,通过以下公式计算:
αt=Sigmoid(WqQt+bq) (9)
其中αt=(αt1t2,...,αtN)表示每个关节点的注意力分数,Wq表示权重矩阵,bq表示偏置量;
图卷积简单循环网络引入空间注意力机制后,得到空间注意力图卷积简单循环网络,输出变成:
Figure FDA0002871892300000031
其中fatt(·)是一种能够选择关键节点信息的空间注意力网络;
在经过最后一层空间注意力图卷积简单循环网络后,将所有节点的聚合特征作为全局特征Ft g,将聚焦于节点加权后的特征作为局部特征Ft l,并根据Ft g和Ft l来预测动作类别;将每个时间步长的全局特征和局部特征转换成C类的分数
Figure FDA0002871892300000032
Figure FDA0002871892300000033
其中ot={ot1,ot2,...,otC},i类的预测表示成公式(13)的形式:
Figure FDA0002871892300000034
Figure FDA0002871892300000035
Figure FDA0002871892300000036
其中,
Figure FDA0002871892300000037
表示第t帧第i个节点的GC-SRU网络隐藏层的输出,Hti表示
Figure FDA0002871892300000038
经过注意力网络后的输出;
采用下面的损失函数来监督空间注意力图卷积简单循环网络:
Figure FDA0002871892300000039
其中,Tj表示第j层SAGC-SRU上的时间步长,j是网络层数,C是动作类别数;αtnj表示第j层SAGC-SRU上第t帧中的第n个关节点的注意力分数,y={y1,y2,...,yC}表示动作的真实标签,与预测标签
Figure FDA00028718923000000310
进行对比;
Figure FDA0002871892300000041
表示在t时间步长时全局特征预测标签i的概率值,
Figure FDA0002871892300000042
表示局部特征预测标签i的概率值,λ和β是权重衰减系数。
CN202011618844.4A 2020-12-30 2020-12-30 基于多流空间注意力图卷积sru网络的骨架动作识别方法 Active CN112733656B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011618844.4A CN112733656B (zh) 2020-12-30 2020-12-30 基于多流空间注意力图卷积sru网络的骨架动作识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011618844.4A CN112733656B (zh) 2020-12-30 2020-12-30 基于多流空间注意力图卷积sru网络的骨架动作识别方法

Publications (2)

Publication Number Publication Date
CN112733656A true CN112733656A (zh) 2021-04-30
CN112733656B CN112733656B (zh) 2024-02-06

Family

ID=75608020

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011618844.4A Active CN112733656B (zh) 2020-12-30 2020-12-30 基于多流空间注意力图卷积sru网络的骨架动作识别方法

Country Status (1)

Country Link
CN (1) CN112733656B (zh)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113111865A (zh) * 2021-05-13 2021-07-13 广东工业大学 一种基于深度学习的跌倒行为检测方法和系统
CN113239809A (zh) * 2021-05-14 2021-08-10 西北工业大学 基于多尺度稀疏sru分类模型的水声目标识别方法
CN113408455A (zh) * 2021-06-29 2021-09-17 山东大学 一种基于多流信息增强图卷积网络的动作识别方法、系统及存储介质
CN113505536A (zh) * 2021-07-09 2021-10-15 兰州理工大学 一种优化的基于时空图卷积网络的交通流预测模型
CN113688765A (zh) * 2021-08-31 2021-11-23 南京信息工程大学 一种基于注意力机制的自适应图卷积网络的动作识别方法
CN113762082A (zh) * 2021-08-09 2021-12-07 同济大学 基于循环图卷积自动编码器的无监督骨架动作识别方法
CN113963435A (zh) * 2021-10-07 2022-01-21 哈尔滨理工大学 一种基于图卷积神经网络的人体行为识别系统
CN114821640A (zh) * 2022-04-12 2022-07-29 杭州电子科技大学 基于多流多尺度膨胀时空图卷积网络的骨架动作识别方法
CN114943873A (zh) * 2022-05-26 2022-08-26 深圳市科荣软件股份有限公司 一种工地人员异常行为分类方法及装置

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109376720A (zh) * 2018-12-19 2019-02-22 杭州电子科技大学 基于关节点时空简单循环网络和注意力机制的动作分类方法
WO2020211243A1 (zh) * 2019-04-15 2020-10-22 深圳大学 一种基于深层网络技术的行为识别的方法、装置及存储介质

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109376720A (zh) * 2018-12-19 2019-02-22 杭州电子科技大学 基于关节点时空简单循环网络和注意力机制的动作分类方法
WO2020211243A1 (zh) * 2019-04-15 2020-10-22 深圳大学 一种基于深层网络技术的行为识别的方法、装置及存储介质

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113111865A (zh) * 2021-05-13 2021-07-13 广东工业大学 一种基于深度学习的跌倒行为检测方法和系统
CN113111865B (zh) * 2021-05-13 2023-08-15 广东工业大学 一种基于深度学习的跌倒行为检测方法和系统
CN113239809A (zh) * 2021-05-14 2021-08-10 西北工业大学 基于多尺度稀疏sru分类模型的水声目标识别方法
CN113239809B (zh) * 2021-05-14 2023-09-15 西北工业大学 基于多尺度稀疏sru分类模型的水声目标识别方法
CN113408455B (zh) * 2021-06-29 2022-11-29 山东大学 一种基于多流信息增强图卷积网络的动作识别方法、系统及存储介质
CN113408455A (zh) * 2021-06-29 2021-09-17 山东大学 一种基于多流信息增强图卷积网络的动作识别方法、系统及存储介质
CN113505536A (zh) * 2021-07-09 2021-10-15 兰州理工大学 一种优化的基于时空图卷积网络的交通流预测模型
CN113762082A (zh) * 2021-08-09 2021-12-07 同济大学 基于循环图卷积自动编码器的无监督骨架动作识别方法
CN113762082B (zh) * 2021-08-09 2024-02-27 同济大学 基于循环图卷积自动编码器的无监督骨架动作识别方法
CN113688765A (zh) * 2021-08-31 2021-11-23 南京信息工程大学 一种基于注意力机制的自适应图卷积网络的动作识别方法
CN113688765B (zh) * 2021-08-31 2023-06-27 南京信息工程大学 一种基于注意力机制的自适应图卷积网络的动作识别方法
CN113963435A (zh) * 2021-10-07 2022-01-21 哈尔滨理工大学 一种基于图卷积神经网络的人体行为识别系统
CN114821640B (zh) * 2022-04-12 2023-07-18 杭州电子科技大学 基于多流多尺度膨胀时空图卷积网络的骨架动作识别方法
CN114821640A (zh) * 2022-04-12 2022-07-29 杭州电子科技大学 基于多流多尺度膨胀时空图卷积网络的骨架动作识别方法
CN114943873A (zh) * 2022-05-26 2022-08-26 深圳市科荣软件股份有限公司 一种工地人员异常行为分类方法及装置
CN114943873B (zh) * 2022-05-26 2023-10-17 深圳市科荣软件股份有限公司 一种工地人员异常行为分类方法及装置

Also Published As

Publication number Publication date
CN112733656B (zh) 2024-02-06

Similar Documents

Publication Publication Date Title
CN112733656A (zh) 基于多流空间注意力图卷积sru网络的骨架动作识别方法
Hussain et al. A deep neural network and classical features based scheme for objects recognition: an application for machine inspection
Lateef et al. Survey on semantic segmentation using deep learning techniques
CN111368896B (zh) 基于密集残差三维卷积神经网络的高光谱遥感图像分类方法
CN111783831B (zh) 基于多源多标签共享子空间学习的复杂图像精确分类方法
Bhatti et al. MFFCG–Multi feature fusion for hyperspectral image classification using graph attention network
CN109743642B (zh) 基于分层循环神经网络的视频摘要生成方法
Tian et al. Small object detection via dual inspection mechanism for UAV visual images
Li et al. Image co-saliency detection and instance co-segmentation using attention graph clustering based graph convolutional network
Zhu et al. Attentive multi-stage convolutional neural network for crowd counting
Guo et al. Multi-view feature learning for VHR remote sensing image classification
Liu et al. Dual-branch self-attention network for pedestrian attribute recognition
Yao et al. ModeRNN: Harnessing spatiotemporal mode collapse in unsupervised predictive learning
Tian et al. TSRN: two-stage refinement network for temporal action segmentation
CN112651294A (zh) 基于多尺度融合的遮挡人体姿势识别方法
Song et al. Srrm: Semantic region relation model for indoor scene recognition
Qiao et al. Two-Stream Convolutional Neural Network for Video Action Recognition.
Li et al. Multi-modal fusion architecture search for land cover classification using heterogeneous remote sensing images
Kansal et al. Comparative analysis of convolutional neural network in object detection
CN112926517B (zh) 一种人工智能监控方法
Lv et al. Multi-scale attentive region adaptive aggregation learning for remote sensing scene classification
Langenkämper et al. COATL-a learning architecture for online real-time detection and classification assistance for environmental data
CN114780767A (zh) 一种基于深度卷积神经网络的大规模图像检索方法及系统
Yi et al. An Effective Lightweight Crowd Counting Method Based on an Encoder-Decoder Network for the Internet of Video Things
Liu et al. Multi-grained trajectory graph convolutional networks for habit-unrelated human motion prediction

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant