CN109376720B - 基于关节点时空简单循环网络和注意力机制的动作分类方法 - Google Patents

基于关节点时空简单循环网络和注意力机制的动作分类方法 Download PDF

Info

Publication number
CN109376720B
CN109376720B CN201811557815.4A CN201811557815A CN109376720B CN 109376720 B CN109376720 B CN 109376720B CN 201811557815 A CN201811557815 A CN 201811557815A CN 109376720 B CN109376720 B CN 109376720B
Authority
CN
China
Prior art keywords
space
time
unit
layer
sru
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201811557815.4A
Other languages
English (en)
Other versions
CN109376720A (zh
Inventor
佘青山
穆高原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hangzhou Dianzi University
Original Assignee
Hangzhou Dianzi University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hangzhou Dianzi University filed Critical Hangzhou Dianzi University
Priority to CN201811557815.4A priority Critical patent/CN109376720B/zh
Publication of CN109376720A publication Critical patent/CN109376720A/zh
Application granted granted Critical
Publication of CN109376720B publication Critical patent/CN109376720B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • G06V10/462Salient features, e.g. scale invariant feature transforms [SIFT]

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Computational Linguistics (AREA)
  • Software Systems (AREA)
  • Mathematical Physics (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Multimedia (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Human Computer Interaction (AREA)
  • Social Psychology (AREA)
  • Psychiatry (AREA)
  • Image Analysis (AREA)

Abstract

本发明涉及一种基于关节点时空简单循环网络和注意力机制的动作分类方法。首先,将普通的SRU模型进行空间维度扩展,设计了一种同时在时间和空间两个维度上进行迭代计算的ST‑SRU模型。然后,在所提ST‑SRU模型基础上,引入全局上下文注意力机制,提出了GCA‑ST‑SRU方法。最后,将所提方法用于人体行为识别,先用深度网络提取人体关节点的特征,再采用GCA‑ST‑SRU方法对提取的特征进行识别。本发明方法能够降低训练耗时和提升分类准确率,具有明显的效率优势。本发明方法快速地推断速度有利于实时动作识别系统的设计,适合运行在计算能力有限的平台上,在计算机视觉、智能监控、人机交互等领域具有广阔的应用前景。

Description

基于关节点时空简单循环网络和注意力机制的动作分类方法
技术领域
本发明属于模式识别领域,是一种利用时空简单循环网络对用关节点表示的动作进行建模、并结合注意力机制的优势进行动作分类的方法。
背景技术
动作识别广泛应用在智能视频监控、人机交互、医疗辅助、异常行为检测等领域。动作识别是指对一段视频中的人物的行为进行分类,一段视频可以分解为连续的多张图片,所以动作识别也可以看作是对图片序列进行分类的问题。近年来动作识别的一个热门研究方向是,通过深度相机等传感器捕获人在做动作时身体关节点的三维空间坐标,然后对人体关节点坐标序列分类,人体关节点坐标不受画面中人物的复杂背景环境等噪声的影响,提供了在一个动作中身体运动的高层次信息,基于人体关节点坐标的行为识别取得了很好的成果。
随着深度学习的发展,涌现了很多基于循环网络和人体关节点的行为动作识别研究,包括长短期记忆网络(LSTM)、门控循环单元(GRU)、简单循环单元(SRU)、时空长短期记忆网络(ST-LSTM)和全局上下文注意力长短期记忆网络(GCA-LSTM)。Zhu和Lan等人认为人在做动作时,一些关节点之间存在固有的共现性,即同时有多个关节点对判断动作的类别起到了关键作用,这些有共现性的关节点构成了一个集合,不同的行为动作有不同的关节点集合,采用叠加的LSTM学习关节点之间的共现性特征,实现了对行为动作的分类。FabianBaradel等人同时用到了RGB图像数据和人体关节点数据,从每一帧图像中截取手部区域的子图片,然后用卷积神经网络提取特征,再输入到GRU对该特征序列进行分类,最后引入了注意力机制,从手部关节点的运动中计算关节点的速度和加速度,从中学习到注意力权重赋给GRU的输入;从人体全部关节点运动的速度和加速度中得到注意力权重赋给GRU的输出。
由于普通的LSTM和GRU模型一般用于处理时间序列数据,而忽略了关节点之间的空间关系。ST-LSTM是一种对LSTM的空间维度扩展,认为人体关节点之间存在空间依赖,ST-LSTM将行为识别问题处理为有时空维度的二维序列分类问题,实验结果显示ST-LSTM在多个行为识别数据集上取得了很好的准确率。
Liu和Wang等人认为不同的关节点对动作识别提供的信息重要程度时不同的,在ST-LSTM的基础上引入了注意力机制,提出了GCA-LSTM方法,进一步提高了ST-LSTM的分类准确率,在五个流行的基于骨骼关节点的动作识别数据集上取得了目前最好的性能。Zheng和An等人是较早将SRU用于动作识别的研究,先用卷积神经网络对图片序列中的每张图片提取特征,然后用SRU对提取出的特征序列进行分类,和传统的CNN-RNN模型相比有更低的复杂度和更高的效率,在两个公开动作识别数据集上取得了目前最好的结果。
以上方法都很好的利用了各种循环网络模型进行基于人体关节点的行为识别的研究,但是基于LSTM、GRU的方法在处理人体关节点序列时,存在大量依赖于时序的计算,这些计算不能独立完成。例如LSTM、GRU在计算当前时间步的隐含状态时,由于存在依赖,必须先计算出上一个时间步的隐含状态,这限制了序列处理的速度,随着LSTM模型的规模和超参数数量的增加,训练时间也越来越长,对参数的调整也将花费更多的时间。
发明内容
针对上述问题,本发明提出了一种基于时空维度和注意力机制的GCA-ST-SRU方法,并应用于人体行为识别。本发明首先,将普通的SRU模型进行空间维度扩展,设计了一种同时在时间和空间两个维度上进行迭代计算的ST-SRU模型,相比ST-LSTM大幅减少了训练时间。然后,在所提ST-SRU模型基础上,引入全局上下文注意力机制,提出了GCA-ST-SRU方法。最后,将所提方法用于人体行为识别,先用深度网络提取人体关节点的特征,再采用GCA-ST-SRU方法对提取的特征进行识别。
为了实现以上目的,本发明方法主要包括以下步骤:
步骤(1)设有连续的T帧图像表示了一个动作,每帧图像对应J个关节点的三维坐标。将同一帧的不同关节点的坐标输入到特征提取层中,通过深度神经网络寻找关节点之间的关系,输出J个提取后的特征信息。对T帧的关节点坐标做同样的操作。
步骤(2)将特征提取层的输出作为第一层ST-SRU的输入,然后第一层ST-SRU的输出作为第二层ST-SRU的输入。ST-SRU单元在时间和空间两个方向上迭代,计算状态信息。
步骤(3)引入注意力机制,全局上下文记忆单元将控制第一层ST-SRU到第二层ST-SRU的信息流入,加大重要关节点所占信息的比重,同时减少不重要关节点所占信息的比重,从而进一步提高行为分类的准确率。
本发明与已有的基于人体关节点的动作分类方法相比,具有如下特点:
1、采用时空简单循环网络对基于人体关节点的动作进行特征分类
很多的循环网络模型都被应用于基于人体关节的动作分类中,都取得了一定的研究成果,其中包括:LSTM、GRU、ST-LSTM以及GCA-LSTM。但是这些方法由于存在计算上的顺序依赖,无法并行化计算,导致训练时间较长,这不利于超参数调整。同样,缓慢的推断速度也不利于实时行为识别系统的设计。本发明提出了ST-SRU方法,克服了已有方法计算速度慢的问题,并进一步引入全局上下文注意力模型,提出了GCA-ST-SRU,使得行为分类的准确率得以提升,所以本发明在提升模型计算速度的同时也提升了分类准确率。
2、使用深度学习方法从关节点坐标中提取特征
本发明提出的ST-SRU在时间和空间两个维度上迭代计算,每个时空步输入的原始数据是一个关节点的三维坐标,表示动作的关节点数据在时间维度按时间顺序排列,在空间维度上需要设计一种特征提取方法,从同一视频帧的不同关节点坐标上提取特征。与已有的手工设计特征的方法相比,本发明采用了深度学习方法挖掘关节点之间的空间关系,能够自动提取特征,可以提高行为分类的准确率。
附图说明
图1为本发明的实施流程图。
具体实施方式
下面结合附图详细描述本发明基于关节点时空简单循环网络和注意力机制的动作分类方法,图1为实施流程图。
如图1,本发明方法的实施主要包括三个步骤:(1)用深度学习方法从表示动作的关节点数据中提取特征;(2)将步骤(1)中提取的特征输入到两层ST-SRU模型中进行计算;(3)将步骤(2)中ST-SRU的输出用来更新全局上下文记忆单元的状态,对步骤(2)中第二层的ST-SRU的信息量流入起到门控作用,当注意力模型迭代更新过程结束,得到最后的分类结果。
下面逐一对各步骤进行详细说明。
步骤一:用深度学习方法从关节点数据中提取特征
将第k时刻的J个关节点的三维坐标x1,k,x2,k,...,xJ,k通过下面的公式转换为特征I1,k,I2,k,...,IJ,k
Figure BDA0001912439380000041
Figure BDA0001912439380000042
其中WU1、WU2和WU3是深度神经网络的全连接层的权重矩阵。当对双人交互动作进行识别时,输入的是两个人的骨架数据
Figure BDA0001912439380000043
除了找出单个人的关节点之间的关系,还需要找出两个人的关节点之间的关系,则用下面的公式进行特征提取:
Figure BDA0001912439380000044
Figure BDA0001912439380000045
Figure BDA0001912439380000046
步骤二:在时空方向上迭代计算ST-SRU的隐含状态
用j=1,2,...,J,t=1,2,...,T表示关节点和图像帧的下标,时空简单循环单元(Spatio-Temporal Simple Recurrent Unit,ST-SRU)的隐含状态包含内部状态cj,t和输出状态hj,t。其中内部状态cj,t的计算需要有三个输入:分别是第t帧图像中对应的第j个关节点的特征xj,t、同一个关节点在上一帧的内部状态cj,t-1以及前一个关节点在当前帧的内部状态cj-1,t。ST-SRU从j=1,t=1时开始计算内部状态cj,t,直到j=J,t=T时停止,迭代计算出所有的内部状态cj,t和输出状态hj,t,,计算公式如下:
Figure BDA0001912439380000051
Figure BDA0001912439380000052
Figure BDA0001912439380000053
rj,t=sigmoid(Wrxj,t+br) (9)
Figure BDA0001912439380000054
hj,t=rj,t⊙tanh(cj,t)+(1-rj,t)⊙xj,t (11)
其中,ST-SRU拥有两个不同的遗忘门对应两个不同维度的历史信息:
Figure BDA0001912439380000055
对应空间维度,
Figure BDA0001912439380000056
对应时间维度。rj,t是重置门,用于调整输出状态。sigmoid和tanh是激活函数,⊙表示矩阵点乘。
最后,将两个ST-SRU叠加起来,即对于j=1,2,...,J,t=1,2,...,T,将第一层ST-SRU的输出状态hj,t作为第二层ST-SRU的输入xj,t,然后重复步骤(2)计算第二层ST-SRU的隐含状态。
步骤三:更新全局上下文记忆单元的状态
将注意力模型结合到ST-SRU中,得到了全局上下文注意力简单循环单元(GlobalContext-Aware Attention ST-SRU,GCA-ST-SRU)。用F(n)表示第n次更新的全局上下文记忆单元,n=1,2,...,N,N表示全局上下文记忆单元迭代更新的次数。
首先,计算初始值F(0),公式如下:
Figure BDA0001912439380000057
其中,
Figure BDA0001912439380000058
是第一层ST-SRU的输出状态,J是人体关节点个数,T是图像帧的帧数。
在第n次更新全局上下文记忆单元时,计算以下公式:
Figure BDA0001912439380000061
Figure BDA0001912439380000062
其中,We1和We2是待学习的参数矩阵,exp是以自然常数e为底的指数函数。对于第一层ST-SRUj=1,2,...,J,t=1,2,...,T的输出状态
Figure BDA0001912439380000063
都计算得出一个对应的rj,t,其中rj,t∈(0,1),它表示
Figure BDA0001912439380000064
对判断动作类别的重要程度。然后,将
Figure BDA0001912439380000065
代入到第二层ST-SRU的输入xj,t中,为了将注意力模型和ST-SRU结合,将第二层ST-SRU对应的式(10)改为:
Figure BDA0001912439380000066
rj,t越大,说明输入数据越有用,所以在更新cj,t时,输入应该占更多的比重。反之,rj,t越小,说明输入数据越没用,在更新cj,t时应该抑制它。
最后,更新全局上下文记忆单元F(n):
Figure BDA0001912439380000067
式(16)中o(n)表示第2层ST-SRU在j=J,t=T时的输出状态,
Figure BDA0001912439380000068
是只用于第n次迭代更新时的矩阵参数。当n=N时,全局上下文记忆单元的N次迭代更新过程结束,行为分类的最终预测结果yp为:
yp=softmax(Wc(FN)) (17)
其中,Wc是全连接层的权重矩阵,softmax是归一化指数函数,即分类器。
采用步骤三得到的GCA-ST-SRU模型对新的关节点数据进行分类,并与ST-SLTM和GCA-LSTM等算法在相同数据集上进行性能上的对比。
为了验证本发明方法的有效性,体现出ST-SRU相比ST-LSTM提升了推断速度,减少了训练时间,在相同参数设置和实验环境下,测试两种方法在UT-Kinect数据集上训练1000次所花费的时间,实验结果如表1所示:
表1 ST-SRU和ST-LSTM训练1000次耗时对比
Figure BDA0001912439380000071
由表1可知,ST-SRU的训练速度是ST-LSTM的4倍左右,具有明显的计算效率优势。接下来为了验证本发明方法的真实分类性能,利用该算法在UT-Kinect单人动作数据集和SBU-Kinect双人交互动作数据集上进行实验验证,并与ST-LSTM、GCA-LSTM等方法进行比较,实验结果如表2所示:
表2各类算法在公开数据集上测试分类准确率
Figure BDA0001912439380000072
通过表2可以看出,本发明方法的分类准确率略高于已有的方法,所以本发明方法兼顾训练耗时的降低和分类准确率的提升,具有较好的实用性。

Claims (2)

1.基于关节点时空简单循环网络和注意力机制的动作分类方法,其特征在于该方法包括以下主要步骤:
步骤(1):用深度学习方法从关节点数据中提取特征
将第k时刻的J个关节点的三维坐标x1,k,x2,k,...,xJ,k通过下面的公式转换为特征I1,k,I2,k,...,IJ,k
Figure FDA0003243226730000011
Figure FDA0003243226730000012
其中,WU1、WU2和WU3是深度神经网络的全连接层的权重矩阵,ReLu是激活函数;
步骤(2):在时空方向上迭代计算时空简单循环单元的隐含状态
用j=1,2,...,J,t=1,2,...,T表示关节点和图像帧的下标,时空简单循环单元的隐含状态包含内部状态cj,t和输出状态hj,t,其中内部状态cj,t的计算有三个输入:分别是第t帧图像中对应的第j个关节点的特征xj,t、同一个关节点在上一帧的内部状态cj,t-1以及前一个关节点在当前帧的内部状态cj-1,t
时空简单循环单元从j=1,t=1时开始计算内部状态cj,t,直到j=J,t=T时停止,迭代计算出所有的内部状态cj,t和输出状态hj,t,计算公式如下:
Figure FDA0003243226730000013
Figure FDA0003243226730000014
Figure FDA0003243226730000015
rj,t=sigmoid(Wrxj,t+br) (9)
Figure FDA0003243226730000016
hj,t=rj,t⊙tanh(cj,t)+(1-rj,t)⊙xj,t (11)
其中,时空简单循环单元拥有两个不同的遗忘门对应两个不同维度的历史信息:
Figure FDA0003243226730000021
对应空间维度,
Figure FDA0003243226730000022
对应时间维度;rj,t是重置门,用于调整输出状态;sigmoid和tanh是激活函数,⊙表示矩阵点乘;
最后,将两个时空简单循环单元叠加起来,即对于j=1,2,...,J,t=1,2,...,T,将第一层时空简单循环单元的输出状态hj,t作为第二层时空简单循环单元的输入xj,t,然后重复步骤(2)计算第二层时空简单循环单元的隐含状态;
步骤(3):更新全局上下文记忆单元的状态
将注意力模型结合到时空简单循环单元中,得到了全局上下文注意力简单循环单元;用F(n)表示第n次更新的全局上下文记忆单元,n=1,2,...,N,N表示全局上下文记忆单元迭代更新的次数;
首先,计算初始值F(0),公式如下:
Figure FDA0003243226730000023
其中,
Figure FDA0003243226730000024
是第一层时空简单循环单元的输出状态,J是人体关节点个数,T是图像帧的帧数;
在第n次更新全局上下文记忆单元时,计算以下公式:
Figure FDA0003243226730000025
Figure FDA0003243226730000026
其中,We1和We2是待学习的参数矩阵,exp是以自然常数e为底的指数函数;
对于第一层时空简单循环单元的输出状态
Figure FDA0003243226730000027
都计算得出一个对应的r'j,t,其中r'j,t∈(0,1),它表示
Figure FDA0003243226730000028
对判断动作类别的重要程度;
然后,将
Figure FDA0003243226730000029
代入到第二层时空简单循环单元的输入xj,t中,为了将注意力模型和时空简单循环单元结合,将第二层时空简单循环单元对应的式(10)改为:
Figure FDA00032432267300000210
最后,更新全局上下文记忆单元F(n):
Figure FDA0003243226730000031
其中,o(n)表示第2层时空简单循环单元在j=J,t=T时的输出状态,
Figure FDA0003243226730000032
是只用于第n次迭代更新时的矩阵参数;
当n=N时,全局上下文记忆单元的N次迭代更新过程结束,行为分类的最终预测结果yp为:
yp=softmax(Wc(F(N))) (17)
其中,Wc是全连接层的权重矩阵,softmax是归一化指数函数,即分类器。
2.根据权利要求1所述的基于关节点时空简单循环网络和注意力机制的动作分类方法,其特征在于:当对双人交互动作进行识别时,输入的是两个人的骨架数据
Figure FDA0003243226730000033
除了找出单个人的关节点之间的关系,还需要找出两个人的关节点之间的关系,则用下面的公式进行特征提取:
Figure FDA0003243226730000034
Figure FDA0003243226730000035
Figure FDA0003243226730000036
CN201811557815.4A 2018-12-19 2018-12-19 基于关节点时空简单循环网络和注意力机制的动作分类方法 Active CN109376720B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201811557815.4A CN109376720B (zh) 2018-12-19 2018-12-19 基于关节点时空简单循环网络和注意力机制的动作分类方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201811557815.4A CN109376720B (zh) 2018-12-19 2018-12-19 基于关节点时空简单循环网络和注意力机制的动作分类方法

Publications (2)

Publication Number Publication Date
CN109376720A CN109376720A (zh) 2019-02-22
CN109376720B true CN109376720B (zh) 2022-01-18

Family

ID=65370957

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201811557815.4A Active CN109376720B (zh) 2018-12-19 2018-12-19 基于关节点时空简单循环网络和注意力机制的动作分类方法

Country Status (1)

Country Link
CN (1) CN109376720B (zh)

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109919085B (zh) * 2019-03-06 2020-11-03 西安电子科技大学 基于轻量型卷积神经网络的人人交互行为识别方法
CN110348321A (zh) * 2019-06-18 2019-10-18 杭州电子科技大学 基于骨骼时空特征及长短时记忆网络的人体动作识别方法
CN110287844B (zh) * 2019-06-19 2021-07-23 北京工业大学 基于卷积姿势机和长短时记忆网络的交警手势识别方法
CN110580458A (zh) * 2019-08-25 2019-12-17 天津大学 结合多尺度残差式cnn和sru的乐谱图像识别方法
CN110765956B (zh) * 2019-10-28 2021-10-29 西安电子科技大学 基于部件特征的双人交互行为识别方法
CN110889335B (zh) * 2019-11-07 2023-11-24 辽宁石油化工大学 基于多通道时空融合网络人体骨架双人交互行为识别方法
CN111008674B (zh) * 2019-12-24 2022-05-03 哈尔滨工程大学 一种基于快速循环单元的水下目标探测方法
CN111353447B (zh) * 2020-03-05 2023-07-04 辽宁石油化工大学 一种基于图卷积网络的人体骨架行为识别方法
CN111914639A (zh) * 2020-06-30 2020-11-10 吴�荣 轻量级卷积时空简单循环单元模型的驾驶动作识别方法
CN112016701B (zh) * 2020-09-09 2023-09-15 四川大学 一种融合时序和属性行为的异常变化检测方法及系统
CN114511895B (zh) * 2020-11-16 2024-02-02 四川大学 一种基于注意力机制多尺度网络的自然场景情绪识别方法
CN112329689B (zh) * 2020-11-16 2024-06-18 北京科技大学 车载环境下基于图卷积神经网络的异常驾驶行为识别方法
CN112669879B (zh) * 2020-12-24 2022-06-03 山东大学 一种基于时频域深度学习算法的空调内机噪声异常检测方法
CN112733656B (zh) * 2020-12-30 2024-02-06 杭州电子科技大学 基于多流空间注意力图卷积sru网络的骨架动作识别方法

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103519788A (zh) * 2013-10-18 2014-01-22 南京师范大学 基于Kinect体感交互的注意力情景化测评系统
CN105551182A (zh) * 2015-11-26 2016-05-04 吉林大学 基于Kinect人体姿势识别的驾驶状态监测系统
CN107341462A (zh) * 2017-06-28 2017-11-10 电子科技大学 一种基于注意力机制的视频分类方法
CN108304795A (zh) * 2018-01-29 2018-07-20 清华大学 基于深度强化学习的人体骨架行为识别方法及装置
CN108388876A (zh) * 2018-03-13 2018-08-10 腾讯科技(深圳)有限公司 一种图像识别方法、装置以及相关设备
CN108446678A (zh) * 2018-05-07 2018-08-24 同济大学 一种基于骨骼特征的危险驾驶行为识别方法
CN108764050A (zh) * 2018-04-28 2018-11-06 中国科学院自动化研究所 基于角度无关性的骨架行为识别方法、系统及设备
CN108776796A (zh) * 2018-06-26 2018-11-09 内江师范学院 一种基于全局时空注意力模型的动作识别方法
CN108805089A (zh) * 2018-06-14 2018-11-13 南京云思创智信息科技有限公司 基于多模态的情绪识别方法

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA2642041C (en) * 2005-12-23 2014-07-15 Le Tan Thanh Tai Spatio-temporal pattern recognition using a spiking neural network and processing thereof on a portable and/or distributed computer
EP3161791A4 (en) * 2014-06-24 2018-01-03 Sportlogiq Inc. System and method for visual event description and event analysis

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103519788A (zh) * 2013-10-18 2014-01-22 南京师范大学 基于Kinect体感交互的注意力情景化测评系统
CN105551182A (zh) * 2015-11-26 2016-05-04 吉林大学 基于Kinect人体姿势识别的驾驶状态监测系统
CN107341462A (zh) * 2017-06-28 2017-11-10 电子科技大学 一种基于注意力机制的视频分类方法
CN108304795A (zh) * 2018-01-29 2018-07-20 清华大学 基于深度强化学习的人体骨架行为识别方法及装置
CN108388876A (zh) * 2018-03-13 2018-08-10 腾讯科技(深圳)有限公司 一种图像识别方法、装置以及相关设备
CN108764050A (zh) * 2018-04-28 2018-11-06 中国科学院自动化研究所 基于角度无关性的骨架行为识别方法、系统及设备
CN108446678A (zh) * 2018-05-07 2018-08-24 同济大学 一种基于骨骼特征的危险驾驶行为识别方法
CN108805089A (zh) * 2018-06-14 2018-11-13 南京云思创智信息科技有限公司 基于多模态的情绪识别方法
CN108776796A (zh) * 2018-06-26 2018-11-09 内江师范学院 一种基于全局时空注意力模型的动作识别方法

Non-Patent Citations (8)

* Cited by examiner, † Cited by third party
Title
"A hierarchical model for human action recognition from body-parts";Zhenpeng Shao 等;《IEEE》;20180924;全文 *
"A multi-task collaborative learning method based on auxiliary training and geometric constraints";Gaoyuan Mu 等;《ICPS》;20180621;全文 *
"Attend it again:recurrent attention convolutional neural network for action recognition";Haodong Yang;《applied sciences》;20180306;全文 *
"Classification of Multi-class Daily Human Motion using discriminative body parts and sentence descriptions";Yusuke Goutsu 等;《Cross mark》;20171110;全文 *
"Global context-aware attention Lstm networks for 3d action recognition";Jun Liu 等;《IEEE》;20171231;全文 *
"Multi-level Recurrent Residual networks for action recognition";Zhenxing Zheng;《arxiv:1711.08238v6》;20171122;全文 *
"Pose-conditioned spatio-temporal attention for human action recognition";Fabien Baradel 等;《arxiv:1703.10106v2》;20170329;全文 *
"基于Kinect的虚拟机器人的运动设计方法研究";张万发;《中国优秀硕士学位论文全文数据库信息科技辑》;20160330;全文 *

Also Published As

Publication number Publication date
CN109376720A (zh) 2019-02-22

Similar Documents

Publication Publication Date Title
CN109376720B (zh) 基于关节点时空简单循环网络和注意力机制的动作分类方法
CN108229444B (zh) 一种基于整体和局部深度特征融合的行人再识别方法
CN110378208B (zh) 一种基于深度残差网络的行为识别方法
CN106909938B (zh) 基于深度学习网络的视角无关性行为识别方法
Yang et al. Extracting and composing robust features with broad learning system
CN112434655A (zh) 一种基于自适应置信度图卷积网络的步态识别方法
CN104537684A (zh) 一种静态场景中的实时运动目标提取方法
CN116343330A (zh) 一种红外-可见光图像融合的异常行为识别方法
CN111401116B (zh) 基于增强卷积和空时lstm网络的双模态情感识别方法
Zhang et al. A Gaussian mixture based hidden Markov model for motion recognition with 3D vision device
John et al. Real-time hand posture and gesture-based touchless automotive user interface using deep learning
CN114882493A (zh) 一种基于图像序列的三维手部姿态估计与识别方法
CN114758382B (zh) 基于自适应补丁学习的面部au检测模型建立方法及应用
CN112149645A (zh) 基于生成对抗学习和图神经网络的人体姿势关键点识别方法
CN116246338A (zh) 一种基于图卷积和Transformer复合神经网络的行为识别方法
Sun et al. A three-dimensional human motion pose recognition algorithm based on graph convolutional networks
Long A face recognition algorithm based on intermediate layers connected by the CNN
CN117115911A (zh) 一种基于注意力机制的超图学习动作识别系统
Cate et al. Deepface: Face generation using deep learning
Yu et al. Prototypical network based on Manhattan distance
CN115966017A (zh) 行为识别方法及装置
CN113159007B (zh) 一种基于自适应图卷积的步态情感识别方法
Yang et al. An efficient moving object detection algorithm based on improved GMM and cropped frame technique
CN114821632A (zh) 一种遮挡行人重识别方法
Abidin et al. Wavelet based approach for facial expression recognition

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant