CN109376720A - 基于关节点时空简单循环网络和注意力机制的动作分类方法 - Google Patents

基于关节点时空简单循环网络和注意力机制的动作分类方法 Download PDF

Info

Publication number
CN109376720A
CN109376720A CN201811557815.4A CN201811557815A CN109376720A CN 109376720 A CN109376720 A CN 109376720A CN 201811557815 A CN201811557815 A CN 201811557815A CN 109376720 A CN109376720 A CN 109376720A
Authority
CN
China
Prior art keywords
space
simple cycle
artis
time
time simple
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201811557815.4A
Other languages
English (en)
Other versions
CN109376720B (zh
Inventor
佘青山
穆高原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hangzhou Dianzi University
Original Assignee
Hangzhou Dianzi University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hangzhou Dianzi University filed Critical Hangzhou Dianzi University
Priority to CN201811557815.4A priority Critical patent/CN109376720B/zh
Publication of CN109376720A publication Critical patent/CN109376720A/zh
Application granted granted Critical
Publication of CN109376720B publication Critical patent/CN109376720B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • G06V10/462Salient features, e.g. scale invariant feature transforms [SIFT]

Abstract

本发明涉及一种基于关节点时空简单循环网络和注意力机制的动作分类方法。首先,将普通的SRU模型进行空间维度扩展,设计了一种同时在时间和空间两个维度上进行迭代计算的ST‑SRU模型。然后,在所提ST‑SRU模型基础上,引入全局上下文注意力机制,提出了GCA‑ST‑SRU方法。最后,将所提方法用于人体行为识别,先用深度网络提取人体关节点的特征,再采用GCA‑ST‑SRU方法对提取的特征进行识别。本发明方法能够降低训练耗时和提升分类准确率,具有明显的效率优势。本发明方法快速地推断速度有利于实时动作识别系统的设计,适合运行在计算能力有限的平台上,在计算机视觉、智能监控、人机交互等领域具有广阔的应用前景。

Description

基于关节点时空简单循环网络和注意力机制的动作分类方法
技术领域
本发明属于模式识别领域,是一种利用时空简单循环网络对用关节点表示的动作进行建模、并结合注意力机制的优势进行动作分类的方法。
背景技术
动作识别广泛应用在智能视频监控、人机交互、医疗辅助、异常行为检测等领域。动作识别是指对一段视频中的人物的行为进行分类,一段视频可以分解为连续的多张图片,所以动作识别也可以看作是对图片序列进行分类的问题。近年来动作识别的一个热门研究方向是,通过深度相机等传感器捕获人在做动作时身体关节点的三维空间坐标,然后对人体关节点坐标序列分类,人体关节点坐标不受画面中人物的复杂背景环境等噪声的影响,提供了在一个动作中身体运动的高层次信息,基于人体关节点坐标的行为识别取得了很好的成果。
随着深度学习的发展,涌现了很多基于循环网络和人体关节点的行为动作识别研究,包括长短期记忆网络(LSTM)、门控循环单元(GRU)、简单循环单元(SRU)、时空长短期记忆网络(ST-LSTM)和全局上下文注意力长短期记忆网络(GCA-LSTM)。Zhu和Lan等人认为人在做动作时,一些关节点之间存在固有的共现性,即同时有多个关节点对判断动作的类别起到了关键作用,这些有共现性的关节点构成了一个集合,不同的行为动作有不同的关节点集合,采用叠加的LSTM学习关节点之间的共现性特征,实现了对行为动作的分类。FabianBaradel等人同时用到了RGB图像数据和人体关节点数据,从每一帧图像中截取手部区域的子图片,然后用卷积神经网络提取特征,再输入到GRU对该特征序列进行分类,最后引入了注意力机制,从手部关节点的运动中计算关节点的速度和加速度,从中学习到注意力权重赋给GRU的输入;从人体全部关节点运动的速度和加速度中得到注意力权重赋给GRU的输出。
由于普通的LSTM和GRU模型一般用于处理时间序列数据,而忽略了关节点之间的空间关系。ST-LSTM是一种对LSTM的空间维度扩展,认为人体关节点之间存在空间依赖,ST-LSTM将行为识别问题处理为有时空维度的二维序列分类问题,实验结果显示ST-LSTM在多个行为识别数据集上取得了很好的准确率。
Liu和Wang等人认为不同的关节点对动作识别提供的信息重要程度时不同的,在ST-LSTM的基础上引入了注意力机制,提出了GCA-LSTM方法,进一步提高了ST-LSTM的分类准确率,在五个流行的基于骨骼关节点的动作识别数据集上取得了目前最好的性能。Zheng和An等人是较早将SRU用于动作识别的研究,先用卷积神经网络对图片序列中的每张图片提取特征,然后用SRU对提取出的特征序列进行分类,和传统的CNN-RNN模型相比有更低的复杂度和更高的效率,在两个公开动作识别数据集上取得了目前最好的结果。
以上方法都很好的利用了各种循环网络模型进行基于人体关节点的行为识别的研究,但是基于LSTM、GRU的方法在处理人体关节点序列时,存在大量依赖于时序的计算,这些计算不能独立完成。例如LSTM、GRU在计算当前时间步的隐含状态时,由于存在依赖,必须先计算出上一个时间步的隐含状态,这限制了序列处理的速度,随着LSTM模型的规模和超参数数量的增加,训练时间也越来越长,对参数的调整也将花费更多的时间。
发明内容
针对上述问题,本发明提出了一种基于时空维度和注意力机制的GCA-ST-SRU方法,并应用于人体行为识别。本发明首先,将普通的SRU模型进行空间维度扩展,设计了一种同时在时间和空间两个维度上进行迭代计算的ST-SRU模型,相比ST-LSTM大幅减少了训练时间。然后,在所提ST-SRU模型基础上,引入全局上下文注意力机制,提出了GCA-ST-SRU方法。最后,将所提方法用于人体行为识别,先用深度网络提取人体关节点的特征,再采用GCA-ST-SRU方法对提取的特征进行识别。
为了实现以上目的,本发明方法主要包括以下步骤:
步骤(1)设有连续的T帧图像表示了一个动作,每帧图像对应J个关节点的三维坐标。将同一帧的不同关节点的坐标输入到特征提取层中,通过深度神经网络寻找关节点之间的关系,输出J个提取后的特征信息。对T帧的关节点坐标做同样的操作。
步骤(2)将特征提取层的输出作为第一层ST-SRU的输入,然后第一层ST-SRU的输出作为第二层ST-SRU的输入。ST-SRU单元在时间和空间两个方向上迭代,计算状态信息。
步骤(3)引入注意力机制,全局上下文记忆单元将控制第一层ST-SRU到第二层ST-SRU的信息流入,加大重要关节点所占信息的比重,同时减少不重要关节点所占信息的比重,从而进一步提高行为分类的准确率。
本发明与已有的基于人体关节点的动作分类方法相比,具有如下特点:
1、采用时空简单循环网络对基于人体关节点的动作进行特征分类
很多的循环网络模型都被应用于基于人体关节的动作分类中,都取得了一定的研究成果,其中包括:LSTM、GRU、ST-LSTM以及GCA-LSTM。但是这些方法由于存在计算上的顺序依赖,无法并行化计算,导致训练时间较长,这不利于超参数调整。同样,缓慢的推断速度也不利于实时行为识别系统的设计。本发明提出了ST-SRU方法,克服了已有方法计算速度慢的问题,并进一步引入全局上下文注意力模型,提出了GCA-ST-SRU,使得行为分类的准确率得以提升,所以本发明在提升模型计算速度的同时也提升了分类准确率。
2、使用深度学习方法从关节点坐标中提取特征
本发明提出的ST-SRU在时间和空间两个维度上迭代计算,每个时空步输入的原始数据是一个关节点的三维坐标,表示动作的关节点数据在时间维度按时间顺序排列,在空间维度上需要设计一种特征提取方法,从同一视频帧的不同关节点坐标上提取特征。与已有的手工设计特征的方法相比,本发明采用了深度学习方法挖掘关节点之间的空间关系,能够自动提取特征,可以提高行为分类的准确率。
附图说明
图1为本发明的实施流程图。
具体实施方式
下面结合附图详细描述本发明基于关节点时空简单循环网络和注意力机制的动作分类方法,图1为实施流程图。
如图1,本发明方法的实施主要包括三个步骤:(1)用深度学习方法从表示动作的关节点数据中提取特征;(2)将步骤(1)中提取的特征输入到两层ST-SRU模型中进行计算;(3)将步骤(2)中ST-SRU的输出用来更新全局上下文记忆单元的状态,对步骤(2)中第二层的ST-SRU的信息量流入起到门控作用,当注意力模型迭代更新过程结束,得到最后的分类结果。
下面逐一对各步骤进行详细说明。
步骤一:用深度学习方法从关节点数据中提取特征
将第k时刻的J个关节点的三维坐标x1,k,x2,k,...,xJ,k通过下面的公式转换为特征I1,k,I2,k,...,IJ,k
其中WU1、WU2和WU3是深度神经网络的全连接层的权重矩阵。当对双人交互动作进行识别时,输入的是两个人的骨架数据除了找出单个人的关节点之间的关系,还需要找出两个人的关节点之间的关系,则用下面的公式进行特征提取:
步骤二:在时空方向上迭代计算ST-SRU的隐含状态
用j=1,2,...,J,t=1,2,...,T表示关节点和图像帧的下标,时空简单循环单元(Spatio-Temporal Simple Recurrent Unit,ST-SRU)的隐含状态包含内部状态cj,t和输出状态hj,t。其中内部状态cj,t的计算需要有三个输入:分别是第t帧图像中对应的第j个关节点的特征xj,t、同一个关节点在上一帧的内部状态cj,t-1以及前一个关节点在当前帧的内部状态cj-1,t。ST-SRU从j=1,t=1时开始计算内部状态cj,t,直到j=J,t=T时停止,迭代计算出所有的内部状态cj,t和输出状态hj,t,,计算公式如下:
rj,t=sigmoid(Wrxj,t+br) (9)
hj,t=rj,t⊙tanh(cj,t)+(1-rj,t)⊙xj,t (11)
其中,ST-SRU拥有两个不同的遗忘门对应两个不同维度的历史信息:对应空间维度,对应时间维度。rj,t是重置门,用于调整输出状态。sigmoid和tanh是激活函数,⊙表示矩阵点乘。
最后,将两个ST-SRU叠加起来,即对于j=1,2,...,J,t=1,2,...,T,将第一层ST-SRU的输出状态hj,t作为第二层ST-SRU的输入xj,t,然后重复步骤(2)计算第二层ST-SRU的隐含状态。
步骤三:更新全局上下文记忆单元的状态
将注意力模型结合到ST-SRU中,得到了全局上下文注意力简单循环单元(GlobalContext-Aware Attention ST-SRU,GCA-ST-SRU)。用F(n)表示第n次更新的全局上下文记忆单元,n=1,2,...,N,N表示全局上下文记忆单元迭代更新的次数。
首先,计算初始值F(0),公式如下:
其中,是第一层ST-SRU的输出状态,J是人体关节点个数,T是图像帧的帧数。
在第n次更新全局上下文记忆单元时,计算以下公式:
其中,We1和We2是待学习的参数矩阵,exp是以自然常数e为底的指数函数。对于第一层ST-SRUj=1,2,...,J,t=1,2,...,T的输出状态都计算得出一个对应的rj,t,其中rj,t∈(0,1),它表示对判断动作类别的重要程度。然后,将代入到第二层ST-SRU的输入xj,t中,为了将注意力模型和ST-SRU结合,将第二层ST-SRU对应的式(10)改为:
rj,t越大,说明输入数据越有用,所以在更新cj,t时,输入应该占更多的比重。反之,rj,t越小,说明输入数据越没用,在更新cj,t时应该抑制它。
最后,更新全局上下文记忆单元F(n):
式(16)中o(n)表示第2层ST-SRU在j=J,t=T时的输出状态,是只用于第n次迭代更新时的矩阵参数。当n=N时,全局上下文记忆单元的N次迭代更新过程结束,行为分类的最终预测结果yp为:
yp=softmax(Wc(FN)) (17)
其中,Wc是全连接层的权重矩阵,softmax是归一化指数函数,即分类器。
采用步骤三得到的GCA-ST-SRU模型对新的关节点数据进行分类,并与ST-SLTM和GCA-LSTM等算法在相同数据集上进行性能上的对比。
为了验证本发明方法的有效性,体现出ST-SRU相比ST-LSTM提升了推断速度,减少了训练时间,在相同参数设置和实验环境下,测试两种方法在UT-Kinect数据集上训练1000次所花费的时间,实验结果如表1所示:
表1 ST-SRU和ST-LSTM训练1000次耗时对比
由表1可知,ST-SRU的训练速度是ST-LSTM的4倍左右,具有明显的计算效率优势。接下来为了验证本发明方法的真实分类性能,利用该算法在UT-Kinect单人动作数据集和SBU-Kinect双人交互动作数据集上进行实验验证,并与ST-LSTM、GCA-LSTM等方法进行比较,实验结果如表2所示:
表2各类算法在公开数据集上测试分类准确率
通过表2可以看出,本发明方法的分类准确率略高于已有的方法,所以本发明方法兼顾训练耗时的降低和分类准确率的提升,具有较好的实用性。

Claims (2)

1.基于关节点时空简单循环网络和注意力机制的动作分类方法,其特征在于该方法包括以下主要步骤:
步骤(1):用深度学习方法从关节点数据中提取特征
将第k时刻的J个关节点的三维坐标x1,k,x2,k,...,xJ,k通过下面的公式转换为特征I1,k,I2,k,...,IJ,k
其中,WU1、WU2和WU3是深度神经网络的全连接层的权重矩阵,ReLu是激活函数;
步骤(2):在时空方向上迭代计算时空简单循环单元的隐含状态
用j=1,2,...,J,t=1,2,...,T表示关节点和图像帧的下标,时空简单循环单元的隐含状态包含内部状态cj,t和输出状态hj,t,其中内部状态cj,t的计算有三个输入:分别是第t帧图像中对应的第j个关节点的特征xj,t、同一个关节点在上一帧的内部状态cj,t-1以及前一个关节点在当前帧的内部状态cj-1,t
时空简单循环单元从j=1,t=1时开始计算内部状态cj,t,直到j=J,t=T时停止,迭代计算出所有的内部状态cj,t和输出状态hj,t,计算公式如下:
rj,t=sigmoid(Wrxj,t+br) (9)
hj,t=rj,t⊙tanh(cj,t)+(1-rj,t)⊙xj,t (11)
其中,时空简单循环单元拥有两个不同的遗忘门对应两个不同维度的历史信息:对应空间维度,对应时间维度;rj,t是重置门,用于调整输出状态;sigmoid和tanh是激活函数,⊙表示矩阵点乘;
最后,将两个时空简单循环单元叠加起来,即对于j=1,2,...,J,t=1,2,...,T,将第一层时空简单循环单元的输出状态hj,t作为第二层时空简单循环单元的输入xj,t,然后重复步骤(2)计算第二层时空简单循环单元的隐含状态;
步骤(3):更新全局上下文记忆单元的状态
将注意力模型结合到时空简单循环单元中,得到了全局上下文注意力简单循环单元;用F(n)表示第n次更新的全局上下文记忆单元,n=1,2,...,N,N表示全局上下文记忆单元迭代更新的次数;
首先,计算初始值F(0),公式如下:
其中,是第一层时空简单循环单元的输出状态,J是人体关节点个数,T是图像帧的帧数;
在第n次更新全局上下文记忆单元时,计算以下公式:
其中,We1和We2是待学习的参数矩阵,exp是以自然常数e为底的指数函数;
对于第一层时空简单循环单元的输出状态都计算得出一个对应的rj,t,其中rj,t∈(0,1),它表示对判断动作类别的重要程度;
然后,将代入到第二层时空简单循环单元的输入xj,t中,为了将注意力模型和时空简单循环单元结合,将第二层时空简单循环单元对应的式(10)改为:
最后,更新全局上下文记忆单元F(n):
其中,o(n)表示第2层时空简单循环单元在j=J,t=T时的输出状态,是只用于第n次迭代更新时的矩阵参数;
当n=N时,全局上下文记忆单元的N次迭代更新过程结束,行为分类的最终预测结果yp为:
yp=softmax(Wc(F(N))) (17)
其中,Wc是全连接层的权重矩阵,softmax是归一化指数函数,即分类器。
2.根据权利要求1所述的基于关节点时空简单循环网络和注意力机制的动作分类方法,其特征在于:当对双人交互动作进行识别时,输入的是两个人的骨架数据除了找出单个人的关节点之间的关系,还需要找出两个人的关节点之间的关系,则用下面的公式进行特征提取:
CN201811557815.4A 2018-12-19 2018-12-19 基于关节点时空简单循环网络和注意力机制的动作分类方法 Active CN109376720B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201811557815.4A CN109376720B (zh) 2018-12-19 2018-12-19 基于关节点时空简单循环网络和注意力机制的动作分类方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201811557815.4A CN109376720B (zh) 2018-12-19 2018-12-19 基于关节点时空简单循环网络和注意力机制的动作分类方法

Publications (2)

Publication Number Publication Date
CN109376720A true CN109376720A (zh) 2019-02-22
CN109376720B CN109376720B (zh) 2022-01-18

Family

ID=65370957

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201811557815.4A Active CN109376720B (zh) 2018-12-19 2018-12-19 基于关节点时空简单循环网络和注意力机制的动作分类方法

Country Status (1)

Country Link
CN (1) CN109376720B (zh)

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109919085A (zh) * 2019-03-06 2019-06-21 西安电子科技大学 基于轻量型卷积神经网络的人人交互行为识别方法
CN110287844A (zh) * 2019-06-19 2019-09-27 北京工业大学 基于卷积姿势机和长短时记忆网络的交警手势识别方法
CN110348321A (zh) * 2019-06-18 2019-10-18 杭州电子科技大学 基于骨骼时空特征及长短时记忆网络的人体动作识别方法
CN110580458A (zh) * 2019-08-25 2019-12-17 天津大学 结合多尺度残差式cnn和sru的乐谱图像识别方法
CN110765956A (zh) * 2019-10-28 2020-02-07 西安电子科技大学 基于部件特征的双人交互行为识别方法
CN110889335A (zh) * 2019-11-07 2020-03-17 辽宁石油化工大学 基于多通道时空融合网络人体骨架双人交互行为识别方法
CN111008674A (zh) * 2019-12-24 2020-04-14 哈尔滨工程大学 一种基于快速循环单元的水下目标探测方法
CN111353447A (zh) * 2020-03-05 2020-06-30 辽宁石油化工大学 一种基于图卷积网络的人体骨架行为识别方法
CN111914639A (zh) * 2020-06-30 2020-11-10 吴�荣 轻量级卷积时空简单循环单元模型的驾驶动作识别方法
CN112016701A (zh) * 2020-09-09 2020-12-01 四川大学 一种融合时序和属性行为的异常变化检测方法及系统
CN112329689A (zh) * 2020-11-16 2021-02-05 北京科技大学 车载环境下基于图卷积神经网络的异常驾驶行为识别方法
CN112669879A (zh) * 2020-12-24 2021-04-16 山东大学 一种基于时频域深度学习算法的空调内机噪声异常检测方法
CN112733656A (zh) * 2020-12-30 2021-04-30 杭州电子科技大学 基于多流空间注意力图卷积sru网络的骨架动作识别方法
CN114511895A (zh) * 2020-11-16 2022-05-17 四川大学 一种基于注意力机制多尺度网络的自然场景情绪识别方法

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090287624A1 (en) * 2005-12-23 2009-11-19 Societe De Commercialisation De Produits De La Recherche Applique-Socpra-Sciences Et Genie S.E.C. Spatio-temporal pattern recognition using a spiking neural network and processing thereof on a portable and/or distributed computer
CN103519788A (zh) * 2013-10-18 2014-01-22 南京师范大学 基于Kinect体感交互的注意力情景化测评系统
CN105551182A (zh) * 2015-11-26 2016-05-04 吉林大学 基于Kinect人体姿势识别的驾驶状态监测系统
US20170103264A1 (en) * 2014-06-24 2017-04-13 Sportlogiq Inc. System and Method for Visual Event Description and Event Analysis
CN107341462A (zh) * 2017-06-28 2017-11-10 电子科技大学 一种基于注意力机制的视频分类方法
CN108304795A (zh) * 2018-01-29 2018-07-20 清华大学 基于深度强化学习的人体骨架行为识别方法及装置
CN108388876A (zh) * 2018-03-13 2018-08-10 腾讯科技(深圳)有限公司 一种图像识别方法、装置以及相关设备
CN108446678A (zh) * 2018-05-07 2018-08-24 同济大学 一种基于骨骼特征的危险驾驶行为识别方法
CN108764050A (zh) * 2018-04-28 2018-11-06 中国科学院自动化研究所 基于角度无关性的骨架行为识别方法、系统及设备
CN108776796A (zh) * 2018-06-26 2018-11-09 内江师范学院 一种基于全局时空注意力模型的动作识别方法
CN108805089A (zh) * 2018-06-14 2018-11-13 南京云思创智信息科技有限公司 基于多模态的情绪识别方法

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090287624A1 (en) * 2005-12-23 2009-11-19 Societe De Commercialisation De Produits De La Recherche Applique-Socpra-Sciences Et Genie S.E.C. Spatio-temporal pattern recognition using a spiking neural network and processing thereof on a portable and/or distributed computer
CN103519788A (zh) * 2013-10-18 2014-01-22 南京师范大学 基于Kinect体感交互的注意力情景化测评系统
US20170103264A1 (en) * 2014-06-24 2017-04-13 Sportlogiq Inc. System and Method for Visual Event Description and Event Analysis
CN105551182A (zh) * 2015-11-26 2016-05-04 吉林大学 基于Kinect人体姿势识别的驾驶状态监测系统
CN107341462A (zh) * 2017-06-28 2017-11-10 电子科技大学 一种基于注意力机制的视频分类方法
CN108304795A (zh) * 2018-01-29 2018-07-20 清华大学 基于深度强化学习的人体骨架行为识别方法及装置
CN108388876A (zh) * 2018-03-13 2018-08-10 腾讯科技(深圳)有限公司 一种图像识别方法、装置以及相关设备
CN108764050A (zh) * 2018-04-28 2018-11-06 中国科学院自动化研究所 基于角度无关性的骨架行为识别方法、系统及设备
CN108446678A (zh) * 2018-05-07 2018-08-24 同济大学 一种基于骨骼特征的危险驾驶行为识别方法
CN108805089A (zh) * 2018-06-14 2018-11-13 南京云思创智信息科技有限公司 基于多模态的情绪识别方法
CN108776796A (zh) * 2018-06-26 2018-11-09 内江师范学院 一种基于全局时空注意力模型的动作识别方法

Non-Patent Citations (8)

* Cited by examiner, † Cited by third party
Title
FABIEN BARADEL 等: ""Pose-conditioned spatio-temporal attention for human action recognition"", 《ARXIV:1703.10106V2》 *
GAOYUAN MU 等: ""A multi-task collaborative learning method based on auxiliary training and geometric constraints"", 《ICPS》 *
HAODONG YANG: ""Attend it again:recurrent attention convolutional neural network for action recognition"", 《APPLIED SCIENCES》 *
JUN LIU 等: ""Global context-aware attention Lstm networks for 3d action recognition"", 《IEEE》 *
YUSUKE GOUTSU 等: ""Classification of Multi-class Daily Human Motion using discriminative body parts and sentence descriptions"", 《CROSS MARK》 *
ZHENPENG SHAO 等: ""A hierarchical model for human action recognition from body-parts"", 《IEEE》 *
ZHENXING ZHENG: ""Multi-level Recurrent Residual networks for action recognition"", 《ARXIV:1711.08238V6》 *
张万发: ""基于Kinect的虚拟机器人的运动设计方法研究"", 《中国优秀硕士学位论文全文数据库信息科技辑》 *

Cited By (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109919085B (zh) * 2019-03-06 2020-11-03 西安电子科技大学 基于轻量型卷积神经网络的人人交互行为识别方法
CN109919085A (zh) * 2019-03-06 2019-06-21 西安电子科技大学 基于轻量型卷积神经网络的人人交互行为识别方法
CN110348321A (zh) * 2019-06-18 2019-10-18 杭州电子科技大学 基于骨骼时空特征及长短时记忆网络的人体动作识别方法
CN110287844A (zh) * 2019-06-19 2019-09-27 北京工业大学 基于卷积姿势机和长短时记忆网络的交警手势识别方法
CN110287844B (zh) * 2019-06-19 2021-07-23 北京工业大学 基于卷积姿势机和长短时记忆网络的交警手势识别方法
CN110580458A (zh) * 2019-08-25 2019-12-17 天津大学 结合多尺度残差式cnn和sru的乐谱图像识别方法
CN110765956A (zh) * 2019-10-28 2020-02-07 西安电子科技大学 基于部件特征的双人交互行为识别方法
CN110765956B (zh) * 2019-10-28 2021-10-29 西安电子科技大学 基于部件特征的双人交互行为识别方法
CN110889335A (zh) * 2019-11-07 2020-03-17 辽宁石油化工大学 基于多通道时空融合网络人体骨架双人交互行为识别方法
CN110889335B (zh) * 2019-11-07 2023-11-24 辽宁石油化工大学 基于多通道时空融合网络人体骨架双人交互行为识别方法
CN111008674A (zh) * 2019-12-24 2020-04-14 哈尔滨工程大学 一种基于快速循环单元的水下目标探测方法
CN111008674B (zh) * 2019-12-24 2022-05-03 哈尔滨工程大学 一种基于快速循环单元的水下目标探测方法
CN111353447A (zh) * 2020-03-05 2020-06-30 辽宁石油化工大学 一种基于图卷积网络的人体骨架行为识别方法
CN111914639A (zh) * 2020-06-30 2020-11-10 吴�荣 轻量级卷积时空简单循环单元模型的驾驶动作识别方法
CN112016701B (zh) * 2020-09-09 2023-09-15 四川大学 一种融合时序和属性行为的异常变化检测方法及系统
CN112016701A (zh) * 2020-09-09 2020-12-01 四川大学 一种融合时序和属性行为的异常变化检测方法及系统
CN112329689A (zh) * 2020-11-16 2021-02-05 北京科技大学 车载环境下基于图卷积神经网络的异常驾驶行为识别方法
CN114511895B (zh) * 2020-11-16 2024-02-02 四川大学 一种基于注意力机制多尺度网络的自然场景情绪识别方法
CN114511895A (zh) * 2020-11-16 2022-05-17 四川大学 一种基于注意力机制多尺度网络的自然场景情绪识别方法
CN112669879A (zh) * 2020-12-24 2021-04-16 山东大学 一种基于时频域深度学习算法的空调内机噪声异常检测方法
CN112669879B (zh) * 2020-12-24 2022-06-03 山东大学 一种基于时频域深度学习算法的空调内机噪声异常检测方法
CN112733656A (zh) * 2020-12-30 2021-04-30 杭州电子科技大学 基于多流空间注意力图卷积sru网络的骨架动作识别方法
CN112733656B (zh) * 2020-12-30 2024-02-06 杭州电子科技大学 基于多流空间注意力图卷积sru网络的骨架动作识别方法

Also Published As

Publication number Publication date
CN109376720B (zh) 2022-01-18

Similar Documents

Publication Publication Date Title
CN109376720A (zh) 基于关节点时空简单循环网络和注意力机制的动作分类方法
CN108229444B (zh) 一种基于整体和局部深度特征融合的行人再识别方法
Sun et al. Lattice long short-term memory for human action recognition
CN106407889B (zh) 基于光流图深度学习模型在视频中人体交互动作识别方法
CN103886344B (zh) 一种图像型火灾火焰识别方法
CN107423698B (zh) 一种基于并联卷积神经网络的手势估计方法
CN108830157A (zh) 基于注意力机制和3d卷积神经网络的人体行为识别方法
CN104732208B (zh) 基于稀疏子空间聚类的视频人体行为识别方法
CN107679491A (zh) 一种融合多模态数据的3d卷积神经网络手语识别方法
CN109829541A (zh) 基于学习自动机的深度神经网络增量式训练方法及系统
CN106570477A (zh) 基于深度学习的车型识别模型构建方法及车型识别方法
CN110135249A (zh) 基于时间注意力机制和lstm的人体行为识别方法
CN104899561A (zh) 一种并行化的人体行为识别方法
CN110378208B (zh) 一种基于深度残差网络的行为识别方法
CN109934158A (zh) 基于局部强化运动历史图和递归卷积神经网络的视频情感识别方法
CN111160294B (zh) 基于图卷积网络的步态识别方法
CN104537684A (zh) 一种静态场景中的实时运动目标提取方法
CN106909938A (zh) 基于深度学习网络的视角无关性行为识别方法
CN112183435A (zh) 一种两阶段的手部目标检测方法
CN106845456A (zh) 一种视频监控系统中人体摔倒监测的方法
CN111091060B (zh) 基于深度学习的跌倒和暴力检测方法
CN110334584A (zh) 一种基于区域全卷积网络的手势识别方法
CN110363156A (zh) 一种姿态无关的面部动作单元识别方法
CN111401116B (zh) 基于增强卷积和空时lstm网络的双模态情感识别方法
Guo et al. Research on classification of architectural style image based on convolution neural network

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant