CN109902614A - 一种基于局部时空特征的人体行为识别方法 - Google Patents
一种基于局部时空特征的人体行为识别方法 Download PDFInfo
- Publication number
- CN109902614A CN109902614A CN201910137022.5A CN201910137022A CN109902614A CN 109902614 A CN109902614 A CN 109902614A CN 201910137022 A CN201910137022 A CN 201910137022A CN 109902614 A CN109902614 A CN 109902614A
- Authority
- CN
- China
- Prior art keywords
- feature
- local
- human
- vector
- frame
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Abstract
本发明请求保护一种基于局部时空特征的人体行为识别方法,属于计算机视觉技术领域以及人体行为识别技术领域。本发明首先利用Kinect深度传感器中提取的骨骼视频序列作为人体行为表示,为视频序列中的每一个行为的每一帧提取位移矢量特征、相对位置特征、关节夹角特征等局部时空特征,然后利用K‑means聚类算法和VLAD算法将局部特征聚合成若干特征向量,然后将特征向量与LMNN算法结合进行度量学习,最后采用K‑NN分类器进行分类。本发明用于人体行为识别能使特征表达更具描述性和准确性,可以明显提高行为识别准确率。
Description
技术领域
本发明属于计算机视觉技术领域以及人体行为识别技术领域,尤其涉及一 种基于局部时空特征的人体行为识别方法。
背景技术
人体行为识别是指计算机对人体行为的描述和理解,其应用包括智能安防、 人机交互、监视系统和医疗诊断等。在实际应用中,由于人体行为动作多变性、 背景复杂性以及摄像机视角变化等因素,人体行为识别成为计算机视觉领域的 难点和热点问题。
近年来,从深度图中提取骨骼视频序列的人体行为识别方法备受关注,现 有方法大致分为基于身体部位的方法和基于骨骼节点的方法两类。
一):基于身体部位的方法。该方法主要描述身体部位间关节夹角的变化或 者身体各个部位的运动,如Xia L等人提出了3D关节的直方图(HOJ3D)表示 人体姿态,采用LDA来投影直方图序列,并使用K-means算法标记每个姿态, 详见文献“Xia L,Chen C C,Aggarwal J K.View invariant human action recognition using histograms of 3Djoints[C]//Computer Vision and Pattern Recognition Workshops.Providence,RI,USA:IEEE,2012:20-27.”;Ofli F等人根据人体关节的 空间坐标提取关节角,并计算每个关节角在整个行为过程中的方差,然后根据 方差的大小排序,获取若干个最具信息量的关节部位,详见文献“Ofli F,Chaudhry R,Kurillo G,et al.Sequence of the MostInformative Joints(SMIJ):Anew representation for human skeletal actionrecognition[C]//Computer Vision and Pattern Recognition Workshops.Providence,RI,USA:IEEE,2012:24-38.”。
二):基于骨骼节点的方法。该方法将人体骨骼看作点集,因此产生各种特 征提取方法,如Devanne M等人提出了基于流形的方法来分析骨骼关节序列, 将骨骼关节的时间信息投影到黎曼流行中,并提出一个弹性度量来比较不同的 动作,详见文献“Devanne M,Wannous H,Berretti S,et al.3-D human action recognition by shape analysis ofmotion trajectories on riemannian manifold[J].IEEE Transactions onCybernetics,2015,45(7):1340-1352.”;Luvizon D C等人提出了一 种时空特征表示方法,通过骨骼关节子集提取关节点的位移矢量信息和相对位 置信息作为局部特征,取得了较好的识别效果,详见文献“Luvizon D C,Tabia H, Picard D.Learning featurescombination for human action recognition from skeleton sequences[J].PatternRecognition Letters,2017,99:13-20”。
从这些方法中,可以得出骨骼关节的空间信息和时间信息都与行为识别相 关,然而,在识别某些相似性较高的动作时,效果不佳。针对该问题,本发明 将关节夹角特征和位移矢量特征以及相对位置特征相结合,利用K-means聚类 算法和VLAD算法进行聚合,然后利用LMNN算法度量学习,最后采用K-NN 分类器进行分类。本发明用于人体行为识别能使特征表达更具描述性和准确性, 可以明显提高行为识别准确率。
发明内容
本发明旨在解决以上现有技术的问题。提出了一种特征表达更具描述性和准 确性、明显提高行为识别准确率的基于局部时空特征的人体行为识别方法。本 发明的技术方案如下:
一种基于局部时空特征的人体行为识别方法,其包括以下步骤:
步骤S1:输入数据集,即骨骼视频序列S;
步骤S2:为骨骼视频序列S中的每一个行为的每一帧提取位移矢量特征 (f1,f2,f3),相对位置特征(f4,f5,f6,f7),关节夹角特征f8,从而构建局部时空特征fn,s, 其中n∈{1,...,8},s表示每个行为所划分的帧数;
步骤S3:使用不同初始值的K-means聚类算法对每一组局部特征序列fn,t聚 类C次,其中t∈{1,...,s},C为一个常数,S为每个动作行为划分的帧数,对于每 一组局部特征就获得C*k个集群μn,c,m,其中n∈{1,...,8},c∈{1,...,C},m∈{1,...,k},k表示 聚类中心的个数;
步骤S4:对步骤S3聚类得到的每一个集群μn,c,m运用VLAD局部聚合描述 符算法将局部特征聚合成特征向量νn,c,m,并将νn,c,m进行幂律归一化处理,将所 有集群归一化后得到的特征向量进行级联得到最终的局部特征向量Fn,c;
步骤S5,将局部特征向量Fn,c与LMNN最大边界近邻算法结合进行度量学 习,LMNN算法设计一个最小化目标函数来提高特征类内聚合度和类间离散度, 并且降低特征维度;
步骤S6:采用K-NN分类算法进行特征向量的训练,其中使用5-折叠交叉 验证法和使用留一交叉校验法进行训练数据集和测试数据集的划分和验证;
步骤S7:输出分类识别结果。
进一步的,所述步骤S2为骨骼视频序列S中的每一个行为的每一帧提取位 移矢量特征(f1,f2,f3),具体包括:
首先获取人体关节点的空间三维坐标,然后根据相邻两帧的坐标信息变 化计算出每一帧人体骨骼关节点位移矢量,计算公式为:其中是序列索引s中关节i的坐标(x,y,z),ΔT是两个序列s+1和s-1之间的时 间间隔,τ是给定序列中的骨架(帧)的数量采取从人体中心逐渐分割到四肢的 方式构造三个特征。
进一步的,所述步骤S2为视频序列中的每一个行为的每一帧提取相对位置 特征(f4,f5,f6,f7),具体包括:首先要获取人体关节点的空间三维坐标,然后根 据同一骨架的不同关节的坐标计算出每一帧人体骨骼关节点相对位置,计算公 式为:其中和是来自同一骨架的不同关节的坐标(x,y,z) 采用身体部位的脊椎、右髋、左髋、头部相对于身体的其他部位构造四个特 征。
进一步的,所述步骤S2为视频序列中的每一个行为的每一帧提取关节夹角 特征f8,具体包括:首先获取人体关节点的空间三维坐标,然后根据同一骨架 的不同关节的坐标计算出每一帧人体骨骼关节点关节夹角,计算公式为: 其中θi,s为s帧中第i个关节角,“·”为向量的内积, “||”表示向量的模,将得到的关节夹角值归一化到[-1,1],计算公式为: θ'i,s=||θi,s||∈[-1,1],其中“||||”表示归一化处理,根据人体表征布局方式,结 合人体运动规律定义6个最具代表性的人体关节角,其中θ1、θ2、θ3、θ4、θ5、θ6, 分别表示左手与左肘、右手与右肘、左腕与左髋、右腕与右髋、左脚与左髋、右脚与右髋形成的夹角。
进一步的,所述步骤S4对聚类得到的每一个集群μn,c,m运用VLAD局部聚合 描述符算法将局部特征聚合成特征向量νnc,m,,具体包括:其中并将νn,c,m进行幂律归一化处理,计算公式为:将所有集群归一化后得到的特征向量进行级联得 到最终的局部特征向量Fn,c,其中Fn,c=[νn,c,1,...,νn,c,k],此时得到的Fn,c是一个向量, 其大小仅取决于相应的局部特征尺寸和聚类算法中心的数量,这样实现的目的 是为每个局部特征序列构建稳固的特征,并且使用多个聚类表示来保留局部特 征的基本结构。
进一步的,所述步骤S5将局部特征向量Fn,c与LMNN最大边界近邻算法结 合进行度量学习,具体包括:首先LMNN算法的设计一个最小化目标函数,即:
ε(L)=(1-μ)εpull(L)+μεpush(L),其中用于缩小局部 特征向量Fn,c中同类样本之间的距离,εpull(L)表示同类样本之间的马氏距离累加 和,DL(xi,xj)表示特征向量xi和xj之间的马氏距离, 用于加大局部特征向量Fn,c中不同类样 本之间的距离,μ是平衡参数,一般值为0.5,xi和xj是同类样本,xi和xl是异 类样本,ξ是同类样本和异类样本之间的期望分离边际。
本发明的优点及有益效果如下:
(1)本发明在特征提取阶段,提取了包括位移矢量、相对位置、关节夹角 等时间和空间中的特征属性,较为准确地表达了骨骼关节点在运动过程中的时 空关系。
(2)使用不同初始值的K-means聚类算法对每一组局部特征序列进行聚类, 然后使用VLAD(局部聚合描述符)算法对局部特征进行处理,处理后的向量 其大小仅取决于相应的局部特征尺寸和聚类算法中心的数量,这样实现的目的 是为每个局部特征序列构建稳固的特征,并且使用多个聚类表示来保留局部特 征的基本结构,使得最终特征表达更具描述性和准确性。
(3)采用LMNN(最大边界近邻)算法进行度量学习,不仅可以提高特征类 内聚合度和类间离散度,而且可以降低特征维度,从而提高识别准确率和计算 速度。
附图说明
图1是本发明提供优选实施例的处理流程框架图;
图2为15个骨骼节点的人体表示图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、 详细地描述。所描述的实施例仅仅是本发明的一部分实施例。
本发明解决上述技术问题的技术方案是:
如图1所示,本发明的实现流程包括如下:
步骤1,输入骨骼视频序列S。
步骤2,对每一个骨骼视频序列提取局部时空特征fn,s,其中n∈{1,...,8},s表 示每个行为所划分的帧数。
本步骤的具体实现如下:
2.1为视频序列中的每一个行为的每一帧提取位移矢量特征(f1,f2,f3),首先 要获取人体关节点的空间三维坐标,然后根据相邻两帧的坐标信息变化计算 出每一帧人体骨骼关节点位移矢量,计算公式为:其中 是序列索引s中关节i的坐标(x,y,z),ΔT是两个序列s+1和s-1之间的时间间 隔,τ是给定序列中的骨架(帧)的数量。根据图2的人体表征布局方式,采取 从人体中心逐渐分割到四肢的方式构造三个特征,如表1所示。
表1由关节点的位移矢量构造局部特征(Fn)
2.2为视频序列中的每一个行为的每一帧提取相对位置特征(f4,f5,f6,f7),首 先要获取人体关节点的空间三维坐标,然后根据同一骨架的不同关节的坐标 计算出每一帧人体骨骼关节点相对位置,计算公式为:其中 和是来自同一骨架的不同关节的坐标(x,y,z)。根据图2的人体表征布局方 式,采用身体部位的脊椎、右髋、左髋、头部相对于身体的其他部位构造四个 特征,如表2所示。
表2由关节点的相对位置构造局部特征(Fn)
2.3为视频序列中的每一个行为的每一帧提取关节夹角特征f8,首先要获取 人体关节点的空间三维坐标,然后根据同一骨架的不同关节的坐标计算出 每一帧人体骨骼关节点关节夹角,计算公式为:其中θi,s为s帧中第i个关节角,“·”为向量的内积,“||”表示向量的模。 将得到的关节夹角值归一化到[-1,1],计算公式为:θ'i,s=||θi,s||∈[-1,1],其中 “||||”表示归一化处理。根据图2的人体表征布局方式,本发明结合人体运 动规律定义6个最具代表性的人体关节角,其中θ1、θ2、θ3、θ4、θ5、θ6,分别表 示左手与左肘、右手与右肘、左腕与左髋、右腕与右髋、左脚与左髋、右脚 与右髋形成的夹角。构建一个特征,如表3所示。
表3由关节点的角度构造局部特征(Fn)
步骤3,使用不同初始值的K-means聚类算法对每一组局部特征序列fn,t聚 类C次,其中t∈{1,...,s},C为一个常数,S为每个动作行为划分的帧数。这样, 对于每一组局部特征就获得C*k个集群μn,c,m,其中n∈{1,...,8},c∈{1,...,C},m∈{1,...,k},k 表示聚类中心的个数,同时在每个集群中采用PCA(主成分分析)减少某些特 征由于出现次数过多而带来的影响。
需要说明的是,本发明中C的取值为5,k取值为23。
步骤4,对聚类得到的每一个集群μn,c,m运用VLAD(局部聚合描述符)算法 将局部特征聚合成特征向量νn,c,m,其中并将νn,c,m进行幂律归一化处理,计算公式为:将所有集群 归一化后得到的特征向量进行级联得到最终的局部特征向量Fn,c,其中 Fn,c=[νn,c,1,...,νn,c,k]。此时得到的Fn,c是一个向量,其大小仅取决于相应的局部特 征尺寸和聚类算法中心的数量,这样实现的目的是为每个局部特征序列构建稳 固的特征,并且使用多个聚类表示来保留局部特征的基本结构,使得最终特征 表达更具描述性和准确性。
步骤5,将局部特征向量Fn,c与LMNN(最大边界近邻)算法结合进行度量学 习,首先LMNN算法的会设计一个最小化目标函数,即:
ε(L)=(1-μ)εpull(L)+μεpush(L),其中用于缩小局部 特征向量Fn,c中同类样本之间的距离,εpull(L)表示同类样本之间的马氏距离累加 和,DL(xi,xj)表示特征向量xi和xj之间的马氏距离, 用于加大局部特征向量Fn,c中不同类样 本之间的距离,μ是平衡参数,一般值为0.5,xi和xj是同类样本,xi和xl是异 类样本,ξ是同类样本和异类样本之间的期望分离边际。通过度量学习阶段不仅 可以提高特征类内聚合度和类间离散度,而且可以降低特征维度,从而提高识别准确率和计算速度。
步骤6,采用K-NN分类算法进行特征向量的训练,并按照训练集和测试集 的划分方法,用训练数据集进行训练,测试数据集进行测试。其中训练集和测 试集的划分方法包括:使用5-折叠交叉验证法,即选择一半的数据作为训练数 据,其余一半数据作为测试数据,以及使用留一交叉校验法(LOOCV)。即将 全部样本分为N份(表示共有N名实验者),取其中一份作为测试,其余的N-1 份进行训练生成预测模型。
步骤7,输出分类识别结果。
将本发明在3个标准的人体行为数据库进行测试:MSR-Action3D、 UTKinect-Action3D和Florence3D Actions数据库。实验结果表明,本发明提出 的技术方案相较于传统方案具有更好的识别准确率,并且使得特征表达更具描 述性和准确性。
以上这些实施例应理解为仅用于说明本发明而不用于限制本发明的保护范 围。在阅读了本发明的记载的内容之后,技术人员可以对本发明作各种改动或 修改,这些等效变化和修饰同样落入本发明权利要求所限定的范围。
Claims (6)
1.一种基于局部时空特征的人体行为识别方法,其特征在于,包括以下步骤:
步骤S1:输入数据集,即骨骼视频序列S;
步骤S2:为骨骼视频序列S中的每一个行为的每一帧提取位移矢量特征(f1,f2,f3),相对位置特征(f4,f5,f6,f7),关节夹角特征f8,从而构建局部时空特征fn,s,其中n∈{1,...,8},s表示每个行为所划分的帧数;
步骤S3:使用不同初始值的K-means聚类算法对每一组局部特征序列fn,t聚类C次,其中t∈{1,...,s},C为一个常数,S为每个动作行为划分的帧数,对于每一组局部特征就获得C*k个集群μn,c,m,其中n∈{1,...,8},c∈{1,...,C},m∈{1,...,k},k表示聚类中心的个数;
步骤S4:对步骤S3聚类得到的每一个集群μn,c,m运用VLAD局部聚合描述符算法将局部特征聚合成特征向量νn,c,m,并将νn,c,m进行幂律归一化处理,将所有集群归一化后得到的特征向量进行级联得到最终的局部特征向量Fn,c;
步骤S5,将局部特征向量Fn,c与LMNN最大边界近邻算法结合进行度量学习,LMNN算法设计一个最小化目标函数来提高特征类内聚合度和类间离散度,并且降低特征维度;
步骤S6:采用K-NN分类算法进行特征向量的训练,其中使用5-折叠交叉验证法和使用留一交叉校验法进行训练数据集和测试数据集的划分和验证;
步骤S7:输出分类识别结果。
2.根据权利要求1所述的一种基于局部时空特征的人体行为识别方法,其特征在于,所述步骤S2为骨骼视频序列S中的每一个行为的每一帧提取位移矢量特征(f1,f2,f3),具体包括:
首先获取人体关节点的空间三维坐标,然后根据相邻两帧的坐标信息变化计算出每一帧人体骨骼关节点位移矢量,计算公式为:其中是序列索引s中关节i的坐标(x,y,z),△T是两个序列s+1和s-1之间的时间间隔,τ是给定序列中的骨架(帧)的数量采取从人体中心逐渐分割到四肢的方式构造三个特征。
3.根据权利要求1所述的一种基于局部时空特征的人体行为识别方法,其特征在于,所述步骤S2为视频序列中的每一个行为的每一帧提取相对位置特征(f4,f5,f6,f7),具体包括:首先要获取人体关节点的空间三维坐标,然后根据同一骨架的不同关节的坐标计算出每一帧人体骨骼关节点相对位置,计算公式为:其中和是来自同一骨架的不同关节的坐标(x,y,z)采用身体部位的脊椎、右髋、左髋、头部相对于身体的其他部位构造四个特征。
4.根据权利要求1所述的一种基于局部时空特征的人体行为识别方法,其特征在于,所述步骤S2为视频序列中的每一个行为的每一帧提取关节夹角特征f8,具体包括:首先获取人体关节点的空间三维坐标,然后根据同一骨架的不同关节的坐标计算出每一帧人体骨骼关节点关节夹角,计算公式为:其中θi,s为s帧中第i个关节角,“·”为向量的内积,“| |”表示向量的模,将得到的关节夹角值归一化到[-1,1],计算公式为:θ'i,s=||θi,s||∈[-1,1],其中“|| ||”表示归一化处理,根据人体表征布局方式,结合人体运动规律定义6个最具代表性的人体关节角,其中θ1、θ2、θ3、θ4、θ5、θ6,分别表示左手与左肘、右手与右肘、左腕与左髋、右腕与右髋、左脚与左髋、右脚与右髋形成的夹角。
5.根据权利要求4所述的一种基于局部时空特征的人体行为识别方法,其特征在于,所述步骤S4对聚类得到的每一个集群μn,c,m运用VLAD局部聚合描述符算法将局部特征聚合成特征向量νn,c,m,具体包括:其中并将νn,c,m进行幂律归一化处理,计算公式为:将所有集群归一化后得到的特征向量进行级联得到最终的局部特征向量Fn,c,其中Fn,c=[νn,c,1,...,νn,c,k],此时得到的Fn,c是一个向量,其大小仅取决于相应的局部特征尺寸和聚类算法中心的数量,这样实现的目的是为每个局部特征序列构建稳固的特征,并且使用多个聚类表示来保留局部特征的基本结构。
6.根据权利要求5所述的一种基于局部时空特征的人体行为识别方法,其特征在于,所述步骤S5将局部特征向量Fn,c与LMNN最大边界近邻算法结合进行度量学习,具体包括:首先LMNN算法的设计一个最小化目标函数,即:
ε(L)=(1-μ)εpull(L)+μεpush(L),其中用于缩小局部特征向量Fn,c中同类样本之间的距离,εpull(L)表示同类样本之间的马氏距离累加和,DL(xi,xj)表示特征向量xi和xj之间的马氏距离,用于加大局部特征向量Fn,c中不同类样本之间的距离,μ是平衡参数,一般值为0.5,xi和xj是同类样本,xi和xl是异类样本,ξ是同类样本和异类样本之间的期望分离边际。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910137022.5A CN109902614A (zh) | 2019-02-25 | 2019-02-25 | 一种基于局部时空特征的人体行为识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910137022.5A CN109902614A (zh) | 2019-02-25 | 2019-02-25 | 一种基于局部时空特征的人体行为识别方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN109902614A true CN109902614A (zh) | 2019-06-18 |
Family
ID=66945475
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910137022.5A Pending CN109902614A (zh) | 2019-02-25 | 2019-02-25 | 一种基于局部时空特征的人体行为识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109902614A (zh) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110263720A (zh) * | 2019-06-21 | 2019-09-20 | 中国民航大学 | 基于深度图像和骨骼信息的动作识别方法 |
CN111274908A (zh) * | 2020-01-16 | 2020-06-12 | 苏州大学 | 一种人体动作识别方法 |
CN112270276A (zh) * | 2020-11-02 | 2021-01-26 | 重庆邮电大学 | 一种基于Kinect与WiFi数据联合的复杂环境中的行为识别的方法 |
CN113537137A (zh) * | 2021-08-02 | 2021-10-22 | 浙江索思科技有限公司 | 一种面向电扶梯的人体动作本征特征提取的方法及系统 |
CN114627557A (zh) * | 2022-03-22 | 2022-06-14 | 厦门大学 | 基于时空流形轨迹建图的3d骨架动作识别方法 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2011009302A1 (zh) * | 2009-07-22 | 2011-01-27 | 深圳泰山在线科技有限公司 | 一种基于多跟踪点的人体动作识别方法 |
CN105912991A (zh) * | 2016-04-05 | 2016-08-31 | 湖南大学 | 基于3d点云与关键骨骼节点的行为识别 |
CN106066996A (zh) * | 2016-05-27 | 2016-11-02 | 上海理工大学 | 人体动作的局部特征表示方法及其在行为识别的应用 |
CN106618584A (zh) * | 2015-11-10 | 2017-05-10 | 北京纳通科技集团有限公司 | 一种用于监测用户下肢运动的方法 |
CN107339992A (zh) * | 2017-08-24 | 2017-11-10 | 武汉大学 | 一种基于行为的室内定位和地标语义标识的方法 |
CN108664904A (zh) * | 2018-04-24 | 2018-10-16 | 长沙学院 | 一种基于Kinect的人体坐姿行为识别方法和系统 |
-
2019
- 2019-02-25 CN CN201910137022.5A patent/CN109902614A/zh active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2011009302A1 (zh) * | 2009-07-22 | 2011-01-27 | 深圳泰山在线科技有限公司 | 一种基于多跟踪点的人体动作识别方法 |
CN106618584A (zh) * | 2015-11-10 | 2017-05-10 | 北京纳通科技集团有限公司 | 一种用于监测用户下肢运动的方法 |
CN105912991A (zh) * | 2016-04-05 | 2016-08-31 | 湖南大学 | 基于3d点云与关键骨骼节点的行为识别 |
CN106066996A (zh) * | 2016-05-27 | 2016-11-02 | 上海理工大学 | 人体动作的局部特征表示方法及其在行为识别的应用 |
CN107339992A (zh) * | 2017-08-24 | 2017-11-10 | 武汉大学 | 一种基于行为的室内定位和地标语义标识的方法 |
CN108664904A (zh) * | 2018-04-24 | 2018-10-16 | 长沙学院 | 一种基于Kinect的人体坐姿行为识别方法和系统 |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110263720A (zh) * | 2019-06-21 | 2019-09-20 | 中国民航大学 | 基于深度图像和骨骼信息的动作识别方法 |
CN110263720B (zh) * | 2019-06-21 | 2022-12-27 | 中国民航大学 | 基于深度图像和骨骼信息的动作识别方法 |
CN111274908A (zh) * | 2020-01-16 | 2020-06-12 | 苏州大学 | 一种人体动作识别方法 |
CN111274908B (zh) * | 2020-01-16 | 2023-04-14 | 苏州大学 | 一种人体动作识别方法 |
CN112270276A (zh) * | 2020-11-02 | 2021-01-26 | 重庆邮电大学 | 一种基于Kinect与WiFi数据联合的复杂环境中的行为识别的方法 |
CN112270276B (zh) * | 2020-11-02 | 2022-05-06 | 重庆邮电大学 | 一种基于Kinect与WiFi数据联合的复杂环境中的行为识别的方法 |
CN113537137A (zh) * | 2021-08-02 | 2021-10-22 | 浙江索思科技有限公司 | 一种面向电扶梯的人体动作本征特征提取的方法及系统 |
CN114627557A (zh) * | 2022-03-22 | 2022-06-14 | 厦门大学 | 基于时空流形轨迹建图的3d骨架动作识别方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109902614A (zh) | 一种基于局部时空特征的人体行为识别方法 | |
Mei et al. | Learning a mahalanobis distance-based dynamic time warping measure for multivariate time series classification | |
Li et al. | Shapenet: A shapelet-neural network approach for multivariate time series classification | |
Rudovic et al. | Context-sensitive dynamic ordinal regression for intensity estimation of facial action units | |
Zheng et al. | Time series classification using multi-channels deep convolutional neural networks | |
US8935195B2 (en) | Method of identification and devices thereof | |
Chen et al. | Model Metric Co-Learning for Time Series Classification. | |
Wang et al. | Action recognition using nonnegative action component representation and sparse basis selection | |
Kwolek et al. | Calibrated and synchronized multi-view video and motion capture dataset for evaluation of gait recognition | |
Guo et al. | Facial expression recognition influenced by human aging | |
Patra et al. | Integration of FCM, PCA and neural networks for classification of ECG arrhythmias | |
Gao et al. | DCR: A unified framework for holistic/partial person ReID | |
Kumar et al. | 3D sign language recognition using spatio temporal graph kernels | |
Ahmad et al. | Human activity recognition using multi-head CNN followed by LSTM | |
Zhang et al. | Multiview unsupervised shapelet learning for multivariate time series clustering | |
Saeed et al. | Automated facial expression recognition framework using deep learning | |
CN107045624A (zh) | 一种基于最大加权团的脑电信号预处理与分类方法 | |
Zhang et al. | Attribute-guided collaborative learning for partial person re-identification | |
Han et al. | Clustering and retrieval of video shots based on natural stimulus fMRI | |
Nayak et al. | Efficient face recognition with compensation for aging variations | |
Ma et al. | Sports competition assistant system based on fuzzy big data and health exercise recognition algorithm | |
Dohnálek et al. | Application and comparison of modified classifiers for human activity recognition | |
Kapoor et al. | Human action recognition using descriptor based on selective finite element analysis | |
Hoang et al. | Advances in Skeleton-Based Fall Detection in RGB Videos: from Handcrafted to Deep Learning Approaches | |
An et al. | Multi-subband and multi-subepoch time series feature learning for EEG-based sleep stage classification |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20190618 |
|
RJ01 | Rejection of invention patent application after publication |