CN111460960A - 一种运动分类及计数方法 - Google Patents

一种运动分类及计数方法 Download PDF

Info

Publication number
CN111460960A
CN111460960A CN202010227526.9A CN202010227526A CN111460960A CN 111460960 A CN111460960 A CN 111460960A CN 202010227526 A CN202010227526 A CN 202010227526A CN 111460960 A CN111460960 A CN 111460960A
Authority
CN
China
Prior art keywords
motion
skeleton
information
time
connection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202010227526.9A
Other languages
English (en)
Inventor
田文龙
利节
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Chongqing Dianzheng Information Technology Co ltd
Original Assignee
Chongqing Dianzheng Information Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Chongqing Dianzheng Information Technology Co ltd filed Critical Chongqing Dianzheng Information Technology Co ltd
Priority to CN202010227526.9A priority Critical patent/CN111460960A/zh
Publication of CN111460960A publication Critical patent/CN111460960A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/23Recognition of whole body movements, e.g. for sport training
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2411Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Biology (AREA)
  • Multimedia (AREA)
  • General Health & Medical Sciences (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Health & Medical Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Biophysics (AREA)
  • Software Systems (AREA)
  • Mathematical Physics (AREA)
  • Computing Systems (AREA)
  • Molecular Biology (AREA)
  • Computational Linguistics (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Human Computer Interaction (AREA)
  • Biomedical Technology (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种运动分类及计数方法,其特征在于,包括:首先对不同人的各种运动进行数据采集,对不同的运动分别标记;然后对拍摄的视频流的时序帧骨架信息构建骨架图,然后利用构造的时序模型和空间模型对构建的骨架图进行卷积操作,并通过事先采集的数据比对进行特征分类从而识别出不同的运动类型;然后对运动量进行统计。本发明的优点在于:该方法不会限制人体运动类型,在人体做动作过程中也不会有束缚和不适感结构简单,精度高,成本低,体积小,功耗低,使用方便,在众多领域具有广泛应用,具有较强的实用价值和应用前景。

Description

一种运动分类及计数方法
技术领域
本发明涉及人体运动分类及计数方法,属于人体运动感知获取技术领域。
背景技术
当前,通过对人体的姿态和运动信息的准确获取和分析,能够根据步态的变化推断可能存在的疾病; 能够根据运动员的起跳和击球时身体和四肢的轨迹分析问题的所在,从而改进训练;能够准确地跟踪姿态 和运动,理解肢体语言,建立高水平的游戏和模拟训练的人机交互,为数字电影、虚拟世界构建栩栩如生 的角色。但是由于人体运动的随意性和复杂性,以及人体所在的周围环境的多样性,给实时准确人体运动 感知获取技术带来了巨大的挑战。因此,目前急需一种能够不受时空限制和外界环境干扰的人体运动感知 和合成技术,实现人体姿态和运动自由式获取和重现,为健康监测、康复训练、舞蹈训练、体育运动分析、 电影数字特技、虚拟现实、游戏和人机交互等领域的应用提供技术。
常见的基于深度数据的人体运动捕获系统是微软的Kinect,其基本原理是基于运动捕获数据库中事先 训练好的随机决策森林从在线捕获的深度数据中自动识别三维人体运动姿态。然而这种方法受到深度数据 噪声、随机决策森林泛化能力,以及人体运动中肢体遮挡等因素的影响,重建的三维人体运动姿态并不理 想。另一类型的人体运动捕获方法是基于数据驱动的方法,但这样的方法在运动对象身材尺寸与数据库中 标准尺寸的人体模型相差较大时,重建的三维人体运动姿态也并不理想。在行为识别上,不同的运动类型在外观和运动模型上都呈现出非常大的不同。目前,卷积神经网络是当前语音分析和图像识别领域的研究 热点,而传统的卷积神经网络是为了识别二维形状而设计的多层感知器,无法对三维的运动图像进行多层 感知,无法满足现在的要求。
发明内容
因此,本发明的目的在于克服上述现有技术的缺陷,提供一种新的人体运动分类及计数方法,针对运 动过程中不同的运动操作进行计数,达到运动量统计的目的。其中,涉及到的运动种类包括了所有手部、 腿部运动。该方法有三步:数据采集与标记、运动类型识别、运动量统计。
本发明的目的通过以下技术方案实现:
一种新的人体运动分类及计数方法,包括以下步骤:
步骤一、数据采集与标记;
步骤二、运动类型识别;
步骤三、运动量统计。
进一步,为保障方法的鲁棒性,将所述步骤一中的数据采集设置为对不同人的各种运动进行数据采集, 数据标记设置为对不同的运动分别标记。其中,标记信息包括了视频名称、动作起始时刻、动作结束时刻 和动作类型。
进一步,所述步骤二中的运动类型识别则是对针摄像机拍摄的视频流里不同的运动类型进行准确识别, 其包括以下步骤:
1)获取人的骨架信息
通过摄像机拍摄一系列的时序帧信息,其中每一帧包含人体骨架关键节点的二维坐标点信息或者三维 坐标点信息和自信度N=[nx,ny,nd],其中,(nx,ny)为骨架节点空间坐标,nd为骨架检测时候的自信度);
2)构建骨架图
通过视频读取的信息构建一个时空骨架图G=(N,L),其中帧数为K帧,骨骼关键节点数为S个。 该时空图由节点(N)集合和连接关系(L)集合组成。节点就是自然人的关键节点集合,节点集合可以表 示为N={Nks|k=1,…,K;s=1,…,S}。连接关系集合有两种类型,一种连接关系集合是同一帧内骨架节点 的自然连接,该连接关系可以表示为Lc={NkiNkj|(i,j)∈S},另一个连接关系集合是连续帧上同一节点的连 接,该连接关系可以表示为Le={NkiN(k+1)i};
3)建立空间模型的卷积网络
在时间为T1的单帧信息中,存在S个骨架关键节点Ni,骨架内的边为
Figure BDA0002426767490000021
该 单帧信息可以视为二维图像,用一个p2的卷积核,输入的图像是fin,通道数为m。单个通道在位置x的输 出为:
Figure BDA0002426767490000022
为了将卷积操作应用于图像,对采样函数进行了修改,其中,采样函数中的p(h,w)本来是中心像素点 x附近领域内的像素集合,现在定义Nki邻域的采样函数为P(Nki)={Nkj|d(Nkj,Nki)≥D},这里的d(Nkj,Nki) 指的是两骨架关键节点的欧式距离,修改后的图像卷积操作为:
Figure BDA0002426767490000023
4)建立时序模型
在构建骨架图的时候我们利用连续帧相同骨架关键节点建立了连接,使得可以利用空间模型卷积 网络的方法得到时序模型中的卷积操作。类比空间节点邻域的定义,时间连接节点的邻域定义如下:
P(Nki)={Nqj|d(Nqj,Nki)≤D,|q-t|≤τ/2}
Figure BDA0002426767490000024
将构建好的时空图进行图卷积操作,将获得一个序列帧的骨架特征信息;
5)特征分类
利用分类器SVM对提取的特征进行分类。SVM是一个二分类器,把某一个样本单独设置为一个类别, 其他样本归为另一个类别。要对n个类别的动作进行分类,需要训练n个SVM分类器。将动作与运动类 型对应,输出视频段的运动类型y=[y1,y2,y3,y4,y5,y6,…,yn],其中当分类为第i类动作时,yi=i。
进一步,所述步骤三中的运动量统计结果在运动量统计矩阵Y=∑yt,yt是第t段视频的运动类型识别 结果。
与现有技术相比,本发明的优点在于:
对拍摄的视频流的时序帧骨架信息构建骨架图,然后利用构造的时序模型和空间模型对构建的骨架图 进行卷积操作,并进行特征分类从而识别出不同的运动类型,进而对运动量进行统计。该方法操作简单, 不会限制人体运动类型,在人体做动作过程中也不会有束缚和不适感。
本发明的有益效果:本发明采用并联的操作系统模块和并联的并行计算单元实现了物联网平台前端跨 操作系统的低功耗并行异构边缘计算,满足计算需求的同时,可灵活部署于缺少网络、供电等环境下,实 现了去中心化、多接口等功能,节省了数据的传输时间和成本,降低数据延迟,增强数据安全。
附图说明
图1为根据本发明一个实施例的运动类型识别框架图;
图2为根据本发明一个实施例的骨骼关键节点图。
具体实施方式
本发明公开了一种新的人体运动分类及计数方法,包括以下步骤:
步骤一、数据采集与标记;
步骤二、运动类型识别;
步骤三、运动量统计。
进一步,为保障方法的鲁棒性,将所述步骤一中的数据采集设置为对不同人的各种运动进行数据采集, 数据标记设置为对不同的运动分别标记。其中,标记信息包括了视频名称、动作起始时刻、动作结束时刻 和动作类型。
进一步,所述步骤二中的运动类型识别则是对针摄像机拍摄的视频流里不同的运动类型进行准确识别, 其框架图见图1。其包括以下步骤:
1)获取人的骨架信息
通过摄像机拍摄一系列的时序帧信息,其中每一帧包含人体骨架关键节点的二维坐标点信息或者三维 坐标点信息和自信度N=[nx,ny,nd],其中,(nx,ny)为骨架节点空间坐标,nd为骨架检测时候的自信度, 其中,骨架关键节点可根据人体的关节自由选择,如图2所示为全部关节图;
2)构建骨架图
通过视频读取的信息构建一个时空骨架图G=(N,L),其中帧数为K帧,骨骼关键节点数为S个。 该时空图由节点(N)集合和连接关系(L)集合组成。节点就是自然人的关键节点集合,节点集合可以表 示为N={Nks|k=1,…,K;s=1,…,S}。连接关系集合有两种类型,一种连接关系集合是同一帧内骨架节点 的自然连接,该连接关系可以表示为Lc={NkiNkj|(i,j)∈S},另一个连接关系集合是连续帧上同一节点的连 接,该连接关系可以表示为Le={NkiN(k+1)i};
3)建立空间模型的卷积网络
在时间为T1的单帧信息中,存在S个骨架关键节点Ni,骨架内的边为
Figure BDA0002426767490000041
该 单帧信息可以视为二维图像,用一个p2的卷积核,输入的图像是fin,通道数为m。单个通道在位置x的输 出为:
Figure BDA0002426767490000042
为了将卷积操作应用于图像,对采样函数进行了修改,其中,采样函数中的p(h,w)本来是中心像素点 x附近领域内的像素集合,现在定义Nki邻域的采样函数为P(Nki)={Nkj|d(Nkj,Nki)≥D},这里的d(Nkj,Nki) 指的是两骨架关键节点的欧式距离,修改后的图像卷积操作为:
Figure BDA0002426767490000043
4)建立时序模型
在构建骨架图的时候我们利用连续帧相同骨架关键节点建立了连接,使得可以利用空间模型卷积 网络的方法得到时序模型中的卷积操作。类比空间节点邻域的定义,时间连接节点的邻域定义如下:
P(Nki)={Nqj|d(Nqj,Nki)≤D,|q-t|≤τ/2}
Figure BDA0002426767490000044
将构建好的时空图进行图卷积操作,将获得一个序列帧的骨架特征信息;
5)特征分类
利用分类器SVM对提取的特征进行分类。SVM是一个二分类器,把某一个样本单独设置为一个类别, 其他样本归为另一个类别。要对n个类别的动作进行分类,需要训练n个SVM分类器。将动作与运动类 型对应,输出视频段的运动类型y=[y1,y2,y3,y4,y5,y6,…,yn],其中当分类为第i类动作时,yi=i。
进一步,所述步骤三中的运动量统计结果在运动量统计矩阵Y=∑yt,yt是第t段视频的运动类型识别 结果。
将上述方法与其他方法进行比对,用于高尔夫球与动员动作打分,得到的实验结果如表1所示。由表 1可知,新方法的精度最好,召回率最高,打分最高,可见识别最高。
表1
方法名称 精度(precise) 召回率(recall) F1 score
Proposed approach 0.8932 0.8654 0.8790
Indrnn 0.8547 0.8476 0.8511
Yolo v3 0.6473 0.5874 0.6159
Master fast-rcnn 0.6985 0.7021 0.7002
本发明不限于上述实施例,对于本领域技术人员来说,对本发明的上述实施例所做出的任何改进或变 更都不会超出仅以举例的方式示出的本发明的实施例和所附权利要求的保护范围,所描述的实施例仅旨在 便于对本发明的理解,而对其不起任何限定作用。

Claims (9)

1.一种运动分类及计数方法,该方法包括:
步骤1,对运动的数据采集与数据标记;
步骤2,运动类型识别,即对针摄像机拍摄的视频流里不同的运动类型进行准确识别:具体包括获取人的骨架信息、构建骨架图、建立空间模型的卷积网络、建立时序模型、特征分类;
步骤3、根据所述步骤2的识别结果对运动量进行统计。
2.根据权利要求1所述的方法,所述步骤1的数据采集设置为对不同人的各种运动进行数据采集,数据标记设置为对不同的运动分别标记。
3.根据权利要求2所述的方法,所述数据标记的标记信息包括了视频名称、动作起始时刻、动作结束时刻和动作类型。
4.根据权利要求1所述的方法,所述步骤2的获取人的骨架信息即是通过摄像机拍摄一系列的时序帧信息,其中每一帧包含人体骨架关键节点的坐标点信息和自信度N。
5.根据权利要求4所述的方法,所述步骤2的构建骨架图即是通过视频读取的骨架信息构建一个时空骨架图G=(N,L),N为节点集合,L为节点连接关系,其中帧数为K帧,骨骼关键节点数为S个;节点集合可以表示为N={Nks|k=1,…,K;s=1,…,S};连接关系有两种,一种是同一帧内骨架节点的自然连接,该连接关系可以表示为Lc={NkiNkj|(i,j)∈S},另一种是连续帧上同一节点的连接,该连接关系可以表示为Le={NkiN(k+1)i}。
6.根据权利要求5所述的方法,所述步骤2的建立空间模型的卷积网络即是在时间为T1的单帧信息中,存在S个骨架关键节点Ni,骨架内的边为
Figure FDA0002426767480000011
该单帧信息可以视为二维图像,用一个p2的卷积核,输入的图像是fin,通道数为m,采样函数中的p(h,w)是中心像素点x附近领域内的像素集合,Nki邻域的采样函数为P(Nki)={Nkj|d(Nkj,Nki)≥D},d(Nkj,Nki)指的是两骨架关键节点的欧式距离,单个通道在位置x的输出为:
Figure FDA0002426767480000012
7.根据权利要求1所述的方法,所述步骤2的建立时序模型的时间连接节点的邻域定义如下:
Figure FDA0002426767480000013
Figure FDA0002426767480000014
将构建好的时空图进行图卷积操作,将获得一个序列帧的骨架特征信息。
8.根据权利要求1所述的方法,所述步骤2的特征分类即是利用分类器对提取的特征进行分类,每一个类别的动作的分类需要对应的分类器,输出视频段的运动类型y=[y1,y2,y3,y4,y5,y6,…,yn],其中当分类为第i类动作时,yi=i。
9.根据权利要求1所述的方法,所述步骤3的运动量统计结果在运动量统计矩阵Y=∑yt,yt是第t段视频的运动类型识别结果。
CN202010227526.9A 2020-03-27 2020-03-27 一种运动分类及计数方法 Pending CN111460960A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010227526.9A CN111460960A (zh) 2020-03-27 2020-03-27 一种运动分类及计数方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010227526.9A CN111460960A (zh) 2020-03-27 2020-03-27 一种运动分类及计数方法

Publications (1)

Publication Number Publication Date
CN111460960A true CN111460960A (zh) 2020-07-28

Family

ID=71680082

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010227526.9A Pending CN111460960A (zh) 2020-03-27 2020-03-27 一种运动分类及计数方法

Country Status (1)

Country Link
CN (1) CN111460960A (zh)

Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105426859A (zh) * 2015-12-01 2016-03-23 东华大学 一种学校运动场使用情况智能监控统计系统
CN106096613A (zh) * 2016-05-31 2016-11-09 哈尔滨工业大学深圳研究生院 基于角点特征的图像多目标检测方法及装置
CN109410168A (zh) * 2018-08-31 2019-03-01 清华大学 用于确定图像中的子图块的类别的卷积神经网络模型的建模方法
CN109858390A (zh) * 2019-01-10 2019-06-07 浙江大学 基于端到端时空图学习神经网络的人体骨架的行为识别方法
CN109919122A (zh) * 2019-03-18 2019-06-21 中国石油大学(华东) 一种基于3d人体关键点的时序行为检测方法
CN109948459A (zh) * 2019-02-25 2019-06-28 广东工业大学 一种基于深度学习的足球动作评估方法与系统
CN110097574A (zh) * 2019-04-24 2019-08-06 南京邮电大学 一种已知刚体的实时位姿估计方法
CN110096950A (zh) * 2019-03-20 2019-08-06 西北大学 一种基于关键帧的多特征融合行为识别方法
CN110147743A (zh) * 2019-05-08 2019-08-20 中国石油大学(华东) 一种复杂场景下的实时在线行人分析与计数系统及方法
CN110188599A (zh) * 2019-04-12 2019-08-30 哈工大机器人义乌人工智能研究院 一种人体姿态行为智能分析识别方法
CN110309732A (zh) * 2019-06-13 2019-10-08 浙江大学 基于骨架视频的行为识别方法
CN110490035A (zh) * 2019-05-17 2019-11-22 上海交通大学 人体骨架动作识别方法、系统及介质
CN110837778A (zh) * 2019-10-12 2020-02-25 南京信息工程大学 一种基于骨架关节点序列的交警指挥手势识别方法

Patent Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105426859A (zh) * 2015-12-01 2016-03-23 东华大学 一种学校运动场使用情况智能监控统计系统
CN106096613A (zh) * 2016-05-31 2016-11-09 哈尔滨工业大学深圳研究生院 基于角点特征的图像多目标检测方法及装置
CN109410168A (zh) * 2018-08-31 2019-03-01 清华大学 用于确定图像中的子图块的类别的卷积神经网络模型的建模方法
CN109858390A (zh) * 2019-01-10 2019-06-07 浙江大学 基于端到端时空图学习神经网络的人体骨架的行为识别方法
CN109948459A (zh) * 2019-02-25 2019-06-28 广东工业大学 一种基于深度学习的足球动作评估方法与系统
CN109919122A (zh) * 2019-03-18 2019-06-21 中国石油大学(华东) 一种基于3d人体关键点的时序行为检测方法
CN110096950A (zh) * 2019-03-20 2019-08-06 西北大学 一种基于关键帧的多特征融合行为识别方法
CN110188599A (zh) * 2019-04-12 2019-08-30 哈工大机器人义乌人工智能研究院 一种人体姿态行为智能分析识别方法
CN110097574A (zh) * 2019-04-24 2019-08-06 南京邮电大学 一种已知刚体的实时位姿估计方法
CN110147743A (zh) * 2019-05-08 2019-08-20 中国石油大学(华东) 一种复杂场景下的实时在线行人分析与计数系统及方法
CN110490035A (zh) * 2019-05-17 2019-11-22 上海交通大学 人体骨架动作识别方法、系统及介质
CN110309732A (zh) * 2019-06-13 2019-10-08 浙江大学 基于骨架视频的行为识别方法
CN110837778A (zh) * 2019-10-12 2020-02-25 南京信息工程大学 一种基于骨架关节点序列的交警指挥手势识别方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
SHIJIEYAN: "Spatial Temporal Graph Convolutional Networks for Skeleton-Based Action Recognition", 《 SKELETON-BASED ACTION RECOGNITION》 *

Similar Documents

Publication Publication Date Title
Kale et al. A study of vision based human motion recognition and analysis
Singh et al. Video benchmarks of human action datasets: a review
CN109934111B (zh) 一种基于关键点的健身姿态估计方法及系统
Amor et al. Action recognition using rate-invariant analysis of skeletal shape trajectories
Guo et al. Multiview cauchy estimator feature embedding for depth and inertial sensor-based human action recognition
Ji et al. Learning contrastive feature distribution model for interaction recognition
CN106203503A (zh) 一种基于骨骼序列的动作识别方法
CN105912991A (zh) 基于3d点云与关键骨骼节点的行为识别
CN106909890B (zh) 一种基于部位聚类特征的人体行为识别方法
CN108681700A (zh) 一种复杂行为识别方法
CN106815855A (zh) 基于产生式和判别式结合的人体运动跟踪方法
Liao et al. PoseMapGait: A model-based gait recognition method with pose estimation maps and graph convolutional networks
Fang et al. Dynamic gesture recognition using inertial sensors-based data gloves
Liu et al. 3D action recognition using multiscale energy-based global ternary image
CN106502390A (zh) 一种基于动态3d手写数字识别的虚拟人交互系统及方法
CN114998983A (zh) 一种基于增强现实技术和姿态识别技术的肢体康复方法
An et al. AdaptNet: Human activity recognition via bilateral domain adaptation using semi-supervised deep translation networks
Zhou et al. Human action recognition toward massive-scale sport sceneries based on deep multi-model feature fusion
Pismenskova et al. Classification of a two-dimensional pose using a human skeleton
CN115588116A (zh) 基于双通道注意力机制的行人动作识别方法
Mavroudi et al. Deep moving poselets for video based action recognition
CN103020631B (zh) 基于星型模型的人体运动识别方法
CN111460960A (zh) 一种运动分类及计数方法
CN116229507A (zh) 人体姿态检测方法及系统
Usman et al. Skeleton-based motion prediction: A survey

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication
RJ01 Rejection of invention patent application after publication

Application publication date: 20200728