CN110163038A - 一种基于深度卷积神经网络的人体运动计数方法 - Google Patents
一种基于深度卷积神经网络的人体运动计数方法 Download PDFInfo
- Publication number
- CN110163038A CN110163038A CN201810213000.8A CN201810213000A CN110163038A CN 110163038 A CN110163038 A CN 110163038A CN 201810213000 A CN201810213000 A CN 201810213000A CN 110163038 A CN110163038 A CN 110163038A
- Authority
- CN
- China
- Prior art keywords
- posture
- key operations
- movement
- neural networks
- convolutional neural
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/23—Clustering techniques
- G06F18/232—Non-hierarchical techniques
- G06F18/2321—Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
- G06F18/23213—Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions with fixed number of clusters, e.g. K-means clustering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/41—Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
- G06V20/42—Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items of sport video content
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Computational Linguistics (AREA)
- Software Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Evolutionary Biology (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computing Systems (AREA)
- Bioinformatics & Computational Biology (AREA)
- Molecular Biology (AREA)
- Mathematical Physics (AREA)
- Multimedia (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- Human Computer Interaction (AREA)
- Probability & Statistics with Applications (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于深度卷积神经网络的人体运动计数方法,通过定义5种基本人体运动类型和每种运动类型的3个关键动作姿态序列,令不同人表演5种运动并且录制这5种运动以及其他类型运动的视频序列,以作为训练样本结合16个类别的分类器,进行基于深度卷积神经网络的动作识别训练过程,在训练完毕后输出分类模型;通过摄像头捕获人体运动的视频帧,输入到已训练好的分类模型进行分类运算,根据分类运算结果判断运动者所处的动作姿态、所进行的运动类型并且将所属的运动计数加一,已达到自动、高效的对5种运动进行识别与计数,让锻炼者能够心无旁骛的进行健身动作,以及对动作视频的识别过程进行标准校对、剔除不规范动作计数的问题。
Description
【技术领域】
本发明涉及运动信息处理技术领域,特别是涉及一种基于深度卷积神经网络的人体运动计数方法。
【背景技术】
随着社会的进步,人们生活水平的提高,人们对健康的生活越来越重视,为了获得健康的生活状态,人们往往热衷于运动健身,同时,越来越多的人认识到合理运动的重要性,而运动量的量化往往都是目测测量,不能给出合理的参照,又不能保证很精准。近几年来,随着多媒体技术的迅猛发展与计算机性能的不断提高,图像处理技术日益受到人们的青睐,并且取得了丰硕的成果,广泛应用于交通管理、目标跟踪、人机交互等领域。图像识别领域中的行为识别或姿态估计常用来分析人体的一些运动或行为特点,但是往往只能估算出一个静态图或一段视频序列对应的三维物体所处的状态,无法对重复发生的行为进行统计。现缺乏一种能够在居家健身运动中进行智能计数的设备,让锻炼者能够心无旁骛的进行健身动作,而不必一心二用,造成既要计数又要顾及运动而造成计数出错,因为分心而使得健身动作也不能够做到标准的情况发生。
中国专利申请CN201410674419,一种俯卧运动参数估计与评价的方法、装置及智能终端,涉及通信领域,解决现有技术在俯卧运动计数方法上存在缺陷的问题,该方法包括:获取处于一固定姿态的智能终端的摄像头在预设时间内采集的视频数据;在所述视频数据中检测到预设目标后,获取预设目标尺寸数据及所述预设目标尺寸数据相对预设尺寸均值的变化规律,所述预设尺寸均值用于标识人体在所述预设时间内完成的多次俯卧运动的预设目标尺寸的平均值;根据所述变化规律,得到所述预设时间内人体完成的俯卧运动的数量信息和/或质量信息,并输出。本发明的方案通过智能终端实现了准确的俯卧运动计数与评价,且实现方式简单,使用方便,提高了实用性和便利性。
但是由于其是使用时间节点作为训练依据,对训练评估的准确性欠佳,而且凭借其计算的卡路里以及力量训练评估也准。
【发明内容】
为了克服上述现有技术的不足,本发明旨在提供一种基于深度卷积神经网络的人体运动计数方法,以解决现有技术中不能自动、高效的记录俯卧撑、仰卧起坐、引体向上等多种运动计数的问题。
为此,本发明所采用的技术方案是:基于深度卷积神经网络的人体运动计数方法,依次进行如下步骤:
(1)定义5种基本人体运动类型,分别是:仰卧起坐、俯卧撑、深蹲、引体向上、高抬腿,分别定义为M1,M2,…M5,然后将上述5种运动的每一种分解成3个依次循环的关键动作姿态序列,共计15种关键动作姿态,分别定义为P1,P2,…P15,其中:运动M1的关键动作姿态序列为P1-P2-P3,运动M2的关键动作姿态序列为P4-P5-P6,运动M3的关键动作姿态序列为P7-P8-P9,运动M4的关键动作姿态序列为P10-P11-P12,运动M5的关键动作姿态序列为P13-P14-P15;
(2)令不同人表演M1~M5运动并且录制多个视频序列,从视频序列中提取符合上述P1~P15关键动作姿态的视频帧,定义为关键动作帧,然后再录制这5种运动之外的其他类型运动的多个视频序列;
(3)将步骤(2)录制的所有视频序列作为深度卷积神经网络分类算法的训练样本,定义包含如下16个类别的分类器:将步骤(2)中的15个关键动作姿态P1~P15分别作为一个类别,共计15个类别,分别定义为C1,C2,…C15,将不属于此5种运动的动作姿态归为第16个类别,定义为C16,然后进行基于深度卷积神经网络的动作识别训练过程,在训练完毕后输出分类模型;
(4)通过摄像头捕获人体运动的视频帧,输入到已训练好的分类模型进行分类运算,根据分类运算结果判断运动者所处的动作姿态,所述动作姿态属于C1~C16;
(5)如果判断出在该运动者的所有动作姿态中,属于C1~C15的一系列动作姿态符合M1~M5任意一种Mi所定义的关键动作姿态序列,i位于1~5,那么该运动者所进行的运动即为Mi,并且系统记录该运动Mi的计数加一。
进一步地,步骤(2)所述的提取过程利用PCA算法提取视频序列包含的动作姿态特征信息,利用K均值聚类算法将每一类运动的所有动作姿态分成三个聚类;在每个聚类中选择与聚类中心的距离小于该聚类所属类簇半径0.2倍的帧作为关键动作帧,加入训练样本,而聚类中不符合此条件的帧不加入训练样本。
更优地,所述K均值聚类算法后,还包括对作为训练样本的关键动作帧的数据增强过程,所述数据增强的方法包括平移、旋转、尺度变换和色彩抖动。
进一步地,步骤(4)所述的分类运算过程还包括对关键动作帧的提取步骤;对关键动作帧的提取步骤利用PCA算法提取视频序列包含的动作姿态特征信息,利用K均值聚类算法将每一类运动的所有动作姿态分成三个聚类;在每个聚类中选择与聚类中心的距离小于该聚类所属类簇半径0.2倍的帧作为关键动作帧,参与所述分类运算过程,而聚类中不符合此条件的帧不参与分类运算过程。
更优地,所使用的深度卷积神经网络与传统的AlexNet神经网络相比,减少两个全连接层,仅保留一个卷积层、一个池化层和一个全连接输出层。
进一步地,M1~M5这5种运动所对应的P1~P15关键动作姿态分别为:
M1-仰卧起坐所包含的关键动作姿态有:P1.平躺状态,P2.半起状态,P3.手肘触腿状态;
M2-俯卧撑所包含的关键动作姿态有:P4.俯卧撑准备阶段,P5.俯卧撑下降阶段,P6.俯卧撑完成状态;
M3-深蹲所包含的关键动作姿态有:P7.直立状态,P8.半蹲状态,P9.蹲下状态;
M4-引体向上所包含的关键动作姿态有:P10.下垂状态,P11.手臂弯曲状态,P12.头部高于单杠状态;
M5-高抬腿所包含的关键动作姿态有:P13.左脚平直状态,P14.左脚向下阶段,P15.右脚平直状态。
更优地,步骤(5)的判断过程所包含的任意一个关键动作姿态序列,都至少包含3个视频帧。
与现有技术相比,本发明的有益效果是:
首先,本发明通过运动类型定义、视频录制、样本训练、视频分类、动作识别与计数等步骤,从而自动、高效的对5种运动进行识别与计数,让锻炼者能够心无旁骛的进行健身动作;
其次,本发明通过录制不同人5种运动的多个视频序列,以及5种运动之外的其他类型运动的多个视频序列,所设计的包含15种动作和不属于动作的分类器可对动作视频的识别过程起到标准校对、剔除不规范动作计数的作用,以起到合理纠正偷懒、作弊行为的技术效果。
【附图说明】
图1为基于深度卷积神经网络的人体运动计数方法的流程图;
图2为所定义的5种运动和15种关键动作姿态的示意图,其中:
M1:仰卧起坐,P1:平躺状态,P2:半起状态,P3:手肘触腿状态;
M2:俯卧撑,P4:俯卧撑准备阶段,P5:俯卧撑下降阶段,P6:俯卧撑完成状态;
M3:深蹲,P7:直立状态,P8:半蹲状态,P9:蹲下状态;
M4:引体向上,P10:下垂状态,P11.手臂弯曲状态,P12:头部高于单杠状态;
M5:高抬腿,P13:左脚平直状态,P14:左脚向下阶段,P15:右脚平直状态;
图3是所述深度卷积神经网络的组成结构图。
【具体实施方式】
为了加深对本发明的理解,下面结合附图和实施例对本发明进一步说明,该实施例仅用于解释本发明,并不对本发明的保护范围构成限定。
本发明所述的一种基于深度卷积神经网络的人体运动计数方法,其流程如图1所示,依次包括如下步骤:
(1)定义5种基本人体运动类型,分别是:仰卧起坐、俯卧撑、深蹲、引体向上、高抬腿,分别定义为M1,M2,…M5,然后将上述5种运动的每一种分解成3个依次循环的关键动作姿态序列,共计15种关键动作姿态,分别定义为P1,P2,…P15;
其中:运动M1的关键动作姿态序列为P1-P2-P3,更具体为P1-P2-P3-P2-P1-P2-P3-…,其他运动的关键动作姿态序列循环逻辑类似;运动M2的关键动作姿态序列为P4-P5-P6,运动M3的关键动作姿态序列为P7-P8-P9,运动M4的关键动作姿态序列为P10-P11-P12,运动M5的关键动作姿态序列为P13-P14-P15;
(2)令不同人表演M1~M5运动并且录制多个视频序列,从视频序列中提取符合上述P1~P15关键动作姿态的视频帧,定义为关键动作帧,然后再录制这5种运动之外的其他类型运动的多个视频序列;
通常,录制的视频序列样本越多,训练的分类效果越良好。
(3)将步骤(2)录制的所有视频序列作为深度卷积神经网络分类算法的训练样本,定义包含如下16个类别的分类器:将步骤(2)中的15个关键动作姿态P1~P15分别作为一个类别,共计15个类别,分别定义为C1,C2,…C15,将不属于此5种运动的动作姿态归为第16个类别,定义为C16;
然后进行基于深度卷积神经网络的动作识别训练过程,在训练完毕后,输出分类模型;
(4)通过摄像头捕获人体运动的视频帧,输入到已训练好的分类模型进行分类运算;
根据分类运算结果,判断运动者所处的动作姿态,所述动作姿态属于C1~C16;
(5)如果判断出在该运动者的所有动作姿态中,属于C1~C15的一系列动作姿态符合M1~M5任意一种Mi所定义的关键动作姿态序列,i位于1~5,那么该运动者所进行的运动即为Mi,并且系统记录该运动Mi的计数加一。
步骤(5)举例:例如,当判断运动者当前进行的动作为M1-仰卧起坐,并且出现动作姿态序列P1-P2-P3(平躺状态-半起状态-手肘触腿状态)或者P3-P2-P1(手肘触腿状态-半起状态-平躺状态),则记录运动者的仰卧起坐次数加一。
其中:
步骤(2)所述的提取过程利用PCA算法,提取视频序列包含的动作姿态特征信息;所述PCA算法即为主成份分析,属于统计方法,通常用于多变量分析的降维,尤其是用于图像、视频分析中的特征提取;
利用K均值聚类算法将每一类运动的所有动作姿态分成三个聚类;在每个聚类中,选择与聚类中心的距离小于该聚类所属类簇半径0.2倍的帧作为关键动作帧,加入训练样本,而聚类中不符合此条件的帧不加入训练样本。其中,帧与聚类中心的距离反映出特征差异性,此距离越大,代表该帧与所属类簇内部平均特征间的差异越大;
步骤(4)所述的分类运算过程还包括对关键动作帧的提取步骤;对关键动作帧的提取步骤利用PCA算法,提取视频序列包含的动作姿态特征信息;利用K均值聚类算法将每一类运动的所有动作姿态分成三个聚类;在每个聚类中选择与聚类中心的距离小于该聚类所属类簇半径0.2倍的帧作为关键动作帧,参与所述分类运算过程,而聚类中不符合此条件的帧不参与分类运算过程。
实施例1
在一个更优的实施例中,步骤(2)的K均值聚类算法后,还包括对作为训练样本的关键动作帧的数据增强过程,所述数据增强的方法包括平移、旋转、尺度变换和色彩抖动。
数据增强过程的目的在于,使得通过神经网络学习到的特征具有鲁棒性。为此,将采集的所有样本的60%作为训练集,40%作为测试集。为了训练数据的平衡性,尽量保证每一类运动的训练样本数目基本均衡。
实施例2
在一个更优的实施例中,所使用的深度卷积神经网络组成结构如图3所示,与传统的AlexNet神经网络相比,减少两个全连接层;仅保留一个卷积层B2、一个池化层B3和一个全连接输出层B4;
其视频帧输入为图中P1,分类结构输出如图中P5。
通过上述简化措施,使得所述深度卷积神经网络的处理速度达33FPS,从而大大提升了分类模型的计算速度,在手机端也可以达到实时。
本发明采用fine tune的技巧,在ImageNet数据集上预设训练好的AlexNet权重系数。其好处在于:便于利用已训练好的数据,而不需要每次重新进行模型训练,从而大大提高实用化效率,并且能够在较少的训练迭代次数之后得到良好的分类效果。
其中:M1~M5这5种运动与P1~P15关键动作姿态之间的对应关系如图2所示,分别为:
M1-仰卧起坐,所包含的关键动作姿态有:P1.平躺状态,P2.半起状态,P3.手肘触腿状态;
M2-俯卧撑,所包含的关键动作姿态有:P4.俯卧撑准备阶段,P5.俯卧撑下降阶段,P6.俯卧撑完成状态;
M3-深蹲,所包含的关键动作姿态有:P7.直立状态,P8.半蹲状态,P9.蹲下状态;
M4-引体向上,所包含的关键动作姿态有:P10.下垂状态,P11.手臂弯曲状态,P12.头部高于单杠状态;
M5-高抬腿,所包含的关键动作姿态有:P13.左脚平直状态,P14.左脚向下阶段,P15.右脚平直状态。
实施例3
在一个更优的实施例中,步骤(5)的判断过程所包含的任意一个关键动作姿态序列,都至少包含3个视频帧。
考虑到运动都是连续发生的,因此对输出的结果进行平滑,以便减少识别的错误率;而当一个状态连续出现3帧以上,即可准确的判断此关键动作姿态已经发生。
本发明的实施例公布的是较佳的实施例,但并不局限于此,本领域的普通技术人员,极易根据上述实施例,领会本发明的精神,并做出不同的引申和变化,但只要不脱离本发明的精神,都在本发明的保护范围内。
Claims (7)
1.基于深度卷积神经网络的人体运动计数方法,其特征在于,依次进行如下步骤:
(1)定义5种基本人体运动类型,分别是:仰卧起坐、俯卧撑、深蹲、引体向上、高抬腿,分别定义为M1,M2,…M5,然后将上述5种运动的每一种分解成3个依次循环的关键动作姿态序列,共计15种关键动作姿态,分别定义为P1,P2,…P15,其中:运动M1的关键动作姿态序列为P1-P2-P3,运动M2的关键动作姿态序列为P4-P5-P6,运动M3的关键动作姿态序列为P7-P8-P9,运动M4的关键动作姿态序列为P10-P11-P12,运动M5的关键动作姿态序列为P13-P14-P15;
(2)令不同人表演M1~M5运动并且录制多个视频序列,从视频序列中提取符合上述P1~P15关键动作姿态的视频帧,定义为关键动作帧,然后再录制这5种运动之外的其他类型运动的多个视频序列;
(3)将步骤(2)录制的所有视频序列作为深度卷积神经网络分类算法的训练样本,定义包含如下16个类别的分类器:将步骤(2)中的15个关键动作姿态P1~P15分别作为一个类别,共计15个类别,分别定义为C1,C2,…C15,将不属于此5种运动的动作姿态归为第16个类别,定义为C16,然后进行基于深度卷积神经网络的动作识别训练过程,在训练完毕后输出分类模型;
(4)通过摄像头捕获人体运动的视频帧,输入到已训练好的分类模型进行分类运算,根据分类运算结果判断运动者所处的动作姿态,所述动作姿态属于C1~C16;
(5)如果判断出在该运动者的所有动作姿态中,属于C1~C15的一系列动作姿态符合M1~M5任意一种Mi所定义的关键动作姿态序列,i位于1~5,那么该运动者所进行的运动即为Mi,并且系统记录该运动Mi的计数加一。
2.根据权利要求1所述的基于深度卷积神经网络的人体运动计数方法,其特征在于:步骤(2)所述的提取过程利用PCA算法提取视频序列包含的动作姿态特征信息,利用K均值聚类算法将每一类运动的所有动作姿态分成三个聚类;在每个聚类中选择与聚类中心的距离小于该聚类所属类簇半径0.2倍的帧作为关键动作帧,加入训练样本,而聚类中不符合此条件的帧不加入训练样本。
3.根据权利要求2所述的基于深度卷积神经网络的人体运动计数方法,其特征在于:所述K均值聚类算法后,还包括对作为训练样本的关键动作帧的数据增强过程,所述数据增强的方法包括平移、旋转、尺度变换和色彩抖动。
4.根据权利要求1所述的基于深度卷积神经网络的人体运动计数方法,其特征在于:步骤(4)所述的分类运算过程还包括对关键动作帧的提取步骤;对关键动作帧的提取步骤利用PCA算法提取视频序列包含的动作姿态特征信息,利用K均值聚类算法将每一类运动的所有动作姿态分成三个聚类;在每个聚类中选择与聚类中心的距离小于该聚类所属类簇半径0.2倍的帧作为关键动作帧,参与所述分类运算过程,而聚类中不符合此条件的帧不参与分类运算过程。
5.根据权利要求1所述的基于深度卷积神经网络的人体运动计数方法,其特征在于:所使用的深度卷积神经网络与传统的AlexNet神经网络相比,减少两个全连接层,仅保留一个卷积层、一个池化层和一个全连接输出层。
6.根据权利要求1-3任意一项所述的基于深度卷积神经网络的人体运动计数方法,其特征在于,M1~M5这5种运动所对应的P1~P15关键动作姿态分别为:
M1-仰卧起坐所包含的关键动作姿态有:P1.平躺状态,P2.半起状态,P3.手肘触腿状态;
M2-俯卧撑所包含的关键动作姿态有:P4.俯卧撑准备阶段,P5.俯卧撑下降阶段,P6.俯卧撑完成状态;
M3-深蹲所包含的关键动作姿态有:P7.直立状态,P8.半蹲状态,P9.蹲下状态;
M4-引体向上所包含的关键动作姿态有:P10.下垂状态,P11.手臂弯曲状态,P12.头部高于单杠状态;
M5-高抬腿所包含的关键动作姿态有:P13.左脚平直状态,P14.左脚向下阶段,P15.右脚平直状态。
7.根据权利要求1所述的基于深度卷积神经网络的人体运动计数方法,其特征在于,步骤(5)的判断过程所包含的任意一个关键动作姿态序列,都至少包含3个视频帧。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810213000.8A CN110163038A (zh) | 2018-03-15 | 2018-03-15 | 一种基于深度卷积神经网络的人体运动计数方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810213000.8A CN110163038A (zh) | 2018-03-15 | 2018-03-15 | 一种基于深度卷积神经网络的人体运动计数方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN110163038A true CN110163038A (zh) | 2019-08-23 |
Family
ID=67636136
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810213000.8A Withdrawn CN110163038A (zh) | 2018-03-15 | 2018-03-15 | 一种基于深度卷积神经网络的人体运动计数方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110163038A (zh) |
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111368810A (zh) * | 2020-05-26 | 2020-07-03 | 西南交通大学 | 基于人体及骨骼关键点识别的仰卧起坐检测系统及方法 |
CN111368791A (zh) * | 2020-03-18 | 2020-07-03 | 南通大学 | 基于Quick-OpenPose模型的引体向上测试计数方法及系统 |
CN111401260A (zh) * | 2020-03-18 | 2020-07-10 | 南通大学 | 基于Quick-OpenPose模型的仰卧起坐测试计数方法及系统 |
CN112774112A (zh) * | 2021-01-29 | 2021-05-11 | 重庆工程职业技术学院 | 体育训练用的仰卧起坐装置 |
CN112800990A (zh) * | 2021-02-02 | 2021-05-14 | 南威软件股份有限公司 | 一种实时人体动作识别和计数方法 |
CN113011344A (zh) * | 2021-03-23 | 2021-06-22 | 安徽一视科技有限公司 | 一种基于机器视觉的引体向上数量计算方法 |
CN113255624A (zh) * | 2021-07-14 | 2021-08-13 | 北京壹体科技有限公司 | 一种智能识别引体向上动作姿态完成状况的系统和方法 |
CN113673318A (zh) * | 2021-07-12 | 2021-11-19 | 浙江大华技术股份有限公司 | 一种动作检测方法、装置、计算机设备和存储介质 |
CN114764946A (zh) * | 2021-09-18 | 2022-07-19 | 北京甲板智慧科技有限公司 | 基于时序标准化的动作计数方法、系统和智能终端 |
CN114998803A (zh) * | 2022-06-13 | 2022-09-02 | 北京理工大学 | 一种基于视频的健身运动分类与计数方法 |
CN115019399A (zh) * | 2022-06-24 | 2022-09-06 | 北京工业大学 | 一种人体姿态检测方法 |
CN115100745A (zh) * | 2022-07-05 | 2022-09-23 | 北京甲板智慧科技有限公司 | 基于Swin Transformer模型的运动实时计数方法和系统 |
-
2018
- 2018-03-15 CN CN201810213000.8A patent/CN110163038A/zh not_active Withdrawn
Cited By (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111368791A (zh) * | 2020-03-18 | 2020-07-03 | 南通大学 | 基于Quick-OpenPose模型的引体向上测试计数方法及系统 |
CN111401260A (zh) * | 2020-03-18 | 2020-07-10 | 南通大学 | 基于Quick-OpenPose模型的仰卧起坐测试计数方法及系统 |
CN111368791B (zh) * | 2020-03-18 | 2020-09-29 | 南通大学 | 基于Quick-OpenPose模型的引体向上测试计数方法及系统 |
CN111401260B (zh) * | 2020-03-18 | 2020-09-29 | 南通大学 | 基于Quick-OpenPose模型的仰卧起坐测试计数方法及系统 |
CN111368810B (zh) * | 2020-05-26 | 2020-08-25 | 西南交通大学 | 基于人体及骨骼关键点识别的仰卧起坐检测系统及方法 |
CN111368810A (zh) * | 2020-05-26 | 2020-07-03 | 西南交通大学 | 基于人体及骨骼关键点识别的仰卧起坐检测系统及方法 |
CN112774112A (zh) * | 2021-01-29 | 2021-05-11 | 重庆工程职业技术学院 | 体育训练用的仰卧起坐装置 |
CN112800990B (zh) * | 2021-02-02 | 2023-05-26 | 南威软件股份有限公司 | 一种实时人体动作识别和计数方法 |
CN112800990A (zh) * | 2021-02-02 | 2021-05-14 | 南威软件股份有限公司 | 一种实时人体动作识别和计数方法 |
CN113011344A (zh) * | 2021-03-23 | 2021-06-22 | 安徽一视科技有限公司 | 一种基于机器视觉的引体向上数量计算方法 |
CN113673318A (zh) * | 2021-07-12 | 2021-11-19 | 浙江大华技术股份有限公司 | 一种动作检测方法、装置、计算机设备和存储介质 |
CN113673318B (zh) * | 2021-07-12 | 2024-05-03 | 浙江大华技术股份有限公司 | 一种动作检测方法、装置、计算机设备和存储介质 |
CN113255624B (zh) * | 2021-07-14 | 2021-09-21 | 北京壹体科技有限公司 | 一种智能识别引体向上动作姿态完成状况的系统和方法 |
CN113255624A (zh) * | 2021-07-14 | 2021-08-13 | 北京壹体科技有限公司 | 一种智能识别引体向上动作姿态完成状况的系统和方法 |
CN114764946A (zh) * | 2021-09-18 | 2022-07-19 | 北京甲板智慧科技有限公司 | 基于时序标准化的动作计数方法、系统和智能终端 |
CN114764946B (zh) * | 2021-09-18 | 2023-08-11 | 北京甲板智慧科技有限公司 | 基于时序标准化的动作计数方法、系统和智能终端 |
CN114998803A (zh) * | 2022-06-13 | 2022-09-02 | 北京理工大学 | 一种基于视频的健身运动分类与计数方法 |
CN115019399A (zh) * | 2022-06-24 | 2022-09-06 | 北京工业大学 | 一种人体姿态检测方法 |
CN115100745A (zh) * | 2022-07-05 | 2022-09-23 | 北京甲板智慧科技有限公司 | 基于Swin Transformer模型的运动实时计数方法和系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110163038A (zh) | 一种基于深度卷积神经网络的人体运动计数方法 | |
Cao et al. | Domain balancing: Face recognition on long-tailed domains | |
CN110070074A (zh) | 一种构建行人检测模型的方法 | |
CN110458061B (zh) | 一种识别老年人跌倒的方法及陪伴机器人 | |
CN113762133A (zh) | 基于人体姿态识别的自重健身辅助教练系统、方法、终端 | |
CN109086799A (zh) | 一种基于改进卷积神经网络模型AlexNet的作物叶片病害识别方法 | |
CN107609708A (zh) | 一种基于手机游戏商店的用户流失预测方法及系统 | |
CN110674785A (zh) | 一种基于人体关键点跟踪的多人姿态分析方法 | |
CN106096662A (zh) | 基于加速度传感器的人体运动状态识别 | |
CN106022251B (zh) | 基于视觉共生矩阵序列的异常双人交互行为识别方法 | |
CN107194418A (zh) | 一种基于对抗特征学习的水稻蚜虫检测方法 | |
CN102281385A (zh) | 基于运动视频的周期运动检测方法 | |
CN107590460B (zh) | 人脸分类方法、装置及智能终端 | |
CN114821299B (zh) | 一种遥感图像变化检测方法 | |
CN110008819A (zh) | 一种基于图卷积神经网络的人脸表情识别方法 | |
CN108427713A (zh) | 一种用于自制视频的视频摘要方法及系统 | |
CN108256462A (zh) | 一种商场监控视频中的人数统计方法 | |
CN113032613B (zh) | 一种基于交互注意力卷积神经网络的三维模型检索方法 | |
CN104881651B (zh) | 一种基于随机投影和Fisher向量的人物行为识别方法 | |
CN110503078A (zh) | 一种基于深度学习的远距离人脸识别方法和系统 | |
CN108355340B (zh) | 一种基于视频信息的拍球计数方法 | |
CN109360191A (zh) | 一种基于变分自编码器的图像显著性检测方法 | |
CN115346149A (zh) | 基于时空图卷积网络的跳绳计数方法和系统 | |
CN117133057A (zh) | 基于人体姿态识别的体育运动计数和违规动作判别方法 | |
WO2020135054A1 (zh) | 视频推荐方法、装置、设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WW01 | Invention patent application withdrawn after publication |
Application publication date: 20190823 |
|
WW01 | Invention patent application withdrawn after publication |