CN113705540A - 一种无器械训练动作识别与计数方法及系统 - Google Patents
一种无器械训练动作识别与计数方法及系统 Download PDFInfo
- Publication number
- CN113705540A CN113705540A CN202111176626.4A CN202111176626A CN113705540A CN 113705540 A CN113705540 A CN 113705540A CN 202111176626 A CN202111176626 A CN 202111176626A CN 113705540 A CN113705540 A CN 113705540A
- Authority
- CN
- China
- Prior art keywords
- training
- nose
- joint
- frame
- counting
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Molecular Biology (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种无器械训练动作识别与计数方法及系统,属于运动健康信息技术领域,包括采集训练者的训练视频图像;采用BlazePose网络模型对训练视频图像进行处理,得到若干特征数据;采用基于语义引导神经网络的动作识别模型对若干特征数据进行动作识别,得到训练者的训练动作识别结果;采用计数算法对若干特征数据中对应的波峰波谷个数进行计数,得到训练者的训练动作数量。本发明可直接运行在手机上,不依赖其他设备,结合无器械的训练方式,可对训练者运动进行有效的训练监督和自检。
Description
技术领域
本发明涉及运动健康信息技术领域,特别涉及一种无器械训练动作识别与计数方法及系统。
背景技术
目前针对体能锻炼常见的方式有两种,第1种是健身房等专业的运动场所,但现代人群由于工作或学习压力,缺乏完整的时间去这些专业的场所完成训练。第2种是Keep等健身软件,通过语音播报和视频引导的形式,无需借助任何运动器械,利用碎片化的时间即可完成训练。但这种训练方式在训练过程中缺乏动作识别功能,无法得知训练者是否完成训练动作,训练动作是否标准,缺乏监督性,同时需要训练者人工计算动作的完成次数,缺乏自检性。因此需要探究一种新的训练监督和自检方法,用于弥补传统训练方法的不足。
人体动作识别作为近几年的热门研究方向之一,目前关于人体动作识别的方法主要分为两种。第1种是基于穿戴设备来获取人体的运动信息,完成动作识别。但采用穿戴式设备会给人体带来诸多不便,不利于推广和实际使用。第2种是基于图像进行动作识别,最典型的案例就是利用微软的Kinect设备,完成动作识别。基于Kinect的动作识别方法虽然解决了穿戴式设备给人体带来的不方便问题,但由于需要依赖Kinect设备和电脑,不具备便携性。
发明内容
本发明的目的在于克服上述背景技术中的不足,实现无器械方式的动作识别及计数。
为实现以上目的,一方面,采用一种无器械训练动作识别与计数方法,包括:
采集训练者的训练视频图像;
采用BlazePose网络模型对训练视频图像进行处理,得到若干特征数据;
采用基于语义引导神经网络的动作识别模型对若干特征数据进行动作识别,得到训练者的训练动作识别结果;
采用计数算法对若干特征数据中对应的波峰波谷个数进行计数,得到训练者的训练动作数量。
进一步地,所述采用BlazePose网络模型对训练视频图像进行处理,得到若干特征数据,包括:
将所述训练视频图像中的每帧图片经过图像变换后输入至所述BlazePose网络模型中,得到每帧图片中人体的骨骼点数据;
根据所述训练任务特点对人体骨骼点数据进行特征提取,得到所述若干特征数据。
进一步地,所述根据所述训练任务特点对人体骨骼点数据进行特征提取,得到所述若干特征数据,包括:
对于跳绳和深蹲动作,将鼻子y轴坐标的变化量作为特征f1:f1=ynose-ystart_nose,假设动作开始时鼻子的坐标和当前时刻鼻子的坐标分别为(xstart_nose,ystart_nose)和(xnose,ynose);
对于深蹲动作,将膝盖与脚部垂直方向的差值作为特征f2:f2=yknee-yfoot,假设左半身膝盖和脚部的坐标为(xknee,yknee)和(xfoot,yfoot);
在开合跳运动中,将手部周期性地经过鼻子的上方和下方的差值作为特征f3:f3=yhand-ynose,yhand表示手部的纵坐标,ynose表示鼻子的纵坐标;
进一步地,所述基于语义引导神经网络的动作识别模型包括关节级模块、帧级模块和全连接层,所述采用基于语义引导神经网络的动作识别模型对若干特征数据进行动作识别,得到训练者的训练动作识别结果,包括:
将所述若干特征数据变换成动态表示,输入至关节级模块;
关节级模块通过融合骨骼关节的位置和速度信息学习骨骼关节的动态表示,对关节的依赖关系进行建模;
帧级模块对关节级模块的输出进行聚合,得到每帧图片的所有关节信息,并对帧之间的依赖关系进行建模,得到所有帧图片的关节信息;
全连接层基于帧级模块的输出识别得到所述训练者的动作。
进一步地,所述关节级模块通过融合骨骼关节的位置和速度信息学习骨骼关节的动态表示,对关节的依赖关系进行建模,包括:
将所述若干特征数据的动态表示与骨骼关节点类型进行连接,得到关节数据;
采用语义引导神经网络对关节数据进行处理,对关节的依赖关系进行建模。
进一步地,所述帧级模块对关节级模块的输出进行聚合,得到每帧图片的所有关节信息,并对帧之间的依赖关系进行建模,得到所有帧图片的关节信息,包括:
将所述关节级模块的输出与帧序列进行相加操作,并采用空间最大池化层对每帧图片中的所有关节信息进行聚合,得到聚合结果;
采用卷积神经网络对帧之间的依赖关系进行建模。
进一步地,所识别和计数的训练动作至少包括双臂伸展、开合跳、深蹲以及跳绳动作。
另一方面,采用一种无器械训练动作识别与计数系统,包括:图像采集模块、特征提取模块、动作识别模块和计数模块,其中:
图像采集模块用于采集训练者的训练视频图像;
特征提取模块用于采用BlazePose网络模型对训练视频图像进行处理,得到若干特征数据;
动作识别模块用于采用基于语义引导神经网络的动作识别模型对若干特征数据进行动作识别,得到训练者的训练动作识别结果;
计数模块用于采用计数算法对若干特征数据中对应的波峰波谷个数进行计数,得到训练者的训练动作数量。
进一步地,所述特征提取模块包括骨骼点数据数据提取单元和特征提取单元,其中:
骨骼点数据数据提取单元用于将所述训练视频图像中的每帧图片经过图像变换后输入至所述BlazePose网络模型中,得到每帧图片中人体的骨骼点数据;
特征提取单元用于根据所述训练任务特点对人体骨骼点数据进行特征提取,得到所述若干特征数据,具体为:
对于跳绳和深蹲动作,将鼻子y轴坐标的变化量作为特征f1:f1=ynose-ystart_nose,假设动作开始时鼻子的坐标和当前时刻鼻子的坐标分别为(xstart_nose,ystart_nose)和(xnose,ynose);
对于深蹲动作,将膝盖与脚部垂直方向的差值作为特征f2:f2=yknee-yfoot,假设左半身膝盖和脚部的坐标为(xknee,yknee)和(xfoot,yfoot);
在开合跳运动中,将手部周期性地经过鼻子的上方和下方的差值作为特征f3:f3=yhand-ynose,yhand表示手部的纵坐标,ynose表示鼻子的纵坐标;
进一步地,所述基于语义引导神经网络的动作识别模型包括关节级模块、帧级模块和全连接层,所述若干特征数据经动态表示后作为关节级模块的输入,关节级模块的输出经帧级模块与全连接层连接,全连接层输出为所述训练者的训练动作识别结果。
与现有技术相比,本发明存在以下技术效果:本发明针对移动设备便携的特点,得益于BlazePose网络模型优异的性能,将算法实时运行在客户端上,采用基于语义引导神经网络的动作识别模型进行训练动作识别,采用计数算法,对特征数据中数据的波峰波谷个数进行计算,来判别训练者完成动作的次数。本发明基于深度学习技术,仅需一部移动客户端即可实现训练动作的识别和计数,具有成本低、实时检测、准确性高等优点。
附图说明
下面结合附图,对本发明的具体实施方式进行详细描述:
图1是一种无器械训练动作识别与计数方法的流程图;
图2是基于移动端的无器械训练动作识别与计数方法的流程示意图;
图3是BlazePose输出的骨骼关节点;
图4是基于语义引导神经网络的动作识别模型图;
图5是波峰波谷检测示意图;
图6是一种无器械训练动作识别与计数系统的结构图。
具体实施方式
为了更进一步说明本发明的特征,请参阅以下有关本发明的详细说明与附图。所附图仅供参考与说明之用,并非用来对本发明的保护范围加以限制。
如图1至图2所示,本实施例公开了一种无器械训练动作识别与计数方法,包括如下步骤S1至S4:
S1、采集训练者的训练视频图像;
S2、采用BlazePose网络模型对训练视频图像进行处理,得到若干特征数据;
S3、采用基于语义引导神经网络的动作识别模型对若干特征数据进行动作识别,得到训练者的训练动作识别结果;
S4、采用计数算法对若干特征数据中对应的波峰波谷个数进行计数,得到训练者的训练动作数量。
需要说明的是,本实施例通过移动端采集训练者的训练视频图像,采用BlazePose网络模型结合手机摄像头采集人体的骨骼点位置信息,对骨骼点信息进行特征提取,对训练动作进行识别,同时采用计数算法统计训练动作的完成次数。本方法可直接运行在手机上,不依赖其他设备,结合无器械的训练方式,可对训练者运动进行有效的训练监督和自检。
作为进一步优选的技术方案,上述步骤S2:采用BlazePose网络模型对训练视频图像进行处理,得到若干特征数据,包括:
将所述训练视频图像中的每帧图片经过图像变换后输入至所述BlazePose网络模型中,得到每帧图片中人体的骨骼点数据;
根据所述训练任务特点对人体骨骼点数据进行特征提取,得到所述若干特征数据。
需要说明的是,将训练视频图像中的每帧图片经过图像变换后输入到BlazePose网络模型中,进而得到每帧图片中人体的骨骼点数据,采用滑动窗口对人体骨骼节点数据进行特征提取,每个窗口的大小为40帧数据,一个窗口共包含40*S维特征数据,其中S为特征值得个数,BlazePose网络模型对训练视频图像进行处理获得的人体骨骼节点数据如图3所示,具体如下:
(1)设定滑动窗口的窗口大小和步长,窗口的大小设置为5帧,移动的步长为1。
(2)假设数据总帧数为N,从第i帧(2<i<N-2)开始,以第i帧数据为中点,向前后各选取2帧数据,一共5帧数据构成一个窗口。
(3)计算步骤(2)中,窗口中数据的平均值xi,将xi作为第i帧数据滤波后的数值。
重复步骤(2)和(3),继续处理i+1帧的数据,直到i到达边界位置(i=N-2)。
作为进一步优选的技术方案,根据训练任务特点对若干人体骨骼节点数据进行特征提取,具体特征如下:
特征1:对于跳绳和深蹲动作,假设动作开始时鼻子的坐标和当前时刻鼻子的坐标分别为(xstart_nose,ystart_nose)和(xnose,ynose)。因此鼻子y轴坐标的变化量构成的特征:f1=ynose-ystart_nose;
特征2:对于深蹲动作,人体的膝盖与脚部垂直方向数值的差值会呈现明显的周期性变化,且变化幅度较大。因此可以选择膝盖与脚部垂直方向的差值作为特征f2。由于人体运动过程中,左右关节点可以看成是近似对称的,所以在计算特征时,只选取左半身数据即可,假设左半身膝盖和脚部的坐标为(xknee,yknee)和(xfoot,yfoot),则有:f2=yknee-yfoot;
特征3:在开合跳运动中,手部会周期性地经过鼻子的上方和下方,因此将其差值作为特征f3,则有:f3=yhand-ynose,yhand表示手部的纵坐标,ynose表示鼻子的纵坐标;
特征4:在运动过程中,肩膀和手肘的夹角也是一个重要的特征。假设肩膀和手肘关节点的坐标为(xshoulder,yshoulder)和(xelbow,yelbow),则有:
作为进一步优选的技术方案,如图4所示,基于语义引导神经网络的动作识别模型包括关节级模块、帧级模块和全连接层,通过融合骨骼关节的位置和速度信息来学习骨骼关节的动态表示。在关节级模块和帧级模块中分别引入了骨骼关节类型和帧索引两种语义。为了在关节级模块中对关节的依赖关系进行建模,使用了三个GCN层。为了对帧之间的依赖关系进行建模,使用用了两个CNN层。
具体地,采集的图像输入变换成动态表示后输入至关节级模块,关节级模块中,C表示连接,动态表示与骨骼关节点类型进行连接,接着利用三个语义引导神经网络进行处理,其中X表示矩阵乘法,θ和φ表示两个转换函数,每个都由一层全连接组成,
经过关节级模块处理后的输出结果与帧序列进行相加操作,为了合并一帧中的所有关节信息,使用空间最大池化层来跨关节聚合它们,同时应用了两个卷积神经网络层:第一个卷积神经网络是一个时间卷积层,用来建模帧与帧之间的依赖关系;第二层卷积神经网络通过将其映射到核大小为1的高维空间来增强学习到特征的表示能力。在两个卷积层后,使用了一个时间最大池化层来聚合所有的帧的信息,随后使用一个全连接层得到动作识别结果。
作为进一步优选的技术方案,所述的波峰波谷计数检测如图5所示,由于训练者在训练过程中,每个训练动作都会有相应的特征呈现周期性的变化。因此可以根据特征数据中对应的波峰波谷个数,来判别训练者完成动作的次数。对特征数据中数据的波峰波谷个数进行计算,来判别训练者完成动作的次数,只有当波峰与波谷超过阈值时,才记录一次完成。
需要说明的是,站立动作作为各个动作的转换标志,因此不用考虑该动作的完成次数,训练动作识别与计数至少包括:双臂伸展、开合跳、深蹲、跳绳动作识别与计数。
如图6所示,本实施例公开了一种无器械训练动作识别与计数系统,包括:图像采集模块、特征提取模块、动作识别模块和计数模块,其中:
图像采集模块用于采集训练者的训练视频图像;
特征提取模块用于采用BlazePose网络模型对训练视频图像进行处理,得到若干特征数据;
动作识别模块用于采用基于语义引导神经网络的动作识别模型对若干特征数据进行动作识别,得到训练者的训练动作识别结果;
计数模块用于采用计数算法对若干特征数据中对应的波峰波谷个数进行计数,得到训练者的训练动作数量。
作为进一步优选的技术方案,所述特征提取模块包括骨骼点数据数据提取单元和特征提取单元,其中:
骨骼点数据数据提取单元用于将所述训练视频图像中的每帧图片经过图像变换后输入至所述BlazePose网络模型中,得到每帧图片中人体的骨骼点数据;
特征提取单元用于根据所述训练任务特点对人体骨骼点数据进行特征提取,得到所述若干特征数据,具体为:
对于跳绳和深蹲动作,将鼻子y轴坐标的变化量作为特征f1:f1=ynose-ystart_nose,假设动作开始时鼻子的坐标和当前时刻鼻子的坐标分别为(xstart_nose,ystart_nose)和(xnose,ynose);
对于深蹲动作,将膝盖与脚部垂直方向的差值作为特征f2:f2=yknee-yfoot,假设左半身膝盖和脚部的坐标为(xknew,yknee)和(xfoot,yfoot);
在开合跳运动中,将手部周期性地经过鼻子的上方和下方的差值作为特征f3:f3=yhand-ynose,yhand表示手部的纵坐标,ynose表示鼻子的纵坐标;
作为进一步优选的技术方案,所述基于语义引导神经网络的动作识别模型包括关节级模块、帧级模块和全连接层,所述若干特征数据经动态表示后作为关节级模块的输入,关节级模块的输出经帧级模块与全连接层连接,全连接层输出为所述训练者的训练动作识别结果。
以上所述仅为本发明的较佳实施例,并不用以限制本发明,凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (10)
1.一种无器械训练动作识别与计数方法,其特征在于,包括:
采集训练者的训练视频图像;
采用BlazePose网络模型对训练视频图像进行处理,得到若干特征数据;
采用基于语义引导神经网络的动作识别模型对若干特征数据进行动作识别,得到训练者的训练动作识别结果;
采用计数算法对若干特征数据中对应的波峰波谷个数进行计数,得到训练者的训练动作数量。
2.如权利要求1所述的无器械训练动作识别与计数方法,其特征在于,所述采用BlazePose网络模型对训练视频图像进行处理,得到若干特征数据,包括:
将所述训练视频图像中的每帧图片经过图像变换后输入至所述BlazePose网络模型中,得到每帧图片中人体的骨骼点数据;
根据所述训练任务特点对人体骨骼点数据进行特征提取,得到所述若干特征数据。
3.如权利要求2所述的无器械训练动作识别与计数方法,其特征在于,所述根据所述训练任务特点对人体骨骼点数据进行特征提取,得到所述若干特征数据,包括:
对于跳绳和深蹲动作,将鼻子y轴坐标的变化量作为特征f1:f1=ynose-ystart_nose,假设动作开始时鼻子的坐标和当前时刻鼻子的坐标分别为(xstart_nose,ystart_nose)和(xnose,ynose);
对于深蹲动作,将膝盖与脚部垂直方向的差值作为特征f2:f2=yknee-yfoot,假设左半身膝盖和脚部的坐标为(xknee,yknee)和(xfoot,yfoot);
在开合跳运动中,将手部周期性地经过鼻子的上方和下方的差值作为特征f3:f3=yhand-ynose,yhand表示手部的纵坐标,ynose表示鼻子的纵坐标;
4.如权利要求1所述的无器械训练动作识别与计数方法,其特征在于,所述基于语义引导神经网络的动作识别模型包括关节级模块、帧级模块和全连接层,所述采用基于语义引导神经网络的动作识别模型对若干特征数据进行动作识别,得到训练者的训练动作识别结果,包括:
将所述若干特征数据变换成动态表示,输入至关节级模块;
关节级模块通过融合骨骼关节的位置和速度信息学习骨骼关节的动态表示,对关节的依赖关系进行建模;
帧级模块对关节级模块的输出进行聚合,得到每帧图片的所有关节信息,并对帧之间的依赖关系进行建模,得到所有帧图片的关节信息;
全连接层基于帧级模块的输出识别得到所述训练者的动作。
5.如权利要求4所述的无器械训练动作识别与计数方法,其特征在于,所述关节级模块通过融合骨骼关节的位置和速度信息学习骨骼关节的动态表示,对关节的依赖关系进行建模,包括:
将所述若干特征数据的动态表示与骨骼关节点类型进行连接,得到关节数据;
采用语义引导神经网络对关节数据进行处理,对关节的依赖关系进行建模。
6.如权利要求4所述的无器械训练动作识别与计数方法,其特征在于,所述帧级模块对关节级模块的输出进行聚合,得到每帧图片的所有关节信息,并对帧之间的依赖关系进行建模,得到所有帧图片的关节信息,包括:
将所述关节级模块的输出与帧序列进行相加操作,并采用空间最大池化层对每帧图片中的所有关节信息进行聚合,得到聚合结果;
采用卷积神经网络对帧之间的依赖关系进行建模。
7.如权利要求1所述的无器械训练动作识别与计数方法,其特征在于,所识别和技术的训练动作至少包括双臂伸展、开合跳、深蹲以及跳绳动作。
8.一种无器械训练动作识别与计数系统,其特征在于,包括:图像采集模块、特征提取模块、动作识别模块和计数模块,其中:
图像采集模块用于采集训练者的训练视频图像;
特征提取模块用于采用BlazePose网络模型对训练视频图像进行处理,得到若干特征数据;
动作识别模块用于采用基于语义引导神经网络的动作识别模型对若干特征数据进行动作识别,得到训练者的训练动作识别结果;
计数模块用于采用计数算法对若干特征数据中对应的波峰波谷个数进行计数,得到训练者的训练动作数量。
9.如权利要求8所述的无器械训练动作识别与计数系统,其特征在于,所述特征提取模块包括骨骼点数据数据提取单元和特征提取单元,其中:
骨骼点数据数据提取单元用于将所述训练视频图像中的每帧图片经过图像变换后输入至所述BlazePose网络模型中,得到每帧图片中人体的骨骼点数据;
特征提取单元用于根据所述训练任务特点对人体骨骼点数据进行特征提取,得到所述若干特征数据,具体为:
对于跳绳和深蹲动作,将鼻子y轴坐标的变化量作为特征f1:f1=ynose-ystart_nose,假设动作开始时鼻子的坐标和当前时刻鼻子的坐标分别为(xstart_nose,ystart_nose)和(xnose,ynose);
对于深蹲动作,将膝盖与脚部垂直方向的差值作为特征f2:f2=yknee-yfoot,假设左半身膝盖和脚部的坐标为(xknee,yknee)和(xfoot,yfoot);
在开合跳运动中,将手部周期性地经过鼻子的上方和下方的差值作为特征f3:f3=yhand-ynose,yhand表示手部的纵坐标,ynose表示鼻子的纵坐标;
10.如权利要求8所述的无器械训练动作识别与计数系统,其特征在于,所述基于语义引导神经网络的动作识别模型包括关节级模块、帧级模块和全连接层,所述若干特征数据经动态表示后作为关节级模块的输入,关节级模块的输出经帧级模块与全连接层连接,全连接层输出为所述训练者的训练动作识别结果。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111176626.4A CN113705540A (zh) | 2021-10-09 | 2021-10-09 | 一种无器械训练动作识别与计数方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111176626.4A CN113705540A (zh) | 2021-10-09 | 2021-10-09 | 一种无器械训练动作识别与计数方法及系统 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN113705540A true CN113705540A (zh) | 2021-11-26 |
Family
ID=78662650
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111176626.4A Pending CN113705540A (zh) | 2021-10-09 | 2021-10-09 | 一种无器械训练动作识别与计数方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113705540A (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114360060A (zh) * | 2021-12-31 | 2022-04-15 | 北京航空航天大学杭州创新研究院 | 人体动作识别计数方法 |
CN115100745A (zh) * | 2022-07-05 | 2022-09-23 | 北京甲板智慧科技有限公司 | 基于Swin Transformer模型的运动实时计数方法和系统 |
CN115223240A (zh) * | 2022-07-05 | 2022-10-21 | 北京甲板智慧科技有限公司 | 基于动态时间规整算法的运动实时计数方法和系统 |
-
2021
- 2021-10-09 CN CN202111176626.4A patent/CN113705540A/zh active Pending
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114360060A (zh) * | 2021-12-31 | 2022-04-15 | 北京航空航天大学杭州创新研究院 | 人体动作识别计数方法 |
CN114360060B (zh) * | 2021-12-31 | 2024-04-09 | 北京航空航天大学杭州创新研究院 | 人体动作识别计数方法 |
CN115100745A (zh) * | 2022-07-05 | 2022-09-23 | 北京甲板智慧科技有限公司 | 基于Swin Transformer模型的运动实时计数方法和系统 |
CN115223240A (zh) * | 2022-07-05 | 2022-10-21 | 北京甲板智慧科技有限公司 | 基于动态时间规整算法的运动实时计数方法和系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106650687B (zh) | 一种基于深度信息和骨骼信息的姿势矫正方法 | |
CN113705540A (zh) | 一种无器械训练动作识别与计数方法及系统 | |
CN108764120B (zh) | 一种人体规范动作评价方法 | |
CN110711374B (zh) | 多模态舞蹈动作评价方法 | |
Chaudhari et al. | Yog-guru: Real-time yoga pose correction system using deep learning methods | |
CN110428486B (zh) | 虚拟互动的健身方法、电子设备及存储介质 | |
CN112597933B (zh) | 动作评分方法、装置及可读存储介质 | |
CN111437583A (zh) | 一种基于Kinect的羽毛球基本动作辅助训练系统 | |
CN109308437B (zh) | 动作识别纠错方法、电子设备、存储介质 | |
CN113762133A (zh) | 基于人体姿态识别的自重健身辅助教练系统、方法、终端 | |
CN111383735A (zh) | 一种基于人工智能的无人化健身分析方法 | |
CN111259716A (zh) | 基于计算机视觉的人体跑步姿势识别分析方法及装置 | |
CN113409651B (zh) | 直播健身方法、系统、电子设备、存储介质 | |
Yang et al. | Human exercise posture analysis based on pose estimation | |
CN115131879A (zh) | 一种动作评价方法及装置 | |
CN107292295B (zh) | 手势分割方法及装置 | |
Samhitha et al. | Vyayam: Artificial Intelligence based Bicep Curl Workout Tacking System | |
TWI664550B (zh) | 高爾夫球運動員揮桿姿勢檢測系統 | |
CN111353345B (zh) | 提供训练反馈的方法、装置、系统、电子设备、存储介质 | |
CN111353347B (zh) | 动作识别纠错方法、电子设备、存储介质 | |
CN116386136A (zh) | 基于人体骨骼关键点的动作评分方法、设备及介质 | |
CN115530814A (zh) | 一种基于视觉姿态检测及计算机深度学习的儿童运动康复训练方法 | |
CN114580471A (zh) | 人体动作识别方法和系统 | |
CN114360052A (zh) | 一种基于AlphaPose和关节点角度匹配算法的智能体感教练系统 | |
Li et al. | Tai chi action quality assessment and visual analysis with a consumer rgb-d camera |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |