CN116052272A - 一种智能化体能训练自动识别方法 - Google Patents
一种智能化体能训练自动识别方法 Download PDFInfo
- Publication number
- CN116052272A CN116052272A CN202310006684.5A CN202310006684A CN116052272A CN 116052272 A CN116052272 A CN 116052272A CN 202310006684 A CN202310006684 A CN 202310006684A CN 116052272 A CN116052272 A CN 116052272A
- Authority
- CN
- China
- Prior art keywords
- training
- data
- sample
- tested
- data set
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
- G06V10/765—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects using rules for classification or partitioning the feature space
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02P—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
- Y02P90/00—Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
- Y02P90/30—Computing systems specially adapted for manufacturing
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Artificial Intelligence (AREA)
- Databases & Information Systems (AREA)
- Evolutionary Computation (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- Human Computer Interaction (AREA)
- Social Psychology (AREA)
- Psychiatry (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种智能化体能训练自动识别方法,涉及体能训练技术领域,包括:获取数据集,并将数据集拆分为训练样本集和待测样本集;对数据集进行处理并输入到BlazePose模型中进行关键点提取;对关键点进行归一化编码处理;通过训练数据集对动作状态进行识别训练,对待测样本集动作状态进行识别;对待测样本集动作状态的次数进行统计得到计数结果;对数据集进行PCA降维处理;对降维后的数据进行分类,得到分类结果。将BlazePose模型与KNN分类算法进行结合,实现了对体能训练视频中的动作进行实时识别和计数,及对多种姿态样本点进行分类,分类结果稳定可靠。
Description
技术领域
本发明涉及体能训练技术领域,更具体的说是涉及一种智能化体能训练自动识别方法。
背景技术
体能训练不仅是增强训练者体能素质的一种方法,还是提高特殊行业人员职业能力的重要途径之一,比如对长时间处于灭火救援工作一线的消防员,体能训练的质量直接影响消防员和救援单位的整体战斗力,一般在训练的过程中,需要教员主观的去判定运动员的训练动作是否标准,同时根据预先制定的体能训练计划,人为的统计运动员完成相应的训练项目的数量。
但是,在正规职业训练过程中,对体能训练标准要求严格,并且受训人员数量往往远超教员数量,这种情况下很难做到对训练的实时监督和指导,更无法对训练的强度进行实时测评。
因此,如何构建一种智能化体能训练自动识别方法对体能训练视频中的动作进行实时识别和计数是本领域技术人员亟需解决的问题。
发明内容
有鉴于此,本发明提供了一种智能化体能训练自动识别方法,将BlazePose模型与KNN分类算法进行结合,实现了对体能训练视频中的动作进行实时识别和计数,并对多种姿态样本点进行分类,分类结果稳定可靠。
为了实现上述目的,本发明采用如下技术方案:一种智能化体能训练自动识别方法,包括以下步骤:
步骤1、获取数据集,并将所述数据集拆分为训练样本集和待测样本集;
步骤2、对所述数据集进行处理并输入到BlazePose模型中进行关键点提取;
步骤3、对关键点进行归一化编码处理;
步骤4、通过所述训练数据集对动作状态进行识别训练,对所述待测样本集动作状态进行识别;
步骤5、对所述待测样本集动作状态的次数进行统计得到计数结果;
步骤6、对数据集进行PCA降维处理;
步骤7、对降维后的数据进行分类,得到分类结果。
优选的,对关键点进行归一化编码处理的过程包括:
根据待识别动作状态特点,选择第一坐标点和第二坐标点连线所在直线为横坐标轴,连线中点为坐标原点,计算第三坐标点和第四坐标点的连线中点与间距离作为距离缩放尺寸,所述第一坐标点和所述第二坐标点左右对称,所述第三坐标点和所述第四坐标点左右对称;坐标归一化公式如下:
其中,i表示人体关键点数量,xi指关键点坐标,x1_2表示原点,x1_2-x3_4表示单位特征向量大小;Xi表示对各关键点进行归一化处理;
根据x1_2与x3_4的距离以及其他距离对,得到不同的特征向量来反映不同动作状态特征。
优选的,对所述待测样本集动作状态进行识别的过程包括:
步骤4-1、通过KNN算法第一次调用最大距离消除训练样本集中的异常值;
步骤4-2、获取待测样本集与训练样本集特征向量之间距离的平均值;
步骤4-3、选取平均距离值所对应的待测样本,对待测样本的标签进行统计,数量最多的标签即为该待测样本的动作状态。
针对不同的距离度量调用了两次KNN搜索,使用最小坐标距离作为距离度量,过滤掉不同的弯曲关节对应的其他姿态类;使用平均坐标距离在搜索中找到最近的姿势簇。
优选的,若待测样本的动作状态为‘第一动作’,则统计待测样本集中识别到‘第一动作’的次数,即为完成体能训练动作个数。将视频分解为帧图像作为待测样本集,从训练视频的帧图像中检测体能训练的动作并进行累加,实现对体能训练视频中的动作进行实时识别和计数。
优选的,将每个特征向量对应的三维数据只保留前两维;通过主成分分析法PCA进行降维操作。
优选的,对于降维后的数据,通过改变K值对降维后的数据进行KNN分类,包括:保留一个数据作为预测数据,剩下的作为训练数据进行训练,将分类结果与实际标签进行比对,得到K的最优值;基于所述K的最优值对待测样本集进行分类,得到分类结果。对多种体能动作进行分类,输入某一动作即可判断属于哪一类别,实现对多种姿态样本点进行分类,分类结果稳定可靠。
优选的,对所述数据集进行处理包括:将一次完整的体能动作拆分为第一动作和第二动作两个瞬间状态,将两种状态的数据集分别存贮在第一动作和第二动作标签的文件夹下。
优选的,导入mediapipe包以建立BlazePose模型,对所述数据集进行处理后输入到BlazePose模型提取人体关键点坐标信息,将所述关键点坐标信息存入csv文件中,并在输出的数据中进行关键点标识和连线。
经由上述的技术方案可知,与现有技术相比,本发明提供了一种智能化体能训练自动识别方法,包括:获取数据集,并将数据集拆分为训练样本集和待测样本集;对数据集进行处理并输入到BlazePose模型中进行关键点提取;对关键点进行归一化编码处理;通过训练数据集对动作状态进行识别训练,对待测样本集动作状态进行识别;对待测样本集动作状态的次数进行统计得到计数结果;对数据集进行PCA降维处理;对降维后的数据进行分类,得到分类结果。
本发明的有益效果:利用BlazePose模型从训练样本集中提取关键点坐标后进行归一化编码,再对视频中的人体关键点进行提取与样本数据进行比对从而实现定做状态识别,规定检测到某一动作状态计数加1。将包含多类动作的图片数据集转换为关键点关联向量的集合,利用PCA降维实现了样本点可视化并在不影响精度前提下减少计算量,通过实验选择最优K值实现高精度快速分类,将BlazePose模型与KNN分类算法进行结合,实现了对体能训练视频中的动作进行实时识别和计数,及对多种姿态样本点进行分类,分类结果稳定可靠。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据提供的附图获得其他的附图。
图1为本发明实施例提供的体能训练自动识别方法的总体流程图;
图2为本发明提供的MediaPipePose流程图;
图3为本发明提供的KNN分类流程图;
图4为本发明实施例提供的直腿硬拉姿态‘down’状态图;
图5为本发明实施例提供的直腿硬拉姿态‘up’状态图;
图6为本发明实施例提供的33个人体关键点标识结果图;
图7为本发明实施例提供的‘down’状态识别结果图;
图8为本发明实施例提供的‘up’状态识别结果图;
图9为本发明实施例提供的实时视频体能动作检测及计数效果图;
图10(a)为本发明实施例提供的二维空间中六类数据样本点分布图;
图10(b)为本发明实施例提供的三维空间中六类数据样本点分布图;
图11为本发明实施例提供的不同K值下人体姿态多分类的准确率散点图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本发明实施例公开了一种一种智能化体能训练自动识别方法,如图1所示,包括以下步骤:
步骤1、获取数据集,并将数据集拆分为训练样本集和待测样本集。
步骤2、对数据集进行处理并输入到BlazePose模型中进行关键点提取。
具体的,对数据集进行处理包括:将一次完整的体能动作拆分为第一动作和第二动作两个瞬间状态,将两种状态的数据集分别存贮在第一动作和第二动作标签的文件夹下。导入mediapipe包以建立BlazePose模型,对训练样本集处理后输入到BlazePose模型提取人体关键点坐标信息,将关键点坐标信息存入csv文件中,并在输出的数据中进行关键点标识和连线。
在本发明的一个实施例中,对数据集进行处理,将一次完整的动作拆分为up和down两个瞬间状态,如图4、5所示,将一定数量两种状态的图片分别存贮在up和down两个标签文件夹下得到的图片集为处理好的数据集;利用BlazePose模型进行人体姿态识别,调用MediapipePose解决方案,采用自顶向下方法的detector-tracker两步流程,包括一个轻量化的bodyposedetector和一个posetrackernetwork,首先预测图像中所有人体关键点位置,然后将关键点连接为不同的人体实例,如图2所示,第一步为检测部分,检测部分在在第一帧框架中定位人体姿态感兴趣区域RoI,第二步为跟踪部分,使用RoI裁剪的帧作为输入来预测RoI中的姿势标志和分割掩码。导入mediapipe包并建立BlazePose模型,将图片训练集经过简单处理后输入到BlazePose模型进行提取人体33个关键点,如图6所示,坐标信息存入csv文件中,并在输出图片中进行关键点标识和连线,如图7和图8所示。
步骤3、对关键点进行归一化编码处理。
具体的,对关键点进行归一化编码处理的过程包括:
根据待识别动作状态特点,选择第一坐标点和第二坐标点连线所在直线为横坐标轴,连线中点为坐标原点,计算第三坐标点和第四坐标点的连线中点与间距离作为距离缩放尺寸,第一坐标点和第二坐标点左右对称,第三坐标点和第四坐标点左右对称;坐标归一化公式如下:
其中,i表示人体关键点数量,xi指关键点坐标,x1_2表示原点,x1_2-x3_4表示单位特征向量大小;Xi表示对各关键点进行归一化处理;
根据x1_2与x3_4的距离以及其他距离对,得到不同的特征向量来反映不同动作状态特征。
在本发明的一个实施例中,对关键点坐标进行归一化处理,采用离散归一化对原始数据进行线性变换,如图6所示,选择索引值为23、24的left_hip和right_hip坐标点连线所在直线为横坐标轴,连线中点为坐标原点,计算left_shoulder和right_shoulder连线中点与间距离作为距离缩放尺寸,坐标归一化公式如下:
i表示编号0~32,xi指33个关键点坐标,也就是归一化目标,xhips表示原点,xhips-xshoulders表示单位特征向量大小;xi_update表示对各关键点进行归一化处理;
通过33个关键点间距离差异反映动作种类的不同,从33个关键点中可以得到33*32对任意的关键点组合,选取其中的23对特定关键点,计算距离得到23个特征向量来反映不同动作状态特征;
其中,23对特定关键点的选取需要充分考虑待分类动作特点,进行不同体能动作时人体上下部分间距离差异性大于左右两部分间距离,例如直腿硬拉训练中,同侧肘关节和膝关节间距离变化幅度大于左侧膝关节与右侧膝关节,因此要选取左右对称的距离对。
步骤4、通过训练数据集对动作状态进行识别训练,对待测样本集动作状态进行识别;
具体的,对待测样本集的动作状态进行识别的过程包括:
步骤4-1、通过KNN算法第一次调用最大距离消除训练样本集中的异常值;
步骤4-2、获取待测样本集与训练样本集特征向量之间距离的平均值;
步骤4-3、选取平均距离值所对应的待测样本,对待测样本的标签进行统计,数量最多的标签即为该待测样本的动作状态。
若待测样本的动作状态为‘第一动作’,则统计待测样本集中识别到‘第一动作’的次数,即为完成体能训练动作个数。
针对不同的距离度量调用了两次KNN搜索,如图3所示:使用最小坐标距离作为距离度量,过滤掉不同的弯曲关节对应的其他姿态类;使用平均坐标距离在搜索中找到最近的姿势簇。在本发明的一个实施例中,将实时视频的帧图像中所包含的人体姿态数据作为待测样本集,KNN算法第一次调用最大距离消除训练集中的异常值,即与给定动作几乎相同的动作;但人体动作中有一个关节向另一个方向弯曲,实际上代表的是不同的姿势类别。第二阶段调用平均距离确定分类结果,计算待测样本与训练集样本特征向量间距离的平均值,选取10个最小平均距离所对应的样本;对这10个样本的标签进行统计,数量最多的一类标签即为该样本的类别值‘up’或‘down’。
在本发明的一个实施例中,分两阶段对23个特征向量构成的69维数据进行处理,两部分中调用不同距离度量,但都需要借助翻转特征向量与原特征向量进行比较来消除拍摄角度与方向的差异对分类结果的影响。将关键点关于y、z轴构成的yz平面进行翻转,计算关于yz平面对称的点集构成的特征向量,即为翻转特征向量。第一次调用最大距离消除训练集中的异常值,即与给定姿势几乎相同的姿势,但有一个关节向另一个方向弯曲,实际上代表不同的姿势类别。比较待测样本特征向量与训练集样本的特征向量及翻转特征向量间最大距离,按由小到大的顺序进行排列,保留前30个训练样本进入第二阶段。第二阶段调用平均距离确定分类结果,分别计算待测样本集的23个特征向量与训练样本集的23个特征向量和23个翻转特征向量间距离的平均值并进行比较,选取10个最小平均距离所对应的样本。对这10个样本的标签进行统计,数量最多的一类标签即为该样本的类别值‘up’或‘down’。
步骤5、对待测样本集动作状态的次数进行统计得到计数结果。
在本发明的一个实施例中,对待测样本集动作状态的次数进行统计在体能识别器的基础上,对识别到某一个动作的次数进行统计得到计数结果。将视频分解为帧图像作为待测样本输入到体能识别器,若规定待测类别为‘up’,则统计所有帧图像中识别到‘up’类的次数,即为完成体能训练动作个数的技术。对分类结果进行平滑和可视化处理,最终视频检测结果如图9所示。
步骤6、对数据集进行PCA降维处理。
具体的,将每个特征向量对应的三维数据只保留前两维;通过主成分分析法PCA进行降维操作。
在本发明的一个实施例中,选择直腿硬拉、引体向上、俯卧撑、蹲起、仰卧直腿两头起、双杠臂屈伸六个动作进行分类,将一定数量的六类图片数据集输入到BlazePose模型中进行关键点提取,并对关键点进行归一化编码处理,得到6个csv文件,将其合并后得到的csv文件每行包含一个类别标签和69维数据。首先,将每个特征向量对应的三维数据只保留前两维,即分类空间变为xy平面,数据变为46维。进一步使用主成分分析法PCA进行降维操作,将数据从46维降低至3维,实现了多维数据可视化。数据在二维度空间中分布情况如图10(a)所示,数据在三维空间中分布情况如图10(b)所示,同一颜色点代表了同一动作类别,证明了数据的有效性。
步骤7、对降维后的数据进行分类,得到分类结果。
具体的,对于降维后的数据,通过改变K值对降维后的数据进行KNN分类,包括:保留一个数据作为预测数据,剩下的作为训练数据进行训练,将分类结果与实际标签进行比对,得到K的最优值;基于K的最优值对待测样本集进行分类,得到分类结果。
在本发明的一个实施例中,利用降维后的数据,在5~20范围内改变K值进行KNN分类操作,将训练样本集中保留一个数据作为预测数据,剩下的作为训练数据,输入到体能多分类器中进行训练,将分类结果与实际标签进行比对,得到不同K值下分类准确率散点图,从而选择出K的最优值。实验结果如图11所示,K=6时,准确度最高,达到了98.19%。
在本发明的技术方案中,首先将训练集输入到BlazePose模型进行关键点提取和归一化编码,得到的特征向量集合输入到两个不同模型中,一个用于实现运动计数,一个用于PCA降维后进行多姿态分类。利用BlazePose模型从训练数据集中提取关键点坐标后进行归一化编码,再对视频中的人体关键点进行提取与样本数据进行比对从而实现姿态分类,规定检测到某一个动作计数加1。体能多分类器将包含多类动作的图片数据集转换为关键点关联向量的集合,利用PCA降维实现了样本点可视化,并在不影响精度前提下减少计算量,通过实验选择最优K值实现高精度快速分类。
本说明书中各个实施例采用递进的方式描述,每个实施例重点说明的都是与其他实施例的不同之处,各个实施例之间相同相似部分互相参见即可。对于实施例公开的装置而言,由于其与实施例公开的方法相对应,所以描述的比较简单,相关之处参见方法部分说明即可。
对所公开的实施例的上述说明,使本领域专业技术人员能够实现或使用本发明。对这些实施例的多种修改对本领域的专业技术人员来说将是显而易见的,本文中所定义的一般原理可以在不脱离本发明的精神或范围的情况下,在其它实施例中实现。因此,本发明将不会被限制于本文所示的这些实施例,而是要符合与本文所公开的原理和新颖特点相一致的最宽的范围。
Claims (8)
1.一种智能化体能训练自动识别方法,其特征在于,包括以下步骤:
步骤1、获取数据集,并将所述数据集拆分为训练样本集和待测样本集;
步骤2、对所述数据集进行处理并输入到BlazePose模型中进行关键点提取;
步骤3、对关键点进行归一化编码处理;
步骤4、通过所述训练数据集对动作状态进行识别训练,对所述待测样本集动作状态进行识别;
步骤5、对所述待测样本集动作状态的次数进行统计得到计数结果;
步骤6、对数据集进行PCA降维处理;
步骤7、对降维后的数据进行分类,得到分类结果。
3.根据权利要求1所述的一种智能化体能训练自动识别方法,其特征在于,对所述待测样本集动作状态进行识别的过程包括:
步骤4-1、通过KNN算法第一次调用最大距离消除训练样本集中的异常值;
步骤4-2、获取待测样本集与训练样本集特征向量之间距离的平均值;
步骤4-3、选取平均距离值所对应的待测样本,对待测样本的标签进行统计,数量最多的标签即为该待测样本的动作状态。
4.根据权利要求3所述的一种智能化体能训练自动识别方法,其特征在于,若待测样本的动作状态为‘第一动作’,则统计待测样本集中识别到‘第一动作’的次数,即为完成体能训练动作个数。
5.根据权利要求1所述的一种智能化体能训练自动识别方法,其特征在于,将每个特征向量对应的三维数据只保留前两维;通过主成分分析法PCA进行降维操作。
6.根据权利要求5所述的一种智能化体能训练自动识别方法,其特征在于,对于降维后的数据,通过改变K值对降维后的数据进行KNN分类,包括:保留一个数据作为预测数据,剩下的作为训练数据进行训练,将分类结果与实际标签进行比对,得到K的最优值;基于所述K的最优值对待测样本集进行分类,得到分类结果。
7.根据权利要求1所述的一种智能化体能训练自动识别方法,其特征在于,对所述数据集进行处理包括:将一次完整的体能动作拆分为第一动作和第二动作两个瞬间状态,将两种状态的数据集分别存贮在第一动作和第二动作标签的文件夹下。
8.根据权利要求1所述的一种智能化体能训练自动识别方法,其特征在于,导入mediapipe包以建立BlazePose模型,对所述数据集进行处理后输入到BlazePose模型提取人体关键点坐标信息,将所述关键点坐标信息存入csv文件中,并在输出的数据中进行关键点标识和连线。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310006684.5A CN116052272A (zh) | 2023-01-04 | 2023-01-04 | 一种智能化体能训练自动识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310006684.5A CN116052272A (zh) | 2023-01-04 | 2023-01-04 | 一种智能化体能训练自动识别方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN116052272A true CN116052272A (zh) | 2023-05-02 |
Family
ID=86128982
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310006684.5A Pending CN116052272A (zh) | 2023-01-04 | 2023-01-04 | 一种智能化体能训练自动识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116052272A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116580813A (zh) * | 2023-07-10 | 2023-08-11 | 西南交通大学 | 一种基于深度学习的腰背肌锻炼监测与评估装置及方法 |
-
2023
- 2023-01-04 CN CN202310006684.5A patent/CN116052272A/zh active Pending
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116580813A (zh) * | 2023-07-10 | 2023-08-11 | 西南交通大学 | 一种基于深度学习的腰背肌锻炼监测与评估装置及方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109816092B (zh) | 深度神经网络训练方法、装置、电子设备及存储介质 | |
Jeni et al. | Facing imbalanced data--recommendations for the use of performance metrics | |
CN111191622A (zh) | 基于热力图和偏移向量的姿态识别方法、系统及存储介质 | |
Han et al. | Face recognition with contrastive convolution | |
CN107871100A (zh) | 人脸模型的训练方法和装置、人脸认证方法和装置 | |
CN111563452B (zh) | 一种基于实例分割的多人体姿态检测及状态判别方法 | |
CN108629336B (zh) | 基于人脸特征点识别的颜值计算方法 | |
CN112418095A (zh) | 一种结合注意力机制的面部表情识别方法及系统 | |
CN110555417A (zh) | 一种基于深度学习的视频图像识别系统及方法 | |
WO2017161734A1 (zh) | 通过电视和体感配件矫正人体动作及系统 | |
CN104915684B (zh) | 一种基于鲁棒多平面支持向量机的图像识别方法及装置 | |
CN108108760A (zh) | 一种快速人脸识别方法 | |
CN109032337A (zh) | 一种基于数据手套的kem手势识别算法 | |
CN112966574A (zh) | 人体三维关键点预测方法、装置及电子设备 | |
CN111914643A (zh) | 一种基于骨骼关键点检测的人体动作识别方法 | |
Rao et al. | Neural network classifier for continuous sign language recognition with selfie video | |
CN112418135A (zh) | 人体行为识别方法、装置、计算机设备及可读存储介质 | |
CN116052272A (zh) | 一种智能化体能训练自动识别方法 | |
CN114902299A (zh) | 图像中关联对象的检测方法、装置、设备和存储介质 | |
CN115227234A (zh) | 一种基于摄像头的心肺复苏按压动作评估方法与系统 | |
CN115205933A (zh) | 面部表情识别方法、装置、设备及可读存储介质 | |
Dai et al. | RSGNet: Relation based skeleton graph network for crowded scenes pose estimation | |
CN114170686A (zh) | 一种基于人体关键点的屈肘行为检测方法 | |
Nguyen et al. | Combined YOLOv5 and HRNet for high accuracy 2D keypoint and human pose estimation | |
CN116311190A (zh) | 一种基于YOLOv5s的服装种类检测与识别方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |