CN115393964A - 基于BlazePose的健身动作识别方法及装置 - Google Patents

基于BlazePose的健身动作识别方法及装置 Download PDF

Info

Publication number
CN115393964A
CN115393964A CN202211315047.8A CN202211315047A CN115393964A CN 115393964 A CN115393964 A CN 115393964A CN 202211315047 A CN202211315047 A CN 202211315047A CN 115393964 A CN115393964 A CN 115393964A
Authority
CN
China
Prior art keywords
motion
posture
joint point
human body
blazepose
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202211315047.8A
Other languages
English (en)
Other versions
CN115393964B (zh
Inventor
可婷
李哲栋
王伟
王波
张传雷
李建荣
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Siteng Heli Tianjin Technology Co ltd
Tianjin University of Science and Technology
Original Assignee
Siteng Heli Tianjin Technology Co ltd
Tianjin University of Science and Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Siteng Heli Tianjin Technology Co ltd, Tianjin University of Science and Technology filed Critical Siteng Heli Tianjin Technology Co ltd
Priority to CN202211315047.8A priority Critical patent/CN115393964B/zh
Publication of CN115393964A publication Critical patent/CN115393964A/zh
Application granted granted Critical
Publication of CN115393964B publication Critical patent/CN115393964B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Human Computer Interaction (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Image Analysis (AREA)

Abstract

本发明提出一种基于BlazePose的健身动作识别方法及装置,基于BlazePose轻量级卷积神经网络对图像进行人体姿态估计,得到图像中用户在进行健身时的关节点位置信息;将关节点位置信息转换为特征向量,基于KNN分类提取当前运动类别;通过角度分析与距离阈值判断检测用户在当前运动类别的姿态准确与否,并根据结果反馈动作改进建议。本发明能够自动分析运动动作,准确检测运动错误姿势提高健身效率,降低用户因动作不标准所导致肌肉拉伤的风险性。

Description

基于BlazePose的健身动作识别方法及装置
技术领域
本发明属于计算机视觉领域,特别是涉及到一种基于BlazePose的健身动作识别方法及装置。
背景技术
随着计算机信息技术的飞速发展,如今人们开始利用计算机对视频、图像等信息进行分析和判断。其中人体姿态估计作为计算机视觉领域的热点,在智能视频监控、自动驾驶等应用中发挥着越来越重要的作用。近年来,随着深度学习在图像分类、语义分割、目标检测等计算机任务上的优秀表现,采用深度学习方法进行二维人体姿态估计,相较于传统需要人工设定特征的方法,更能充分地提取图像信息,获取更具有鲁棒性的特征。因此,基于深度学习的方法已成为二维人体姿态估计算法研究的主流方向。
目前,国内外对基于深度学习的二维人体姿态方法估计主要分为单人与多人两大类进行论述。根据真值类型的不同将单人姿态估计分为基于热图检测与基于坐标回归两类,根据不同的算法步骤将多人姿态估计分为二步法与一步法两类。
典型的单人姿势估计方法的框架可以被表述为由一个姿势编码器和一个姿势解码器组成。姿势编码器是提取高级特征的骨干,而姿势解码器则以基于回归的方式或基于检测的方式得到关键点的二维位置。
在多人姿态估计中,需要检测和定位图像中所有人物的关键点,其中人物的数量事先是未知的。根据处理范式的不同,两阶段方法可以分为自上而下的方法和自下而上的方法。自顶向下的方法主要由两部分构成:人体检测器与单人姿态估计器。该类方法先使用检测器检测框出人体,再对框出的人体做类似单人姿态估计的操作。自底向上的方法也主要由两部分构成,人体关节点检测器和关节点候选分组。该类方法使用检测器定位图像中所有人物的关节,然后对关节空间进行建模,最后对关节进行优化分组。为了简化两步多人姿态估计的过程,提高多人姿态估计的效率,也可以使用单阶段多人姿态检测器(SPM)来简化人体分割和关节定位的过程。
对健身运动学习而言,现有的大多数方法仅提供健身教练的标准运动视频给用户学习,忽略了用户动作学习程度的评估。此外,ST-GCN等方法使用人体姿势估计来评估用户动作。这些算法取得了更好的性能是因为从人体骨架和关节点随运动变化的轨迹中能更好地捕捉到运动信息。然而也容易忽略用户错误动作的特征,不能根据错误特征给出相应的改进建议。
发明内容
本发明提出一种基于BlazePose的健身动作识别方法及装置,能够自动分析运动动作,准确检测运动错误姿势提高健身效率,降低用户因动作不标准所导致肌肉拉伤的风险性。
为达到上述目的,本发明的技术方案是这样实现的:
一种基于BlazePose的健身动作识别方法,包括:
S1、基于BlazePose轻量级卷积神经网络对图像进行人体姿态估计,得到图像中用户在进行健身时的关节点位置信息;
S2、将关节点位置信息转换为特征向量,基于KNN分类提取当前运动类别;
S3、通过角度分析与距离阈值判断检测用户在当前运动类别的姿态准确与否,并根据结果反馈动作改进建议。
进一步的,步骤S1所述人体姿态估计具体包括:
将图像输入到BlazePose轻量级卷积神经网络结构中,得到图像坐标系下各个关节点坐标信息,每个关节点信息表示为(x,y,z,v);其中xy表示为在图像坐标系下关节点归一化的坐标位置;z表示以胯部中点深度为原点的关节点深度;v表示关节点可见的可能性值。
进一步的,步骤S2所述将关节点位置信息转换为特征向量包括:
将人体左胯与右胯的中心点视为人体中心点,人体中心点到左肩与右肩的中心点距离视为人体躯干尺寸;然后基于人体中心点初始化每个关节点的相对位置,将每个关节点与人体中心点的相对距离作为特征的一部分,按人体关节关联性规则提取关节之间的成对距离作为特征的另一部分。
进一步的,步骤S2所述基于KNN分类提取当前运动类别包括:
将每类运动,划分为开始姿势和完成姿势两种类别,即n类运动有2n种姿势类别;挑选每类运动的开始姿势图片与完成姿势图片,将图片通过步骤S1得到相应的关节点位置信息,再将关节点位置信息转化为特征向量作为KNN算法分类器的输入特征,通过K折交叉验证法确定K值,训练得到运动分类模型;当新的运动姿势样本对象需要分类时,通过运动分类模型,选择K个样本中出现最多的类别记为当前运动类别。
进一步的,步骤S3中所述检测用户在当前运动类别的姿态准确与否,包括常态化检测与标准化检测,其中常态化检测指检测在整个的运动过程中躯体是否标准,标准化检测指检测动作完成度整体是否达标;当KNN分类结果为当前运动类别的完成姿势的置信度达到极值时,进行标准化检测;所述常态化检测与标准化检测通过角度分析与距离阈值判断进行检测,其中角度与距离阈值为当前运动类别的运动标准。
本发明另一方面还提出了一种基于BlazePose的健身动作识别装置,包括:
人体姿态估计模块,基于BlazePose轻量级卷积神经网络对图像进行人体姿态估计,得到图像中用户在进行健身时的关节点位置信息;
提取运动类别模块,将关节点位置信息转换为特征向量,基于KNN分类提取当前运动类别;
姿态分析模块,通过角度分析与距离阈值判断检测用户在当前运动类别的姿态准确与否,并根据结果反馈动作改进建议。
进一步的,所述人体姿态估计模块包括:
将图像输入到BlazePose轻量级卷积神经网络结构中,得到图像坐标系下各个关节点坐标信息,每个关节点信息表示为(x,y,z,v);其中xy表示为在图像坐标系下关节点归一化的坐标位置;z表示以胯部中点深度为原点的关节点深度;v表示关节点可见的可能性值。
进一步的,所述提取运动类别模块包括:
将人体左胯与右胯的中心点视为人体中心点,人体中心点到左肩与右肩的中心点距离视为人体躯干尺寸;然后基于人体中心点初始化每个关节点的相对位置,将每个关节点与人体中心点的相对距离作为特征的一部分,按人体关节关联性规则提取关节之间的成对距离作为特征的另一部分。
进一步的,所述提取运动类别模块还包括:
将每类运动,划分为开始姿势和完成姿势两种类别,即n类运动有2n种姿势类别;挑选每类运动的开始姿势图片与完成姿势图片,将图片通过步骤S1得到相应的关节点位置信息,再将关节点位置信息转化为特征向量作为KNN算法分类器的输入特征,通过K折交叉验证法确定K值,训练得到运动分类模型;当新的运动姿势样本对象需要分类时,通过运动分类模型,选择K个样本中出现最多的类别记为当前运动类别。
进一步的,所述姿态分析模块,包括常态化检测与标准化检测,其中常态化检测指检测在整个的运动过程中躯体是否标准,标准化检测指检测动作完成度整体是否达标;当KNN分类结果为当前运动类别的完成姿势的置信度达到极值时,进行标准化检测;所述常态化检测与标准化检测通过角度分析与距离阈值判断进行检测,其中角度与距离阈值为当前运动类别的运动标准。
与现有技术相比,本发明具有如下的有益效果:
本发明通过BlazePose方法快速获取人体姿态关节点图像位置信息,结合人体关节点之间的关联性进行特征再提取,通过特征进行运动快速分类,最后针对相应运动类别进行姿态分析,检测动作是否存在错误;本发明可以自动分析健身运动动作,对各类别动作特征识别准确率达到0.892,准确检测运动错误姿势, 并提供动作改进建议,提高健身效率,降低用户因动作不标准所导致肌肉拉伤的风险性。
附图说明
图1是BlazePose推断流程图;
图2是人体关节点关联图;
其中:0、鼻子;1、左眼内侧;2、左眼;3、左眼外侧;4、右眼内侧;
5、右眼;6、右眼外侧;7、左耳;8、右耳;9、嘴左侧;10、嘴右侧;
11、左肩;12、右肩;13、左肘;14、右肘;15、左手腕;16、右手腕;
17、左小指;18、右小指;19、左中指;20、右中指;21、左拇指;
22、右拇指;23、左胯;24、右胯;25、左膝;26、右膝;27、左脚踝;
28、右脚踝;29、左脚跟;30、右脚跟;31、左脚趾;32、右脚趾;
图3是本发明实施例的仰卧起坐检测示意图;
图4是本发明实施例的仰卧起坐检测流程图;
图5是本发明实施例的俯卧撑检测示意图;
图6是本发明实施例的俯卧撑检测流程图;
图7是本发明实施例的仰卧起坐运动姿态类别划分示意图;
其中:图7(a)为正确姿势,图7(b)为手部错误姿势,图7 (c)、图7(d)为腿部错误姿势,图7 (e)为整体错误姿势;
图8是本发明实施例的俯卧撑运动姿态类别划分示意图;
其中:图8(a)为正确姿势,图8(b)为腿部错误姿势,图8 (c)、图8 (d)为躯干错误姿势,图8 (e)为整体错误姿势。
具体实施方式
需要说明的是,在不冲突的情况下,本发明中的实施例及实施例中的特征可以相互组合。
为使本发明专利的目的、特征更明显易懂,下面结合附图对本发明专利的具体实施方式作进一步的说明。需说明的是,附图均采用非常简化的形式且均使用非精准的比率,仅用以方便、明晰地辅助说明本发明专利实施例的目的。
下面结合附图对本发明的具体实施做进一步的详细说明。
本发明提出的基于BlazePose的多步骤健身动作识别,具体可分为三个模块。第一个模块是人体姿态估计模块,该模块通过用于人体姿态估计的轻量级卷积神经网络架构(BlazePose),可以快速获取人体关节点位置信息;第二个模块是提取运动类别模块,该模块对关节点位置信息进行特征再提取,并通过KNN分类确定运动类别;第三个模块是姿态分析模块,该模块可以针对识别到的运动类别进行分析,通过运动本身规则提出改进意见。下面分别对三个模块进行详细介绍。
1、人体姿态估计:
人体姿态估计是本发明中一个重要模块,通过本模块可以得到用户在进行健身时的人体骨架以及关节点位置信息。考虑到算法的性能与准确性,本发明应用了BlazePose算法。现代的大多数目标检测解决方案中最后的处理步骤中都依赖于非最大抑制(Non-Maximum Suppression, NMS)算法,当人体关节出现交错时易出现错误。BlazePose为一种用于人体姿态估计的轻量级卷积神经网络架构,其作了一个大胆的假设:在单人用例中始终应看到人员的头部。从而使用快速面部检测器作为人体检测器的替代品。BlazePose包含了一个姿态追踪器, 利用了视频图像的帧与帧之间姿态与人体框的联系进行姿态跟踪以提升性能。如果在当前检测器能够预测到下一帧中姿势位置的时候,姿势检测器就不会运行,会一直使用姿势追踪器的结果,否则就会重新运行检测器,并初始化姿态追踪器。将图像输入到BlazePose网络结构中,即可得到图像坐标系下各个关节点位置信息,每个关节点位置信息可表示为(x,y,z,v)。其中xy表示为在图像坐标系下关节点归一化的坐标位置;z表示以胯部中点深度为原点的关节点深度,值越小则关节点离相机越近;v表示关节点可见(未被遮挡)的可能性值。推断流程图如图1所示。
2、提取运动类别:
首先,本模块对关节点位置信息进行特征再提取,人体在健身、舞蹈等某类运动时其关节点信息与运动变换之间具有高度关联性。为了将关节点位置信息转换为特征向量,将左胯与右胯的中心点视为人体中心点,人体中心点到左肩与右肩的中心点距离视为人体躯干尺寸。然后基于人体中心点初始化每个关节点的相对位置,将每个关节点与人体中心点的相对距离作为特征向量的一部分。同时如图2所示的人体关节点关联图,按照人体关节关联性规则(图中的双向箭头)提取关节之间的成对距离作为特征向量的另一部分,例如手腕和肩部、脚踝和臀部以及两个手腕之间的距离。
所述特征向量的形式为(s1,s2…,sn,l1,l2,..,lm)。其中s1,s2…,sn是各个关节点与人体中心点的相对距离,n为关节点数量;l1,l2,..,lm为按照人体关节关联性规则的关节之间的成对距离,m为成对距离的数量。
其中关节点与人体中心点的相对距离、以及关节之间的成对距离,通过欧式距离来表示。由于在多维空间下,点A(a 1 ,a 2 ,…,a S )与点B(b 1 ,b 2 ,…,b S )的欧式距离公式可表示为式(1):
Figure 505367DEST_PATH_IMAGE001
(1)
则关节点A(xa,ya,za,va)与关节点B(xb,yb,zb,vb)之间的欧式距离为
Figure 265251DEST_PATH_IMAGE002
。xa和ya表示在图像坐标系下关节点A归一化的坐标位置;xb和yb表示在图像坐标系下关节点B归一化的坐标位置;
其次,将每种类别的运动,再划分出开始姿势和完成姿势两种类别,即n种类别的运动有2n种姿势类别。挑选每类运动的大量开始姿势图片与完成姿势图片,将图片输入到人体姿态估计模块中,得到相应关节点位置信息。再通过关节点位置信息进行特征再提取,提取得到的特征(关节点与人体中心点的相对距离、以及关节之间的成对距离)作为KNN(KNearest Neighbors)分类器的输入特征,最后通过K折交叉验证法确定K值,训练得到运动分类模型。
所述运动分类模型是基于KNN的核心思想,如果一个样本在特征空间中的K个最相似(即特征空间中最邻近)的样本中的大多数属于某一个类别,则该样本也属于这个类别。
当有新的运动姿势样本对象需要分类时,通过所述运动分类模型,选择K个样本中出现最多的类别记为该运动姿势的运动类别。
3、姿态分析:
姿态分析模块是通过检测运动过程中相关的关节点位置信息是否符合运动标准来完成分析,包括常态化检测与标准化检测,其中常态化检测指检测在整个的运动过程中躯体是否标准,标准化检测指检测动作完成度整体是否达标;当KNN分类结果为当前运动类别的完成姿势的置信度达到极值时,进行标准化检测;所述常态化检测与标准化检测通过角度分析与距离阈值判断进行检测,其中角度与距离阈值为当前运动类别的运动标准。
以仰卧起坐与俯卧撑运动为例:
如图3所示,对仰卧起坐而言,常态化检测主要包含两种情况的检测。当两种错误情况同时发生则视为整体错误,若同时满足则视为正确姿势。一是检测手是否保持在耳后,该部分将眼睛到对应耳朵的距离作为阈值,将手腕到耳朵的距离记为d1,判断其是否小于阈值;将肘关节到膝关节的距离记为d2,判断其是否小于其阈值。将手腕、肘关节与肩部的夹角记作α,检测是否小于90°,若不满足则视为仰卧起坐手部姿势发生错误。二是检测双腿是否保持弯曲,将胯关节、膝关节与踝关节的夹角记作β,检测是否在45°~90°之间;将膝关节、踝关节与脚趾的夹角记作γ,检测是否小于90°。若不满足则视为仰卧起坐腿部姿势发生错误。
同时当KNN分类结果为仰卧起坐(动作完成姿势类别)的置信度记作CMSs,每当CMSs达到极值时则进行标准化检测。检测肘关节与膝关节的距离是否小于阈值,若不满足则视为动作完成度不达标。总体而言,仰卧起坐检测机制如图4所示。
如图5所示,对俯卧撑而言,常态化检测也主要包含两种情况的检测。当两种错误情况同时发生则视为整体错误,若同时满足则视为正确姿势。一是检测腿部是否发生弯曲,将踝关节、膝关节与胯关节之间的夹角记作δ,检测是否不超过165°,若不满足则视为俯卧撑腿部姿势发生错误。二是检测躯干是否发生弯曲,将膝关节、胯关节与肩部之间的夹角记作ε,检测是否大于160°,若不满足则视为俯卧撑躯干姿势发生错误。
同时将KNN分类结果为俯卧撑(动作完成姿势类别)的置信度记作CMPs,每当CMPs达到极值时,则进行标准化检测。检测d3(肘关节到手部水平线距离)是否小于等于d4(肩部到手部水平线距离),即若不满足则视为动作完成度不达标。综上,俯卧撑检测机制如图6所示。
对上述检测方法而言,其结果正确度高度依赖于关节点估计的准确度。一旦上游的人体姿态估计任务结果产生偏差,对下游的应用结果会产生较大影响。因此引入误判处理,在应用的环节适当降低发生误判的可能性。即在健身运动视频所产生的关节点序列Sn中,连续多帧St、St+1、St+2判断为同一类别错误姿势可视为确定性错误,否则视为可能发生潜在误判。
本发明的验证实例如下:
(1) HSiPu2数据集
HSiPu2人体健身动作数据集,其中包含8044个动作数据序列和80440幅图像的人体动作特征数据。HSiPu2针对仰卧起坐、俯卧撑和引体向上三种运动动作建立数据集,每种动作数据使用两个摄像机作为传感器工作,从不同的视角捕捉特征。本实例中对HSiPu2中仰卧起坐侧面与俯卧撑侧面部分图片,为了效果验证,按照动作正确或错误细节重新划分为八个类别,其中包含俯卧撑正确姿势、俯卧撑腿部错误姿势、俯卧撑躯干错误姿势、俯卧撑整体错误姿势、仰卧起坐正确姿势、仰卧起坐手部错误姿势、仰卧起坐腿部错误姿势、仰卧起坐整体错误姿势。经过左右翻转、高斯噪声等数据增强手段后,共计得到11030张图片,并按7:1:2比例划分为训练集、验证集与测试集,各类别图片数量如表1所示。
Figure 389196DEST_PATH_IMAGE003
具体运动姿态类别划分如图7和图8所示。其中图7(a)为仰卧起坐正确姿势,图7(b)为仰卧起坐手部错误姿势,图7 (c)、图7 (d)为仰卧起坐腿部错误姿势,图7 (e)为仰卧起坐整体错误姿势;图8(a)为俯卧撑正确姿势,图8(b)俯卧撑为腿部错误姿势,图8 (c)、图8 (d)为俯卧撑躯干错误姿势,图8 (e)为俯卧撑整体错误姿势。
(2)设置
硬件环境为NVIDIA RTX 2060,8核16位AMD 4800H CPU,16 GBDDR4存储器。软件环境为64位Ubuntu18.04LTS,依赖的主要工具包括 opencv4.5.1、torch1.7.1、torchvision0.8.1、mediapipe0.8.3。
首先通过BlazePose获取HSiPu2数据集中人体的关节点信息,其次根据关节点信息提取归一化后特征、关节点之间的相对位置特征,并通过KNN分类得到其运动类别,最后通过角度分析与阈值判断检测当前运动姿态准确与否,最后根据结果反馈动作改进建议。
为了对比验证本方法的可行性,本发明选择HSiPu2作为实验数据集,并选择VGG16、KNN、SVM、Decision Tree、Random Forest等经典模型作为对比模型。其中VGG16使用原始图片作为输入特征,不经过人体姿态估计与姿态分析处理,learning rate设置为0.00001,epochs设置为100;KNN使用10重交叉验证的方法,取K值为4;SVM使用网格搜索法,取5为C值,核函数为poly;Decision Tree使用网格搜索法,树的最大深度取6,叶子节点所需最少样本数为2, 节点再划分所需最少样本数为2;Random Forest分类器个数设置为200。
本发明选择准确率(Accuracy)作为各分类模型的评价标准。即对于给定的运动数据集,如式(2)所示,分类器正确分类的样本数T与总样本数之比N作为评价指标。每次实验按比例随机划分数据集,重复五次,实验结果取均值。
Figure 112301DEST_PATH_IMAGE004
(2)
(3)结果与分析
本发明实时检测中可达21FPS,最终模型在各运动类别上分类结果对比如表2所示,从结果可以看出,本发明在准确率上优于其他对比模型,准确率可达89.2%。这是因为从人体关节点随运动变化的轨迹中能更好地捕捉到运动信息,并且结合运动本身规则去分析可以更好地判别动作是否标准。
Figure 972679DEST_PATH_IMAGE005
各算法模型在俯卧撑正确姿势、俯卧撑躯干错误姿势、俯卧撑腿部错误姿势与俯卧撑整体姿势四类姿势类别上的识别准确率可以看到,本发明总体而言优于其他模型,能较好地在实际检测中完成俯卧撑运动姿态识别任务。
各算法模型在仰卧起坐正确姿势、仰卧起坐手部错误姿势、仰卧起坐腿部错误姿势与仰卧起坐整体姿势四类姿势类别上的识别准确率,只有在仰卧起坐整体错误姿势类别中本发明与VGG16能较好地完成识别任务。而在其他类别中,各模型识别表现差异并不明显。
为了验证各算法性能上存在差异性,使用Friedman检验进行判断。各算法的平均序值如表3所示,在N个数据集上比较k个算法,令ri表示第i个算法的平均序值。ri服从正态分布,其均值为(k + 1)/2,方差为(k2 - 1)/12。如式3所示,当K与N较大时,统计变量
Figure 857458DEST_PATH_IMAGE006
服从自由度为k-1的卡方分布,统计变量
Figure 671961DEST_PATH_IMAGE007
服从自由度为k - 1和(k - 1)(N - 1)的F分布,可以利用两个统计变量检验算法之间是否存在明显差距。
Figure 933178DEST_PATH_IMAGE008
(3)
Figure 398795DEST_PATH_IMAGE009
(4)
Figure 703743DEST_PATH_IMAGE010
通过计算得到统计变量
Figure 254810DEST_PATH_IMAGE007
约等于5.686,大于F分布中的相应临界检验值。故多个算法的性能结果之间存在显著差异。
上述应用结果表明本发明具有较高的分类精度,能够准确检测运动错误姿势的发生并提出改进建议。
以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

Claims (10)

1.一种基于BlazePose的健身动作识别方法,其特征在于,包括:
S1、基于BlazePose轻量级卷积神经网络对图像进行人体姿态估计,得到图像中用户在进行健身时的关节点位置信息;
S2、将关节点位置信息转换为特征向量,基于KNN分类提取当前运动类别;
S3、通过角度分析与距离阈值判断检测用户在当前运动类别的姿态准确与否,并根据结果反馈动作改进建议。
2.根据权利要求1所述的基于BlazePose的健身动作识别方法,其特征在于,步骤S1所述人体姿态估计具体包括:
将图像输入到BlazePose轻量级卷积神经网络结构中,得到图像坐标系下各个关节点坐标信息,每个关节点信息表示为(x,y,z,v);其中xy表示为在图像坐标系下关节点归一化的坐标位置;z表示以胯部中点深度为原点的关节点深度;v表示关节点可见的可能性值。
3.根据权利要求1所述的基于BlazePose的健身动作识别方法,其特征在于,步骤S2所述将关节点位置信息转换为特征向量包括:
将人体左胯与右胯的中心点视为人体中心点,人体中心点到左肩与右肩的中心点距离视为人体躯干尺寸;然后基于人体中心点初始化每个关节点的相对位置,将每个关节点与人体中心点的相对距离作为特征的一部分,按人体关节关联性规则提取关节之间的成对距离作为特征的另一部分。
4.根据权利要求1所述的基于BlazePose的健身动作识别方法,其特征在于,步骤S2所述基于KNN分类提取当前运动类别包括:
将每类运动,划分为开始姿势和完成姿势两种类别,即n类运动有2n种姿势类别;挑选每类运动的开始姿势图片与完成姿势图片,将图片通过步骤S1得到相应的关节点位置信息,再将关节点位置信息转化为特征向量作为KNN算法分类器的输入特征,通过K折交叉验证法确定K值,训练得到运动分类模型;当新的运动姿势样本对象需要分类时,通过运动分类模型,选择K个样本中出现最多的类别记为当前运动类别。
5.根据权利要求1所述的基于BlazePose的健身动作识别方法,其特征在于,步骤S3中所述检测用户在当前运动类别的姿态准确与否,包括常态化检测与标准化检测,其中常态化检测指检测在整个的运动过程中躯体是否标准,标准化检测指检测动作完成度整体是否达标;当KNN分类结果为当前运动类别的完成姿势的置信度达到极值时,进行标准化检测;所述常态化检测与标准化检测通过角度分析与距离阈值判断进行检测,其中角度与距离阈值为当前运动类别的运动标准。
6.一种基于BlazePose的健身动作识别装置,其特征在于,包括:
人体姿态估计模块,基于BlazePose轻量级卷积神经网络对图像进行人体姿态估计,得到图像中用户在进行健身时的关节点位置信息;
提取运动类别模块,将关节点位置信息转换为特征向量,基于KNN分类提取当前运动类别;
姿态分析模块,通过角度分析与距离阈值判断检测用户在当前运动类别的姿态准确与否,并根据结果反馈动作改进建议。
7.根据权利要求6所述的基于BlazePose的健身动作识别装置,其特征在于,所述人体姿态估计模块包括:
将图像输入到BlazePose轻量级卷积神经网络结构中,得到图像坐标系下各个关节点坐标信息,每个关节点信息表示为(x,y,z,v);其中xy表示为在图像坐标系下关节点归一化的坐标位置;z表示以胯部中点深度为原点的关节点深度;v表示关节点可见的可能性值。
8.根据权利要求6所述的基于BlazePose的健身动作识别装置,其特征在于,所述提取运动类别模块包括:
将人体左胯与右胯的中心点视为人体中心点,人体中心点到左肩与右肩的中心点距离视为人体躯干尺寸;然后基于人体中心点初始化每个关节点的相对位置,将每个关节点与人体中心点的相对距离作为特征的一部分,按人体关节关联性规则提取关节之间的成对距离作为特征的另一部分。
9.根据权利要求6所述的基于BlazePose的健身动作识别装置,其特征在于,所述提取运动类别模块还包括:
将每类运动,划分为开始姿势和完成姿势两种类别,即n类运动有2n种姿势类别;挑选每类运动的开始姿势图片与完成姿势图片,将图片通过步骤S1得到相应的关节点位置信息,再将关节点位置信息转化为特征向量作为KNN算法分类器的输入特征,通过K折交叉验证法确定K值,训练得到运动分类模型;当新的运动姿势样本对象需要分类时,通过运动分类模型,选择K个样本中出现最多的类别记为当前运动类别。
10.根据权利要求6所述的基于BlazePose的健身动作识别装置,其特征在于,所述姿态分析模块,包括常态化检测与标准化检测,其中常态化检测指检测在整个的运动过程中躯体是否标准,标准化检测指检测动作完成度整体是否达标;当KNN分类结果为当前运动类别的完成姿势的置信度达到极值时,进行标准化检测;所述常态化检测与标准化检测通过角度分析与距离阈值判断进行检测,其中角度与距离阈值为当前运动类别的运动标准。
CN202211315047.8A 2022-10-26 2022-10-26 基于BlazePose的健身动作识别方法及装置 Active CN115393964B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202211315047.8A CN115393964B (zh) 2022-10-26 2022-10-26 基于BlazePose的健身动作识别方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202211315047.8A CN115393964B (zh) 2022-10-26 2022-10-26 基于BlazePose的健身动作识别方法及装置

Publications (2)

Publication Number Publication Date
CN115393964A true CN115393964A (zh) 2022-11-25
CN115393964B CN115393964B (zh) 2023-01-31

Family

ID=84128094

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202211315047.8A Active CN115393964B (zh) 2022-10-26 2022-10-26 基于BlazePose的健身动作识别方法及装置

Country Status (1)

Country Link
CN (1) CN115393964B (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116580813A (zh) * 2023-07-10 2023-08-11 西南交通大学 一种基于深度学习的腰背肌锻炼监测与评估装置及方法
CN116959112A (zh) * 2023-07-27 2023-10-27 上海电机学院 一种基于机器视觉的动作检测计数系统及其方法

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104321718A (zh) * 2012-06-29 2015-01-28 英特尔公司 用于人类自然命令控制的多模态行为感知
US20150075303A1 (en) * 2013-09-17 2015-03-19 Medibotics Llc Motion Recognition Clothing (TM) with Two Different Sets of Tubes Spanning a Body Joint
CN105930767A (zh) * 2016-04-06 2016-09-07 南京华捷艾米软件科技有限公司 一种基于人体骨架的动作识别方法
CN106570482A (zh) * 2016-11-03 2017-04-19 深圳先进技术研究院 人体动作识别方法及装置
CN109101864A (zh) * 2018-04-18 2018-12-28 长春理工大学 基于关键帧和随机森林回归的人体上半身动作识别方法
CN109344692A (zh) * 2018-08-10 2019-02-15 华侨大学 一种运动质量评价方法及系统
CN113762133A (zh) * 2021-09-01 2021-12-07 哈尔滨工业大学(威海) 基于人体姿态识别的自重健身辅助教练系统、方法、终端
CN114191803A (zh) * 2021-12-08 2022-03-18 上海影谱科技有限公司 基于深度学习的平板支撑姿势标准与否的判别方法和装置
CN115188078A (zh) * 2022-07-22 2022-10-14 南京邮电大学 一种基于语音交互和姿态估计的乒乓球智能动作训练方法

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104321718A (zh) * 2012-06-29 2015-01-28 英特尔公司 用于人类自然命令控制的多模态行为感知
US20150075303A1 (en) * 2013-09-17 2015-03-19 Medibotics Llc Motion Recognition Clothing (TM) with Two Different Sets of Tubes Spanning a Body Joint
CN105930767A (zh) * 2016-04-06 2016-09-07 南京华捷艾米软件科技有限公司 一种基于人体骨架的动作识别方法
CN106570482A (zh) * 2016-11-03 2017-04-19 深圳先进技术研究院 人体动作识别方法及装置
CN109101864A (zh) * 2018-04-18 2018-12-28 长春理工大学 基于关键帧和随机森林回归的人体上半身动作识别方法
CN109344692A (zh) * 2018-08-10 2019-02-15 华侨大学 一种运动质量评价方法及系统
CN113762133A (zh) * 2021-09-01 2021-12-07 哈尔滨工业大学(威海) 基于人体姿态识别的自重健身辅助教练系统、方法、终端
CN114191803A (zh) * 2021-12-08 2022-03-18 上海影谱科技有限公司 基于深度学习的平板支撑姿势标准与否的判别方法和装置
CN115188078A (zh) * 2022-07-22 2022-10-14 南京邮电大学 一种基于语音交互和姿态估计的乒乓球智能动作训练方法

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116580813A (zh) * 2023-07-10 2023-08-11 西南交通大学 一种基于深度学习的腰背肌锻炼监测与评估装置及方法
CN116959112A (zh) * 2023-07-27 2023-10-27 上海电机学院 一种基于机器视觉的动作检测计数系统及其方法

Also Published As

Publication number Publication date
CN115393964B (zh) 2023-01-31

Similar Documents

Publication Publication Date Title
Ji et al. Interactive body part contrast mining for human interaction recognition
CN115393964B (zh) 基于BlazePose的健身动作识别方法及装置
Liu et al. Two-stream 3d convolutional neural network for skeleton-based action recognition
WO2021114892A1 (zh) 基于环境语义理解的人体行为识别方法、装置、设备及存储介质
CN109815826B (zh) 人脸属性模型的生成方法及装置
Ning et al. Discriminative learning of visual words for 3D human pose estimation
Guo et al. Multiview cauchy estimator feature embedding for depth and inertial sensor-based human action recognition
Ghazal et al. Human posture classification using skeleton information
US20100049675A1 (en) Recovery of 3D Human Pose by Jointly Learning Metrics and Mixtures of Experts
CN110458235B (zh) 一种视频中运动姿势相似度比对方法
CN110633004B (zh) 基于人体姿态估计的交互方法、装置和系统
Huang et al. Domain adaptive attention learning for unsupervised person re-identification
Liang et al. 3D human action recognition using a single depth feature and locality-constrained affine subspace coding
US10417487B2 (en) Pattern recognition apparatus, pattern recognition method, and storage medium
Zhao et al. Image feature correspondence selection: A comparative study and a new contribution
Shah et al. Multi-view action recognition using contrastive learning
CN113901891A (zh) 帕金森病握拳任务的评估方法及系统、存储介质及终端
Zhou et al. Jointly learning visual poses and pose lexicon for semantic action recognition
Badhe et al. Artificial neural network based indian sign language recognition using hand crafted features
Li et al. Fitness Action Counting Based on MediaPipe
Pang et al. Analysis of computer vision applied in martial arts
Du et al. Discriminative hash tracking with group sparsity
Nguyen et al. Combined YOLOv5 and HRNet for high accuracy 2D keypoint and human pose estimation
Elmezain et al. A novel system for automatic hand gesture spotting and recognition in stereo color image sequences
Ren et al. Human fall detection model with lightweight network and tracking in video

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant