CN109815907A - 一种基于计算机视觉技术的仰卧起坐姿态检测与指导方法 - Google Patents
一种基于计算机视觉技术的仰卧起坐姿态检测与指导方法 Download PDFInfo
- Publication number
- CN109815907A CN109815907A CN201910073370.0A CN201910073370A CN109815907A CN 109815907 A CN109815907 A CN 109815907A CN 201910073370 A CN201910073370 A CN 201910073370A CN 109815907 A CN109815907 A CN 109815907A
- Authority
- CN
- China
- Prior art keywords
- sit
- ups
- user
- detection
- movement
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Abstract
本发明公开了一种基于计算机视觉技术的仰卧起坐姿态检测与指导方法,它包含如下步骤:一、深度传感器采集图像;二、获取人体关节点位置;三、生成人体的骨架系统;四、获取动作状态规范性;五、动作规范反馈和改进;本发明检测设备属于非接触式,优化了用户体验,体积较小,制作成本低,不需要占用较大的使用空间,可以在学校和家庭中布置使用;通过标准化的指导和提示来提高学生的动作规范性,进而提高学生体质测试该项目的成绩,达到强身健体的效果。
Description
技术领域
本发明涉及计算机视觉技术领域,具体涉及一种基于计算机视觉技术的仰卧起坐姿态检测与指导方法。
背景技术
在我国,大部分地区学生的体质健康测试成绩会计入学生档案,成为综合素质评价和学业水平考试的指标和内容,测试成绩还将影响普通高中、中等职业学校和普通高等学校学生的毕业,因而越来越受到广大学生和家长的重视。但是由于受到人力资源的限制,大多数的学生无法受到规范化和标准化的指导,这也就对于其动作规范性的提高带来了不利的影响。
目前市场中现有的体质监测系统,主要有以下三个缺点,具体如下:
1、目前市场上普遍的体质测试检测工具或系统,主要是由专业的大型设备或多设备组成,使用过程也较为复杂,对使用场景有一定要求,不具有便携性和便捷性,不适用于在家庭或其他非专业环境下使用;
2、目前对仰卧起坐进行动作规范性检测的方法还包括通过在用户身上对应关键部位放置传感器,再利用传感器信号模拟出人体运动模型,从而判断动作的规范性,这一方法成本较高,用户也会感到不适,亦不适合家用推广;
3、目前学校内主要是通过人工肉眼来鉴别仰卧起坐等项目的合格程度,人力成本很高,主观影响较大,而且很难制定统一的标准。
发明内容
本发明的目的在于针对现有技术的缺陷和不足,提供一种基于计算机视觉技术的仰卧起坐姿态检测与指导方法,利用计算机视觉技术对仰卧起坐动作的标准性进行检测,同时输出语音提示和指导,极大地降低了人力,而且不受时间、地点的限制,大幅度提高了便捷性。
为实现上述目的,本发明采用的技术方案是:它包含如下步骤:
一、深度传感器采集图像:以用户身体作为基点,深度传感器放置在用户身体侧面位置,距离不大于2米处,放置高度不大于50厘米,来获取用户前景区域图像;位于时刻i,深度传感器采集的图像分别标记为图像Di;
二、获取人体关节点位置:采用基于微软的Kinect for Windows SDK来对步骤一中获取的深度图像进行处理,从而直接获取出人体的关节点部位;深度传感器采集完深度图像之后,会在人体的深度图像中创建分割遮罩,以剔除人体以外的背景图像,只保留人体图像,则保留后的人体图像即为图像Di;基于微软的Kinect for Windows SDK所提供的分类器,可以对图像Di中的每一个像素点进行分类,来判断其属于身体部分的哪一个区域;当完成分类之后,图像Di可以被分成若干个身体部分区域,采用基于带权高斯核均值转移的局部模式发现方法,求取身体每个区域的累加概率中心,该中心便是当前区域所对应的2D关节点位置;由于图像Di属于3D的深度图,故在确定完2D的关节点位置后,通过在深度方向进行一定量的偏移,从而获取到最终的3D关节点位置,最终共获取在仰卧起坐检测中的7个重要关节点,即:双膝、髋骨、踝骨、肩部、肘部、头部、手腕七大部分;
三、生成人体的骨架系统:通过步骤二中获取到的七个关节点的相关连线,构建出人体的骨架结构;分别用A点、B点、C点、D点、E点、F点、G点表示这个七个关节点;
四、获取动作状态规范性,包含如下步骤:
(1)检测仰卧起坐准备状态:
a、大腿与小腿的夹角检测:在仰卧起坐的准备阶段中,以线段CA表示小腿区域,以线段AB表示大腿区域,则∠CAB表示大腿和小腿之间的角度,如果∠CAB小于90°,则认为腿部区域动作规范,否则认为不规范;
b、用户双肩是否触地检测:以B点表示髋骨,D点表示肩部,地面设为X轴;检测线段BD与地面X轴的夹角,判断用户双肩是否触地;若线段BD与X轴方向夹角小于阈值5°,则认为用户的双肩触地,肩部区域动作规范,否则,认为不规范;
c、头部与手腕的之间的规范度检测:以F点表示人体头部的中心点,G点表示用户的手腕点,则计算线段FG之间的距离disFG以及∠DEG的度数,如果disFG的值小于阈值7cm且∠DEG的度数小于阈值30°,则认为该用户的头部与手腕之间动作符合规范性,否则,该用户动作不规范。
若该用户在上述a、b、c三个环节中的动作检测都规范,即满足腿部夹角小于90°,双手抱头,双肩触地,则认为该用户在仰卧起坐准备环节,达到标准要求;
(2)检测仰卧起坐坐起状态:
d、大腿与小腿的夹角检测:在仰卧起坐坐起状态的检测中,同样需要检测大腿与小腿的角度是否合理,即检测∠CAB的角度大小是否小于阈值90°,如果小于,则认为该用户的腿部区域在坐起状态中,动作规范,否则不规范;
e、大腿与髋部的夹角检测:在仰卧起坐坐起状态的检测中,大腿和身体的夹角同样是需要满足在一定的角度范围之内,即∠ABD的角度大小要在一定的范围内;如果∠ABD的角度大小在阈值35°以内,则认为规范,否则不规范;
f、用户双脚是否触地检测:在标准的仰卧起坐的过程中,双脚是不能离开地面,线段BC与X轴方向的夹角小于小于阈值5°,则认为双脚触地,满足规范的要求,否则,不满足规范的要求;
g、头部与手腕的之间的规范度检测:需要检测线段FG之间的距离和∠DEG的角度大小,从而判断出在仰卧起坐坐起状态中,用户的头部和手腕之间的规范度;如果线段FG的距离disFG小于阈值7cm,且∠DEG的角度大小在30°以内,则认为用户的头部和手腕之间动作满足规范性,否则,不满足规范性要求;
h、肘部与膝盖之间的规范度检测:计算线段AE的斜率,并标记为K,如果斜率K的值小于0,则认为肘部过双膝的位置;如果斜率K的值大于11,即此时线段AE和水平向右方向的夹角大于85°,则近似认为肘部触及膝盖;当满足以上任意一个条件的时候,则都表示肘部与膝盖之间满足动作的规范性,如果以上两个条件都不满足,则不满足动作的规范性;
若该用户在上述d、e、f、g、h三个环节中的动作检测都规范,即满足腿部夹角小于90°,双手抱头,肘部触及膝盖或超出膝盖位置,则认为该用户在仰卧起坐准备环节,达到标准要求;
(3)循环检测:随着时间轴的推进,用户由仰卧起坐准备状态到仰卧起坐坐起状态再到仰卧起坐准备状态,记为一次完整的仰卧起坐动作;如果在一次完成的仰卧起坐的整个过程中,所有动作都符合规范性标准,则记为完成一次标准仰卧起坐运动,计入标准动作总数;若过程中存在未达到特定阈值范围内的动作,则判定为不标准动作一次,计入未达标动作总计完成数;
每个200个时刻,进行一次环节a至环节h中的动作规范性检测,即当位于时刻i的时候,进行了一次动作检测,则下一次的动作检测是i+200时刻,以此类推;通过重复进行动作规范性的循环检测,获取在整个仰卧起坐的周期中,非标准动作的个数,从而为后期的反馈,提供基础;
五、动作规范反馈和改进:
(1)记录动作规范性较差的数据信息:在对用户的动作进行实时检测的过程中,录制下不规范性较大的动作视频,帮助用户在运动完成后,通过视频来了解自己动作不规范性的地方,实现对用户动作的反馈,
动作反馈包含如下三部分:
i、头部与手腕距离过大记录:无论对仰卧起坐准备状态还是仰卧起坐坐起状态来说,如果线段FG的距离disFG超过阈值的50%,则认为手掌心和头部的距离,手掌心可能已经离开了头部,动作严重不规范,此时,将该时刻对应的头部和手部区域在录制的过程中,以红色标注;
B、双肘非过膝记录:同样对于仰卧起坐准备状态还是仰卧起坐坐起状态来说,线段AE的斜率可表示双肘是否过膝;当用户完成一次由仰卧起坐准备状态到仰卧起坐坐起状态再到仰卧起坐准备状态的流程后,其也就完成了一次完整的仰卧起坐训练;在此过程中,如果线段AE斜率的最大值小于2.74,即此时线段AE和水平向右方向的夹角小于70°,则认为用户的双肘没有过膝,且动作严重不规范,故同样将该时刻对应的肘部区域在录制的过程中,以红色标注;
C、双肩非触地记录:在仰卧起坐准备状态还是仰卧起坐坐起状态中,线段BD与地面X轴方向的夹角,从而判断用户双肩是否触地;在标准的仰卧起坐训练中,双肩是不能离开地面的;同样对于给定的阈值5°来说,如果线段BD与地面X轴方向的夹角超过阈值的100%,则认为该用户的肩部区域已离开地面,动作严重不规范,故同样将该时刻对应的肩部区域在录制的过程中,以红色标注;
待用户完成整个仰卧起坐的训练之后,通过回看录制的视频,观察视频中的红色区域,便可以了解到自己在训练过程中,动作严重不规范的身体区域,从而可以帮助该用户更好地了解自己的不规范动作,以便针对性的进行改进;
(2)语音提示信息:在用户运动的过程中,实时通过语音来播报,提示用户当前动作不规范,进一步实时来纠正用户的不规范动作;
待整个仰卧起坐的训练完成结束后,进行语音播放,在整个训练期间,用户累计的动作次数和累计的标准动作总次数,并会记录下来,当作用户的训练记录,从而帮助用户更有效地规划自己的训练计划。
进一步地,步骤一中的深度传感器采用Kinect深度传感器。
进一步地,基于计算机视觉技术的仰卧起坐姿态检测与指导方法的检测设备,它包含摄像机视频采集模块、深度网络人体关键点捕获算法模块、动作规范性检测算法模块和考试系统打分模块。
采用上述方案后,本发明所述的一种基于计算机视觉技术的仰卧起坐姿态检测与指导方法,具有以下优点:
1、检测设备属于非接触式,体积较小,不需要占用较大的使用空间,可以在学校和家庭中布置使用;
2、学生在家庭或任意满足要求的区域都可以随时开展仰卧起坐训练,通过标准化的指导和提示来提高学生的动作规范性,进而提高学生体质测试该项目的成绩,达到强身健体的效果;
3、硬件设备仅需要视觉传感器和计算机,成本低,无需在人体上佩戴多个传感器,优化了用户体验。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1是本发明的总体流程图;
图2是人体主要关节点示意图;
图3是处于仰卧起坐准备状态时的七个关节点位置示意图;
图4是仰卧起坐准备状态的检测流程图;
图5是处于仰卧起坐坐起状态时的七个关节点位置示意图;
图6是仰卧起坐坐起状态的检测流程图;
具体实施方式
下面结合附图,对本发明作进一步的说明。
实施例:基于计算机视觉技术的仰卧起坐姿态检测与指导方法的检测设备,它包含摄像机视频采集模块、深度网络人体关键点捕获算法模块、动作规范性检测算法模块和考试系统打分模块;
摄像机视频采集系统模块用于通过深度传感器采集用户运动状态图像,从而为后面的检测人体关节点的位置,奠定数据基础;
深度网络人体关键点捕获算法模块用于通过算法从深度传感器中获取的图像中获取人体的关节点;
动作规范性检测算法模块用于通过之前检测到的关节点来分析用户的动作是否规范;
考试系统打分模块用于根据检测到用户动作的规范程度和标准的规范动作进行对比,从而进行用户动作的规范性打分和反馈;
参看图1所示,它的仰卧起坐姿态检测与指导方法包含如下步骤:
一、深度传感器采集图像:以用户身体作为基点,将Kinect深度传感器放置在用户身体侧面位置,距离不大于2米处,放置高度不大于50厘米,来获取用户前景区域图像;位于时刻i,Kinect深度传感器采集的图像分别标记为图像Di;
二、获取人体关节点位置:采用基于微软的Kinect for Windows SDK来对步骤一中获取的深度图像进行处理,从而直接获取出人体的关节点部位;人体的主要关节点部位参看图2所示;Kinect深度传感器采集完深度图像之后,会在人体的深度图像中创建分割遮罩,以剔除人体以外的背景图像,只保留人体图像,则保留后的人体图像即为步骤一中的图像Di;基于微软的Kinect for Windows SDK所提供的分类器,可以对图像Di中的每一个像素点进行分类,来判断其属于身体部分的哪一个区域;当完成分类之后,图像Di可以被分成若干个身体部分区域,采用基于带权高斯核均值转移的局部模式发现方法,求取身体每个区域的累加概率中心,该中心便是当前区域所对应的2D关节点位置;由于图像Di属于3D的深度图,故在确定完2D的关节点位置后,通过在深度方向进行一定量的偏移,从而获取到最终的3D关节点位置;由于采集到的图像是基于人体侧面视野的,因此,有些关节点会重合,最终最终共获取在仰卧起坐检测中的7个重要关节点,即:双膝、髋骨、踝骨、肩部、肘部、头部、手腕七大部分;
三、生成人体的骨架系统:对于人体来说,判断一个人的运动状态具体情况,是通过结合其主要的关节点来实现的;因此,对于计算机来说,同样可以由人体的骨骼结构来判断人体的运动状态;人体关节点是骨骼的连接点或终点,且长度恒定,因此,通过步骤二中获取到的七个关节点的相关连线,便可以构建出人体的骨架结构。图3是处于卧状态时的七个关节点位置示意图,其中A点、B点、C点、D点、E点、F点、G点,分别表示双膝、髋骨、踝骨、肩部、肘部、头部、手腕七个关节点;
四、获取动作状态规范性,包含如下步骤:
(1)检测仰卧起坐准备状态的流程参看图4所示:
a、大腿与小腿的夹角检测:在仰卧起坐的准备阶段中,大腿和小腿之间的角度要满足在一定的范围内,如果超过一定的范围,则认为其腿部区域在仰卧起坐的准备阶段的检测过程中是不规范的;参看图3所示,以线段CA表示小腿区域,以线段AB表示大腿区域,则∠CAB可以表示大腿和小腿之间的角度,如果∠CAB小于90°,则认为腿部区域动作规范,否则认为不规范;
b、用户双肩是否触地检测:在仰卧起坐的准备阶段中,用户的双肩触地也是非常重要,只有双肩触地,才算肩部区域动作规范;参看图3所示,以B点表示髋骨,D点表示肩部,地面设为X轴;检测线段BD与地面X轴的夹角,判断用户双肩是否触地;若线段BD与X轴方向夹角小于阈值5°,则认为用户的双肩触地,肩部区域动作规范,否则,认为不规范;
c、头部与手腕的之间的规范度检测:参看图3所示,以F点表示人体头部的中心点,G点表示用户的手腕点,则计算线段FG之间的距离disFG以及∠DEG的度数,如果disFG的值小于阈值7cm且∠DEG的度数小于阈值30°,则认为该用户的头部与手腕之间动作符合规范性,否则,该用户动作不规范。
若该用户在上述a、b、c三个环节中的动作检测都规范,即满足腿部夹角小于90°,双手抱头,双肩触地,则认为该用户在仰卧起坐准备环节,达到标准要求;
(2)检测仰卧起坐坐起状态的流程参看图6所示:
d、大腿与小腿的夹角检测:在仰卧起坐坐起状态的检测中,同样需要检测大腿与小腿的角度是否合理,参看图5所示,即检测∠CAB的角度大小是否小于阈值90°,如果小于,则认为该用户的腿部区域在坐起状态中,动作规范,否则不规范;
e、大腿与髋部的夹角检测:在仰卧起坐坐起状态的检测中,大腿和身体的夹角同样是需要满足在一定的角度范围之内,参看图5所示,即∠ABD的角度大小要在一定的范围内;如果∠ABD的角度大小在阈值35°以内,则认为规范,否则不规范;
f、用户双脚是否触地检测:在标准的仰卧起坐的过程中,双脚是不能离开地面,参看图5所示,线段BC与X轴方向的夹角小于小于阈值5°,则认为双脚触地,满足规范的要求,否则,不满足规范的要求;
g、头部与手腕的之间的规范度检测:参看图5所示,需要检测线段FG之间的距离和∠DEG的角度大小,从而判断出在仰卧起坐坐起状态中,用户的头部和手腕之间的规范度;如果线段FG的距离disFG小于阈值7cm,且∠DEG的角度大小在30°以内,则认为用户的头部和手腕之间动作满足规范性,否则,不满足规范性要求;
h、肘部与膝盖之间的规范度检测:参看图5所示,计算线段AE的斜率,并标记为K,如果斜率K的值小于0,则认为肘部过双膝的位置;如果斜率K的值大于11,即此时线段AE和水平向右方向的夹角大于85°,则近似认为肘部触及膝盖;当满足以上任意一个条件的时候,则都表示肘部与膝盖之间满足动作的规范性,如果以上两个条件都不满足,则不满足动作的规范性;
若该用户在上述d、e、f、g、h三个环节中的动作检测都规范,即满足腿部夹角小于90°,双手抱头,肘部触及膝盖或超出膝盖位置,则认为该用户在仰卧起坐准备环节,达到标准要求;
(3)循环检测:随着时间轴的推进,用户由仰卧起坐准备状态到仰卧起坐坐起状态再到仰卧起坐准备状态,记为一次完整的仰卧起坐动作;如果在一次完成的仰卧起坐的整个过程中,所有动作都符合规范性标准,则记为完成一次标准仰卧起坐运动,计入标准动作总数;若过程中存在未达到特定阈值范围内的动作,则判定为不标准动作一次,计入未达标动作总计完成数;
由于用户的在较短的时间内,无法进行较大的动作变化,而深度传感器可以在较短的时间内采集到许多的用户图像数据,因此,在这些数据中,用户的动作幅度很小,基于此,每个200个时刻,进行一次环节a至环节h中的动作规范性检测,即当位于时刻i的时候,进行了一次动作检测,则下一次的动作检测是i+200时刻,以此类推;通过重复进行动作规范性的循环检测,获取在整个仰卧起坐的周期中,非标准动作的个数,从而为后期的反馈,提供基础;
五、动作规范反馈和改进:为了能更好地对用户的不规范性动作进行反馈和修改,在对用户的动作进行实时检测的过程中,会录制下不规范性较大的动作视频,从而帮助用户在运动完成后,通过视频来了解自己动作不规范性的地方,实现对用户动作的反馈;
(1)记录动作规范性较差的数据信息:在对用户的动作进行实时检测的过程中,录制下不规范性较大的动作视频,帮助用户在运动完成后,通过视频来了解自己动作不规范性的地方,实现对用户动作的反馈,动作反馈包含如下三部分:
i、头部与手腕距离过大记录:无论对仰卧起坐准备状态还是仰卧起坐坐起状态来说,如果线段FG的距离disFG大于11cm,则认为手掌心和头部的距离,手掌心可能已经离开了头部,动作严重不规范,此时,将该时刻对应的头部和手部区域在录制的过程中,以红色标注,红色代表严重警告;
B、双肘非过膝记录:同样对于仰卧起坐准备状态还是仰卧起坐坐起状态来说,线段AE的斜率可表示双肘是否过膝;当用户完成一次由仰卧起坐准备状态到仰卧起坐坐起状态再到仰卧起坐准备状态的流程后,其也就完成了一次完整的仰卧起坐训练;在此过程中,如果线段AE斜率的最大值小于2.74,即此时线段AE和水平向右方向的夹角小于70°,则认为用户的双肘没有过膝,且动作严重不规范,故同样将该时刻对应的肘部区域在录制的过程中,以红色标注;
C、双肩非触地记录:在仰卧起坐准备状态还是仰卧起坐坐起状态中,线段BD与地面X轴方向的夹角,从而判断用户双肩是否触地;在标准的仰卧起坐训练中,双肩是不能离开地面的;同样对于给定的阈值5°来说,如果线段BD与地面X轴方向的夹角大于10°,则认为该用户的肩部区域已离开地面,动作严重不规范,故同样将该时刻对应的肩部区域在录制的过程中,以红色标注;
待用户完成整个仰卧起坐的训练之后,通过回看录制的视频,观察视频中的红色区域,便可以了解到自己在训练过程中,动作严重不规范的身体区域,从而可以帮助该用户更好地了解自己的不规范动作,以便针对性的进行改进;
(2)语音提示信息:除了记录了动作规范性较差的视频信息,还在用户运动的过程中,实时通过语音来播报,提示用户当前动作不规范,进一步实时来纠正用户的不规范动作;例如:当检测到腿部与髋部夹角∠ABD超出35°时,云端服务器会调取提示“注意腿部夹角保持35°以内”;当头部中心点F与手腕G点之间的线段距离disFG大于阈值7cm,且∠DEG大于30°时,云端服务器会调取提示“注意手放在头部”;在语音提示信息的帮助下,用户可以实时对自己的动作进行纠正,进一步提高了动作反馈效果;
此外,待整个仰卧起坐的训练完成结束后,进行语音播放,在整个训练期间,用户累计的动作次数和累计的标准动作总次数,并会记录下来,当作用户的训练记录,从而帮助用户更有效地规划自己的训练计划。
以上所述,仅用以说明本发明的技术方案,而非限制本领域普通技术人员对本发明的技术方案所做的其它修改或者等同替换,只要不脱离本发明技术方案的精神和范围,均应涵盖在本发明的权利要求范围当中。
Claims (3)
1.一种基于计算机视觉技术的仰卧起坐姿态检测与指导方法,其特征在于它包含如下步骤:
一、深度传感器采集图像:以用户身体作为基点,深度传感器放置在用户身体侧面位置,距离不大于2米处,放置高度不大于50厘米,来获取用户前景区域图像;位于时刻i,深度传感器采集的图像分别标记为图像Di;
二、获取人体关节点位置:采用基于微软的Kinect for Windows SDK来对步骤一中获取的深度图像进行处理,从而直接获取出人体的关节点部位;深度传感器采集完深度图像之后,会在人体的深度图像中创建分割遮罩,以剔除人体以外的背景图像,只保留人体图像,则保留后的人体图像即为图像Di;基于微软的Kinect for Windows SDK所提供的分类器,可以对图像Di中的每一个像素点进行分类,来判断其属于身体部分的哪一个区域;当完成分类之后,图像Di可以被分成若干个身体部分区域,采用基于带权高斯核均值转移的局部模式发现方法,求取身体每个区域的累加概率中心,该中心便是当前区域所对应的2D关节点位置;由于图像Di属于3D的深度图,故在确定完2D的关节点位置后,通过在深度方向进行一定量的偏移,从而获取到最终的3D关节点位置,最终共获取在仰卧起坐检测中的7个重要关节点,即:双膝、髋骨、踝骨、肩部、肘部、头部、手腕七大部分;
三、生成人体的骨架系统:通过步骤二中获取到的七个关节点的相关连线,构建出人体的骨架结构;分别用A点、B点、C点、D点、E点、F点、G点表示这个七个关节点;
四、获取动作状态规范性,包含如下步骤:
(1)检测仰卧起坐准备状态:
a、大腿与小腿的夹角检测:在仰卧起坐的准备阶段中,以线段CA表示小腿区域,以线段AB表示大腿区域,则∠CAB表示大腿和小腿之间的角度,如果∠CAB小于90°,则认为腿部区域动作规范,否则认为不规范;
b、用户双肩是否触地检测:以B点表示髋骨,D点表示肩部,地面设为X轴;检测线段BD与地面X轴的夹角,判断用户双肩是否触地;若线段BD与X轴方向夹角小于阈值5°,则认为用户的双肩触地,肩部区域动作规范,否则,认为不规范;
c、头部与手腕的之间的规范度检测:以F点表示人体头部的中心点,G点表示用户的手腕点,则计算线段FG之间的距离disFG以及∠DEG的度数,如果disFG的值小于阈值7cm且∠DEG的度数小于阈值30°,则认为该用户的头部与手腕之间动作符合规范性,否则,该用户动作不规范。
若该用户在上述a、b、c三个环节中的动作检测都规范,即满足腿部夹角小于90°,双手抱头,双肩触地,则认为该用户在仰卧起坐准备环节,达到标准要求;
(2)检测仰卧起坐坐起状态:
d、大腿与小腿的夹角检测:在仰卧起坐坐起状态的检测中,同样需要检测大腿与小腿的角度是否合理,即检测∠CAB的角度大小是否小于阈值90°,如果小于,则认为该用户的腿部区域在坐起状态中,动作规范,否则不规范;
e、大腿与髋部的夹角检测:在仰卧起坐坐起状态的检测中,大腿和身体的夹角同样是需要满足在一定的角度范围之内,即∠ABD的角度大小要在一定的范围内;如果∠ABD的角度大小在阈值35°以内,则认为规范,否则不规范;
f、用户双脚是否触地检测:在标准的仰卧起坐的过程中,双脚是不能离开地面,线段BC与X轴方向的夹角小于小于阈值5°,则认为双脚触地,满足规范的要求,否则,不满足规范的要求;
g、头部与手腕的之间的规范度检测:需要检测线段FG之间的距离和∠DEG的角度大小,从而判断出在仰卧起坐坐起状态中,用户的头部和手腕之间的规范度;如果线段FG的距离disFG小于阈值7cm,且∠DEG的角度大小在30°以内,则认为用户的头部和手腕之间动作满足规范性,否则,不满足规范性要求;
h、肘部与膝盖之间的规范度检测:计算线段AE的斜率,并标记为K,如果斜率K的值小于0,则认为肘部过双膝的位置;如果斜率K的值大于11,即此时线段AE和水平向右方向的夹角大于85°,则近似认为肘部触及膝盖;当满足以上任意一个条件的时候,则都表示肘部与膝盖之间满足动作的规范性,如果以上两个条件都不满足,则不满足动作的规范性;
若该用户在上述d、e、f、g、h三个环节中的动作检测都规范,即满足腿部夹角小于90°,双手抱头,肘部触及膝盖或超出膝盖位置,则认为该用户在仰卧起坐准备环节,达到标准要求;
(3)循环检测:随着时间轴的推进,用户由仰卧起坐准备状态到仰卧起坐坐起状态再到仰卧起坐准备状态,记为一次完整的仰卧起坐动作;如果在一次完成的仰卧起坐的整个过程中,所有动作都符合规范性标准,则记为完成一次标准仰卧起坐运动,计入标准动作总数;若过程中存在未达到特定阈值范围内的动作,则判定为不标准动作一次,计入未达标动作总计完成数;
每个200个时刻,进行一次环节a至环节h中的动作规范性检测,即当位于时刻i的时候,进行了一次动作检测,则下一次的动作检测是i+200时刻,以此类推;通过重复进行动作规范性的循环检测,获取在整个仰卧起坐的周期中,非标准动作的个数,从而为后期的反馈,提供基础;
五、动作规范反馈和改进:
(1)记录动作规范性较差的数据信息:在对用户的动作进行实时检测的过程中,录制下不规范性较大的动作视频,帮助用户在运动完成后,通过视频来了解自己动作不规范性的地方,实现对用户动作的反馈,
动作反馈包含如下三部分:
i、头部与手腕距离过大记录:无论对仰卧起坐准备状态还是仰卧起坐坐起状态来说,如果线段FG的距离disFG超过阈值的50%,则认为手掌心和头部的距离,手掌心可能已经离开了头部,动作严重不规范,此时,将该时刻对应的头部和手部区域在录制的过程中,以红色标注;
B、双肘非过膝记录:同样对于仰卧起坐准备状态还是仰卧起坐坐起状态来说,线段AE的斜率可表示双肘是否过膝;当用户完成一次由仰卧起坐准备状态到仰卧起坐坐起状态再到仰卧起坐准备状态的流程后,其也就完成了一次完整的仰卧起坐训练;在此过程中,如果线段AE斜率的最大值小于2.74,即此时线段AE和水平向右方向的夹角小于70°,则认为用户的双肘没有过膝,且动作严重不规范,故同样将该时刻对应的肘部区域在录制的过程中,以红色标注;
C、双肩非触地记录:在仰卧起坐准备状态还是仰卧起坐坐起状态中,线段BD与地面X轴方向的夹角,从而判断用户双肩是否触地;在标准的仰卧起坐训练中,双肩是不能离开地面的;同样对于给定的阈值5°来说,如果线段BD与地面X轴方向的夹角超过阈值的100%,则认为该用户的肩部区域已离开地面,动作严重不规范,故同样将该时刻对应的肩部区域在录制的过程中,以红色标注;
待用户完成整个仰卧起坐的训练之后,通过回看录制的视频,观察视频中的红色区域,便可以了解到自己在训练过程中,动作严重不规范的身体区域,从而可以帮助该用户更好地了解自己的不规范动作,以便针对性的进行改进;
(2)语音提示信息:在用户运动的过程中,实时通过语音来播报,提示用户当前动作不规范,进一步实时来纠正用户的不规范动作;
待整个仰卧起坐的训练完成结束后,进行语音播放,在整个训练期间,用户累计的动作次数和累计的标准动作总次数,并会记录下来,当作用户的训练记录,从而帮助用户更有效地规划自己的训练计划。
2.根据权利要求1所述的一种基于计算机视觉技术的仰卧起坐姿态检测与指导方法,其特征在于步骤一中的深度传感器采用Kinect深度传感器。
3.基于计算机视觉技术的仰卧起坐姿态检测与指导方法的检测设备,其特征在于它包含摄像机视频采集模块、深度网络人体关键点捕获算法模块、动作规范性检测算法模块和考试系统打分模块。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910073370.0A CN109815907B (zh) | 2019-01-25 | 2019-01-25 | 一种基于计算机视觉技术的仰卧起坐姿态检测与指导方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910073370.0A CN109815907B (zh) | 2019-01-25 | 2019-01-25 | 一种基于计算机视觉技术的仰卧起坐姿态检测与指导方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109815907A true CN109815907A (zh) | 2019-05-28 |
CN109815907B CN109815907B (zh) | 2023-04-07 |
Family
ID=66605014
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910073370.0A Active CN109815907B (zh) | 2019-01-25 | 2019-01-25 | 一种基于计算机视觉技术的仰卧起坐姿态检测与指导方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109815907B (zh) |
Cited By (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110321798A (zh) * | 2019-06-03 | 2019-10-11 | 辽宁师范大学 | 学生课堂听课状态自动识别方法 |
CN110432910A (zh) * | 2019-09-18 | 2019-11-12 | 杨焕琦 | 姿态校正系统和穿戴式治疗衣 |
CN110515308A (zh) * | 2019-09-26 | 2019-11-29 | 深圳市酷开网络科技有限公司 | 寝具控制方法、寝具控制装置和可读存储介质 |
CN110732119A (zh) * | 2019-10-15 | 2020-01-31 | 上海淡竹体育科技有限公司 | 仰卧起坐测试的方法及装置 |
CN111275023A (zh) * | 2020-03-19 | 2020-06-12 | 中国人民解放军国防科技大学 | 一种基于人脸识别和人体姿态估计的俯卧撑测试系统 |
CN111275032A (zh) * | 2020-05-07 | 2020-06-12 | 西南交通大学 | 基于人体关键点的深蹲检测方法、装置、设备及介质 |
CN111368810A (zh) * | 2020-05-26 | 2020-07-03 | 西南交通大学 | 基于人体及骨骼关键点识别的仰卧起坐检测系统及方法 |
CN111401260A (zh) * | 2020-03-18 | 2020-07-10 | 南通大学 | 基于Quick-OpenPose模型的仰卧起坐测试计数方法及系统 |
CN111589091A (zh) * | 2020-05-26 | 2020-08-28 | 许辉 | 一种基于大数据的学校体育测试智能实时监测管理系统 |
CN112071426A (zh) * | 2020-09-09 | 2020-12-11 | 中金育能教育科技集团有限公司 | 功能性体适能测试方法、装置及设备 |
CN112580602A (zh) * | 2020-12-30 | 2021-03-30 | 北京体育大学 | 一种规范握力测试的方法及装置 |
CN112827127A (zh) * | 2020-12-31 | 2021-05-25 | 重庆工程职业技术学院 | 一种体育教学用仰卧起坐训练系统 |
CN112870641A (zh) * | 2021-01-20 | 2021-06-01 | 岭南师范学院 | 基于物联网的仰卧起坐运动信息管理系统及其检测方法 |
CN113011242A (zh) * | 2020-12-31 | 2021-06-22 | 杭州拓深科技有限公司 | 一种仰卧起坐计数方法、装置、电子装置和存储介质 |
CN113657278A (zh) * | 2021-08-18 | 2021-11-16 | 成都信息工程大学 | 一种运动姿态识别方法、装置、设备及存储介质 |
CN113893515A (zh) * | 2021-10-13 | 2022-01-07 | 恒鸿达科技有限公司 | 一种基于视觉技术的仰卧起坐测试计数方法、装置和介质 |
CN113926159A (zh) * | 2021-09-26 | 2022-01-14 | 江苏科技大学 | 双桥运动指导方法、存储介质及系统 |
CN114566249A (zh) * | 2022-04-29 | 2022-05-31 | 北京奥康达体育产业股份有限公司 | 一种人体运动安全风险评估分析系统 |
CN115171208A (zh) * | 2022-05-31 | 2022-10-11 | 中科海微(北京)科技有限公司 | 仰卧起坐姿态评估方法、装置、电子设备及存储介质 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105608467A (zh) * | 2015-12-16 | 2016-05-25 | 西北工业大学 | 基于Kinect的无接触式学生体质测评方法 |
CN106934830A (zh) * | 2017-03-14 | 2017-07-07 | 北京林业大学 | 一种基于深度图像的非接触式体能测试系统及测试方法 |
WO2017193590A1 (zh) * | 2016-05-09 | 2017-11-16 | 深圳泰山体育科技股份有限公司 | 仰卧起坐测试的计数方法及系统 |
CN107392939A (zh) * | 2017-08-01 | 2017-11-24 | 南京华捷艾米软件科技有限公司 | 基于体感技术的室内运动观测装置、方法及存储介质 |
WO2018120964A1 (zh) * | 2016-12-30 | 2018-07-05 | 山东大学 | 一种基于深度信息和骨骼信息的姿势矫正方法 |
-
2019
- 2019-01-25 CN CN201910073370.0A patent/CN109815907B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105608467A (zh) * | 2015-12-16 | 2016-05-25 | 西北工业大学 | 基于Kinect的无接触式学生体质测评方法 |
WO2017193590A1 (zh) * | 2016-05-09 | 2017-11-16 | 深圳泰山体育科技股份有限公司 | 仰卧起坐测试的计数方法及系统 |
WO2018120964A1 (zh) * | 2016-12-30 | 2018-07-05 | 山东大学 | 一种基于深度信息和骨骼信息的姿势矫正方法 |
CN106934830A (zh) * | 2017-03-14 | 2017-07-07 | 北京林业大学 | 一种基于深度图像的非接触式体能测试系统及测试方法 |
CN107392939A (zh) * | 2017-08-01 | 2017-11-24 | 南京华捷艾米软件科技有限公司 | 基于体感技术的室内运动观测装置、方法及存储介质 |
Non-Patent Citations (3)
Title |
---|
JAMIE SHOTTON 等: "Real-time human pose recognition in parts from single depth images", 《CVPR 2011》 * |
冷晶晶: "基于Kinect骨架信息的人体动作识别", 《数字技术与应用》 * |
詹彬 等: "基于视觉传感的智能运动训练系统的研发", 《物联网技术》 * |
Cited By (24)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110321798A (zh) * | 2019-06-03 | 2019-10-11 | 辽宁师范大学 | 学生课堂听课状态自动识别方法 |
CN110432910A (zh) * | 2019-09-18 | 2019-11-12 | 杨焕琦 | 姿态校正系统和穿戴式治疗衣 |
CN110515308A (zh) * | 2019-09-26 | 2019-11-29 | 深圳市酷开网络科技有限公司 | 寝具控制方法、寝具控制装置和可读存储介质 |
CN110732119A (zh) * | 2019-10-15 | 2020-01-31 | 上海淡竹体育科技有限公司 | 仰卧起坐测试的方法及装置 |
CN111401260A (zh) * | 2020-03-18 | 2020-07-10 | 南通大学 | 基于Quick-OpenPose模型的仰卧起坐测试计数方法及系统 |
CN111401260B (zh) * | 2020-03-18 | 2020-09-29 | 南通大学 | 基于Quick-OpenPose模型的仰卧起坐测试计数方法及系统 |
CN111275023A (zh) * | 2020-03-19 | 2020-06-12 | 中国人民解放军国防科技大学 | 一种基于人脸识别和人体姿态估计的俯卧撑测试系统 |
CN111275032A (zh) * | 2020-05-07 | 2020-06-12 | 西南交通大学 | 基于人体关键点的深蹲检测方法、装置、设备及介质 |
CN111275032B (zh) * | 2020-05-07 | 2020-09-15 | 西南交通大学 | 基于人体关键点的深蹲检测方法、装置、设备及介质 |
CN111368810A (zh) * | 2020-05-26 | 2020-07-03 | 西南交通大学 | 基于人体及骨骼关键点识别的仰卧起坐检测系统及方法 |
CN111368810B (zh) * | 2020-05-26 | 2020-08-25 | 西南交通大学 | 基于人体及骨骼关键点识别的仰卧起坐检测系统及方法 |
CN111589091A (zh) * | 2020-05-26 | 2020-08-28 | 许辉 | 一种基于大数据的学校体育测试智能实时监测管理系统 |
CN112071426A (zh) * | 2020-09-09 | 2020-12-11 | 中金育能教育科技集团有限公司 | 功能性体适能测试方法、装置及设备 |
CN112580602A (zh) * | 2020-12-30 | 2021-03-30 | 北京体育大学 | 一种规范握力测试的方法及装置 |
CN112827127A (zh) * | 2020-12-31 | 2021-05-25 | 重庆工程职业技术学院 | 一种体育教学用仰卧起坐训练系统 |
CN113011242A (zh) * | 2020-12-31 | 2021-06-22 | 杭州拓深科技有限公司 | 一种仰卧起坐计数方法、装置、电子装置和存储介质 |
CN112870641A (zh) * | 2021-01-20 | 2021-06-01 | 岭南师范学院 | 基于物联网的仰卧起坐运动信息管理系统及其检测方法 |
CN112870641B (zh) * | 2021-01-20 | 2021-11-19 | 岭南师范学院 | 基于物联网的仰卧起坐运动信息管理系统及其检测方法 |
CN113657278A (zh) * | 2021-08-18 | 2021-11-16 | 成都信息工程大学 | 一种运动姿态识别方法、装置、设备及存储介质 |
CN113926159A (zh) * | 2021-09-26 | 2022-01-14 | 江苏科技大学 | 双桥运动指导方法、存储介质及系统 |
CN113893515A (zh) * | 2021-10-13 | 2022-01-07 | 恒鸿达科技有限公司 | 一种基于视觉技术的仰卧起坐测试计数方法、装置和介质 |
CN113893515B (zh) * | 2021-10-13 | 2022-12-27 | 恒鸿达科技有限公司 | 一种基于视觉技术的仰卧起坐测试计数方法、装置和介质 |
CN114566249A (zh) * | 2022-04-29 | 2022-05-31 | 北京奥康达体育产业股份有限公司 | 一种人体运动安全风险评估分析系统 |
CN115171208A (zh) * | 2022-05-31 | 2022-10-11 | 中科海微(北京)科技有限公司 | 仰卧起坐姿态评估方法、装置、电子设备及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN109815907B (zh) | 2023-04-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109815907A (zh) | 一种基于计算机视觉技术的仰卧起坐姿态检测与指导方法 | |
CN105608467B (zh) | 基于Kinect的无接触式学生体质测评方法 | |
Szucs et al. | Rater reliability and construct validity of a mobile application for posture analysis | |
CN104951808B (zh) | 一种用于机器人交互对象检测的3d视线方向估计方法 | |
CN110136809A (zh) | 一种医疗图像处理方法、装置、电子医疗设备和存储介质 | |
EP2258265A2 (en) | Human body measurement system and information provision method using the same | |
CN107754225A (zh) | 一种智能健身教练系统 | |
CN105740780A (zh) | 人脸活体检测的方法和装置 | |
CN107480677A (zh) | 一种识别三维ct图像中感兴趣区域的方法及装置 | |
CN105740779A (zh) | 人脸活体检测的方法和装置 | |
CN107137225A (zh) | 个性化头面部穴位识别模型建立、定位的方法和系统 | |
CN104159644A (zh) | 分析高尔夫挥杆的装置和方法 | |
CN1864074B (zh) | 确定患者相关信息的方法、控制设备和磁共振断层摄影仪 | |
CN107392146A (zh) | 一种儿童坐姿检测方法及装置 | |
US8848994B2 (en) | Fetus modeling method and image processing apparatus therefor | |
CN113139962B (zh) | 用于脊柱侧凸概率评估的系统和方法 | |
CN105761254A (zh) | 基于图像特征的眼底图像配准方法 | |
US20230237694A1 (en) | Method and system for detecting children's sitting posture based on face recognition of children | |
CN112102947A (zh) | 用于身体姿态评估的装置和方法 | |
CN106419938A (zh) | 一种基于运动能量释放估算的注意缺陷多动障碍(adhd)检测方法及其检测系统 | |
Bumacod et al. | Image-processing-based digital goniometer using OpenCV | |
Isaksson et al. | Audomni: Super-scale sensory supplementation to increase the mobility of blind and low-vision individuals—A pilot study | |
CN109522912B (zh) | 扫描质量检测方法、控制器和装置 | |
Farinella et al. | Objective outcome evaluation of breast surgery | |
KR101964152B1 (ko) | 공간 좌표 분석을 이용한 체형 분석 및 이상유무 판정 방법과 장치, 및 이를 위한 컴퓨터 프로그램 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |