CN113611387B - 一种基于人体位姿估计的运动质量评估方法及终端设备 - Google Patents
一种基于人体位姿估计的运动质量评估方法及终端设备 Download PDFInfo
- Publication number
- CN113611387B CN113611387B CN202110871071.9A CN202110871071A CN113611387B CN 113611387 B CN113611387 B CN 113611387B CN 202110871071 A CN202110871071 A CN 202110871071A CN 113611387 B CN113611387 B CN 113611387B
- Authority
- CN
- China
- Prior art keywords
- human body
- motion
- pose estimation
- body pose
- pose
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000033001 locomotion Effects 0.000 title claims abstract description 67
- 238000001303 quality assessment method Methods 0.000 title claims abstract description 13
- 238000001514 detection method Methods 0.000 claims abstract description 53
- 238000000034 method Methods 0.000 claims abstract description 32
- 238000004422 calculation algorithm Methods 0.000 claims abstract description 10
- 238000013441 quality evaluation Methods 0.000 claims abstract description 9
- 238000001914 filtration Methods 0.000 claims abstract description 8
- 230000009471 action Effects 0.000 claims description 29
- 230000006870 function Effects 0.000 claims description 13
- 230000008569 process Effects 0.000 claims description 13
- 238000004364 calculation method Methods 0.000 claims description 11
- 238000005070 sampling Methods 0.000 claims description 10
- 230000007704 transition Effects 0.000 claims description 10
- 238000004590 computer program Methods 0.000 claims description 7
- 238000013461 design Methods 0.000 claims description 7
- 238000010606 normalization Methods 0.000 claims description 7
- 238000012937 correction Methods 0.000 claims description 4
- 238000013135 deep learning Methods 0.000 claims description 3
- 238000006243 chemical reaction Methods 0.000 claims description 2
- 230000014759 maintenance of location Effects 0.000 claims description 2
- 238000012549 training Methods 0.000 claims description 2
- 230000001133 acceleration Effects 0.000 abstract description 3
- 238000011156 evaluation Methods 0.000 abstract description 2
- 238000013473 artificial intelligence Methods 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000006835 compression Effects 0.000 description 1
- 238000007906 compression Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 230000036541 health Effects 0.000 description 1
- 230000003340 mental effect Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 238000011897 real-time detection Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 239000000126 substance Substances 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H20/00—ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance
- G16H20/30—ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance relating to physical therapies or activities, e.g. physiotherapy, acupressure or exercising
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q10/00—Administration; Management
- G06Q10/06—Resources, workflows, human or project management; Enterprise or organisation planning; Enterprise or organisation modelling
- G06Q10/063—Operations research, analysis or management
- G06Q10/0639—Performance analysis of employees; Performance analysis of enterprise or organisation operations
- G06Q10/06395—Quality analysis or management
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02P—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
- Y02P90/00—Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
- Y02P90/30—Computing systems specially adapted for manufacturing
Landscapes
- Business, Economics & Management (AREA)
- Human Resources & Organizations (AREA)
- Engineering & Computer Science (AREA)
- Strategic Management (AREA)
- Entrepreneurship & Innovation (AREA)
- Economics (AREA)
- Educational Administration (AREA)
- Health & Medical Sciences (AREA)
- Development Economics (AREA)
- General Health & Medical Sciences (AREA)
- Marketing (AREA)
- Primary Health Care (AREA)
- Medical Informatics (AREA)
- Epidemiology (AREA)
- Physical Education & Sports Medicine (AREA)
- Biophysics (AREA)
- Game Theory and Decision Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Public Health (AREA)
- Operations Research (AREA)
- Quality & Reliability (AREA)
- Tourism & Hospitality (AREA)
- Physics & Mathematics (AREA)
- General Business, Economics & Management (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Image Analysis (AREA)
Abstract
本发明公开一种基于人体位姿估计的运动质量评估方法及终端设备,该方法包括:接收视频帧,采用快速目标检测方式进行人体检测;将检测到的人体部分从视频帧原图抠出,输入到轻量型人体位姿估计网络进行人体2D关节点检测;将每一帧关节点检测结果进行滤波;将经过滤波后的关节点进行运动质量评估;记录运动量,给出运动质量总体打分。本发明能在一般具有AI加速能力的嵌入式平台进行实时运动捕捉及评估,通过快速人体检测、滤波、动作质量评估、动作自动计数等提供一个实时基于人体位姿估计的运动捕捉算法来进行技术支撑,通过动作比对并且对动作质量打分来监测运动质量,通过设计三种人体运动状态实现动作自动计数,实现高效的实时用户体验。
Description
技术领域
本发明涉及运动质量评估领域,特别是涉及一种基于人体位姿估计的运动质量评估方法及终端设备。
背景技术
随着经济文化的快速发展,人们对于物质、精神生活的追求也是在不断的在增强,人们开始愈发的注重对于自己身体的体育锻炼,以增强体质来应对繁重的工作压力,抑或是保持健康的体魄来生活。目前的健身活动一般都是在专门的健身房进行,个人可以聘请专业的健身教练对自己的健身工作进行专业指导,当然这也需要承担一定的经济成本,而且更加重要的是需要付出更多的时间成本。随着人工智能技术的飞速发展,如今其实完全能够通过AI技术的支撑来创造出一个AI健身教练来作为个人的私人教练,最重要的是这个能随叫随到的健身教练会更加科学的进行个人的健康管理以及指导。
考虑到人工智能模型一般是在GPU服务器上部署,目前还不能实时对人体位姿估计进行运动捕捉及运动质量评估。
发明内容
为了弥补上述现有技术的对人体位姿估计的运动质量评估不实时的不足,本发明提出一种基于人体位姿估计的运动质量评估方法及终端设备。
本发明的技术问题通过以下的技术方案予以解决:
本发明提出一种基于人体位姿估计的运动质量评估方法,其特征在于,含如下步骤:S1:接收视频帧,采用快速目标检测的方式进行人体位姿检测;S2:将检测到的人体部分从视频帧原图中抠出,输入到轻量型人体位姿估计网络中进行人体2D关节点的检测;S3:将每一帧的关节点检测结果进行滤波;S4:将经过滤波后的关节点进行运动质量评估;S5:记录运动量,给出运动质量总体打分。
在一些实施例,所述S1步骤中,采用轻量级的人体检测器初始化人体位姿检测区域,采用锚点的物体位置框预测流程为:S11:将输入视频帧图片的尺度统一到固定尺寸;S12:将固定尺寸的图像分成S×S的栅格,每个栅格产生B个不同尺度的矩形框,产生S×S×B个锚点,每个栅格预测物体中心点落在本栅格中的物体类别和物体;S13:输出锚点的修正值,过滤得到物体检测结果,训练人体检测器。
在一些实施例,所述S2步骤中,使用快速人体检测器,或使用人体位姿检测的结果反馈来进行人体位置定位;两种方式可交替应用,以提升计算效率。
在一些实施例,初始化时使用快速人体检测器定位人体位置,运行稳定后按如下规则进行两种方式的切换:当初始化与运行过程中人体位姿检测置信度低于一定阈值时,使用快速人体检测器提供人体在视频帧中的位置区域;当稳定运行过程中人体位姿检测置信度高于阈值时,使用视频历史帧确定人体位置,释放人体高速检测器计算资源,以减少人体位置检测过程时延。
在一些实施例,所述使用人体位姿检测的结果反馈来进行人体定位的计算公式为:W=(1+λ)(max{pi(x)}-min{pi(x)}),H=(1+η)(max{pi(y)}-min{pi(y)}),其中i=1,2,...N,λ,η为设计参数,用来调整位姿检测结果以更接近快速人体检测器的检测尺度,p是人体位姿检测结果中的人体关节点的位置;得到人体位置的包围框,定位出包围框左上角的坐标点(x0,y0),
在一些实施例,所述S2步骤中,采用基于沙漏网络结构的深度学习网络来进行人体位姿的检测,完成2D的人体位姿估计,得到人体关节点的2D位置。
在一些实施例,所述S3步骤中,滤波器依据估计信号的速度,为采样点适应新的低通滤波器的截断频率,以追踪动态信号,除去信号抖动: 其中Te是信号采样时间间隔,fc是低通滤波器的截断频率,参数(β,fcmin,Te)是该滤波器的参数值。
在一些实施例,所述S4步骤中,在人体位姿的检测基础上,采用关节点位置和关节向量之间的角度,在实时的视频流中进行两种动作相似度的对比;将实时在线的动作视频流作为主分支,按照下采样率γ对实时视频帧采样,选取需比对的动作视频帧,记录采集时间戳及对应标准动作视频帧;保留时间窗为τ内的视频帧{fi|i=1,2,...t,t+1,t+2,...t+n};按照选取的时间戳选取标准动作视频帧St,在时间窗为τ内的视频帧选择最相似的一帧对比,相似度使用归一化关节点位置之后两类视屏帧的欧式距离来定义:在进行视频帧对比前对人体的位姿检测结果进行归一化操作:其中(x0,y0)为选择的归一化坐标原点;归一化之后得到每个关键点的归一化坐标,计算得到关键夹角:/>将动作的满分设定为Ω,关节点位置误差与角度误差的分值比例为μ:ν,两类误差各占的分数为:误差评分函数表达式为:/>归一化关节点位置误差和角度误差经过评分函数的处理,得到关节点权重Δi与角度权重Θi,得到总体分值:/>
在一些实施例,所述S4步骤中,对于经过滤波之后的关节点进行运动质量评估包括:动作计数、动作矫正、动作建议。
在一些实施例,所述S5步骤中,设计三种人体运动状态,分别为0、1、2;从状态0转变到状态1,记录一次状态的转变;从状态1转变到状态2时完成一个周期;经过0→1→2的状态转换过程,记录一次运动次数,初始化状态机到状态0,如此累计;其中状态转变使用关节点的位置坐标在前后三帧之间的差分来表示。
本发明还提出一种基于人体位姿估计的运动质量评估的终端设备,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现如以上任一所述方法的步骤。
本发明与现有技术对比的有益效果包括:本发明通过快速人体检测、滤波、动作质量评估来提供一个实时的基于人体位姿估计的运动捕捉算法来进行技术支撑,通过设动作比对并且对动作质量进行打分来监测运动质量;采用轻量级的人体检测器来初始化人体位姿检测区域,能更好地兼容嵌入式AI设备,能在更加一般的具有AI加速能力的嵌入式平台上进行实时的运动捕捉以及评估,实现高效的实时用户体验。
在一些实施例,本发明与现有技术对比的有益效果包括:使用快速人体检测器或人体位姿检测的结果反馈两种方式来进行人体定位,两种方式交替应用,能提升计算效率。
在一些实施例,本发明与现有技术对比的有益效果包括:通过设计三种人体运动状态实现动作自动计数。
附图说明
图1是本发明实施例的流程示意图;
图2是本发明实施例的基于特征提取主干网络的网络结构图;
图3是本发明实施例的人体关节点以及角度选取示意图;
图4是本发明实施例的评分函数图像;
图5是本发明实施例的基于状态机的自动计数功能示意图。
具体实施方式
下面对照附图并结合优选的实施方式对本发明作进一步说明。需要说明的是,在不冲突的情况下,本申请中的实施例及实施例中的特征可以相互组合。
需要说明的是,本实施例中的左、右、上、下、顶、底等方位用语,仅是互为相对概念,或是以产品的正常使用状态为参考的,而不应该认为是具有限制性的。
本发明实施例的一种能够在具有AI加速功能的嵌入式设备上运行的实时运动质量评估方法,其具体的步骤如下:S1:接收视频帧,采用快速目标检测的方式进行人体位姿检测;S2:将检测到的人体部分从视频帧原图中抠出,输入到轻量型人体位姿估计网络中进行人体2D关节点的检测;S3:将每一帧的关节点检测结果进行滤波;S4:将经过滤波后的关节点进行运动质量评估;S5:记录运动量,给出运动质量总体打分。总体流程图,参考图1所示。
快速人体检测。为了实现高效的实时用户体验,同时提取人体前景,增强算法程序在初始化时人体位姿检测的稳定性,考虑采用轻量级的人体检测器作为算法程序初始化人体位姿检测区域,能够更好地兼容嵌入式AI设备。采用十分轻量级的目标检测算法YOLOv4-tiny,它在1080Ti-GPU上能达到371fps的实时检测速度,同时还能保留较高的精度,同时考虑到目标应用场景并不是十分复杂,该算法能够满足实际的设计需求。YOLOv4-tiny采用优化压缩之后的CSPDarknet53作为特征提取的主干网络,使用CSPBlock模块进行主干网络中空间信息的融合,其网络结构,参考图2所示。YOLOv4-tiny采用锚点的物体位置框预测方式。算法预测的流程为:首先将输入图片的尺度统一到固定尺寸;将固定尺寸的图像分成S×S的栅格,同时锚点生成其会为每个栅格产生B个不同尺度的矩形框,最终产生S×S×B个锚点,每个栅格只负责预测物体中心点落在本栅格中的物体类别和物体;网络输出锚点的修正值再经过NMS算法过滤就得到了最终的物体检测结果,在这里只需要训练人体检测器即可。
人体目标框裁取。为了进一步优化程序代码,减少计算开销,提高实时性,本方法设计两种方式来进行人体位置检测:第一种是使用快速人体检测器进行人体的定位;第二种是使用人体位姿检测的结果反馈来进行人体定位。两种方式在程序设计中可以交替应用,就能大大提升程序的计算效率。在计算机程序初始化时使用快速人体检测器来定位人体位置,在程序运行稳定之后按照如下规则进行两种人体位置定位方式的切换:
当算法程序初始化与程序运行过程中人体位姿检测置信度低于一定阈值时,需使用快速人体检测器提供人体在视频帧中的位置区域;算法程序稳定运行过程中,人体位姿检测置信度高于阈值时,使用视频历史帧确定人体位置,此时释放人体高速检测器计算资源,提高效率,减少人体位置检测过程时延。位姿反馈定位方法|:W=(1+λ)(max{pi(x)}-min{pi(x)}),H=(1+η)(max{pi(y)}-min{pi(y)}),其中t=1,2,...N,λ,η为设计参数,可以进行调节,用来调整位姿检测结果更加接近快速人体检测器的检测尺度,p是人体位姿检测结果中的人体关节点的位置。这样就得到了人体位置的包围框,同时定位出人体位置框左上角的坐标点(x0,y0),
快速人体位姿检测。为了构建一个实时的智能人体运动质量系统,本方法中需要一个轻量级的、实时的人体位姿估计算法进行人体位姿的检测,然后才能完成整体的运动质量估计。本方法中采用一个基于沙漏网络结构的深度学习网络来进行人体位姿的检测,完成2D的人体位姿估计进而得到人体关节点的2D位置。
滤波器。采用轻量级的深度网络进行人体位姿检测是单帧视频图像的检测结果,考虑到算法本身存在的检测误差问题等,在本方法中采用视频帧的时序信息进行简单的修正算法的人体位姿检测结果,采用OneEurofilter。OneEurofilter是一种自适应的一阶低通滤波器,该滤波器能够依据估计出的信号的速度为采样点适应新的低通滤波器的截断频率,可以较好的追踪动态信号,同时延迟很低,能起到除去信号“抖动”的效果:其中Te是信号采样时间间隔,fc即是低通滤波器的截断频率,其中的参数(β,fcmin,Te)是该滤波器的参数值,需要按照经验设置。通常来讲(β,fcmin)相对小一点更加有利于消除关节点的位置抖动效果。
动作质量评估。为了能够监测运动质量,本方法设计了一种进行动作比对,并且对动作质量进行打分的方式。在人体位姿的检测基础上,本方法中采用关节点位置和关节向量之间的角度进行动作相似度的比较,示例参考图3所示。
在实时的视频流中进行两种动作的对比时,首先要解决的问题是动作的对齐问题,由于本方法中设计的运动质量监测,是针对一般的实时人体运动视频帧和一段标准动作视频帧。相机在实时获取视频帧与同时计算时,会存大量不确定性的丢帧现象,所以在本方法中设计了动作采样以及对齐的方法。首先考虑到离线的标准动作视频帧是经过预处理的,丢帧的数量相对较少,同时标准视频帧的动作正好是运动动作的一个或者几个周期(尽量的短且连续)。所以先将实时在线的动作视频流作为主分支,按照下采样率γ对实时的视频帧采样,选取需要进行比对的动作视频帧,并且记录采集时间戳以对应标准动作视频帧;同时需要保留普通视频帧一个时间窗为τ内的视频帧{fi|i=1,2,...t,t+1,t+2,...t+n},t时刻的视频帧即采样选取的视频帧。按照选取的时间戳选取标准动作视频帧St,只需要在{fi|i=1,2,...t,t+1,t+2,...t+n}中选择出“最相似”的一帧对比即可;这里的相似度使用归一化关节点位置之后两类视屏帧的欧式距离来定义,即:上式中的关节点位置坐标都是经过归一化操作之后的坐标。
为了消除人体形态与相机视距的影响,在进行视频帧对比之前需要对人体的位姿检测结果进行归一化操作:其中(x0,y0)为选择的归一化坐标原点,可以根据需要选取即可。归一化之后就可以得到每个关键点的归一化坐标,按照图3的方式进而可以计算得到关键夹角:/>
至此所有的对比参数量已经准备完成,接下来就是进行动作质量的评估,设计中将动作的满分设定为Ω,关节点位置误差与角度误差的分值比例为μ:v,此时两类误差各占的分数为:本方法中设计的误差评分函数表达式为:评分函数图像,参考图4所示。归一化关节点位置误差和角度误差经过评分函数的处理,得到了关节点权重Δi与角度权重θi,进而得到了总体的分值:评分函数中有(k,α,β))三个参数,这三个参数需要根据实际的数据来进行设定,关节误差和角度误差所使用的评分函数一致,但具体的参数数值并不相同。
动作自动计数。本方法也提出一种基于状态机的自动计数功能,参考图5所示。考虑到人体运动状态的周期性,设计了三种状态,分别为0、1、2;从状态0转变到状态1,需要记录一次状态的转变;从状态1转变到状态2时完成一个周期;只有经过0→1→2的状态转换过程的,记录一次运动次数,同时初始化状态机到状态0,如此累计。其中的状态转变使用关节点的位置坐标在前后三帧之间的差分来表示。
本发明实施例的一种基于人体位姿估计运动质量评估的终端设备,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现如以上任一所述方法的步骤。
以上内容是结合具体的优选实施方式对本发明所作的进一步详细说明,不能认定本发明的具体实施只局限于这些说明。对于本发明所属技术领域的技术人员来说,在不脱离本发明构思的前提下,还可以做出若干等同替代或明显变型,而且性能或用途相同,都应当视为属于本发明的保护范围。
Claims (5)
1.一种基于人体位姿估计的运动质量评估方法,其特征在于,含如下步骤:
S1:接收视频帧,采用快速目标检测的方式进行人体位姿检测;
S2:将检测到的人体部分从视频帧原图中抠出,输入到轻量型人体位姿估计网络中进行人体2D关节点的检测;其中,采用基于沙漏网络结构的深度学习网络来进行人体位姿的检测,完成2D的人体位姿估计,得到人体关节点的2D位置;
S3:将每一帧的关节点检测结果进行滤波;
S4:将经过滤波后的关节点进行运动质量评估;
S5:记录运动量,给出运动质量总体打分;
所述S1步骤中,采用轻量级的人体检测器初始化人体位姿检测区域,所述人体检测器采用目标检测算法YOLOv4-tiny,采用锚点的物体位置框预测流程为:
S11:将输入视频帧图片的尺度统一到固定尺寸;
S12:将固定尺寸的图像分成S×S的栅格,每个栅格产生B个不同尺度的矩形框,产生S×S×B个锚点,每个栅格预测物体中心点落在本栅格中的物体类别和物体;
S13:输出锚点的修正值,过滤得到物体检测结果,训练轻量级的人体检测器;
所述S1步骤中,使用所述人体检测器,或使用人体位姿检测的结果反馈来进行人体位置定位;两种方式交替应用,以提升计算效率;
当初始化与运行过程中人体位姿检测置信度ρconfidence低于阈值threshold时,使用所述人体检测器提供人体在视频帧中的位置区域;
当稳定运行过程中人体位姿检测置信度ρconfidence不低于阈值threshold时,使用视频历史帧确定人体位置,释放人体检测器计算资源,以减少人体位置检测过程时延;
所述使用人体位姿检测的结果反馈来进行人体定位的计算公式为:
W=(1+λ)(max{pi(x)}-min{pi(x)}),H=(1+η)(max{pi(y)}-min{pi(y)}),
其中i=1,2,...N,λ,η为设计参数,用来调整位姿检测结果以更接近所述人体检测器的检测尺度,p是人体位姿检测结果中的人体关节点的位置;
得到人体位置的包围框,定位出包围框左上角的坐标点(x0,y0),
所述S4步骤中,在人体位姿的检测基础上,采用关节点位置和关节向量之间的角度,在实时的视频流中进行两种动作相似度的对比;
将实时在线的动作视频流作为主分支,按照下采样率γ对实时视频帧采样,选取需比对的动作视频帧,记录采集时间戳及对应标准动作视频帧;保留时间窗为τ内的视频帧{fi|i=1,2,...t,t+1,t+2,...t+n};按照选取的时间戳选取标准动作视频帧St,在时间窗为τ内的视频帧选择最相似的一帧对比,相似度使用归一化关节点位置之后两类视频帧的欧式距离来定义:
3.如权利要求1所述的基于人体位姿估计的运动质量评估方法,其特征在于:所述S4步骤中,对于经过滤波之后的关节点进行运动质量评估包括:动作计数、动作矫正、动作建议。
4.如权利要求1所述的基于人体位姿估计的运动质量评估方法,其特征在于:所述S5步骤中,设计三种人体运动状态,分别为0、1、2;从状态0转变到状态1,记录一次状态的转变;从状态1转变到状态2时完成一个周期;经过0→1→2的状态转换过程,记录一次运动次数,初始化状态机到状态0,如此累计;其中状态转变使用关节点的位置坐标在前后三帧之间的差分来表示。
5.一种基于人体位姿估计的运动质量评估的终端设备,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现如权利要求1-4任一所述方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110871071.9A CN113611387B (zh) | 2021-07-30 | 2021-07-30 | 一种基于人体位姿估计的运动质量评估方法及终端设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110871071.9A CN113611387B (zh) | 2021-07-30 | 2021-07-30 | 一种基于人体位姿估计的运动质量评估方法及终端设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113611387A CN113611387A (zh) | 2021-11-05 |
CN113611387B true CN113611387B (zh) | 2023-07-14 |
Family
ID=78338694
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110871071.9A Active CN113611387B (zh) | 2021-07-30 | 2021-07-30 | 一种基于人体位姿估计的运动质量评估方法及终端设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113611387B (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114333071B (zh) * | 2022-03-10 | 2022-05-06 | 天津市天泽恒升科技有限公司 | 一种基于人体姿态估计的视频教学方法、系统和存储介质 |
CN115294821A (zh) * | 2022-07-15 | 2022-11-04 | 国网浙江省电力有限公司嘉兴供电公司 | 一种基于vr和动作捕捉的技能培训系统 |
Family Cites Families (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8698888B2 (en) * | 2009-10-30 | 2014-04-15 | Medical Motion, Llc | Systems and methods for comprehensive human movement analysis |
CN109344692B (zh) * | 2018-08-10 | 2020-10-30 | 华侨大学 | 一种运动质量评价方法及系统 |
CN109583315B (zh) * | 2018-11-02 | 2023-05-12 | 北京工商大学 | 一种面向智能视频监控的多通道快速人体姿态识别方法 |
CN110246155B (zh) * | 2019-05-17 | 2021-05-18 | 华中科技大学 | 一种基于模型交替的抗遮挡目标跟踪方法及系统 |
CN111986229A (zh) * | 2019-05-22 | 2020-11-24 | 阿里巴巴集团控股有限公司 | 视频目标检测方法、装置及计算机系统 |
CN110711374B (zh) * | 2019-10-15 | 2021-05-04 | 石家庄铁道大学 | 多模态舞蹈动作评价方法 |
CN110807385B (zh) * | 2019-10-24 | 2024-01-12 | 腾讯科技(深圳)有限公司 | 目标检测方法、装置、电子设备及存储介质 |
CN111476097A (zh) * | 2020-03-06 | 2020-07-31 | 平安科技(深圳)有限公司 | 人体姿态评估方法、装置、计算机设备及存储介质 |
CN111931804B (zh) * | 2020-06-18 | 2023-06-27 | 南京信息工程大学 | 一种基于rgbd摄像机的人体动作自动评分方法 |
CN111812694B (zh) * | 2020-06-28 | 2021-05-18 | 中国科学院地质与地球物理研究所 | 一种长基线船载定位装置及其定位方法 |
CN111857334B (zh) * | 2020-07-02 | 2024-10-15 | 上海交通大学 | 人体手势字母的识别方法、装置、计算机设备及存储介质 |
CN112329571B (zh) * | 2020-10-27 | 2022-12-16 | 同济大学 | 一种基于姿态质量评估的自适应人体姿态优化方法 |
CN112653457B (zh) * | 2020-12-16 | 2023-01-17 | 清华大学深圳国际研究生院 | 一种高频压控振荡器系统 |
CN112836641A (zh) * | 2021-02-04 | 2021-05-25 | 浙江工业大学 | 一种基于机器视觉的手卫生监测方法 |
-
2021
- 2021-07-30 CN CN202110871071.9A patent/CN113611387B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
CN113611387A (zh) | 2021-11-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Yuan et al. | Temporal action localization by structured maximal sums | |
CN108256433B (zh) | 一种运动姿态评估方法及系统 | |
CN113611387B (zh) | 一种基于人体位姿估计的运动质量评估方法及终端设备 | |
US8824802B2 (en) | Method and system for gesture recognition | |
CN106534967A (zh) | 视频剪辑方法及装置 | |
US11484752B2 (en) | Jump counting method for jump rope | |
CN105631399A (zh) | 用于体育视频识别的快速对象跟踪框架 | |
CN105426827A (zh) | 活体验证方法、装置和系统 | |
CN107316317A (zh) | 一种行人多目标跟踪方法和装置 | |
US20150104067A1 (en) | Method and apparatus for tracking object, and method for selecting tracking feature | |
CN114100103B (zh) | 一种基于关键点识别的跳绳计数检测系统及方法 | |
KR102539215B1 (ko) | 골프 스윙에 관한 정보를 추정하기 위한 방법, 디바이스 및 비일시성의 컴퓨터 판독 가능한 기록 매체 | |
CN102314591B (zh) | 静止前景物体的检测方法和设备 | |
CN110991397A (zh) | 一种行进方向确定方法及相关设备 | |
CN110472608A (zh) | 图像识别跟踪处理方法及系统 | |
KR102434397B1 (ko) | 전역적 움직임 기반의 실시간 다중 객체 추적 장치 및 방법 | |
CN103096117A (zh) | 视频噪声检测方法及装置 | |
CN108875506A (zh) | 人脸形状点跟踪方法、装置和系统及存储介质 | |
CN110287912A (zh) | 基于深度学习的目标对象情感状态确定方法、装置及介质 | |
Zhou et al. | Pose comparison based on part affinity fields | |
CN117058758A (zh) | 基于ai技术的智慧体育考试方法及相关装置 | |
KR20210010408A (ko) | 비전 센서 데이터 기반 골프 스윙 궤적 추적 및 분석 장치 및 방법 | |
KR20210067590A (ko) | 골프에 관한 콘텐츠를 추천하기 위한 방법, 디바이스 및 비일시성의 컴퓨터 판독 가능한 기록 매체 | |
CN114327045B (zh) | 基于类别不平衡信号的跌倒检测方法及系统 | |
CN116030533A (zh) | 运动场景的高速动作捕捉与识别方法及系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |