CN112370045B - 基于人工智能的功能性动作检测方法及系统 - Google Patents

基于人工智能的功能性动作检测方法及系统 Download PDF

Info

Publication number
CN112370045B
CN112370045B CN202011104970.8A CN202011104970A CN112370045B CN 112370045 B CN112370045 B CN 112370045B CN 202011104970 A CN202011104970 A CN 202011104970A CN 112370045 B CN112370045 B CN 112370045B
Authority
CN
China
Prior art keywords
detection
report
analyzing
action
key
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202011104970.8A
Other languages
English (en)
Other versions
CN112370045A (zh
Inventor
赫忠慧
王亦洲
范雪松
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Peking University
Original Assignee
Peking University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Peking University filed Critical Peking University
Priority to CN202011104970.8A priority Critical patent/CN112370045B/zh
Publication of CN112370045A publication Critical patent/CN112370045A/zh
Application granted granted Critical
Publication of CN112370045B publication Critical patent/CN112370045B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1126Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb using a particular sensing technique
    • A61B5/1128Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb using a particular sensing technique using image analysis

Abstract

本发明公开了一种基于人工智能的功能性动作检测系统,包括:获取模块,用于获取并分析检测视频,得到测试人员的关键动作视频帧;检测模块,用于根据预设的量化功能性动作检测标准对关键动作视频帧进行检测,得到检测评分;输出模块,用于根据关键动作视频帧以及检测评分生成图文检测报告,并将所述图文检测报告发送到用户端计算机;报告存储与分析模块,用于存储并分析系统自动生成的图文检测报告,得到被测试群体的统计数据,用于存储并分析用户修改的图文检测报告,并进行自主学习。根据本发明公开的功能性动作检测系统,不仅可以实现标准化检测,减少测评人员主观因素带来的评价误差,还可以提高检测效率,突破时空界限,完成线上测评。

Description

基于人工智能的功能性动作检测方法及系统
技术领域
本发明涉及体育科技技术领域,特别涉及一种基于人工智能的功能性动作检测方法及系统。
背景技术
无论是大众健身领域还是竞技体育领域,人们从事的各种体育活动无不以身体基本动作为基础。良好的身体基本动作对人们增强体质,获取优异的运动成绩具有至关重要的作用。作为功能性动作训练体系的重要组成部分—功能性动作筛查(FunctionalMovement Screen,FMS),以其独特的筛查手段、详尽的评价过程和科学的纠正策略帮助人们解决基本动作方面的问题。FMS是评估人体动作质量的工具,由著名的功能动作训练衍生出来,是身体运动功能训练前进行测试的检查手段,发现并解决身体存在的薄弱环节,并为之后的训练和治疗提供依据和参照。FMS应用近二十年来,其评价的准确性,测评人员经验导致测评结果差异,评价结果反馈的针对性等问题日益引起关注。
现有技术中,功能性动作测评过程主要通过测评人员观察被试动作完成情况进行评分,根据测评人员的经验进行分数的判定,测评人员主要依据个人的主观判断评价。有学者认为,FMS作为一种评估工具,并没有客观对照标准,它的评分结果主要来自测评人员的观察和主观评估,且评分对照标准本身具有模糊性,测评人员资质与跟踪经验对评价结果具有一定影响。因此,现有技术中的方法,受测评人员的主观因素影响较大。
发明内容
本公开实施例提供了一种基于人工智能的功能性动作检测方法及系统。为了对披露的实施例的一些方面有一个基本的理解,下面给出了简单的概括。该概括部分不是泛泛评述,也不是要确定关键/重要组成元素或描绘这些实施例的保护范围。其唯一目的是用简单的形式呈现一些概念,以此作为后面的详细说明的序言。
第一方面,本公开实施例提供了一种基于人工智能的功能性动作检测系统,包括:
获取模块,用于获取并分析检测视频,得到测试人员的关键动作视频帧;
检测模块,用于根据预设的量化功能性动作检测标准对关键动作视频帧进行检测,得到检测评分;
输出模块,用于根据关键动作视频帧以及检测评分生成图文检测报告,并将图文检测报告发送到用户端计算机。
在一个实施例中,获取模块,包括:
获取单元,用于获取测试人员的视频数据;
第一分析单元,用于检测并跟踪视频数据中的测试人员,定位测试人员的位置;
第二分析单元,用于对测试人员进行人体姿态估计,得到测试人员的二维人体骨架结构;
第三分析单元,用于用于将所述二维人体骨架结构输入LCN神经网络模型,获得三维人体姿态;
提取单元,用于将三维人体姿态与关键动作模板进行对比,通过关键节点角度、位置以及动态时间序列匹配确定并提取关键动作视频帧。
在一个实施例中,检测模块,包括:
量化单元,用于量化功能性动作检测标准;
检测单元,用于根据量化功能性动作检测标准对关键动作视频帧进行检测,得到检测评分。
在一个实施例中,输出模块,包括:
第四分析单元,用于根据关键动作视频帧和检测评分分析测试人员的不规范动作以及扣分原因,并生成图文检测报告;
输出单元,用于将图文检测报告发送到用户端计算机。
在一个实施例中,还包括:
报告存储与分析模块,用于存储并分析图文检测报告。
在一个实施例中,报告存储与分析模块,包括:
第一存储与分析单元,用于存储并分析系统自动生成的图文检测报告,得到被测试群体的统计数据;
第二存储与分析单元,用于存储并分析用户修改的图文检测报告,并进行自主学习。
第二方面,本公开实施例提供了一种基于人工智能的功能性动作检测方法,包括:
获取并分析检测视频,得到测试人员的关键动作视频帧;
根据预设的量化功能性动作检测标准对关键动作视频帧进行检测,得到检测评分;
根据关键动作视频帧以及检测评分生成图文检测报告,并将图文检测报告发送到用户端计算机。
在一个实施例中,获取并分析检测视频,得到测试人员的关键动作视频帧,包括:
检测并跟踪视频数据中的测试人员,定位测试人员的位置;
对测试人员进行人体姿态估计,得到测试人员的二维人体骨架结构;
根据二维人体骨架结构获得三维人体姿态;
将三维人体姿态与关键动作模板进行对比,通过关键节点角度、位置以及动态时间序列匹配确定并提取关键动作视频帧。
在一个实施例中,生成图文检测报告,并将图文检测报告发送到用户端计算机之后,还包括:
存储并分析系统自动生成的图文检测报告,得到被测试群体的统计数据;
存储并分析用户修改的图文检测报告,并进行自主学习。
第三方面,本公开实施例还提供一种计算机可读介质,其上存储有计算机可读指令,计算机可读指令可被处理器执行以实现上述实施例提供的一种基于人工智能的功能性动作检测方法。
本公开实施例提供的技术方案可以包括以下有益效果:
本公开实施例提供的基于人工智能的功能性动作检测系统,利用计算机视觉技术,准确估计人体三维姿态,并量化功能性动作检测标准,然后根据量化的检测标准对人体三维姿态进行检测,实现标准化检测,减少测试人员的主观因素带来的检测误差,而且可以提高检测效率,降低人力成本,传统的功能性动作测评,人均耗费时间约20-30分钟,同时需要经过专业培训的测试人员,且不同测试员的经验和主观因素也影响着结果的准确性,而智能检测系统的基本耗时为1-3分钟,具有较高的评价效率,且大大降低了人力成本。该检测系统可以精准、直观地反馈检测结果,为体育教学与训练的针对性指导提供更为准确的参考。随着线上教育的常态化,该系统可以突破时空限制,不受检测次数的限制,不受检测时间的限制,即时反馈检测报告,具有广阔的应用前景。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,并不能限制本发明。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本发明的实施例,并与说明书一起用于解释本发明的原理。
图1是根据一示例性实施例示出的一种基于人工智能的功能性动作检测系统的结构示意图;
图2是根据一示例性实施例示出的三维人体姿态估计的示意图;
图3是根据一示例性实施例示出的一种基于人工智能的功能性动作检测系统运行示意图;
图4是根据一示例性实施例示出的一种基于人工智能的功能性动作检测方法的流程示意图;
图5是根据一示例性实施例示出的一种计算机存储介质的示意图。
具体实施方式
为了能够更加详尽地了解本公开实施例的特点与技术内容,下面结合附图对本公开实施例的实现进行详细阐述,所附附图仅供参考说明之用,并非用来限定本公开实施例。在以下的技术描述中,为方便解释起见,通过多个细节以提供对所披露实施例的充分理解。然而,在没有这些细节的情况下,一个或一个以上实施例仍然可以实施。在其它情况下,为简化附图,熟知的结构和装置可以简化展示。
功能性动作检测是为体能专业人员建立并完善的评价工具,主要通过功能活动的表现收集人类运动模式的数据,分析人体的运动模式、提高运动成绩和预测损伤的发生风险。自20世纪90年代提出并完善以来,广泛应用于理疗康复和体能训练领域。应用人群包括职业运动员、军队警察和大中学生运动员。
功能性动作检测是运动质量评价的主观方法,适合个体的损伤评价和预测。功能性动作检测主要通过7个动作模式的筛查,诊断人体主要运动环节中各个运动链功能性动作质量,确定人体各运动环节中存在的运动性障碍或错误的动作模式。功能性动作检测测试内容主要有7类动作:蹲、跨、弓箭步、伸、举,以及躯干的前后倾和旋转。测试内容的7个动作模式为:深蹲、过栏步、直线分腿蹲、肩部灵活性、主动抬腿、躯干稳定性俯卧撑、身体旋转稳定性。7个测试项目反映的部位和功能状态如下:深蹲:主要是身体两侧的对称性,身体后链的紧张度,以及肩、臀、膝、踝关节的灵活性。过栏步:检测髋、膝、踝的对称性、灵活性和稳定性,以及两侧的对称性。直线分腿蹲:检测身体两侧的灵活性和稳定性,以及踝关节和膝关节的稳定性。肩部灵活性:检测肩关节内收、内旋和外展、外旋能力,以及肩关节两侧的对称性。主动抬腿:检测腘绳肌的主动收缩能力和小腿肌肉的柔韧性。躯干稳定性俯卧撑:测试上肢在做俯卧撑时躯干在矢状面的稳定性。身体旋转稳定性:检测躯干在上下肢共同运动时多维面的稳定性及两侧的对称性。
功能性动作检测的常用评价方法是各单项动作测试评分从0到3分,总分为21分。3分标准:在没有任何补偿方式下完成活动;2分标准:在补偿方式或异常机制下完成活动;1分标准:在补偿方式的情况下也不能完成活动;0分标准:在测试过程中任何部位出现疼痛。
在本公开实施例中,利用计算机视觉技术,准确估计人体三维姿态,并量化功能性动作检测标准,然后根据量化的检测标准对人体三维姿态进行检测,提高检测结果的准确性以及检测效率。
下面将结合附图1-附图3,对本申请实施例提供的基于人工智能的功能性动作检测系统进行详细介绍。
请参见图1,该系统具体包括以下结构。
获取模块100,用于获取并分析检测视频,得到测试人员的关键动作视频帧。
在一个实施例中,获取模块100包括:获取单元,用于获取测试人员的视频数据。
具体地,测试人员可通过智能手机或其他具有录像功能的智能设备,录制自己完成的功能性动作视频数据。然后将摄像头采集到的动作视频数据传入功能性动作检测系统。功能性动作检测系统中的获取单元接收测试人员的视频数据。
获取模块100还可以包括第一分析单元,用于检测并跟踪视频数据中的测试人员,定位测试人员的位置。
具体地,根据多物体检测和跟踪技术,检测视频中的测试人员,定位测试人员的位置,排除视频中无关人员动作的干扰。
获取模块100还可以包括第二分析单元,用于对测试人员进行人体姿态估计,得到测试人员的二维人体骨架结构。
具体地,可以通过神经网络模型等二维关键点检测技术,从获取到的视频数据中提取测试人员的二维关节点,并行成骨架结构。
其中,可以利用HRNet神经网络模型,HRNet神经网络模型是一种高分辨率网络模型,拥有与众不同的并联结构,可以随时保持高分辨率表征,不只靠从低分辨率表征里恢复高分辨率表征。如此一来,通过HRNet神经网络模型进行人体姿态识别的效果明显。
获取模块100还可以包括第三分析单元,用于根据二维人体骨架结构获得三维人体姿态。
具体地,可以通过神经网络模型将得到的二维人体骨架结构抬升至三维空间中,获得三维人体姿态。
其中,可以利用LCN神经网络模型将二维人体骨架结构抬升至三维空间中,获得三维人体姿态,图2是根据一示例性实施例示出的三维人体姿态估计的示意图,如图2所示,基于LCN模型的单视角三维人体姿态估计方法包括,首先将包含测试人员的图像视频帧发送到骨干网络模型,基于HRNet算法得到二维人体骨架结构,然后通过LCN神经网络模型将二维人体骨架结构抬升至三维空间中,得到三维人体姿态。
获取模块100还可以包括提取单元,用于将三维人体姿态与关键动作模板进行对比,通过关键节点角度、位置以及动态时间序列匹配确定并提取关键动作视频帧。
其中,获取模块100中预先存储关键动作模板,关键动作模板为功能性动作训练时需要完成的7个关键动作的模板,将提取到的三维人体姿态与预存的7个关键动作的模板进行对比匹配,主要是从人体关键节点的角度、位置以及动态时间序列匹配确定关键动作视频帧。将确定的与关键动作模板匹配的关键动作视频帧发送到检测模块101。
检测模块101,用于根据预设的量化功能性动作检测标准对关键动作视频帧进行检测,得到检测评分。
在一个实施例中,检测模块101还可以包括量化单元,用于量化功能性动作检测标准。
现有技术中,主要通过专业的测评人员评估功能性动作的完成情况,受主观因素影响较大,检测结果差异较大。为了实现功能性动作的检测标准化,将每个动作的评价标准量化为计算机可测量的范围,把测试人员的主观评价转换为可量化的客观检测指标,从而减少主观评价带来的误差,并且能够精准定位并反馈错误动作。量化的功能性动作检测标准如下表所示:
Figure BDA0002726652310000071
Figure BDA0002726652310000081
检测模块101还可以包括检测单元,用于根据量化功能性动作检测标准对关键动作视频帧进行检测,得到检测评分。
将上表中量化的检测标准转化为计算机程序规则,对获取模块100产生的关键动作视频帧进行检测,例如,在“深蹲”得“1分”的评价标准是“躯干与胫骨不平行”。将其转换成智能评分标准时,首先定义“躯干”为两个肩关节中点和两个髋关节中点的连线段,“胫骨”定义为膝关节与踝关节之间的线段,两者不平行定义为两条线段之间的夹角大于20°。其余动作的评分标准也依次定义。
根据该步骤,可得到量化的功能性动作检测标准,从而实现标准化检测,减少测试人员的主观因素带来的检测误差。
输出模块102,用于根据关键动作视频帧以及检测评分生成图文检测报告,并将图文检测报告发送到用户端计算机。
在一个实施例中,输出模块102还可以包括第四分析单元,用于根据关键动作视频帧和检测评分分析测试人员的不规范动作以及扣分原因,并生成图文检测报告。
第四分析单元获取到测试人员的关键动作视频帧和检测评分后,生成图文检测报告,其中,文字部分逐条分析测试人员的不规范动作以及具体扣分原因。图片部分为辅助说明,在关键动作图片上精确标注被试者的错误动作以及参考线,给测试人员更加直观的反馈。例如,测试人员在做“躯干稳定性俯卧撑”时动作不标准,图片中可用绿线为标准参考线,黄线指示测试人员的实际错误姿态,让测试人员清楚直观的了解自己的错误动作,便于后续纠正训练。
输出模块102还可以包括输出单元,用于将图文检测报告发送到用户端计算机。
其中,用户端计算机包括但不限于智能手机、平板电脑、台式计算机等移动终端,输出模块102可将图文检测报告发送到用户端计算机,包括发送到测试人员端的计算机,测试人员接收自己的图文检测报告。或发送到教师端的计算机,让教学人员知晓测试人员的检测报告,利于评估教学质量,改进教学手段。
在一个实施例中,还可以包括报告存储与分析模块103,用于存储并分析图文检测报告。
可选地,报告存储与分析模块103,包括第一存储与分析单元,用于存储并分析系统自动生成的图文检测报告,得到被测试群体的统计数据。
具体地,本公开实施例提供的功能性动作检测系统,可以收集测试人员的图文检测报告,统计分析被测试群体的动作表现,给出一些有价值、有意义的统计数据,帮助教师了解被测试群体的动作特点,评估教学质量。例如,功能性动作检测系统统计发现,某班80%的测试人员在做“身体旋转稳定性动作”时,脊柱与地面不平行。教师可根据该统计数据改进教学方法,分析原因,加强训练。
还包括第二存储与分析单元,用于存储并分析用户修改的图文检测报告,并进行自主学习。
在一种可能的实现方式中,教师接收到功能性动作检测系统发送过来的图文检测报告,进行错误修正,并将修改后的图文检测报告发送到功能性动作检测系统,功能性动作检测系统中的第二存储与分析单元根据不断存储的用户修改的图文检测报告,进行自主学习,为系统的更新迭代打下数据基础。
可选地,功能性动作检测系统接收到教师修改的图文检测报告后,将修改的最终图文检测报告发送给测试人员,确保测试人员拿到准确的检测报告。
为了便于理解本申请实施例提供的基于人工智能的功能性动作检测系统,下面结合附图3进行说明。
如图3所示,在基于人工智能的功能性动作检测系统和使用者之间还可以架设一个辅助体育教学平台,用来接收测试人员的视频数据以及反馈结果,提供高速运算系统运行本申请中的功能性动作检测系统,以及提供大存储空间用来保存数据。
网络数据平台首先接收测试人员提交的视频素材,为了方便使用,特别是线上教学的使用,测试人员可以采用如手机类录像设备完成功能性动作的过程录制,并将录制的视频通过图3中的“AI辅助体育教学平台”上传至数据服务器。
功能性动作检测系统抓取上传的视频数据后进行自动检测,并将检测的图文结果反馈给辅助体育教学平台。此平台将接收到的图文结果进一步整合成可编辑的图文报告形式呈现给教师,教师对检测结果进行审核、编辑、认定,之后平台将最终的检测报告返回给被试用户。同时功能性动作检测系统将教师的纠错数据自动收集、学习,完成自我提升和改进,进行自主学习,不断迭代,最终实现准确的自动化检测。
根据本公开实施例提供的基于人工智能的功能性动作检测系统,实现标准化检测,减少测试人员的主观因素带来的检测误差,而且可以提高检测效率,降低人力成本。该检测系统可以精准、直观地反馈检测结果,为体育教学与训练的针对性指导提供更为准确的参考。该系统可以突破时空限制,具有广阔的应用前景。
第二方面,本公开实施例还提供一种基于人工智能的功能性动作检测方法,如图4所示,该方法包括:
S401,获取并分析检测视频,得到测试人员的关键动作视频帧。
S402,根据预设的量化功能性动作检测标准对关键动作视频帧进行检测,得到检测评分。
S403,根据关键动作视频帧以及检测评分生成图文检测报告,并将图文检测报告发送到用户端计算机。
在一个实施例中,获取并分析检测视频,得到测试人员的关键动作视频帧,包括:
获取测试人员的视频数据;
检测并跟踪视频数据中的测试人员,定位测试人员的位置;
对测试人员进行人体姿态估计,得到测试人员的二维人体骨架结构;
根据二维人体骨架结构获得三维人体姿态;
将三维人体姿态与关键动作模板进行对比,通过关键节点角度、位置以及动态时间序列匹配确定并提取关键动作视频帧。
在一个实施例中,根据预设的量化功能性动作检测标准对关键动作视频帧进行检测,得到检测评分,包括:
量化功能性动作检测标准;
根据量化功能性动作检测标准对关键动作视频帧进行检测,得到检测评分。
在一个实施例中,根据关键动作视频帧以及检测评分生成图文检测报告,并将图文检测报告发送到用户端计算机,包括:
根据关键动作视频帧和检测评分分析测试人员的不规范动作以及扣分原因,并生成图文检测报告;
将图文检测报告发送到用户端计算机。
在一个实施例中,生成图文检测报告,并将图文检测报告发送到用户端计算机之后,还包括:
存储并分析图文检测报告。
在一个实施例中,存储并分析图文检测报告,包括:
存储并分析系统自动生成的图文检测报告,得到被测试群体的统计数据;
存储并分析用户修改的图文检测报告,并进行自主学习。
需要说明的是,上述实施例提供的基于人工智能的功能性动作检测系统在执行基于人工智能的功能性动作检测方法时,仅以上述各功能模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能模块完成,即将设备的内部结构划分成不同的功能模块,以完成以上描述的全部或者部分功能。另外,上述实施例提供的基于人工智能的功能性动作检测系统与基于人工智能的功能性动作检测方法实施例属于同一构思,其体现实现过程详见系统实施例,这里不再赘述。
第三方面,本申请实施例还提供一种与前述实施例所提供的基于人工智能的功能性动作检测方法对应的计算机可读存储介质,请参考图5,其示出的计算机可读存储介质为光盘500,其上存储有计算机程序(即程序产品),计算机程序在被处理器运行时,会执行前述任意实施例所提供的基于人工智能的功能性动作检测方法。
需要说明的是,计算机可读存储介质的例子还可以包括,但不限于相变内存(PRAM)、静态随机存取存储器(SRAM)、动态随机存取存储器(DRAM)、其他类型的随机存取存储器(RAM)、只读存储器(ROM)、电可擦除可编程只读存储器(EEPROM)、快闪记忆体或其他光学、磁性存储介质,在此不再一一赘述。
本申请的上述实施例提供的计算机可读存储介质与本申请实施例提供的基于人工智能的功能性动作检测方法出于相同的发明构思,具有与其存储的应用程序所采用、运行或实现的方法相同的有益效果。
以上所述,仅为本发明较佳的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,可轻易想到的变化或替换,都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应以所述权利要求的保护范围为准。

Claims (8)

1.一种基于人工智能的功能性动作检测系统,其特征在于,包括:
获取模块,用于获取并分析检测视频,得到测试人员的关键动作视频帧;其中,所述获取模块,包括:获取单元,用于获取测试人员的视频数据;第一分析单元,用于检测并跟踪所述视频数据中的测试人员,定位测试人员的位置;第二分析单元,用于对所述测试人员进行人体姿态估计,得到所述测试人员的二维人体骨架结构;第三分析单元,用于将所述二维人体骨架结构输入LCN神经网络模型,获得三维人体姿态;提取单元,用于将所述三维人体姿态与关键动作模板进行对比,通过关键节点角度、位置以及动态时间序列匹配确定并提取所述关键动作视频帧;
检测模块,用于根据预设的量化功能性动作检测标准对所述关键动作视频帧进行检测,得到检测评分;
输出模块,用于根据所述关键动作视频帧以及所述检测评分分析测试人员的不规范动作以及扣分原因,生成图文检测报告,并将所述图文检测报告发送到用户端计算机。
2.根据权利要求1所述的系统,其特征在于,所述检测模块,包括:
量化单元,用于量化功能性动作检测标准;
检测单元,用于根据所述量化功能性动作检测标准对所述关键动作视频帧进行检测,得到检测评分。
3.根据权利要求1所述的系统,其特征在于,所述输出模块,包括:
第四分析单元,用于根据所述关键动作视频帧和所述检测评分分析测试人员的不规范动作以及扣分原因,并生成图文检测报告;
输出单元,用于将所述图文检测报告发送到用户端计算机。
4.根据权利要求1所述的系统,其特征在于,还包括:
报告存储与分析模块,用于存储并分析所述图文检测报告。
5.根据权利要求4所述的系统,其特征在于,所述报告存储与分析模块,包括:
第一存储与分析单元,用于存储并分析系统自动生成的图文检测报告,得到被测试群体的统计数据;
第二存储与分析单元,用于存储并分析用户修改的图文检测报告,并进行自主学习。
6.一种基于人工智能的功能性动作检测方法,其特征在于,包括:
获取并分析检测视频数据,得到测试人员的关键动作视频帧,包括检测并跟踪所述视频数据中的测试人员,定位测试人员的位置;对所述测试人员进行人体姿态估计,得到所述测试人员的二维人体骨架结构;根据所述二维人体骨架结构以及LCN神经网络模型获得三维人体姿态;将所述三维人体姿态与关键动作模板进行对比,通过关键节点角度、位置以及动态时间序列匹配确定并提取所述关键动作视频帧;
根据预设的量化功能性动作检测标准对所述关键动作视频帧进行检测,得到检测评分;
根据所述关键动作视频帧以及所述检测评分分析测试人员的不规范动作以及扣分原因,生成图文检测报告,并将所述图文检测报告发送到用户端计算机。
7.根据权利要求6所述的方法,其特征在于,所述生成图文检测报告,并将所述图文检测报告发送到用户端计算机之后,还包括:
存储并分析系统自动生成的图文检测报告,得到被测试群体的统计数据;
存储并分析用户修改的图文检测报告,并进行自主学习。
8.一种计算机可读介质,其特征在于,其上存储有计算机可读指令,所述计算机可读指令可被处理器执行以实现如权利要求6至7任一项所述的一种基于人工智能的功能性动作检测方法。
CN202011104970.8A 2020-10-15 2020-10-15 基于人工智能的功能性动作检测方法及系统 Active CN112370045B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011104970.8A CN112370045B (zh) 2020-10-15 2020-10-15 基于人工智能的功能性动作检测方法及系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011104970.8A CN112370045B (zh) 2020-10-15 2020-10-15 基于人工智能的功能性动作检测方法及系统

Publications (2)

Publication Number Publication Date
CN112370045A CN112370045A (zh) 2021-02-19
CN112370045B true CN112370045B (zh) 2022-04-05

Family

ID=74581599

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011104970.8A Active CN112370045B (zh) 2020-10-15 2020-10-15 基于人工智能的功能性动作检测方法及系统

Country Status (1)

Country Link
CN (1) CN112370045B (zh)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113239797B (zh) * 2021-05-12 2022-02-25 中科视语(北京)科技有限公司 人体动作识别方法、装置及系统
CN114596451B (zh) * 2022-04-01 2022-11-11 此刻启动(北京)智能科技有限公司 基于ai视觉的体适能测试方法、装置及存储介质
CN115299934B (zh) * 2022-08-30 2023-04-18 北京中科睿医信息科技有限公司 确定测试动作的方法、装置、设备及介质

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9600717B1 (en) * 2016-02-25 2017-03-21 Zepp Labs, Inc. Real-time single-view action recognition based on key pose analysis for sports videos
CN108846365A (zh) * 2018-06-24 2018-11-20 深圳市中悦科技有限公司 视频中打架行为的检测方法、装置、存储介质及处理器

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5897382B2 (ja) * 2011-04-06 2016-03-30 花王株式会社 行為支援方法および行為支援装置
CN104598867B (zh) * 2013-10-30 2017-12-01 中国艺术科技研究所 一种人体动作自动评估方法及舞蹈评分系统
CN108256433B (zh) * 2017-12-22 2020-12-25 银河水滴科技(北京)有限公司 一种运动姿态评估方法及系统
CN108805068A (zh) * 2018-06-01 2018-11-13 李泽善 一种基于学生运动的运动辅助系统、方法、装置及介质
CN109948459B (zh) * 2019-02-25 2023-08-25 广东工业大学 一种基于深度学习的足球动作评估方法与系统
CN111444890A (zh) * 2020-04-30 2020-07-24 汕头市同行网络科技有限公司 一种基于机器学习的体育数据分析系统和方法
CN111680562A (zh) * 2020-05-09 2020-09-18 北京中广上洋科技股份有限公司 一种基于骨骼关键点的人体姿态识别方法、装置、存储介质及终端

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9600717B1 (en) * 2016-02-25 2017-03-21 Zepp Labs, Inc. Real-time single-view action recognition based on key pose analysis for sports videos
CN108846365A (zh) * 2018-06-24 2018-11-20 深圳市中悦科技有限公司 视频中打架行为的检测方法、装置、存储介质及处理器

Also Published As

Publication number Publication date
CN112370045A (zh) 2021-02-19

Similar Documents

Publication Publication Date Title
CN112370045B (zh) 基于人工智能的功能性动作检测方法及系统
CN108256433B (zh) 一种运动姿态评估方法及系统
Kianifar et al. Automated assessment of dynamic knee valgus and risk of knee injury during the single leg squat
CN111883229B (zh) 一种基于视觉ai的智能运动指导方法及系统
CN112568898A (zh) 一种基于视觉图像对人体运动动作自动进行伤病风险评估及动作矫正的方法、装置及设备
CN113920326A (zh) 基于人体骨骼关键点检测的摔倒行为识别方法
Wang et al. Motion analysis of deadlift for trainers with different levels based on body sensor network
CN115497626A (zh) 基于关节点识别的身体健康评估方法
Goyal et al. Yoga pose perfection using deep learning: An algorithm to estimate the error in yogic poses
CN113663312B (zh) 一种基于微惯性的无器械健身动作质量评估方法
Serrien et al. Proximal-to-distal sequencing and coordination variability in the volleyball spike of elite youth players: Effects of gender and growth
Supanich et al. Machine learning-based exercise posture recognition system using mediapipe pose estimation framework
Bersamira et al. Human gait kinematic estimation based on joint data acquisition and analysis from imu and depth-sensing camera
KR20150019963A (ko) 승마시뮬레이터에서 사용자 자세 인식 장치 및 방법
US20230355135A1 (en) Intelligent gait analyzing apparatus
CN116543455A (zh) 建立帕金森症步态受损评估模型、使用方法、设备及介质
CN115568823A (zh) 一种人体平衡能力评估的方法、系统和装置
CN114092862A (zh) 一种基于最优帧选取的动作评估方法
Gharasuie et al. Performance monitoring for exercise movements using mobile cameras
Ebenezer et al. Pose Estimation Approach for Gait Analysis using Machine Learning
Maruhashi et al. Posture Corrector: Incorrect Posture and Repetition Identifier using OpenPose and Deep Neural Network
Hande et al. Yoga Postures Correction and Estimation using Open CV and VGG 19 Architecture
CN114984540B (zh) 一种基于人工智能的健身锻炼效果评价分析管理系统
Shi Sport action recognition by fusing multi‐source sensor information
CN113397530B (zh) 一种可进行膝关节功能评估的智能矫正系统和方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant