CN113850248B - 运动姿态评估方法、装置、边缘计算服务器及存储介质 - Google Patents
运动姿态评估方法、装置、边缘计算服务器及存储介质 Download PDFInfo
- Publication number
- CN113850248B CN113850248B CN202111449751.8A CN202111449751A CN113850248B CN 113850248 B CN113850248 B CN 113850248B CN 202111449751 A CN202111449751 A CN 202111449751A CN 113850248 B CN113850248 B CN 113850248B
- Authority
- CN
- China
- Prior art keywords
- image
- user
- target
- included angle
- time
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Artificial Intelligence (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Image Analysis (AREA)
Abstract
本发明实施例提供了一种运动姿态评估方法、装置、边缘计算服务器及存储介质,所述方法包括:获取第一视频,根据第一视频,判断用户是否进入运动起始区域;在用户进入运动起始区域的情况下,获取第二视频,针对第二视频中每帧第二图像,识别第二图像中用户的关键部位的骨骼关节点位置;根据用户的关键部位的骨骼关节点位置,确定第二图像对应的姿态数据;从用户运动过程中的姿态数据中选取目标姿态数据,与预设标准姿态数据进行比较,以评估用户的运动姿态。如此在运动过程中进行视频采集和分析,将得到的目标姿态数据与标准的姿态数据进行比较,可以客观、准确的确定运动姿态的标准程度,指导用户进行姿态的纠正,极大地方便了用户的训练。
Description
技术领域
本发明实施例涉及图像处理技术领域,尤其涉及一种运动姿态评估方法、装置、边缘计算服务器及存储介质。
背景技术
传统体育教学中,运动者在完成立定跳远的过程中,其自身很难做到对自己运动姿态的有效的评估,需要老师或者教练认真观察给出评估。该方式中,运动者自身很难完成运动姿态的纠正。
相关技术中,通过借助视频录制和视频回放的方式,实现运动者对自身运动姿态的评估。但是这种借助视频录制和视频回放的方式,运动者无法客观、准确的确定运动姿态的标准程度。
发明内容
为了解决上述这种借助视频录制和视频回放的方式,运动者无法客观、准确的确定运动姿态的标准程度的技术问题,本发明实施例提供了一种运动姿态评估方法、装置、边缘计算服务器及存储介质。
在本发明实施例的第一方面,首先提供了一种运动姿态评估方法,应用于边缘计算服务器,所述方法包括:
获取第一视频,并根据所述第一视频,判断用户是否进入预设的运动起始区域;
在所述用户进入所述运动起始区域的情况下,触发对所述用户的运动姿态检测事件;
获取第二视频,针对所述第二视频中每帧第二图像,识别所述第二图像中所述用户的关键部位的骨骼关节点位置;
根据所述用户的关键部位的所述骨骼关节点位置,确定所述第二图像对应的姿态数据,由所述第二视频中各所述第二图像各自对应的所述姿态数据组成所述用户运动过程中的姿态数据;
从所述用户运动过程中的所述姿态数据中选取目标姿态数据,与预设标准姿态数据进行比较,以评估所述用户的运动姿态。
在一个可选的实施方式中,所述获取第一视频,包括:
在立定跳远检测模式下,获取第一视频;
所述根据所述第一视频,判断用户是否进入预设的运动起始区域,包括:
针对所述第一视频中的第一图像,将所述第一图像输入至预设的人体位置检测模型,得到所述人体位置检测模型输出的所述第一图像中的用户位置;
将所述用户位置与预设的起跳区域位置进行比较,判断所述用户是否进入立定跳远的起跳区域。
在一个可选的实施方式中,所述人体位置检测模型具体通过以下方式得到:
获取多个目标用户各自对应的立定跳远视频,并对所述立定跳远视频进行抽帧处理,得到预设数量的立定跳远图像;
采用矩形框标注方式对所述预设数量的所述立定跳远图像进行人体目标标注,生成人体检测训练样本;
基于所述人体检测训练样本,对人体位置检测初始模型进行有监督训练,得到人体位置检测模型。
在一个可选的实施方式中,所述识别所述第二图像中所述用户的关键部位的骨骼关节点位置,包括:
将所述第二图像输入至预设的人体姿态评估模型,获取所述人体姿态评估模型输出的所述第二图像中所述用户的关键部位的骨骼关节点位置。
在一个可选的实施方式中,所述人体姿态评估模型具体通过以下方式得到:
获取多个目标用户各自对应的立定跳远视频,并对所述立定跳远视频进行抽帧处理,得到预设数量的立定跳远图像;
采用骨骼关节点标注方式对所述预设数量的所述立定跳远图像进行人体关节点标注,生成运动姿态评估训练样本;
基于所述运动姿态评估训练样本,对人体姿态评估初始模型进行有监督训练,得到人体姿态评估模型。
在一个可选的实施方式中,所述根据所述用户的关键部位的所述骨骼关节点位置,确定所述第二图像对应的姿态数据,包括:
根据立定跳远方向,从所述骨骼关节点位置中选择多个目标骨骼关节点位置,得到成骨骼关节点位置集;
根据所述骨骼关节点位置集,确定所述第二图像对应的所述用户的目标关键部位对应的夹角。
在一个可选的实施方式中,所述根据所述骨骼关节点位置集,确定所述第二图像对应的所述用户的目标关键部位对应的夹角,包括:
获取所述骨骼关节点位置集中的所述目标骨骼关节点位置,组成所述用户的目标关键部位对应的向量;
计算所述用户的目标关键部位对应的所述向量之间的夹角,确定所述夹角为所述第二图像对应的所述用户的目标关键部位对应的夹角。
在一个可选的实施方式中,所述从所述用户运动过程中的所述姿态数据中选取目标姿态数据,与预设标准姿态数据进行比较,以评估所述用户的运动姿态,包括:
根据所述骨骼关节点位置集,确定所述第二图像对应的所述用户的身体重心位置;
根据各所述第二图像各自对应的所述身体重心位置以及所述夹角,从各所述第二图像各自对应的所述夹角中选取目标夹角。
将所述目标夹角与预设标准夹角进行比较,以评估所述用户的运动姿态。
在一个可选的实施方式中,所述根据所述骨骼关节点位置集,确定所述第二图像对应的所述用户的身体重心位置,包括:
从所述骨骼关节点位置集中选取第一目标骨骼关节点位置,并获取所述第一目标骨骼关节点位置的加权和;
确定所述加权和为所述第二图像对应的所述用户的身体重心位置。
在一个可选的实施方式中,所述根据各所述第二图像各自对应的所述身体重心位置以及所述夹角,从各所述第二图像各自对应的所述夹角中选取目标夹角,包括:
根据各所述第二图像各自对应的所述身体重心位置以及所述夹角,从各所述第二图像中选取目标时刻的所述第二图像对应的夹角,作为目标夹角;
其中,所述目标时刻包括腾空时刻、立定跳远落地时刻、起跳时刻、预备起跳时刻以及起跳前摆臂时刻。
在一个可选的实施方式中,所述根据各所述第二图像各自对应的所述身体重心位置以及所述夹角,从各所述第二图像中选取目标时刻的所述第二图像对应的夹角,作为目标夹角,包括:
针对各所述第二图像各自对应的所述身体重心位置,当所述身体重心位置的横坐标超出所述运动起始区域时,获取首个所述身体重心位置对应的所述第二图像的采集时刻;
将首个所述身体重心位置对应的所述第二图像的采集时刻作为预备状态到腾空状态的变换时刻;
利用所述变换时刻,对各所述第二图像各自对应的所述身体重心位置以及所述夹角进行筛选,选取目标时刻的所述第二图像对应的夹角,作为目标夹角。
在一个可选的实施方式中,所述利用所述变换时刻,对各所述第二图像各自对应的所述身体重心位置以及所述夹角进行筛选,选取目标时刻的所述第二图像对应的夹角,作为目标夹角,包括:
获取所述变换时刻至第一目标时刻的第一时间段内所述第二图像对应的所述骨骼关节点位置集中的候选骨骼关节点位置;确定纵坐标最大的所述候选骨骼关节点位置,获取纵坐标最大的所述候选骨骼关节点位置对应的所述第二图像的采集时刻,作为腾空时刻;
获取所述腾空时刻至第二目标时刻的第二时间段内所述第二图像对应的所述身体重心位置;确定纵坐标最小的所述身体重心位置,获取纵坐标最小的所述身体重心位置对应的所述第二图像的采集时刻,作为立定跳远落地时刻;
获取所述变换时刻至所述腾空时刻的第三时间段内所述第二图像对应的所述夹角;确定第一夹角和最大的所述夹角,获取第一夹角和最大的所述夹角对应的所述第二图像的采集时刻,作为起跳时刻;
获取第三目标时刻至所述起跳时刻的第三时间段内所述第二图像对应的所述夹角;确定夹角和最小的所述夹角,获取夹角和最小的所述夹角对应的所述第二图像的采集时刻,作为预备起跳时刻;
获取第四目标时刻至所述预备起跳时刻的第四时间段内所述第二图像对应的所述夹角;确定第二夹角和最大的所述夹角,获取第二夹角和最大的所述夹角对应的所述第二图像的采集时刻,作为起跳前摆臂时刻;
选取所述腾空时刻、所述立定跳远落地时刻、所述起跳时刻、所述预备起跳时刻以及所述起跳前摆臂时刻的所述第二图像对应的夹角,作为目标夹角。
在一个可选的实施方式中,所述第一目标时刻由所述变换时刻加上时间阈值得到;所述第二目标时刻由所述腾空时刻加上时间阈值得到;所述第三目标时刻由所述起跳时刻减去时间阈值得到;所述第四目标时刻由所述预备起跳时刻减去时间阈值得到。
在一个可选的实施方式中,所述方法还包括:
获取所述预备起跳时刻对应的所述第二图像中用户脚尖至所述立定跳远落地时刻对应的所述第二图像中用户脚后跟之间的像素距离;
根据预设的基准标尺,对所述像素距离进行转换,将所述像素距离转换为所述用户的跳远距离;
获取所述腾空时刻对应的所述第二图像中用户脚裸至地面的距离,将所述距离作为所述用户腾空过程中的最大高度。
在一个可选的实施方式中,所述方法还包括:
将所述目标夹角在所述目标时刻的所述第二图像上进行标注,并在显示屏上进行展示。
在本发明实施例的第二方面,提供了一种运动姿态评估装置,应用于边缘计算服务器,所述装置包括:
第一视频获取模块,用于获取第一视频;
用户判断模块,用于根据所述第一视频,判断用户是否进入预设的运动起始区域;
第二视频获取模块,用于在所述用户进入所述运动起始区域的情况下,触发对所述用户的运动姿态检测事件;
位置识别模块,用于获取第二视频,针对所述第二视频中每帧第二图像,识别所述第二图像中所述用户的关键部位的骨骼关节点位置;
数据确定模块,用于根据所述用户的关键部位的所述骨骼关节点位置,确定所述第二图像对应的姿态数据,由所述第二视频中各所述第二图像各自对应的所述姿态数据组成所述用户运动过程中的姿态数据;
姿态评估模块,用于从所述用户运动过程中的所述姿态数据中选取目标姿态数据,与预设标准姿态数据进行比较,以评估所述用户的运动姿态。
在本发明实施例的第三方面,还提供了一种边缘计算服务器,包括处理器、通信接口、存储器和通信总线,其中,处理器,通信接口,存储器通过通信总线完成相互间的通信;
存储器,用于存放计算机程序;
处理器,用于执行存储器上所存放的程序时,实现上述第一方面中所述的运动姿态评估方法。
在本发明实施例的第四方面,还提供了一种存储介质,所述存储介质中存储有指令,当其在计算机上运行时,使得计算机执行上述第一方面中所述的运动姿态评估方法。
在本发明实施例的第五方面,还提供了一种包含指令的计算机程序产品,当其在计算机上运行时,使得计算机执行上述第一方面中所述的运动姿态评估方法。
本发明实施例提供的技术方案,获取第一视频,并根据第一视频,判断用户是否进入预设的运动起始区域,在用户进入运动起始区域的情况下,触发对用户的运动姿态检测事件,获取第二视频,针对第二视频中每帧第二图像,识别第二图像中用户的关键部位的骨骼关节点位置,根据用户的关键部位的骨骼关节点位置,确定第二图像对应的姿态数据,由第二视频中各第二图像中的用户的姿态数据组成用户运动过程中的姿态数据,从用户运动过程中的姿态数据中选取目标姿态数据,与预设标准姿态数据进行比较,以评估用户的运动姿态。如此,在运动过程中进行视频采集和分析,以实现对用户在运动过程中运动姿态的检测,对用户的运动姿态通过数据进行量化,将得到的目标姿态数据与标准的姿态数据进行比较,可以客观、准确的确定运动姿态的标准程度,进而指导用户进行姿态的纠正,极大地方便了用户的训练。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本发明的实施例,并与说明书一起用于解释本发明的原理。
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,对于本领域普通技术人员而言,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1为本发明实施例中示出的一种运动姿态评估方法的实施流程示意图;
图2为本发明实施例中示出的一种标注立定跳远的起跳区域和起跳方向的示意图;
图3为本发明实施例中示出的一种人体位置检测模型的训练方法的实施流程示意图;
图4为本发明实施例中示出的一种人体姿态评估模型的训练方法的实施流程示意图;
图5为本发明实施例中示出的一种骨骼关节点标注方式的示意图;
图6为本发明实施例中示出的一种第二图像对应的姿态数据的确定方法的实施流程示意图;
图7为本发明实施例中示出的一种用户的运动姿态的评估系统的架构示意图;
图8为本发明实施例中示出的另一种用户的运动姿态的评估方法的实施流程示意图;
图9为本发明实施例中示出的一种目标时刻的第二图像的选取方法的实施流程示意图;
图10为本发明实施例中示出的一种t1时刻对应的第二图像;
图11为本发明实施例中示出的一种t2时刻对应的第二图像;
图12为本发明实施例中示出的一种t3时刻对应的第二图像;
图13为本发明实施例中示出的一种t4时刻对应的第二图像;
图14为本发明实施例中示出的一种t5时刻对应的第二图像;
图15为本发明实施例中示出的一种运动姿态评估装置的结构示意图;
图16为本发明实施例中示出的一种边缘计算服务器的结构示意图。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明的一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动的前提下所获得的所有其他实施例,都属于本发明保护的范围。
需要说明的是,本发明的说明书和权利要求书及上述附图中的术语“第一”、“第二”等是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的本发明的实施例能够以除了在这里图示或描述的那些以外的顺序实施。此外,术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元的过程、方法、系统、产品或设备不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。
如图1所示,为本发明实施例提供的一种运动姿态评估方法的实施流程示意图,该方法应用于边缘计算服务器,具体可以包括以下步骤:
S101,边缘计算服务器获取第一视频,并根据所述第一视频,判断用户是否进入预设的运动起始区域。
在本发明实施例中,可以将图像采集设备,比如摄像头、相机等,部署在(体育)场地,用于实时采集该场地中的视频;其中,在后台(即图像采集设备的画面中)标注运动起始区域,比如立定跳远的起跳区域和起跳方向,如图2所示。
需要说明的是,对于图像采集设备的部署,图像采集设备的视角可以面向用户的侧方,即可以拍摄用户的左侧方或者右侧方,本发明实施例对此不作限定。
在立定跳远检测模式下,用户立定跳远过程中,可以通过图像采集设备实时捕获运动画面,并将采集的画面传输至边缘计算服务器。由此在立定跳远检测模式下,边缘计算服务器获取图像采集设备所传输的第一视频。
对于第一视频,可以根据该第一视频,判断用户是否进入预设的运动起始区域(例如立定跳远的起跳区域)。例如,在立定跳远检测模式下,对于第一视频,根据该第一视频,判断学生是否进入预设的起跳区域。
其中,针对第一视频中的第一图像,将第一图像输入至预设的人体位置检测模型,得到人体位置检测模型输出的第一图像中的用户位置;将用户位置与预设的起跳区域位置进行比较,判断用户是否进入立定跳远的起跳区域。
需要说明的是,对于人体位置检测模型,具体可以是peoplenet模型,当然还可以是其它算法,本发明实施例对此不作限定。
如图3所示,为本发明实施例提供的一种人体位置检测模型的训练方法的实施流程示意图,该方法具体可以包括以下步骤:
S301,获取多个目标用户各自对应的立定跳远视频,并对所述立定跳远视频进行抽帧处理,得到预设数量的立定跳远图像。
在本发明实施例中,模型训练阶段,召集多个目标用户,针对每个目标用户分别进行立定跳远视频的采集。如此可以获取多个目标用户各自对应的立定跳远视频。
例如,模型训练阶段,召集4000名学生,其中男女各2000人,每个学生分别进行立定跳远视频的采集。如此可以获取4000个学生的立定跳远视频。
对于获取的多个目标用户各自对应的立定跳远视频,在本发明实施例中进行抽帧处理,如此可以得到预设数量的立定跳远图像。其中,可以随机抽帧,本发明实施例对此不作限定。
例如,对于获取的4000个学生各自对应的立定跳远视频,在本发明实施例中进行抽帧处理,其中可以利用脚本随机抽帧,如此可以得到大约50000张立定跳远图像。
S302,采用矩形框标注方式对所述预设数量的所述立定跳远图像进行人体目标标注,生成人体检测训练样本。
对于预设数量的立定跳远图像,在本发明实施例中可以采用矩形框标注方式对其进行人体目标标注,如此可以生成人体检测训练样本,意味着对于每一张立定跳远图像,使用一个矩形框把立定跳远图像中的人框住。
S303,基于所述人体检测训练样本,对人体位置检测初始模型进行有监督训练,得到人体位置检测模型。
对于人体检测训练样本,在本发明实施例中可以基于人体检测训练样本,对人体位置检测初始模型进行有监督训练,得到人体位置检测模型。
需要说明的是,在本发明实施例中,当损失函数收敛,或者迭代次数达到阈值时,可以视为模型训练终止,本发明实施例对此不作限定。
S102,在所述用户进入所述运动起始区域的情况下,触发对所述用户的运动姿态检测事件。
S103,获取第二视频,针对所述第二视频中每帧第二图像,识别所述第二图像中所述用户的关键部位的骨骼关节点位置。
S104,根据所述用户的关键部位的所述骨骼关节点位置,确定所述第二图像对应的姿态数据,由所述第二视频中各所述第二图像各自对应的所述姿态数据组成所述用户运动过程中的姿态数据。
本申请实施例中,图像采集设备可以是实时采集用户整个运动过程中的视频,并将该视频传输至边缘计算服务器进行处理,边缘计算服务器在用户进入运动起始区域的情况下,开启对用户的运动姿态的检测,此时可以通过目标跟踪算法跟踪该用户,图像采集设备实时捕获运动画面,边缘计算服务器获取到第二视频。
需要说明的是,本发明实施例中第一视频以及第二视频可以是运动姿态评估完整视频码流中的子片段,由第一视频和第二视频构成运动姿态评估完整视频码流,这里运动姿态评估码流指的是用户自进入(摄像头)画面,然后进入到起跳区域,紧接着从起跳区域准备起跳以及起跳完毕(即落地)之后,退出(摄像头)画面整个过程采集的视频码流。
在本发明实施例中,针对第二视频中每帧第二图像,识别第二图像中用户的关键部位的骨骼关节点位置,由此根据用户的关键部位的骨骼关节点位置,确定第二图像对应的姿态数据。
例如,在本发明实施例中,针对第二视频中第i(i=1,2,3,4……)帧第二图像,识别第i帧第二图像中用户的关键部位的骨骼关节点位置,由此根据用户的关键部位的骨骼关节点位置,确定第i帧第二图像对应的姿态数据,如下表1所示。
第i帧第二图像 | 姿态数据 |
第1帧第二图像 | 姿态数据1 |
第2帧第二图像 | 姿态数据2 |
…… | …… |
表1
需要说明的是,对于关键部位,在本发明实施例中具体指的是肩关节、肘关节、漆关节和/或脚关节等,针对不同的运动模式,可以选取不同的关键部位,本发明实施例对此不作限定。此外,用户的关键部位的骨骼关节点位置,可以如下所示:
其中,在本发明实施例中,可以通过人体姿态评估模型,识别第二图像中用户的关键部位的骨骼关节点位置,具体可以将第二图像输入至预设的人体姿态评估模型,获取人体姿态评估模型输出的第二图像中用户的关键部位的骨骼关节点位置。
需要说明的是,对于人体姿态评估模型,具体可以是yolo模型,当然还可以是其它算法,本发明实施例对此不作限定。
如图4所示,为本发明实施例提供的一种人体姿态评估模型的训练方法的实施流程示意图,该方法具体可以包括以下步骤:
S401,获取多个目标用户各自对应的立定跳远视频,并对所述立定跳远视频进行抽帧处理,得到预设数量的立定跳远图像。
在本发明实施例中,模型训练阶段,召集多个目标用户,每个目标用户分别进行立定跳远视频的采集。如此可以获取多个目标用户各自对应的立定跳远视频。
例如,模型训练阶段,召集4000名学生,其中男女各2000人,每个学生分别进行立定跳远视频的采集。如此可以获取4000个学生的立定跳远视频。
对于获取的多个目标用户各自对应的立定跳远视频,在本发明实施例中进行抽帧处理,如此可以得到预设数量的立定跳远图像。其中,可以随机抽帧,本发明实施例对此不作限定。
例如,对于获取的4000个学生各自对应的立定跳远视频,在本发明实施例中进行抽帧处理,其中可以利用脚本随机抽帧,如此可以得到大约50000张立定跳远图像。
S402,采用骨骼关节点标注方式对所述预设数量的所述立定跳远图像进行人体关节点标注,生成运动姿态评估训练样本。
对于预设数量的立定跳远图像,在本发明实施例中可以采用骨骼关节点标注方式对其进行人体关节点标注,如此可以生成运动姿态评估训练样本,意味着对于每一张立定跳远图像,标注其中的骨骼关节点。
例如,对于50000张立定跳远图像,采用骨骼关节点标注方式进行人体关节点标注,共计标注22个骨骼关节点,如图5所示,其中,每个骨骼关节点含义如下表2所示。
表2
S403,基于所述运动姿态评估训练样本,对人体姿态评估初始模型进行有监督训练,得到人体姿态评估模型。
对于运动姿态评估训练样本,在本发明实施例中可以基于运动姿态评估训练样本,对人体姿态评估初始模型进行有监督训练,得到人体姿态评估模型。
需要说明的是,在本发明实施例中,当损失函数收敛,或者迭代次数达到阈值时,可以视为模型训练终止,本发明实施例对此不作限定。
此外,在本发明实施例中,如图6所示,为本发明实施例提供的一种第二图像对应的姿态数据的确定方法的实施流程示意图,具体可以包括以下步骤:
S601,根据立定跳远方向,从所述骨骼关节点位置中选择多个目标骨骼关节点位置,得到骨骼关节点位置集。
对于第二图像中用户的关键部位的骨骼关节点位置,在本发明实施例中可以根据立定跳远方向,从骨骼关节点位置中选择多个目标骨骼关节点位置,得到成骨骼关节点位置集。
例如,具体而言,图像采集设备拍摄用户左侧,当立定跳远方向从右向左时,对于第二图像中用户的关键部位的骨骼关节点位置,从骨骼关节点位置中选择目标骨骼关节点位置,组合成骨骼关节点位置集,即(P7、P9、P13、P15、P17、P19、P21)。
例如,具体而言,当立定跳远方向从左向右时,图像采集设备拍摄用户右侧,对于第二图像中用户的关键部位的骨骼关节点位置,从骨骼关节点位置中选择目标骨骼关节点位置,组合成骨骼关节点位置集,即(P6、P8、P12、P14、P16、P18、P20)。
需要说明的是,上述P7、P9、P13、P15、P17、P19、P21等可以参考图5以及上述表2所示的含义,本发明实施例在此不再一一赘述。
S602,根据所述骨骼关节点位置集,确定所述第二图像对应的所述用户的目标关键部位对应的夹角。
对于骨骼关节点位置集,在本发明实施例中可以基于骨骼关节点位置集,确定第二图像对应的用户的目标关键部位对应的夹角,即姿态数据可以看作是用户的目标关键部位对应的夹角。
图像采集设备拍摄用户身体侧面,目标关键部位与立定跳远方向息息相关。例如,当立定跳远方向从右向左时,这里目标关键部位可以是右肩、右膝盖等,当立定跳远方向从左向右时,这里目标关键部位可以是左肩、左膝盖等,本发明实施例对此不作限定。
其中,本发明实施例可以获取骨骼关节点位置集中的目标骨骼关节点位置,组成用户的目标关键部位对应的向量,计算用户的目标关键部位对应的向量之间的夹角,确定该夹角为第二图像对应的用户的目标关键部位对应的夹角。
例如,以立定跳远方向从右向左为例,获取骨骼关节点位置集中的P7、P9、P13,组成用户的目标关键部位对应的向量,即用户左肩关节对应的2个向量,即,参考图5以及上述表2所示的含义,计算这2个向量之间的夹角,确定夹角为第二图像对应的用户的左肩关节对应的夹角,记为angle_shoulder。
同理,获取骨骼关节点位置集中其余目标骨骼关节点位置,组成用户的左腰关节对应的2个向量、左膝关节对应的2个向量、左脚踝关节对应的2个向量,然后计算2个向量之间的夹角,确定夹角为第二图像对应的用户的左腰关节对应的夹角、左膝关节对应的夹角、左脚踝关节对应的夹角,分别记为angle_waist、angle_knee、angle_ankle,如下表3所示。如此可以确定第二图像对应的用户的上述关节分别对应的夹角。
表3
S105,从所述用户运动过程中的所述姿态数据中选取目标姿态数据,与预设标准姿态数据进行比较,以评估所述用户的运动姿态。
在本发明实施例中,对于第二视频中各第二图像各自对应的姿态数据,组成用户运动过程中的姿态数据,从用户运动过程中的姿态数据中选取目标姿态数据,即从各第二图像各自对应的姿态数据中选取目标姿态数据,并与预设标准姿态数据进行比较,以评估用户的运动姿态,即对应运动专家知识库,评估如预摆角度是否合理、起跳姿势是否存在问题,腾空、落地姿态问题,并给出对应专家库中训练指导意见。
其中,对于目标姿态数据(例如右肩关节夹角、右膝关节夹角等),将目标姿态数据与预设标准姿态数据(例如标准的右肩关节夹角、右膝关节夹角等)进行比对,检测用户的运动姿态是否标准,或者是给出标准程度,并且在用户的运的姿态不标准的情况下,在显示屏上回放用户的运动姿态,并在不标准的位置进行标记;如图7所示,该边缘计算服务器分别与摄像头、显示屏进行连接。
如图8所示,为本发明实施例提供的另一种用户的运动姿态的评估方法的实施流程示意图,该方法具体可以包括以下步骤:
S801,根据所述骨骼关节点位置集,确定所述第二图像对应的所述用户的身体重心位置。
在本发明实施例中,针对第二视频中每帧第二图像,识别第二图像中用户的关键部位的骨骼关节点位置,根据立定跳远方向,从骨骼关节点位置中选择目标骨骼关节点位置,组合成骨骼关节点位置集,根据骨骼关节点位置集,确定第二图像对应的用户的目标关键部位对应的夹角。
此外,还可以根据骨骼关节点位置集,确定第二图像对应的用户的身体重心位置。如此对于第二视频中每帧第二图像,均存在对应的用户的目标关键部位对应的夹角以及用户的身体重心位置。
其中,从骨骼关节点位置集中选取第一目标骨骼关节点位置,并获取第一目标骨骼关节点位置的加权和,确定加权和为第二图像对应的用户的身体重心位置。如此可以得到各第二图像各自对应的用户的目标关键部位对应的夹角以及用户的身体重心位置。
例如,以立定跳远方向从右向左为例,从骨骼关节点位置集中选取第一目标骨骼关节点位置,即P7、P13、P15、P17,其中,这4个目标骨骼关节点位置的选取可以是固定的,计算这4个目标骨骼关节点位置的加权和,如下所示,作为第二图像对应的用户的身体重心位置。
S802,根据各所述第二图像各自对应的所述身体重心位置以及所述夹角,从各所述第二图像各自对应的所述夹角中选取目标夹角。
对于第二视频中每帧第二图像,均得到各自对应的用户的目标关键部位对应的夹角以及用户的身体重心位置,由此可以根据各第二图像各自对应的身体重心位置以及夹角,从各第二图像各自对应的夹角中选取目标夹角。
对于立定跳远,整个跳远过程按照状态分为预备、腾空、落地三个阶段,由此根据各第二图像各自对应的身体重心位置以及夹角,从各第二图像中选取目标时刻的第二图像对应的夹角,作为目标夹角,其中,目标时刻包括腾空时刻、立定跳远落地时刻、起跳时刻、预备起跳时刻以及起跳前摆臂时刻。
例如,根据各第二图像各自对应的用户的目标关键部位对应的夹角以及用户的身体重心位置,从各第二图像中选取目标时刻的第二图像,其中,目标时刻包括腾空时刻t4、立定跳远落地时刻t5、起跳时刻t3、预备起跳时刻t2以及起跳前摆臂时刻t1,确定目标时刻的第二图像对应的夹角为目标夹角,即后续将t1、t2、t3、t4、t5时刻的第二图像对应的用户的关键部位对应的夹角与预设标准夹角进行比较,以评估用户的运动姿态。
如图9所示,为本发明实施例提供的一种目标时刻的第二图像的选取方法的实施流程示意图,该方法具体可以包括以下步骤:
S901,针对各所述第二图像各自对应的所述身体重心位置,当所述身体重心位置的横坐标超出所述运动起始区域时,获取首个所述身体重心位置对应的所述第二图像的采集时刻。
S902,将首个所述身体重心位置对应的所述第二图像的采集时刻作为预备状态到腾空状态的变换时刻。
S903,利用所述变换时刻,对各所述第二图像各自对应的所述身体重心位置以及所述夹角进行筛选,选取目标时刻的所述第二图像对应的夹角,作为目标夹角。
在本发明实施例中,身体重心位置的横坐标在运动起始区域内,默认为预备阶段,身体重心位置的横坐标未在运动起始区域内,且处于起跳方向一侧时,默认为腾空或者落地状态。
基于上述思想,针对各第二图像各自对应的用户的身体重心位置,当用户的身体重心位置的横坐标超出运动起始区域时,说明是预备状态到腾空状态的变换,此时获取首个用户的身体重心位置对应的第二图像的采集时刻。
将首个用户的身体重心位置对应的第二图像的采集时刻作为预备状态到腾空状态的变换时刻,例如变换时刻记为t。如此可以利用该变换时刻,对各第二图像各自对应的用户的身体重心位置以及用户的目标关键部位的夹角进行筛选,选取目标时刻的第二图像对应的夹角,作为目标夹角。
具体地,在本发明实施例中,获取变换时刻至第一目标时刻的第一时间段内第二图像对应的骨骼关节点位置集中的候选骨骼关节点位置;确定纵坐标最大的候选骨骼关节点位置,获取纵坐标最大的候选骨骼关节点位置对应的第二图像的采集时刻;将纵坐标最大的候选骨骼关节点位置对应的第二图像的采集时刻作为腾空时刻。
例如,获取(t,t+1(s))的第一时间段内第二图像对应的骨骼关节点位置集中的候选骨骼关节点位置(即P17,这里可以随机选择,或者可以是固定的);确定纵坐标最大的候选骨骼关节点位置,获取纵坐标最大的候选骨骼关节点位置对应的第二图像的采集时刻;将纵坐标最大的候选骨骼关节点位置对应的第二图像的采集时刻作为腾空时刻,记为t4。
需要说明的是,当坐标原点位于图像左上角或者左下角时,确定纵坐标最大的候选骨骼关节点位置,获取纵坐标最大的候选骨骼关节点位置对应的第二图像的采集时刻;将纵坐标最大的候选骨骼关节点位置对应的第二图像的采集时刻作为腾空时刻,这里坐标原点影响了候选骨骼关节点位置的确定,本发明实施例对此不作限定。
获取腾空时刻至第二目标时刻的第二时间段内第二图像对应的身体重心位置;确定纵坐标最小的身体重心位置,获取纵坐标最小的身体重心位置对应的第二图像的采集时刻;将纵坐标最小的身体重心位置对应的第二图像的采集时刻作为立定跳远落地时刻。
例如,获取(t4,t4+1(s))的第二时间段内第二图像对应的身体重心位置;确定纵坐标最小的身体重心位置body_center,获取纵坐标最小的身体重心位置对应的第二图像的采集时刻;将纵坐标最小的身体重心位置对应的第二图像的采集时刻作为立定跳远落地时刻,记为t5。
需要说明的是,当坐标原点位于图像左下角,或者坐标原点位于起跳位置时,确定纵坐标最小的身体重心位置body_center,获取纵坐标最小的身体重心位置对应的第二图像的采集时刻;将纵坐标最小的身体重心位置对应的第二图像的采集时刻作为立定跳远落地时刻,坐标原点影响了身体重心位置的确定,本发明实施例对此不作限定。
获取变换时刻至腾空时刻的第三时间段内第二图像对应的夹角;确定第一夹角和最大的夹角,获取第一夹角和最大的夹角对应的第二图像的采集时刻;将第一夹角和最大的夹角对应的第二图像的采集时刻作为起跳时刻。
例如,获取(t,t4)的第三时间段内第二图像对应的夹角;确定第一夹角和(即angle_waist+angle_knee+angle_ankle+angle_shoulder)最大的夹角,获取第一夹角和最大的夹角对应的第二图像的采集时刻;将第一夹角和最大的夹角对应的第二图像的采集时刻作为起跳时刻,t3。
获取第三目标时刻至起跳时刻的第三时间段内第二图像对应的夹角;确定夹角和最小的夹角,获取夹角和最小的夹角对应的第二图像的采集时刻;将夹角和最小的夹角对应的第二图像的采集时刻作为预备起跳时刻。
例如,获取(t3-1(s),t3)的第三时间段内第二图像对应的夹角;确定夹角和最小(即angle_waist+angle_knee+angle_ankle+angle_shoulder的最小值)的夹角,获取夹角和最小的夹角对应的第二图像的采集时刻;将夹角和最小的夹角对应的第二图像的采集时刻作为预备起跳时刻,记为t2。
获取第四目标时刻至预备起跳时刻的第四时间段内第二图像对应的夹角;确定第二夹角和最大的夹角,获取第二夹角和最大的夹角对应的第二图像的采集时刻;将第二夹角和最大的夹角对应的第二图像的采集时刻作为起跳前摆臂时刻。
例如,获取(t2-1(s),t2)的第四时间段内第二图像对应的夹角;确定第二夹角和最大(即angle_waist+angle_knee+angle_ankle+angle_shoulder的最大值)的夹角,获取第二夹角和最大的夹角对应的第二图像的采集时刻;将第二夹角和最大的夹角对应的第二图像的采集时刻作为起跳前摆臂时刻,记为t1。
如此经过上述处理,可以得到腾空时刻、立定跳远落地时刻、起跳时刻、预备起跳时刻以及起跳前摆臂时刻等5个时刻,从而可以从各第二图像中,选取腾空时刻、立定跳远落地时刻、起跳时刻、预备起跳时刻以及起跳前摆臂时刻各自对应的第二图像对应的夹角,作为目标夹角。
例如,从各第二图像中,选取:起跳前摆臂时刻,即t1对应的第二图像,如图10所示;选取预备起跳时刻,即t2对应的第二图像,如图11所示;选取起跳时刻,即t3对应的第二图像,如图12所示;选取腾空时刻,即t4对应的第二图像,如图13所示;选取立定跳远落地时刻,即t5对应的第二图像,如图14所示等对应的夹角,作为目标夹角。
需要说明的是,第一目标时刻由变换时刻加上时间阈值得到;第二目标时刻由腾空时刻加上时间阈值得到;第三目标时刻由起跳时刻减去时间阈值得到;第四目标时刻由预备起跳时刻减去时间阈值得到。这里的时间阈值可以是上述的1(s),当然还可以是1.5(s),本发明实施例对此不作限定。
S803,将所述目标夹角与预设标准夹角进行比较,以评估所述用户的运动姿态。
在本发明实施例中,对于目标时刻的第二图像,即腾空时刻、立定跳远落地时刻、起跳时刻、预备起跳时刻以及起跳前摆臂时刻的第二图像对应的夹角为目标夹角,将目标夹角与预设标准夹角进行比较,以评估用户的运动姿态。意味着将t1、t2、t3、t4、t5的第二图像对应的用户的目标关键部位对应的夹角与预设标准夹角进行比较,以评估用户的运动姿态。
本申请实施例中,上述边缘计算服务器可以是在得到用户的运动过程中的姿态数据后,将该姿态数据在第二图像上进行标注,并在显示评上呈现标注后的第二图像。
本申请一实施例中,也可以是对目标时刻的第二图像进行标注用户的姿态数据,比如对于腾空时刻、立定跳远落地时刻、起跳时刻、预备起跳时刻以及起跳前摆臂时刻的第二图像对应的夹角为目标夹角,在本发明实施例中,可以将目标夹角在相应的第二图像上进行标注,例如腾空时刻的第二图像对应的夹角在腾空时刻的第二图像上进行标注,如此经过标注之后可以在显示屏上进行展示。
此外,在本发明实施例中还可以计算用户实际的跳远距离以及腾空的最大高度。具体地,获取预备起跳时刻对应的第二图像中用户脚尖至立定跳远落地时刻对应的第二图像中用户脚后跟之间的像素距离;根据预设的基准标尺,对像素距离进行转换,将像素距离转换为用户的跳远距离;获取腾空时刻对应的第二图像中用户脚裸至地面的距离,将距离作为用户腾空过程中的最大高度。对于跳远距离以及用户腾空过程中的最大高度,可以在显示屏进行显示。
例如,获取预备起跳时刻t1对应的第二图像中用户脚尖至立定跳远落地时刻t5对应的第二图像中用户脚后跟之间的像素距离,对应基准标尺,可以计算得到用户实际的跳远距离 d,这里需要说明的是,摄像头画面保持不变,则预备起跳时刻t1与立定跳远落地时刻t5用户在画面中的位置不同,因此可以计算预备起跳时刻t1对应的第二图像中用户脚尖至立定跳远落地时刻t5对应的第二图像中用户脚后跟之间的像素距离。
同理,获取腾空时刻t4对应的第二图像中用户脚裸至地面的距离,将距离作为用户腾空过程中的最大高度h,这里需要说明的是,首先需要标定与用户处于同一水平线的地平线,这里的地平线可以看作是地面,由此可以计算腾空时刻t4对应的第二图像中用户脚裸至地面的距离,作为用户腾空过程中的最大高度h。
通过上述对本发明实施例提供的技术方案的描述,获取第一视频,并根据第一视频,判断用户是否进入预设的运动起始区域,在用户进入运动起始区域的情况下,触发对用户的运动姿态检测事件,获取第二视频,针对第二视频中每帧第二图像,识别第二图像中用户的关键部位的骨骼关节点位置,根据用户的关键部位的骨骼关节点位置,确定第二图像对应的姿态数据,由第二视频中各第二图像各自对应的姿态数据组成用户运动过程中的姿态数据,从用户运动过程中的姿态数据中选取目标姿态数据,与预设标准姿态数据进行比较,以评估用户的运动姿态。
如此在立定跳远运动过程中进行视频采集和分析,以实现对用户在立定跳远运动过程中运动姿态的检测,对用户的运动姿态通过数据进行量化,将得到的目标姿态数据与标准的姿态数据进行比较,可以客观、准确的确定运动姿态的标准程度,进而指导用户进行姿态的纠正,极大地方便了用户的训练。
本申请上述实施例中所提供的一种运动姿态评估方法应用于边缘计算服务器,在具体应用场景中,该边缘计算服务器与摄像头、显示屏可以是独立设置,并且边缘计算服务器与摄像头、显示屏分别进行通信;或者该边缘计算服务器(处理器)与摄像头、显示屏为一体机式设置,本申请对此不作限定。
与上述方法实施例相对应,本发明实施例还提供了一种运动姿态评估装置,如图15所示,该装置应用于边缘计算服务器,可以包括:第一视频获取模块1510、用户判断模块1520、第二视频获取模块1530、位置识别模块1540、数据确定模块1550、姿态评估模块1560。
第一视频获取模块1510,用于获取第一视频;
用户判断模块1520,用于根据所述第一视频,判断用户是否进入预设的运动起始区域;
第二视频获取模块1530,用于在所述用户进入所述运动起始区域的情况下,触发对所述用户的运动姿态检测事件;
位置识别模块1540,用于获取第二视频,针对所述第二视频中每帧第二图像,识别所述第二图像中所述用户的关键部位的骨骼关节点位置;
数据确定模块1550,用于根据所述用户的关键部位的所述骨骼关节点位置,确定所述第二图像对应的姿态数据,由所述第二视频中各所述第二图像各自对应的所述姿态数据组成所述用户运动过程中的姿态数据;
姿态评估模块1560,用于从所述用户运动过程中的所述姿态数据中选取目标姿态数据,与预设标准姿态数据进行比较,以评估所述用户的运动姿态。
本发明实施例还提供了一种边缘计算服务器,如图16所示,包括处理器161、通信接口162、存储器163和通信总线164,其中,处理器161,通信接口162,存储器163通过通信总线164完成相互间的通信,
存储器163,用于存放计算机程序;
处理器161,用于执行存储器163上所存放的程序时,实现如下步骤:
获取第一视频,并根据所述第一视频,判断用户是否进入预设的运动起始区域;在所述用户进入所述运动起始区域的情况下,触发对所述用户的运动姿态检测事件;获取第二视频,针对所述第二视频中每帧第二图像,识别所述第二图像中所述用户的关键部位的骨骼关节点位置;根据所述用户的关键部位的所述骨骼关节点位置,确定所述第二图像对应的姿态数据,由所述第二视频中各所述第二图像各自对应的所述姿态数据组成所述用户运动过程中的姿态数据;从所述用户运动过程中的的所述姿态数据中选取目标姿态数据,与预设标准姿态数据进行比较,以评估所述用户的运动姿态。
上述边缘计算服务器提到的通信总线可以是外设部件互连标准(PeripheralComponent Interconnect,简称PCI)总线或扩展工业标准结构(Extended IndustryStandard Architecture,简称EISA)总线等。该通信总线可以分为地址总线、数据总线、控制总线等。为便于表示,图中仅用一条粗线表示,但并不表示仅有一根总线或一种类型的总线。
通信接口用于上述边缘计算服务器与其他设备之间的通信。
存储器可以包括随机存取存储器(Random Access Memory,简称RAM),也可以包括非易失性存储器(non-volatile memory),例如至少一个磁盘存储器。可选的,存储器还可以是至少一个位于远离前述处理器的存储装置。
上述的处理器可以是通用处理器,包括中央处理器(Central Processing Unit,简称CPU)、网络处理器(Network Processor,简称NP)等;还可以是数字信号处理器(Digital Signal Processing,简称DSP)、专用集成电路(Application SpecificIntegrated Circuit,简称ASIC)、现场可编程门阵列(Field-Programmable Gate Array,简称FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件。
在本发明提供的又一实施例中,还提供了一种存储介质,该存储介质中存储有指令,当其在计算机上运行时,使得计算机执行上述实施例中任一所述的运动姿态评估方法。
在本发明提供的又一实施例中,还提供了一种包含指令的计算机程序产品,当其在计算机上运行时,使得计算机执行上述实施例中任一所述的运动姿态评估方法。
在上述实施例中,可以全部或部分地通过软件、硬件、固件或者其任意组合来实现。当使用软件实现时,可以全部或部分地以计算机程序产品的形式实现。所述计算机程序产品包括一个或多个计算机指令。在计算机上加载和执行所述计算机程序指令时,全部或部分地产生按照本发明实施例所述的流程或功能。所述计算机可以是通用计算机、专用计算机、计算机网络、或者其他可编程装置。所述计算机指令可以存储在存储介质中,或者从一个存储介质向另一个存储介质传输,例如,所述计算机指令可以从一个网站站点、计算机、服务器或数据中心通过有线(例如同轴电缆、光纤、数字用户线(DSL))或无线(例如红外、无线、微波等)方式向另一个网站站点、计算机、服务器或数据中心进行传输。所述存储介质可以是计算机能够存取的任何可用介质或者是包含一个或多个可用介质集成的服务器、数据中心等数据存储设备。所述可用介质可以是磁性介质,(例如,软盘、硬盘、磁带)、光介质(例如,DVD)、或者半导体介质(例如固态硬盘Solid State Disk(SSD))等。
需要说明的是,在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。
本说明书中的各个实施例均采用相关的方式描述,各个实施例之间相同相似的部分互相参见即可,每个实施例重点说明的都是与其他实施例的不同之处。尤其,对于系统实施例而言,由于其基本相似于方法实施例,所以描述的比较简单,相关之处参见方法实施例的部分说明即可。
以上所述仅为本发明的较佳实施例而已,并非用于限定本发明的保护范围。凡在本发明的精神和原则之内所作的任何修改、等同替换、改进等,均包含在本发明的保护范围内。
Claims (14)
1.一种运动姿态评估方法,其特征在于,应用于边缘计算服务器,所述方法包括:
获取第一视频,并根据所述第一视频,判断用户是否进入预设的运动起始区域;
在所述用户进入所述运动起始区域的情况下,触发对所述用户的运动姿态检测事件;
获取第二视频,针对所述第二视频中每帧第二图像,识别所述第二图像中所述用户的关键部位的骨骼关节点位置;
根据所述用户的关键部位的所述骨骼关节点位置,确定所述第二图像对应的姿态数据,包括:根据立定跳远方向,从所述骨骼关节点位置中选择多个目标骨骼关节点位置,得到成骨骼关节点位置集;根据所述骨骼关节点位置集,确定所述第二图像对应的所述用户的目标关键部位对应的夹角;由所述第二视频中各所述第二图像各自对应的所述姿态数据组成所述用户运动过程中的姿态数据;
从所述用户运动过程中的所述姿态数据中选取目标姿态数据,与预设标准姿态数据进行比较,以评估所述用户的运动姿态,包括:根据所述骨骼关节点位置集,确定所述第二图像对应的所述用户的身体重心位置;根据各所述第二图像各自对应的所述身体重心位置以及所述夹角,从各所述第二图像各自对应的所述夹角中选取目标夹角,包括:根据各所述第二图像各自对应的所述身体重心位置以及所述夹角,从各所述第二图像中选取目标时刻的所述第二图像对应的夹角,作为目标夹角,包括:针对各所述第二图像各自对应的所述身体重心位置,当所述身体重心位置的横坐标超出所述运动起始区域时,获取首个所述身体重心位置对应的所述第二图像的采集时刻;将首个所述身体重心位置对应的所述第二图像的采集时刻作为预备状态到腾空状态的变换时刻;利用所述变换时刻,对各所述第二图像各自对应的所述身体重心位置以及所述夹角进行筛选,选取目标时刻的所述第二图像对应的夹角,作为目标夹角;其中,所述目标时刻包括腾空时刻、立定跳远落地时刻、起跳时刻、预备起跳时刻以及起跳前摆臂时刻;将所述目标夹角与预设标准夹角进行比较,以评估所述用户的运动姿态。
2.根据权利要求1所述的方法,其特征在于,所述获取第一视频,包括:
在立定跳远检测模式下,获取第一视频;
所述根据所述第一视频,判断用户是否进入预设的运动起始区域,包括:
针对所述第一视频中的第一图像,将所述第一图像输入至预设的人体位置检测模型,得到所述人体位置检测模型输出的所述第一图像中的用户位置;
将所述用户位置与预设的起跳区域位置进行比较,判断所述用户是否进入立定跳远的起跳区域。
3.根据权利要求2所述的方法,其特征在于,所述人体位置检测模型具体通过以下方式得到:
获取多个目标用户各自对应的立定跳远视频,并对所述立定跳远视频进行抽帧处理,得到预设数量的立定跳远图像;
采用矩形框标注方式对所述预设数量的所述立定跳远图像进行人体目标标注,生成人体检测训练样本;
基于所述人体检测训练样本,对人体位置检测初始模型进行有监督训练,得到人体位置检测模型。
4.根据权利要求1所述的方法,其特征在于,所述识别所述第二图像中所述用户的关键部位的骨骼关节点位置,包括:
将所述第二图像输入至预设的人体姿态评估模型,获取所述人体姿态评估模型输出的所述第二图像中所述用户的关键部位的骨骼关节点位置。
5.根据权利要求4所述的方法,其特征在于,所述人体姿态评估模型具体通过以下方式得到:
获取多个目标用户各自对应的立定跳远视频,并对所述立定跳远视频进行抽帧处理,得到预设数量的立定跳远图像;
采用骨骼关节点标注方式对所述预设数量的所述立定跳远图像进行人体关节点标注,生成运动姿态评估训练样本;
基于所述运动姿态评估训练样本,对人体姿态评估初始模型进行有监督训练,得到人体姿态评估模型。
6.根据权利要求1所述的方法,其特征在于,所述根据所述骨骼关节点位置集,确定所述第二图像对应的所述用户的目标关键部位对应的夹角,包括:
获取所述骨骼关节点位置集中的所述目标骨骼关节点位置,组成所述用户的目标关键部位对应的向量;
计算所述用户的目标关键部位对应的所述向量之间的夹角,确定所述夹角为所述第二图像对应的所述用户的目标关键部位对应的夹角。
7.根据权利要求1所述的方法,其特征在于,所述根据所述骨骼关节点位置集,确定所述第二图像对应的所述用户的身体重心位置,包括:
从所述骨骼关节点位置集中选取第一目标骨骼关节点位置,并获取所述第一目标骨骼关节点位置的加权和;
确定所述加权和为所述第二图像对应的所述用户的身体重心位置。
8.根据权利要求1所述的方法,其特征在于,所述利用所述变换时刻,对各所述第二图像各自对应的所述身体重心位置以及所述夹角进行筛选,选取目标时刻的所述第二图像对应的夹角,作为目标夹角,包括:
获取所述变换时刻至第一目标时刻的第一时间段内所述第二图像对应的所述骨骼关节点位置集中的候选骨骼关节点位置;确定纵坐标最大的所述候选骨骼关节点位置,获取纵坐标最大的所述候选骨骼关节点位置对应的所述第二图像的采集时刻,作为腾空时刻;
获取所述腾空时刻至第二目标时刻的第二时间段内所述第二图像对应的所述身体重心位置;确定纵坐标最小的所述身体重心位置,获取纵坐标最小的所述身体重心位置对应的所述第二图像的采集时刻,作为立定跳远落地时刻;
获取所述变换时刻至所述腾空时刻的第三时间段内所述第二图像对应的所述夹角;确定第一夹角和最大的所述夹角,获取第一夹角和最大的所述夹角对应的所述第二图像的采集时刻,作为起跳时刻;
获取第三目标时刻至所述起跳时刻的第三时间段内所述第二图像对应的所述夹角;确定夹角和最小的所述夹角,获取夹角和最小的所述夹角对应的所述第二图像的采集时刻,作为预备起跳时刻;
获取第四目标时刻至所述预备起跳时刻的第四时间段内所述第二图像对应的所述夹角;确定第二夹角和最大的所述夹角,获取第二夹角和最大的所述夹角对应的所述第二图像的采集时刻,作为起跳前摆臂时刻;
选取所述腾空时刻、所述立定跳远落地时刻、所述起跳时刻、所述预备起跳时刻以及所述起跳前摆臂时刻的所述第二图像对应的夹角,作为目标夹角。
9.根据权利要求8所述的方法,其特征在于,所述第一目标时刻由所述变换时刻加上时间阈值得到;所述第二目标时刻由所述腾空时刻加上时间阈值得到;所述第三目标时刻由所述起跳时刻减去时间阈值得到;所述第四目标时刻由所述预备起跳时刻减去时间阈值得到。
10.根据权利要求1所述的方法,其特征在于,所述方法还包括:
获取所述预备起跳时刻对应的所述第二图像中用户脚尖至所述立定跳远落地时刻对应的所述第二图像中用户脚后跟之间的像素距离;
根据预设的基准标尺,对所述像素距离进行转换,将所述像素距离转换为所述用户的跳远距离;
获取所述腾空时刻对应的所述第二图像中用户脚裸至地面的距离,将所述距离作为所述用户腾空过程中的最大高度。
11.根据权利要求1所述的方法,其特征在于,所述方法还包括:
将所述目标夹角在所述目标时刻的所述第二图像上进行标注,并在显示屏上进行展示。
12.一种运动姿态评估装置,其特征在于,应用于边缘计算服务器,所述装置包括:
第一视频获取模块,用于获取第一视频;
用户判断模块,用于根据所述第一视频,判断用户是否进入预设的运动起始区域;
第二视频获取模块,用于在所述用户进入所述运动起始区域的情况下,触发对所述用户的运动姿态检测事件;
位置识别模块,用于获取第二视频,针对所述第二视频中每帧第二图像,识别所述第二图像中所述用户的关键部位的骨骼关节点位置;
数据确定模块,用于根据所述用户的关键部位的所述骨骼关节点位置,确定所述第二图像对应的姿态数据,包括:根据立定跳远方向,从所述骨骼关节点位置中选择多个目标骨骼关节点位置,得到成骨骼关节点位置集;根据所述骨骼关节点位置集,确定所述第二图像对应的所述用户的目标关键部位对应的夹角;由所述第二视频中各所述第二图像各自对应的所述姿态数据组成所述用户运动过程中的姿态数据;
姿态评估模块,用于从所述用户运动过程中的所述姿态数据中选取目标姿态数据,与预设标准姿态数据进行比较,以评估所述用户的运动姿态,包括:根据所述骨骼关节点位置集,确定所述第二图像对应的所述用户的身体重心位置;根据各所述第二图像各自对应的所述身体重心位置以及所述夹角,从各所述第二图像各自对应的所述夹角中选取目标夹角,包括:根据各所述第二图像各自对应的所述身体重心位置以及所述夹角,从各所述第二图像中选取目标时刻的所述第二图像对应的夹角,作为目标夹角,包括:针对各所述第二图像各自对应的所述身体重心位置,当所述身体重心位置的横坐标超出所述运动起始区域时,获取首个所述身体重心位置对应的所述第二图像的采集时刻;将首个所述身体重心位置对应的所述第二图像的采集时刻作为预备状态到腾空状态的变换时刻;利用所述变换时刻,对各所述第二图像各自对应的所述身体重心位置以及所述夹角进行筛选,选取目标时刻的所述第二图像对应的夹角,作为目标夹角;其中,所述目标时刻包括腾空时刻、立定跳远落地时刻、起跳时刻、预备起跳时刻以及起跳前摆臂时刻;将所述目标夹角与预设标准夹角进行比较,以评估所述用户的运动姿态。
13.一种边缘计算服务器,其特征在于,包括处理器、通信接口、存储器和通信总线,其中,处理器,通信接口,存储器通过通信总线完成相互间的通信;
存储器,用于存放计算机程序;
处理器,用于执行存储器上所存放的程序时,实现权利要求1至11中任一项所述的方法步骤。
14.一种存储介质,其上存储有计算机程序,其特征在于,该程序被处理器执行时实现如权利要求1至11中任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111449751.8A CN113850248B (zh) | 2021-12-01 | 2021-12-01 | 运动姿态评估方法、装置、边缘计算服务器及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111449751.8A CN113850248B (zh) | 2021-12-01 | 2021-12-01 | 运动姿态评估方法、装置、边缘计算服务器及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113850248A CN113850248A (zh) | 2021-12-28 |
CN113850248B true CN113850248B (zh) | 2022-02-22 |
Family
ID=78982637
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111449751.8A Active CN113850248B (zh) | 2021-12-01 | 2021-12-01 | 运动姿态评估方法、装置、边缘计算服务器及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113850248B (zh) |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114639168B (zh) * | 2022-03-25 | 2023-06-13 | 中国人民解放军国防科技大学 | 一种用于跑步姿态识别的方法和系统 |
CN114679455B (zh) * | 2022-03-27 | 2022-11-08 | 江苏海纳宝川智能科技有限公司 | 分布式云端服务系统 |
CN114939216B (zh) * | 2022-05-30 | 2023-11-10 | 深圳英鸿骏智能科技有限公司 | 一种辅助康复运动的设备与方法 |
CN115171208A (zh) * | 2022-05-31 | 2022-10-11 | 中科海微(北京)科技有限公司 | 仰卧起坐姿态评估方法、装置、电子设备及存储介质 |
CN115205981B (zh) * | 2022-09-08 | 2023-01-31 | 深圳市维海德技术股份有限公司 | 起立姿态检测方法、装置、电子设备及可读存储介质 |
EP4445841A1 (en) * | 2022-09-14 | 2024-10-16 | Shenzhen Shokz Co., Ltd. | Method and system for marking motion data and generating motion evaluation model |
CN115813377B (zh) * | 2023-01-05 | 2023-04-28 | 北京蓝田医疗设备有限公司 | 一种智能姿势评估方法及系统 |
CN115761603B (zh) * | 2023-01-09 | 2023-05-19 | 浙江大学计算机创新技术研究院 | 基于改进yolov5免标定的视频图像立定跳远测距方法 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9600717B1 (en) * | 2016-02-25 | 2017-03-21 | Zepp Labs, Inc. | Real-time single-view action recognition based on key pose analysis for sports videos |
CN108256433A (zh) * | 2017-12-22 | 2018-07-06 | 银河水滴科技(北京)有限公司 | 一种运动姿态评估方法及系统 |
CN108597578A (zh) * | 2018-04-27 | 2018-09-28 | 广东省智能制造研究所 | 一种基于二维骨架序列的人体运动评估方法 |
CN111860157A (zh) * | 2020-06-15 | 2020-10-30 | 北京体育大学 | 一种运动分析方法、装置、设备和存储介质 |
CN111860107A (zh) * | 2020-05-28 | 2020-10-30 | 四川中科凯泽科技有限公司 | 一种基于深度学习姿态估计的立定跳远评估方法 |
CN112528957A (zh) * | 2020-12-28 | 2021-03-19 | 北京万觉科技有限公司 | 人体运动基础信息检测方法、系统及电子设备 |
CN112819852A (zh) * | 2019-11-15 | 2021-05-18 | 微软技术许可有限责任公司 | 对基于姿态的运动进行评估 |
-
2021
- 2021-12-01 CN CN202111449751.8A patent/CN113850248B/zh active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9600717B1 (en) * | 2016-02-25 | 2017-03-21 | Zepp Labs, Inc. | Real-time single-view action recognition based on key pose analysis for sports videos |
CN108256433A (zh) * | 2017-12-22 | 2018-07-06 | 银河水滴科技(北京)有限公司 | 一种运动姿态评估方法及系统 |
CN108597578A (zh) * | 2018-04-27 | 2018-09-28 | 广东省智能制造研究所 | 一种基于二维骨架序列的人体运动评估方法 |
CN112819852A (zh) * | 2019-11-15 | 2021-05-18 | 微软技术许可有限责任公司 | 对基于姿态的运动进行评估 |
CN111860107A (zh) * | 2020-05-28 | 2020-10-30 | 四川中科凯泽科技有限公司 | 一种基于深度学习姿态估计的立定跳远评估方法 |
CN111860157A (zh) * | 2020-06-15 | 2020-10-30 | 北京体育大学 | 一种运动分析方法、装置、设备和存储介质 |
CN112528957A (zh) * | 2020-12-28 | 2021-03-19 | 北京万觉科技有限公司 | 人体运动基础信息检测方法、系统及电子设备 |
Also Published As
Publication number | Publication date |
---|---|
CN113850248A (zh) | 2021-12-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113850248B (zh) | 运动姿态评估方法、装置、边缘计算服务器及存储介质 | |
CN114140722A (zh) | 引体向上运动的评估方法、装置、服务器及存储介质 | |
WO2018228218A1 (zh) | 身份识别方法、计算设备及存储介质 | |
US9183431B2 (en) | Apparatus and method for providing activity recognition based application service | |
CN110544301A (zh) | 一种三维人体动作重建系统、方法和动作训练系统 | |
WO2019114726A1 (zh) | 图像识别方法、装置、电子设备以及可读存储介质 | |
CN114120204A (zh) | 仰卧起坐姿态评估方法、装置及存储介质 | |
JP6362085B2 (ja) | 画像認識システム、画像認識方法およびプログラム | |
CN111814587A (zh) | 人体行为检测方法、教师行为检测方法及相关系统和装置 | |
CN111666922A (zh) | 视频匹配方法、装置、计算机设备和存储介质 | |
CN108985263B (zh) | 一种数据采集方法、装置、电子设备和计算机可读介质 | |
CN110751100A (zh) | 一种体育场馆辅助训练方法与系统 | |
CN113743237B (zh) | 跟随动作的准确度判定方法、装置、电子设备及存储介质 | |
JP7078577B2 (ja) | 動作類似度評価装置、方法およびプログラム | |
CN109767453A (zh) | 信息处理装置、背景图像更新方法和非暂态计算机可读存储介质 | |
CN114120168A (zh) | 一种目标跑动距离测算方法、系统、设备及存储介质 | |
CN114140721A (zh) | 射箭姿态评估方法、装置、边缘计算服务器及存储介质 | |
CN114037923A (zh) | 一种目标活动热点图绘制方法、系统、设备及存储介质 | |
JP6868673B1 (ja) | 情報処理装置、情報処理方法、および情報処理プログラム | |
CN112633261A (zh) | 图像检测方法、装置、设备及存储介质 | |
CN116012417A (zh) | 目标对象的轨迹确定方法、装置以及电子设备 | |
KR102363435B1 (ko) | 골프 스윙 동작 피드백 제공 장치 및 방법 | |
CN114401446B (zh) | 人体姿态迁移方法、装置、系统、电子设备以及存储介质 | |
JP6632134B2 (ja) | 画像処理装置、画像処理方法およびコンピュータプログラム | |
CN113544700B (zh) | 神经网络的训练方法和装置、关联对象的检测方法和装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |