CN109684943A - 一种运动员辅助训练数据获取方法、装置及电子设备 - Google Patents
一种运动员辅助训练数据获取方法、装置及电子设备 Download PDFInfo
- Publication number
- CN109684943A CN109684943A CN201811500891.1A CN201811500891A CN109684943A CN 109684943 A CN109684943 A CN 109684943A CN 201811500891 A CN201811500891 A CN 201811500891A CN 109684943 A CN109684943 A CN 109684943A
- Authority
- CN
- China
- Prior art keywords
- image
- group
- training
- bone contours
- sportsman
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
- G06V40/23—Recognition of whole body movements, e.g. for sport training
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Evolutionary Computation (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Evolutionary Biology (AREA)
- General Health & Medical Sciences (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种运动员辅助训练数据获取方法、装置及电子设备,通过获得分别与N个不同的角度对应的N个图像序列,每组图像序列包括K个时刻对应的K张运动员的训练图像;基于训练图像中的时间戳,对N组图像序列中的每张训练图像进行匹配分组,获得K组图像组;获取每张训练图像中的骨骼轮廓,并针对每组图像组,基于每张训练图像中的骨骼轮廓和与每个骨骼轮廓对应的标准轮廓,构建联合输入向量;针对每组图像组,基于训练后的神经网络和联合输入向量,获得N个图像序列中的每张训练图像中的运动员的动作比对数据。解决了现有技术中存在的不能获得人体的动作细节的比对数据的技术问题,达到了可以获得人体的动作细节的比对数据的技术效果。
Description
技术领域
本发明涉及信息技术领域,具体涉及一种运动员辅助训练数据获取方法、装置及电子设备。
背景技术
随着计算机技术的发展以及机器学习技术的兴起,运动识别技术也呈现井喷式的发展,运动识别技术在辅助训练领域有很大的应用价值,例如应用于体育运动、舞蹈等领域。
目前主要基于肉眼观察以及通过提取人体体态数据的方式对人体动作进行判别,肉眼观察的方式不能获得准确的判别数据,目前通过提取人体体态数据的方式对人体动作进行判别的方式主要包括抽取人体轮廓和抽取骨骼轮廓两种。骨骼轮廓抽取指的是从图像中提取出人体主要关节的位置,从而描述出大致的人体骨骼轮廓。目前比较成型的骨骼轮廓提取算法,主要针对人体脊柱、肩、胯、四肢的骨骼轮廓进行描述。现有的体态抽取结果,不能获得人体的动作细节的比对数据,动作细节数据指的是比如人体与地面的角度、四肢动作的角度等数据。
发明内容
鉴于上述问题,提出了本发明以便提供一种克服上述问题或者至少部分地解决上述问题的运动员辅助训练数据获取方法、装置及电子设备。
第一方面,本发明实施例提供了一种运动员辅助训练数据获取方法,包括:
获得分别与N个不同的角度对应的N个图像序列,其中,N为正整数,每组图像序列包括K个时刻对应的K张运动员的训练图像;
基于训练图像中的时间戳,对所述N组图像序列中的每张训练图像进行匹配分组,获得K组图像组,其中,每组图像组包括N个不同角度的对应的N张训练图像;
获取每张训练图像中的骨骼轮廓,并针对每组图像组,基于每张训练图像中的骨骼轮廓和与每个骨骼轮廓对应的标准轮廓,构建联合输入向量;
针对每组图像组,基于训练后的神经网络和所述联合输入向量,获得N个图像序列中的每张训练图像中的运动员的动作比对数据。
可选的,所述基于训练图像中的时间戳,对所述N组图像序列中的每张训练图像进行匹配分组,获得K组图像组,包括:
获取所述N组图像序列中的每张图像的时间戳;
若某N张训练图像的时间戳表示同一时刻,将所述N张图像划分为一组图像组,K个时刻对应获得K组图像组。
可选的,在所述获取每张训练图像中的骨骼轮廓之后,还包括:
通过训练后的神经网络对每个图像序列中的每张训练图像的骨骼轮廓进行动作分割,获得分割动作数据;
基于所诉动作分割数据和与所述动作分割数据对应的标准轮廓,获得N个图像序列中的每张训练图像中的运动员的动作比对数据。
可选的,每个骨骼轮廓包括d个关键点,d是正整数,所述针对每组图像组,基于每张训练图像中的骨骼轮廓和与每个骨骼轮廓对应的标准轮廓,构建联合输入向量,包括:
获取与每个骨骼轮廓对应的标准轮廓,其中,标准轮廓包括d个关键点;
针对N个图像序列中的K个图像组执行下述步骤:
基于每组图像组中的每张训练图像中的骨骼轮廓和与每个骨骼轮廓对应的标准轮廓,获得针对每组图像组的角度偏移补偿值;
针对K个图像组中的某个图像组,将图像组中的每张训练图像的骨骼轮廓中的d个关键点、每个标准轮廓中的d个关键点以及所述角度偏移补偿值,构建维度为2dN+1的针对所述图像组的联合输入向量。
可选的,所述基于每组图像组中的每张训练图像中的骨骼轮廓和与每个骨骼轮廓对应的标准轮廓,获得针对每组图像组的角度偏移补偿值,包括:
获取每个图像序列中的每张训练图像中的骨骼轮廓的每个关键点的第一位置,以及与每个骨骼轮廓对应的标准轮廓中的每个关键点的第二位置;
针对每个关键点,获取关键点的第一位置和与关键点对应的第二位置之差值的绝对值,d个关键点对应d个绝对值;
获取d个绝对值中的最小值,以所述最小值作为针对每组图像组的角度偏移补偿值。
可选的,所述基于训练后的神经网络和所述联合输入向量,获得N个图像序列中的每张训练图像中的运动员的动作比对数据,包括:
将所述联合输入向量输入所述训练后的神经网络中,基于所述训练后的神经网络获得N个图像序列中的每张训练图像中的运动员的动作比对数据。
可选的,所述训练后的神经网络的构建方法包括:
获得神经网络的输入层与所述输入层连接的中间层之间的第一调整权值;
按照预设的同调关系,基于残差函数和与所述同调关系对应的所述第一调整权值获得所述输入层与所述中间层之间的第二权值调整,其中,所述同调关系指的是属于同一个动作细节的节点集合在所述输入层和所述中间层之间的映射关系,获得训练后的神经网络。
第二方面,本发明实施例提供了一种运动员辅助训练数据获取装置,包括:
第一获取模块,用于获得分别与N个不同的角度对应的N个图像序列,其中,N为正整数,每组图像序列包括K个时刻对应的K张运动员的训练图像;
提取模块,用于基于训练图像中的时间戳,对所述N组图像序列中的每张训练图像进行匹配分组,获得K组图像组,其中,每组图像组包括N个不同角度的对应的N张训练图像;
建模模块,用于获取每张训练图像中的骨骼轮廓,并针对每组图像组,基于每张训练图像中的骨骼轮廓和与每个骨骼轮廓对应的标准轮廓,构建联合输入向量;
第二获取模块,用于针对每组图像序组,基于训练后的神经网络和所述联合输入向量,获得N个图像序列中的每张训练图像中的运动员的动作比对数据。
第三方面,本发明实施例提供了一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现上述任一项所述方法的步骤。
第四方面,本发明实施例提供了一种电子设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时实现上述任一项所述方法的步骤。
本申请实施例中提供的技术方案,至少具有如下技术效果或优点:
本发明实施例提供了一种运动员辅助训练数据获取方法、装置及电子设备,所述方法包括:获得分别与N个不同的角度对应的N个图像序列,其中,N为正整数,每组图像序列包括K个时刻对应的K张运动员的训练图像;基于训练图像中的时间戳,对N组图像序列中的每张训练图像进行匹配分组,获得K组图像组,其中,每组图像组包括N个不同角度的对应的N张训练图像;获取每张训练图像中的骨骼轮廓,并针对每组图像组,基于每张训练图像中的骨骼轮廓和与每个骨骼轮廓对应的标准轮廓,构建联合输入向量;针对每组图像组,基于训练后的神经网络和联合输入向量,获得N个图像序列中的每张训练图像中的运动员的动作比对数据。基于训练图像中的时间戳对N组图像序列中的每张训练图像进行匹配分组,从横向获得对训练图像进行分组,针对每组图像组,基于每张训练图像中的骨骼轮廓和与每个骨骼轮廓对应的标准轮廓构建联合输入向量,获得可以从横向反应运动员的动作的联合输入向量;针对每组图像组,基于训练后的神经网络和所述联合输入向量,获得N个图像序列中的每张训练图像中的运动员的动作比对数据,可以获得纵向的可以反应运动员的动作细节的动作比对数据。解决了现有技术中存在的不能获得人体的动作细节的比对数据的技术问题,达到了可以获得人体的动作细节的比对数据的技术效果。
上述说明仅是本发明技术方案的概述,为了能够更清楚了解本发明的技术手段,而可依照说明书的内容予以实施,并且为了让本发明的上述和其它目的、特征和优点能够更明显易懂,以下特举本发明的具体实施方式。
附图说明
通过阅读下文优选实施方式的详细描述,各种其他的优点和益处对于本领域普通技术人员将变得清楚明了。附图仅用于示出优选实施方式的目的,而并不认为是对本发明的限制。而且在整个附图中,用相同的参考符号表示相同的部件。
图1示出了了本发明实施例提供的一种运动员辅助训练数据获取装置200的方框结构示意图。
图2示出了了本发明实施例提供的一种电子设备的方框结构示意图。
具体实施方式
下面将参照附图更详细地描述本公开的示例性实施例。虽然附图中显示了本公开的示例性实施例,然而应当理解,可以以各种形式实现本公开而不应被这里阐述的实施例所限制。相反,提供这些实施例是为了能够更透彻地理解本公开,并且能够将本公开的范围完整的传达给本领域的技术人员。
本发明实施例提供了本发明实施例提供了一种运动员辅助训练数据获取方法、装置及电子设备,用以解决现有技术中不不能获得人体的动作细节的比对数据的技术问题。
作为一种可选的实施例,本发明提供的一种运动员辅助训练数据获取方法,包括步骤S100~步骤S300,以下对步骤S100~步骤S300进行阐述。
步骤S100:获得分别与N个不同的角度对应的N个图像序列,其中,N为正整数,每组图像序列包括K个时刻对应的K张运动员的训练图像。
在本发明实施例中,获得分别与N个不同的角度对应的N个图像序列的方式可以是通过设置在与需要采集的目标的N个不同角度的N个摄像头分别采集获得,每个摄像头获得运动员在不同角度的训练图像,针对运动员的某个部位,例如某个关节,N个摄像头分别获得从N个角度观测到该部位的训练图像。
作为一种可选的实施方式,通过包括N个摄像头的摄像装置采集运动员的N个角度的训练视频,针对每个摄像头采集得到的训练视频,对训练视频进行拆帧处理,获得包括多张训练图像的图像序列,每张图像包括一个时间戳,例如,摄像头每隔一秒采集一次,则在K秒内获得张训练图像,按照一秒的时间步长进行拆帧处理后,每隔图像序列包括K张训练图像。
通过采用以上方案,可以通过不同角度的训练图像从不同角度观察运动员的训练动作。
步骤S200:基于训练图像中的时间戳,对N组图像序列中的每张训练图像进行匹配分组,获得K组图像组,其中,每组图像组包括N个不同角度的对应的N张训练图像。
为了能够对运动员的运动动作进行评估,将获得同一个动作的不同角度的训练图像分成一组图像组。作为一种可选的实施方式,步骤S200的具体实施方式是:获取N组图像序列中的每张图像的时间戳;若某N张训练图像的时间戳表示同一时刻,将N张图像划分为一组图像组,K个时刻对应获得K组图像组。如此,通过对每组图像组中时间戳相同的训练图像进行对比,从而获得运动员的训练的动作的标准程度情况。
步骤S300:获取每张训练图像中的骨骼轮廓,并针对每组图像组,基于每张训练图像中的骨骼轮廓和与每个骨骼轮廓对应的标准轮廓,构建联合输入向量。
作为一种可选的实施方式,在步骤S300所述的获取每张训练图像中的骨骼轮廓之后,运动员辅助训练数据获取方法还包括:通过训练后的神经网络对每个图像序列中的每张训练图像的骨骼轮廓进行动作分割,获得分割动作数据;基于动作分割数据和与动作分割数据对应的标准轮廓,获得N个图像序列中的每张训练图像中的运动员的动作比对数据。其中,与动作分割数据对应的标准轮廓可以从预先建立的数据库中获取。动作分割数据包括多个动作细节,基于动作分割数据和与动作分割数据对应的标准轮廓,获得N个图像序列中的每张训练图像中的运动员的动作比对数据,具体为:将动作分割数据中的动作细节和标准轮廓输入训练后的神经网络中,获得N个图像序列中的每张训练图像中的运动员的每个动作细节的动作比对数据。
在本发明实施例中,每个骨骼轮廓包括d个关键点,d是正整数。作为一种可选的实施方式,步骤S300所述的针对每组图像组,基于每张训练图像中的骨骼轮廓和与每个骨骼轮廓对应的标准轮廓,构建联合输入向量,具体为:
获取与每个骨骼轮廓对应的标准轮廓,其中,标准轮廓包括d个关键点;针对N个图像序列中的K个图像组执行下述步骤:基于每组图像组中的每张训练图像中的骨骼轮廓和与每个骨骼轮廓对应的标准轮廓,获得针对每组图像组的角度偏移补偿值;针对K个图像组中的某个图像组,将图像组中的每张训练图像的骨骼轮廓中的d个关键点、每个标准轮廓中的d个关键点以及所述角度偏移补偿值,构建维度为2dN+1的针对所述图像组的联合输入向量。其中,所述基于每组图像组中的每张训练图像中的骨骼轮廓和与每个骨骼轮廓对应的标准轮廓,获得针对每组图像组的角度偏移补偿值,具体为:获取每个图像序列中的每张训练图像中的骨骼轮廓的每个关键点的第一位置,以及与每个骨骼轮廓对应的标准轮廓中的每个关键点的第二位置;针对每个关键点,获取关键点的第一位置和与关键点对应的第二位置之差值的绝对值,d个关键点对应d个绝对值;获取d个绝对值中的最小值,以所述最小值作为针对每组图像组的角度偏移补偿值。
作为一种可选的实施方式,在将动作分割数据、骨骼轮廓输入训练后的神经网络之前,对动作分割数据和骨骼轮廓进行关键点的抽取建模。具体为:
每个动作分割数据或骨骼轮廓包括d个关键点,每个关键点为一个二元组,包括二维图像上两个方向上的相对位置;同时使用n个相机从不同角度进行图像采集。因此,时刻t将得到2d维空间的n个数据点,记为:
Bt={bta,a∈[1,n]}
称B为骨骼轮廓,称Bt为时刻t的一组骨骼轮廓,称bta为时刻t的对某角度的训练图像的骨骼轮廓或者动作分割数据。
bta是一个2d维向量空间,记为:
则,B亦可记为:
B=(xi),i∈[1,2d]
逻辑上,bta可以表示为一个包含d个关键点的点集Kta,记为:
称为bta的一个关键点。
与bta向量空间的映射关系可表示为:
若,某个骨骼轮廓bta的某一动作细节,涉及到多个关键点:
则称该关键点集为bta的一个动作细节adta,记为
另记:
AD={kj,j∈{p1,p2,p3…pj}}
称AD为B的一个动作细节,称ADt为Bt的一个动作细节,即表示某一时刻一组骨骼轮廓抽取的一个动作细节。AD可映射到B的向量,该映射可表示为:
{kj}→(x2j-1,x2j),j∈{p1,p2,p3…pj}
即AD对应特定的2j维数据。
作为一种可选的实施方式,联合输入向量的具体计算方式如下式所示:某一时刻的标准轮廓的Bt(记做BSt)和运动员的过个轮廓Bt(记做BXt)。为最小化其实角度对多差异比对的影响,需要对运动员动作的骨骼轮廓进行角度偏移矫正。具体如下:
令q∈[1,n],对
BXt={bxt1…bxtq…bxtn}
获得:
BX′t={bxtq,…bxtn,bxt1…bxtq-1}
记作:
BX′t={bx′ta,a∈[1,n]}
记bsta的2d维向量为:
记bxta的2d维向量为:
求取q,使得:
取得最小值,记此时q对应的运动员的骨骼轮廓变换为并使用
作为角度偏移补偿。其中,t表示时刻。
将BSt,和difffix联合成为一个2dn+1维的联合输入向量,作为网络模型的输入,所需的动作特征项向量作为输出,同时指定所需关注的AD集合。使用大量的标注的运动轮廓对神经网络进行训练,获得训练后的神经网络,同时,在神经网络前向传播和后向传播中,基于同调关系对指定的AD做权值关联处理,最终得到收敛的训练后的神经网络。
步骤S400:针对每组图像组,基于训练后的神经网络和所述联合输入向量,获得N个图像序列中的每张训练图像中的运动员的动作比对数据。
作为一种可选的实施方式,步骤S400具体为:将联合输入向量输入训练后的神经网络中,基于所述训练后的神经网络获得N个图像序列中的每张训练图像中的运动员的动作比对数据。
作为一种可选的实施方式,使用训练后的神经网络,t时刻的传入BSt、BXt′和difffix构成的联合输入向量,通过对训练后的神经网络对t时刻的联合输入向量进行一次前向传播,即可获得所需的t时刻的运动员的动作比对数据。
其中,训练后的神经网络的惯性激活函数fi的可以是:
其中超参k是常数,用于影响神经网络的训练步长。
惯性激活函数fi还可以是但不限于:
或者
在本发明实施例中,所述训练后的神经网络的构建方法具体为:获得神经网络的输入层与输入层连接的中间层之间的第一调整权值;按照预设的同调关系,基于残差函数和与同调关系对应的第一调整权值获得输入层与所述中间层之间的第二权值调整,其中,同调关系指的是属于同一个动作细节的节点集合在输入层和所述中间层之间的映射关系,获得训练后的神经网络。具体的,获取指定的具有同调关系的节点集合对应的第一调整权值,基于残差函数,将第一调整权值减去神经网络反馈的差值,得到第二调整权值。
通过采用以上方案,获得分别与N个不同的角度对应的N个图像序列,其中,N为正整数,每组图像序列包括K个时刻对应的K张运动员的训练图像;基于训练图像中的时间戳,对N组图像序列中的每张训练图像进行匹配分组,获得K组图像组,其中,每组图像组包括N个不同角度的对应的N张训练图像;获取每张训练图像中的骨骼轮廓,并针对每组图像组,基于每张训练图像中的骨骼轮廓和与每个骨骼轮廓对应的标准轮廓,构建联合输入向量;针对每组图像组,基于训练后的神经网络和联合输入向量,获得N个图像序列中的每张训练图像中的运动员的动作比对数据。基于训练图像中的时间戳对N组图像序列中的每张训练图像进行匹配分组,从横向获得对训练图像进行分组,针对每组图像组,基于每张训练图像中的骨骼轮廓和与每个骨骼轮廓对应的标准轮廓构建联合输入向量,获得可以从横向反应运动员的动作的联合输入向量;针对每组图像组,基于训练后的神经网络和所述联合输入向量,获得N个图像序列中的每张训练图像中的运动员的动作比对数据,可以获得纵向的可以反应运动员的动作细节的动作比对数据。解决了现有技术中存在的不能获得人体的动作细节的比对数据的技术问题,达到了可以获得人体的动作细节的比对数据的技术效果。
针对上述实施例提供一种运动员辅助训练数据获取方法,本申请实施例还对应提供一种运动员辅助训练数据获取装置200。请参考图1,该装置包括:
第一获取模块,用于获得分别与N个不同的角度对应的N个图像序列,其中,N为正整数,每组图像序列包括K个时刻对应的K张运动员的训练图像;
提取模块,用于基于训练图像中的时间戳,对所述N组图像序列中的每张训练图像进行匹配分组,获得K组图像组,其中,每组图像组包括N个不同角度的对应的N张训练图像;
建模模块,用于获取每张训练图像中的骨骼轮廓,并针对每组图像组,基于每张训练图像中的骨骼轮廓和与每个骨骼轮廓对应的标准轮廓,构建联合输入向量;
第二获取模块,用于针对每组图像序组,基于训练后的神经网络和所述联合输入向量,获得N个图像序列中的每张训练图像中的运动员的动作比对数据。
关于上述实施例中的装置,其中各个模块执行操作的具体方式已经在有关该方法的实施例中进行了详细描述,此处将不做详细阐述说明。
本发明实施例还提供了一种电子设备,如图2所示,包括存储器504、处理器502及存储在存储器504上并可在处理器502上运行的计算机程序,所述处理器502执行所述程序时实现前文所述运动员辅助训练数据获取方法的任一方法的步骤。
其中,在图2中,总线架构(用总线500来代表),总线500可以包括任意数量的互联的总线和桥,总线500将包括由处理器502代表的一个或多个处理器和存储器504代表的存储器的各种电路链接在一起。总线500还可以将诸如外围设备、稳压器和功率管理电路等之类的各种其他电路链接在一起,这些都是本领域所公知的,因此,本文不再对其进进一步描述。总线接口505在总线500和接收器501和发送器503之间提供接口。接收器501和发送器503可以是同一个元件,即收发机,提供用于在传输介质上与各种其他装置通信的单元。处理器502负责管理总线500和通常的处理,而存储器504可以被用于存储处理器502在执行操作时所使用的数据。
本发明实施例还提供了一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现前文所述运动员辅助训练数据获取方法的任一方法的步骤。
在此提供的算法和显示不与任何特定计算机、虚拟系统或者其它设备固有相关。各种通用系统也可以与基于在此的示教一起使用。根据上面的描述,构造这类系统所要求的结构是显而易见的。此外,本发明也不针对任何特定编程语言。应当明白,可以利用各种编程语言实现在此描述的本发明的内容,并且上面对特定语言所做的描述是为了披露本发明的最佳实施方式。
在此处所提供的说明书中,说明了大量具体细节。然而,能够理解,本发明的实施例可以在没有这些具体细节的情况下实践。在一些实例中,并未详细示出公知的方法、结构和技术,以便不模糊对本说明书的理解。
类似地,应当理解,为了精简本公开并帮助理解各个发明方面中的一个或多个,在上面对本发明的示例性实施例的描述中,本发明的各个特征有时被一起分组到单个实施例、图、或者对其的描述中。然而,并不应将该公开的方法解释成反映如下意图:即所要求保护的本发明要求比在每个权利要求中所明确记载的特征更多的特征。更确切地说,如下面的权利要求书所反映的那样,发明方面在于少于前面公开的单个实施例的所有特征。因此,遵循具体实施方式的权利要求书由此明确地并入该具体实施方式,其中每个权利要求本身都作为本发明的单独实施例。
本领域那些技术人员可以理解,可以对实施例中的设备中的模块进行自适应性地改变并且把它们设置在与该实施例不同的一个或多个设备中。可以把实施例中的模块或单元或组件组合成一个模块或单元或组件,以及此外可以把它们分成多个子模块或子单元或子组件。除了这样的特征和/或过程或者单元中的至少一些是相互排斥之外,可以采用任何组合对本说明书(包括伴随的权利要求、摘要和附图)中公开的所有特征以及如此公开的任何方法或者设备的所有过程或单元进行组合。除非另外明确陈述,本说明书(包括伴随的权利要求、摘要和附图)中公开的每个特征可以由提供相同、等同或相似目的的替代特征来代替。
此外,本领域的技术人员能够理解,尽管在此的一些实施例包括其它实施例中所包括的某些特征而不是其它特征,但是不同实施例的特征的组合意味着处于本发明的范围之内并且形成不同的实施例。例如,在下面的权利要求书中,所要求保护的实施例的任意之一都可以以任意的组合方式来使用。
本发明的各个部件实施例可以以硬件实现,或者以在一个或者多个处理器上运行的软件模块实现,或者以它们的组合实现。本领域的技术人员应当理解,可以在实践中使用微处理器或者数字信号处理器(DSP)来实现根据本发明实施例的装置中的一些或者全部部件的一些或者全部功能。本发明还可以实现为用于执行这里所描述的方法的一部分或者全部的设备或者装置程序(例如,计算机程序和计算机程序产品)。这样的实现本发明的程序可以存储在计算机可读介质上,或者可以具有一个或者多个信号的形式。这样的信号可以从因特网网站上下载得到,或者在载体信号上提供,或者以任何其他形式提供。
应该注意的是上述实施例对本发明进行说明而不是对本发明进行限制,并且本领域技术人员在不脱离所附权利要求的范围的情况下可设计出替换实施例。在权利要求中,不应将位于括号之间的任何参考符号构造成对权利要求的限制。单词“包含”不排除存在未列在权利要求中的元件或步骤。位于元件之前的单词“一”或“一个”不排除存在多个这样的元件。本发明可以借助于包括有若干不同元件的硬件以及借助于适当编程的计算机来实现。在列举了若干装置的单元权利要求中,这些装置中的若干个可以是通过同一个硬件项来具体体现。单词第一、第二、以及第三等的使用不表示任何顺序。可将这些单词解释为名称。
Claims (10)
1.一种运动员辅助训练数据获取方法,其特征在于,包括:
获得分别与N个不同的角度对应的N个图像序列,其中,N为正整数,每组图像序列包括K个时刻对应的K张运动员的训练图像;
基于训练图像中的时间戳,对所述N组图像序列中的每张训练图像进行匹配分组,获得K组图像组,其中,每组图像组包括N个不同角度的对应的N张训练图像;
获取每张训练图像中的骨骼轮廓,并针对每组图像组,基于每张训练图像中的骨骼轮廓和与每个骨骼轮廓对应的标准轮廓,构建联合输入向量;
针对每组图像组,基于训练后的神经网络和所述联合输入向量,获得N个图像序列中的每张训练图像中的运动员的动作比对数据。
2.如权利要求1所述的方法,其特征在于,所述基于训练图像中的时间戳,对所述N组图像序列中的每张训练图像进行匹配分组,获得K组图像组,包括:
获取所述N组图像序列中的每张图像的时间戳;
若某N张训练图像的时间戳表示同一时刻,将所述N张图像划分为一组图像组,K个时刻对应获得K组图像组。
3.如权利要求1所述的方法,其特征在于,在所述获取每张训练图像中的骨骼轮廓之后,还包括:
通过训练后的神经网络对每个图像序列中的每张训练图像的骨骼轮廓进行动作分割,获得分割动作数据;
基于所诉动作分割数据和与所述动作分割数据对应的标准轮廓,获得N个图像序列中的每张训练图像中的运动员的动作比对数据。
4.如权利要求2所述的方法,其特征在于,每个骨骼轮廓包括d个关键点,d是正整数,所述针对每组图像组,基于每张训练图像中的骨骼轮廓和与每个骨骼轮廓对应的标准轮廓,构建联合输入向量,包括:
获取与每个骨骼轮廓对应的标准轮廓,其中,标准轮廓包括d个关键点;
针对N个图像序列中的K个图像组执行下述步骤:
基于每组图像组中的每张训练图像中的骨骼轮廓和与每个骨骼轮廓对应的标准轮廓,获得针对每组图像组的角度偏移补偿值;
针对K个图像组中的某个图像组,将图像组中的每张训练图像的骨骼轮廓中的d个关键点、每个标准轮廓中的d个关键点以及所述角度偏移补偿值,构建维度为2dN+1的针对所述图像组的联合输入向量。
5.如权利要求4所述的方法,其特征在于,所述基于每组图像组中的每张训练图像中的骨骼轮廓和与每个骨骼轮廓对应的标准轮廓,获得针对每组图像组的角度偏移补偿值,包括:
获取每个图像序列中的每张训练图像中的骨骼轮廓的每个关键点的第一位置,以及与每个骨骼轮廓对应的标准轮廓中的每个关键点的第二位置;
针对每个关键点,获取关键点的第一位置和与关键点对应的第二位置之差值的绝对值,d个关键点对应d个绝对值;
获取d个绝对值中的最小值,以所述最小值作为针对每组图像组的角度偏移补偿值。
6.如权利要求1所述的方法,其特征在于,所述基于训练后的神经网络和所述联合输入向量,获得N个图像序列中的每张训练图像中的运动员的动作比对数据,包括:
将所述联合输入向量输入所述训练后的神经网络中,基于所述训练后的神经网络获得N个图像序列中的每张训练图像中的运动员的动作比对数据。
7.如权利要求1所述的方法,其特征在于,所述训练后的神经网络的构建方法包括:
获得神经网络的输入层与所述输入层连接的中间层之间的第一调整权值;
按照预设的同调关系,基于残差函数和与所述同调关系对应的所述第一调整权值获得所述输入层与所述中间层之间的第二权值调整,其中,所述同调关系指的是属于同一个动作细节的节点集合在所述输入层和所述中间层之间的映射关系,获得训练后的神经网络。
8.一种运动员辅助训练数据获取装置,其特征在于,包括:
第一获取模块,用于获得分别与N个不同的角度对应的N个图像序列,其中,N为正整数,每组图像序列包括K个时刻对应的K张运动员的训练图像;
提取模块,用于基于训练图像中的时间戳,对所述N组图像序列中的每张训练图像进行匹配分组,获得K组图像组,其中,每组图像组包括N个不同角度的对应的N张训练图像;
建模模块,用于获取每张训练图像中的骨骼轮廓,并针对每组图像组,基于每张训练图像中的骨骼轮廓和与每个骨骼轮廓对应的标准轮廓,构建联合输入向量;
第二获取模块,用于针对每组图像序组,基于训练后的神经网络和所述联合输入向量,获得N个图像序列中的每张训练图像中的运动员的动作比对数据。
9.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,该程序被处理器执行时实现权利要求1-8任一项所述方法的步骤。
10.一种电子设备,其特征在于,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时实现权利要求1-8任一项所述方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811500891.1A CN109684943B (zh) | 2018-12-07 | 2018-12-07 | 一种运动员辅助训练数据获取方法、装置及电子设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811500891.1A CN109684943B (zh) | 2018-12-07 | 2018-12-07 | 一种运动员辅助训练数据获取方法、装置及电子设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109684943A true CN109684943A (zh) | 2019-04-26 |
CN109684943B CN109684943B (zh) | 2021-03-16 |
Family
ID=66187332
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811500891.1A Active CN109684943B (zh) | 2018-12-07 | 2018-12-07 | 一种运动员辅助训练数据获取方法、装置及电子设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109684943B (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110841266A (zh) * | 2019-10-24 | 2020-02-28 | 中国人民解放军军事科学院国防科技创新研究院 | 一种辅助训练系统及方法 |
CN110852185A (zh) * | 2019-10-21 | 2020-02-28 | 西南民族大学 | 基于人体骨骼关键点识别的视力检测设备及方法 |
WO2021174697A1 (zh) * | 2020-03-06 | 2021-09-10 | 平安科技(深圳)有限公司 | 人体姿态评估方法、装置、计算机设备及存储介质 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102500094A (zh) * | 2011-10-28 | 2012-06-20 | 北京航空航天大学 | 一种基于kinect的动作训练方法 |
CN104715493A (zh) * | 2015-03-23 | 2015-06-17 | 北京工业大学 | 一种运动人体姿态估计的方法 |
CN107122798A (zh) * | 2017-04-17 | 2017-09-01 | 深圳市淘米科技有限公司 | 基于深度卷积网络的引体向上计数检测方法及装置 |
US20180157974A1 (en) * | 2016-12-05 | 2018-06-07 | Disney Enterprises, Inc. | Data-driven ghosting using deep imitation learning |
CN108205655A (zh) * | 2017-11-07 | 2018-06-26 | 北京市商汤科技开发有限公司 | 一种关键点预测方法、装置、电子设备及存储介质 |
CN108830150A (zh) * | 2018-05-07 | 2018-11-16 | 山东师范大学 | 一种基于三维人体姿态估计方法及装置 |
-
2018
- 2018-12-07 CN CN201811500891.1A patent/CN109684943B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102500094A (zh) * | 2011-10-28 | 2012-06-20 | 北京航空航天大学 | 一种基于kinect的动作训练方法 |
CN104715493A (zh) * | 2015-03-23 | 2015-06-17 | 北京工业大学 | 一种运动人体姿态估计的方法 |
US20180157974A1 (en) * | 2016-12-05 | 2018-06-07 | Disney Enterprises, Inc. | Data-driven ghosting using deep imitation learning |
CN107122798A (zh) * | 2017-04-17 | 2017-09-01 | 深圳市淘米科技有限公司 | 基于深度卷积网络的引体向上计数检测方法及装置 |
CN108205655A (zh) * | 2017-11-07 | 2018-06-26 | 北京市商汤科技开发有限公司 | 一种关键点预测方法、装置、电子设备及存储介质 |
CN108830150A (zh) * | 2018-05-07 | 2018-11-16 | 山东师范大学 | 一种基于三维人体姿态估计方法及装置 |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110852185A (zh) * | 2019-10-21 | 2020-02-28 | 西南民族大学 | 基于人体骨骼关键点识别的视力检测设备及方法 |
CN110841266A (zh) * | 2019-10-24 | 2020-02-28 | 中国人民解放军军事科学院国防科技创新研究院 | 一种辅助训练系统及方法 |
WO2021174697A1 (zh) * | 2020-03-06 | 2021-09-10 | 平安科技(深圳)有限公司 | 人体姿态评估方法、装置、计算机设备及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN109684943B (zh) | 2021-03-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
TWI742690B (zh) | 人體檢測方法、裝置、電腦設備及儲存媒體 | |
Wang et al. | Robust estimation of 3d human poses from a single image | |
US10685454B2 (en) | Apparatus and method for generating synthetic training data for motion recognition | |
CN109684943A (zh) | 一种运动员辅助训练数据获取方法、装置及电子设备 | |
Del Bue et al. | Bilinear modeling via augmented lagrange multipliers (balm) | |
CN106447748A (zh) | 一种用于生成动画数据的方法和装置 | |
CN106485773B (zh) | 一种用于生成动画数据的方法和装置 | |
CN109801379A (zh) | 通用的增强现实眼镜及其标定方法 | |
WO2021227425A1 (zh) | 一种基于样例的虚拟试衣方法 | |
CN110246209B (zh) | 图像处理方法及装置 | |
Shakya | Virtual restoration of damaged archeological artifacts obtained from expeditions using 3D visualization | |
CN109523615B (zh) | 用于虚拟动画人物动作的数据处理方法及装置 | |
WO2020150077A1 (en) | Camera self-calibration network | |
CN109191366A (zh) | 基于人体姿态的多视角人体图像合成方法及装置 | |
CN112767534A (zh) | 视频图像处理方法、装置、电子设备及存储介质 | |
CN110378250A (zh) | 用于场景认知的神经网络的训练方法、装置及终端设备 | |
De Luigi et al. | Drapenet: Garment generation and self-supervised draping | |
Wang et al. | BLSM: A bone-level skinned model of the human mesh | |
CN110060296A (zh) | 估计姿态的方法、电子设备和显示虚拟对象的方法及设备 | |
CN112990154B (zh) | 一种数据处理方法、计算机设备以及可读存储介质 | |
CN109784295A (zh) | 视频流特征识别方法、装置、设备及存储介质 | |
CN113255487A (zh) | 一种三维实时人体姿态识别方法 | |
CN109635925A (zh) | 一种运动员辅助训练数据获取方法、装置及电子设备 | |
CN110838182B (zh) | 一种图像贴合人台的方法及其系统 | |
CN114998487A (zh) | 一种动画生成的方法、装置、设备及可读介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |