CN105512621A - 一种基于Kinect的羽毛球动作指导系统 - Google Patents

一种基于Kinect的羽毛球动作指导系统 Download PDF

Info

Publication number
CN105512621A
CN105512621A CN201510859872.8A CN201510859872A CN105512621A CN 105512621 A CN105512621 A CN 105512621A CN 201510859872 A CN201510859872 A CN 201510859872A CN 105512621 A CN105512621 A CN 105512621A
Authority
CN
China
Prior art keywords
action
user
articulation point
posture
delta
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201510859872.8A
Other languages
English (en)
Other versions
CN105512621B (zh
Inventor
郭礼华
洪佳枫
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
South China University of Technology SCUT
Original Assignee
South China University of Technology SCUT
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by South China University of Technology SCUT filed Critical South China University of Technology SCUT
Priority to CN201510859872.8A priority Critical patent/CN105512621B/zh
Publication of CN105512621A publication Critical patent/CN105512621A/zh
Application granted granted Critical
Publication of CN105512621B publication Critical patent/CN105512621B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/23Recognition of whole body movements, e.g. for sport training

Abstract

本发明公开了一种基于Kinect的羽毛球动作指导系统,包括预处理模块,采用微软的kinect体感设备,通过kinectSDK跟踪用户动作,获得人体的骨架特征;相似性测量模块,将获取的用户的骨架特征与标准羽毛球动作的骨架特征匹配进行相似性测量;动作评价与展示模块,对相似性测量模块获得的用户动作姿势和标准动作姿势匹配的动作时间段进行距离比较,从而得出用户动作和标准动作序列相对应位置的各个关节点之间的距离差异,并将结果在屏幕上展示。本发明中,用户不需要穿戴有传感器的衣物,同时在不需要教练的情况下跟着视频自助的学习羽毛球的标准动作,从而提高自己的羽毛球挥拍动作准确性。

Description

一种基于Kinect的羽毛球动作指导系统
技术领域
本发明涉及一种人机交互领域,特别涉及一种基于Kinect的羽毛球动作指导系统。
背景技术
随着深度摄像头的技术更新,使得这些摄像头已经可以应用到目前高复杂度的计算机视觉任务中。在其帮助下,基于视觉的姿势估计的困难度已经大大的降低了。因此在人体动作识别领域已经提出了多项发明专利。如专利CN106573665A采用维比特算法来进行动作识别,CN104408461A采用滑动窗口局部匹配窗口的方法来进行动作识别。而在动作指导领域,则有CN103706106A通过Kinect自适应动作训练的方法。但是可以说在动作指导领域缺乏对某种特定环境(比如学习羽毛球动作的)进行优化开发的专利,所以普遍不能很好的应用到现实生活中。在实际应用上需要根据不同的应用目标,而进行特定特征的选取和算法的优化。
发明内容
为了克服现有技术的上述缺点与不足,本发明的目的在于提供一种基于Kinect的羽毛球动作指导系统,针对羽毛球初学者动作不规范,通过辅助设备,在无教练人工教学的情况下,自动辅助进行羽毛球动作的规范性教学。
本发明的目的通过以下技术方案实现:
一种基于Kinect的羽毛球动作指导系统,包括
预处理模块,采用微软的kinect体感设备,通过kinectSDK跟踪用户动作,获得人体的骨架特征;所述骨架特征包括全局躯干特征和局部关节点特征;
相似性测量模块,将获取的用户的骨架特征与标准羽毛球动作的骨架特征匹配进行相似性测量;所述相似性测量包括以下步骤:
S3.1定义用户的骨架特征与标准羽毛球动作之间的距离:
令用户的姿势为A,标准羽毛球动作的姿势为B;姿势A的骨架特征与姿势B的骨架特征之间的距离
D p o s e ( A , B ) = 1 1 + Σ i = 1 K w i [ Δ T D ( A , B ) + Σ i = 1 K w i ΔJ i ( A , B ) ]
其中ΔTD(A,B)是由姿势A和B的躯干方向定义的全局骨架差异,具体计算公式如下:
Δ T D ( A , B ) = 1 3 [ Δ α ( A , B ) + Δ β ( A , B ) + Δ γ ( A , B ) ]
其中
Δ α ( A , B ) = 1 π m i n | α ( A ) - α ( B ) | 2 π - | α ( A ) - α ( B ) |
Δ β ( A , B ) = 1 π m i n | β ( A ) - β ( B ) | 2 π - | β ( A ) - β ( B ) |
Δ γ ( A , B ) = 1 π m i n | γ ( A ) - γ ( B ) | 2 π - | γ ( A ) - γ ( B ) |
Δα(A,B),Δβ(A,B),Δγ(A,B)表示的是姿势A和B之间的全局骨架特征在欧拉角(α,β,γ)上的差异;
ΔJi(A,B)是姿势A和B之间第i个局部关节点的骨架差异,wi表示第i个局部关节点对于局部差异的影响权重;i=1,2,3…K;K是考虑的局部关节点的总数目;
Δθ i ( A , B ) = 1 π | θ i ( A ) - θ i ( B ) |
Δθi(A,B)和表示姿势A和B之间第i个局部关节点的θ,的差异,其值范围是0≤Δθi(A,B),(A,B)≤1;
S3.2对用户动作进行动作序列的匹配以消除时间维度上的差异;
S3.3每采集到一个用户动作并从中提取特征并和标准动作进行动作匹配,找到它们各自相对距离近的动作,从而得出上一帧获取的用户动作在时间维度上与标准动作匹配的动作时间段;
动作评价与展示模块,对相似性测量模块获得的用户动作姿势和标准动作姿势匹配的动作时间段进行距离比较,从而得出用户动作和标准动作序列相对应位置的各个关节点之间的距离差异,并将结果在屏幕上展示。
步骤S3.2所述对用户动作进行动作序列的匹配以消除时间维度上的差异,采用改进的DTW算法,具体为:
采用一个长度为3的动态循环数组代替传统DTW算法中的完整的DTW动作序列表格;所述动态循环数组包括当前帧、当前帧的前一帧和当前帧的后一帧的人体骨架特征。
所述全局躯干特征为采用五个关节点建模而成的躯干方向信息,所述五个关节点为躯干中心,左肩膀,右肩膀,左髋部和右髋部;具体建模过程为:
对笛卡尔坐标系中的5个关节点在坐标轴[X,Y,Z]进行主成分分析;获得的主成分作为躯干方向的3个坐标轴,从而得出旋转后的坐标系:[X',Y',Z'];得到的每个坐标轴是3维的向量,结果描述全局躯干方向的是一个9维的特征;通过3个欧拉角(α,β,γ)来表示躯干方向;欧拉角表示为初始笛卡尔坐标系关于3个坐标轴[X,Y,Z]循序旋转的角度,公式如下:
[R][XYZ]=[X'Y'Z']
其中R为旋转矩阵,表示两个坐标系之间的旋转变换,[X,Y,Z]是关节点的坐标数据,[X',Y',Z']是经过主成分分析后的关节点坐标数据;通旋转矩阵R通过如下公式进行计算:
[ R ] = r 11 r 12 r 13 r 21 r 22 r 23 r 31 r 32 r 33 = [ X ′ Y ′ Z ′ ] [ X Y Z ] - 1
最终欧拉角(α,β,γ)通过下面公式进行计算:
α=tan-1(r21/r11)
β = tan - 1 ( - r 31 / r 32 2 + r 33 2 )
γ=tan-1(r32/r33)。
所述局部关节点特征包括左肩膀,左肘,左手,右肩膀,右肘,右手,左髋部,左膝,左脚,右髋部,右膝,右脚;采用两个关节点的相对旋转来描述局部关节点之间的相对关系。
所述将结果在屏幕上展示,具体为:
设置一个阀值,对于关节点之间距离大于阀值的时候便对该节点采用第一种标识,而小于阀值时该节点采用第二种标识。
与现有技术相比,本发明具有以下优点和有益效果:
1.本发明在预处理模块中采用kinect来跟踪用户羽毛球动作,避免用户需要穿戴跟踪设备的不适应感,也更加方便。
2.本发明在相似性测量模块中针对羽毛球标准动作设计了骨架特征,并且通过各个特征的权重W来提高动作姿势相似性测量的准确性,从而提高用户体验。
3.本发明在相似性测量模块中采用改进DTW算法,使得本发明能实时计算用户当前姿势与标准动作的相似性,从而得到实时的反馈,具有实时性,有利于用户改正羽毛球动作。
4.本发明在动作评价与展示模块中采用红绿的颜色圈来直观表示用户动作中错误的确切关节点,更为直观,也方便用户改正羽毛球动作,有利于提高用户的使用体验。
5.本发明仅使用kinect便可在室内自行学习标准羽毛球动作,而不用请私人教练,在实惠的同时,避免了学习过程中的一系列尴尬。
附图说明
图1为本发明的羽毛球动作指导系统的框架图。
图2为本发明的羽毛球动作指导系统所提取的关节的骨架图。
具体实施方式
下面结合实施例,对本发明作进一步地详细说明,但本发明的实施方式不限于此。
实施例
如图1所示,本实施例的基于Kinect的羽毛球动作指导系统,包括预处理模块,相似性测量模块,动作评价展示模块。
其中,预处理模块,采用微软的kinect体感设备,通过kinectSDK跟踪用户动作,获得人体的骨架特征;所述骨架特征包括全局躯干特征和局部关节点特征;
相似性测量模块,将获取的用户的骨架特征与标准羽毛球动作的骨架特征匹配进行相似性测量;
动作评价与展示模块,对相似性测量模块获得的用户动作姿势和标准动作姿势匹配的动作时间段进行距离比较,从而得出用户动作和标准动作序列相对应位置的各个关节点之间的距离差异,并将结果在屏幕上展示。
本实施例的基于Kinect的羽毛球动作指导系统的工作步骤如下:
S1.用户选取需要学习的基本羽毛球标准动作。
S2.系统读取该标准动作视频并播放该动作视频,同时kinect开始跟踪用户动作;
S2.1.主要通过kinectSDK跟踪获得人体的骨架数据并且在多用户学习时维持一个骨架id以方便进行比对。
S2.2.通过获得的骨架数据计算骨架特征,骨架特征包括全局躯干特征和局部关节点特征:
S2.2.1对于局部关节点特征,采用两个关节点的相对旋转来来描述关节点之间的相对关系。两关节点之间的相对旋转可以通过笛卡尔坐标(x,y,z)转换成 建立的球坐标系来计算。其中,r通过归一化以消除人体特征不同的影响;θ是关于与X-Z平面所成的海拔角,是关于与X轴正方向所成的方位角。
S2.2.2局部关节点包括ShoulderLeft,ElbowLeft,HandLeft,ShoulderRight,ElbowRight,HandLeft,Hipleft,KneeLeft,AnkleLeft,HipRight,KneeRight,AnkleRight(对应关节为左肩膀,左肘,左手,右肩膀,右肘,右手,左髋部,左膝,左脚,右髋部,右膝,右脚,如图2所示)。
S2.2.3对于全局躯干特征,我们则采用和躯干相关的5个关节点SpineMid,ShoulderLeft,ShoulderRight,HipLeft,HipRight(对应关节为躯干中心,左肩膀,右肩膀,左髋部,右髋部)建模而成的躯干方向信息;对笛卡尔坐标系中的5个关节点在坐标轴[X,Y,Z]进行主成分分析(PCA),最后获得的主成分被用来作为躯干方向的3个坐标轴,从而得出旋转后的坐标系:[X',Y',Z'];得到的每个坐标轴是3维的向量,结果描述全局躯干方向的是一个9维的特征;为了在保持相同信息的情况下减少特征维度,通过3个欧拉角(α,β,γ)来表示躯干方向;欧拉角表示为初始笛卡尔坐标系关于3个坐标轴[X,Y,Z]循序旋转的角度,公式如下:
[R][XYZ]=[X'Y'Z']
其中[X,Y,Z]是关节点的坐标数据,[X',Y',Z']是经过主成分分析后的关节点坐标数据,R为旋转矩阵表示两个坐标系这间的旋转变换,通过公式变换可知,旋转矩阵R可以通过如下公式进行计算:
[ R ] = r 11 r 12 r 13 r 21 r 22 r 23 r 31 r 32 r 33 = [ X ′ Y ′ Z ′ ] [ X Y Z ] - 1
最终欧拉角(α,β,γ)能够通过下面公式进行计算:
α=tan-1(r21/r11)
β = tan - 1 ( - r 31 / r 32 2 + r 33 2 )
γ=tan-1(r32/r33)
S3.将获取的用户的骨架特征与标准羽毛球动作的骨架特征匹配进行相似性测量:
S3.1定义用户的骨架特征与标准羽毛球动作之间的距离:
令用户的姿势为A,标准羽毛球动作的姿势为B;姿势A的骨架特征与姿势B的骨架特征之间的距离
D p o s e ( A , B ) = 1 1 + Σ i = 1 K w i [ Δ T D ( A , B ) + Σ i = 1 K w i ΔJ i ( A , B ) ]
其中ΔTD(A,B)是由姿势A和B的躯干方向定义的全局骨架差异,具体计算公式如下:
Δ T D ( A , B ) = 1 3 [ Δ α ( A , B ) + Δ β ( A , B ) + Δ γ ( A , B ) ]
其中
Δ α ( A , B ) = 1 π m i n | α ( A ) - α ( B ) | 2 π - | α ( A ) - α ( B ) |
Δ β ( A , B ) = 1 π m i n | β ( A ) - β ( B ) | 2 π - | β ( A ) - β ( B ) |
Δ γ ( A , B ) = 1 π m i n | γ ( A ) - γ ( B ) | 2 π - | γ ( A ) - γ ( B ) |
Δα(A,B),Δβ(A,B),Δγ(A,B)表示的是姿势A和B之间的全局骨架特征在欧拉角(α,β,γ)上的差异;
ΔJi(A,B)是姿势A和B之间第i个局部关节点的骨架差异,wi表示第i个局部关节点对于局部差异的影响权重,可以根据应用的具体情况来设置。在我们的工作中,由于羽毛球动作对于手部动作的运动要求较高,因此对于每个下半身的关节点设置一个小的权重,而对上半身的关节点尤其是手部设置大的权重,比如在右手(挥拍手)我们要求跟接近标准,所以权重我们设为1,而左手则设权重为0.8,已经脚步权重设为0.5;i=1,2,3…K;K是考虑的局部关节点的总数目(在本实施例中为12));
从对象视角坐标获得的球坐标系表示能够用来计算每一个局部关节点的差异,那就是:
Δθ i ( A , B ) = 1 π | θ i ( A ) - θ i ( B ) |
Δθi(A,B)和表示姿势A和B之间第i个局部关节点的θ,的差异,其值范围是0≤Δθi(A,B),
S3.2采用改进的DTW算法对用户动作进行动作序列的匹配以消除时间维度上的差异;
对于给定有连续动作姿势{q1,q2,…,qM}的用户输入动作视频序列Q以及包含有连续动作姿势{v1,v2,…,vN}的标准动作视频序列V,由DTW算法可知,输入动作序列Q中的每一个动作姿势qi可能对应于标准动作序列V中的一个乃至连续多个动作姿势vj。这意味着这些姿势距离动作姿势qi比距离Q中的其他姿势要近;而在这些姿势中又有一个与qi最为匹配,那么可以确定该姿势所处的位置便是忽略时间维度上的变换后动作姿势qi所处的最合适位置;而要确定该位置,仅仅需要在用户表演的动作序列中的与该动作姿势相邻的两个动作姿势qi-1和qi+1,也即是所我们并不需要如传统DTW一样维持一个完整的DTW动作序列表格,而是用一个长度为3的动态循环数组(包括当前帧、当前帧的前一帧和当前帧的后一帧的人体骨架特征)取而代之,这样便可以得到延时一帧的动作相似性分析结果;虽然还不是实时的,但已十分接近。
S3.3kinect每采集到一个用户动作并从中提取特征后便写进改进DTW算法维持的动态循环数组上的数据并和标准动作进行动作匹配,找到它们各自相对距离近的动作,从而得出上一帧获取的动作姿势在时间维度上于标准动作匹配的动作时间段。
S4.评估用户动作与标准动作之间的差异并进行反馈
S4.1对从S3.3获得的用户动作姿势和标准动作匹配的动作时间段进行距离比较,从而的出各个关节点之间的距离差异。
S4.2设置一个阀值,对于关节点距离大于阀值的时候便对该节点用红圈代替,而小于阀值时则用绿圈代替;本实施例设置的阀值为15度;
在动作评估与展示阶段为了清楚的指导用户如何调整他们的姿势,用红圆圈来表示动作姿势的错误的关节点并且用绿圈表示剩下的姿势正确的关节点。由前面定义的关节点的距离差异被用来评价每一个关节点的准确性;同时提供了在每个时间实例中的整体姿势差异和动态动作相似性;其中在时间实例i中的某个动作姿势的动作相似性通过对由相应的临近几帧组成的视频序列采用DTW来计算。
S4.3并且将人体动作与kinect骨架结合起来从屏幕上显示出来。
S4.4同时,由于羽毛球的基本动作普遍比较短,所以系统也提供了重复播放功能以给用户更好的体验。
上述实施例为本发明较佳的实施方式,但本发明的实施方式并不受所述实施例的限制,其他的任何未背离本发明的精神实质与原理下所作的改变、修饰、替代、组合、简化,均应为等效的置换方式,都包含在本发明的保护范围之内。

Claims (5)

1.一种基于Kinect的羽毛球动作指导系统,其特征在于,包括
预处理模块,采用微软的kinect体感设备,通过kinectSDK跟踪用户动作,获得人体的骨架特征;所述骨架特征包括全局躯干特征和局部关节点特征;
相似性测量模块,将获取的用户的骨架特征与标准羽毛球动作的骨架特征匹配进行相似性测量;所述相似性测量包括以下步骤:
S3.1定义用户的骨架特征与标准羽毛球动作之间的距离:
令用户的姿势为A,标准羽毛球动作的姿势为B;姿势A的骨架特征与姿势B的骨架特征之间的距离
D p o s e ( A , B ) = 1 1 + Σ i = 1 K w i [ Δ T D ( A , B ) + Σ i = 1 K w i ΔJ i ( A , B ) ]
其中ΔTD(A,B)是由姿势A和B的躯干方向定义的全局骨架差异,具体计算公式如下:
Δ T D ( A , B ) = 1 3 [ Δ α ( A , B ) + Δ β ( A , B ) + Δ γ ( A , B ) ]
其中
Δ α ( A , B ) = 1 π m i n | α ( A ) - α ( B ) | 2 π - | α ( A ) - α ( B ) |
Δ β ( A , B ) = 1 π m i n | β ( A ) - β ( B ) | 2 π - | β ( A ) - β ( B ) |
Δ γ ( A , B ) = 1 π m i n | γ ( A ) - γ ( B ) | 2 π - | γ ( A ) - γ ( B ) |
Δα(A,B),Δβ(A,B),Δγ(A,B)表示的是姿势A和B之间的全局骨架特征在欧拉角(α,β,γ)上的差异;
ΔJi(A,B)是姿势A和B之间第i个局部关节点的骨架差异,wi表示第i个局部关节点对于局部差异的影响权重;i=1,2,3…K;K是考虑的局部关节点的总数目;
Δθ i ( A , B ) = 1 π | θ i ( A ) - θ i ( B ) |
Δθi(A,B)和表示姿势A和B之间第i个局部关节点的的差异,其值范围是0≤Δθi(A,B),
S3.2对用户动作进行动作序列的匹配以消除时间维度上的差异;
S3.3每采集到一个用户动作并从中提取特征并和标准动作进行动作匹配,找到它们各自相对距离近的动作,从而得出上一帧获取的用户动作在时间维度上与标准动作匹配的动作时间段;
动作评价与展示模块,对相似性测量模块获得的用户动作姿势和标准动作姿势匹配的动作时间段进行距离比较,从而得出用户动作和标准动作序列相对应位置的各个关节点之间的距离差异,并将结果在屏幕上展示。
2.根据权利要求1所述的基于Kinect的羽毛球动作指导系统,其特征在于,S3.2所述对用户动作进行动作序列的匹配以消除时间维度上的差异,采用改进的DTW算法,具体为:
采用一个长度为3的动态循环数组代替传统DTW算法中的完整的DTW动作序列表格;所述动态循环数组包括当前帧、当前帧的前一帧和当前帧的后一帧的人体骨架特征。
3.根据权利要求1所述的基于Kinect的羽毛球动作指导系统,其特征在于,所述全局躯干特征为采用五个关节点建模而成的躯干方向信息,所述五个关节点为躯干中心,左肩膀,右肩膀,左髋部和右髋部;具体建模过程为:
对笛卡尔坐标系中的5个关节点在坐标轴[X,Y,Z]进行主成分分析;获得的主成分作为躯干方向的3个坐标轴,从而得出旋转后的坐标系:[X',Y',Z'];得到的每个坐标轴是3维的向量,结果描述全局躯干方向的是一个9维的特征;通过3个欧拉角(α,β,γ)来表示躯干方向;欧拉角表示为初始笛卡尔坐标系关于3个坐标轴[X,Y,Z]循序旋转的角度,公式如下:
[R][XYZ]=[X'Y'Z']
其中R为旋转矩阵,表示两个坐标系之间的旋转变换,[X,Y,Z]是关节点的坐标数据,[X',Y',Z']是经过主成分分析后的关节点坐标数据;通旋转矩阵R通过如下公式进行计算:
[ R ] = r 11 r 12 r 13 r 21 r 22 r 23 r 31 r 32 r 33 = [ X ′ Y ′ Z ′ ] [ X Y Z ] - 1
最终欧拉角(α,β,γ)通过下面公式进行计算:
α=tan-1(r21/r11)
β = tan - 1 ( - r 31 / r 32 2 + r 33 2 )
γ=tan-1(r32/r33)。
4.根据权利要求1所述的基于Kinect的羽毛球动作指导系统,其特征在于,所述局部关节点特征包括左肩膀,左肘,左手,右肩膀,右肘,右手,左髋部,左膝,左脚,右髋部,右膝,右脚;采用两个关节点的相对旋转来描述局部关节点之间的相对关系。
5.根据权利要求1所述的基于Kinect的羽毛球动作指导系统,其特征在于,所述将结果在屏幕上展示,具体为:
设置一个阀值,对于关节点之间距离大于阀值的时候便对该节点采用第一种标识,而小于阀值时该节点采用第二种标识。
CN201510859872.8A 2015-11-30 2015-11-30 一种基于Kinect的羽毛球动作指导系统 Expired - Fee Related CN105512621B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201510859872.8A CN105512621B (zh) 2015-11-30 2015-11-30 一种基于Kinect的羽毛球动作指导系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201510859872.8A CN105512621B (zh) 2015-11-30 2015-11-30 一种基于Kinect的羽毛球动作指导系统

Publications (2)

Publication Number Publication Date
CN105512621A true CN105512621A (zh) 2016-04-20
CN105512621B CN105512621B (zh) 2019-04-09

Family

ID=55720588

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201510859872.8A Expired - Fee Related CN105512621B (zh) 2015-11-30 2015-11-30 一种基于Kinect的羽毛球动作指导系统

Country Status (1)

Country Link
CN (1) CN105512621B (zh)

Cited By (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106022208A (zh) * 2016-04-29 2016-10-12 北京天宇朗通通信设备股份有限公司 人体动作识别方法及装置
CN105999670A (zh) * 2016-05-31 2016-10-12 山东科技大学 基于kinect的太极拳动作判定和指导系统及其指导方法
CN106310609A (zh) * 2016-09-29 2017-01-11 广东小天才科技有限公司 一种羽毛球运动的分析方法及装置
CN106422211A (zh) * 2016-11-18 2017-02-22 广东小天才科技有限公司 球类训练技术统计方法及装置
CN106980116A (zh) * 2017-04-09 2017-07-25 复旦大学 基于Kinect摄像头的高精度室内人物测距方法
CN107050803A (zh) * 2017-03-19 2017-08-18 西安理工大学 一种羽毛球训练监控评估系统
CN107220608A (zh) * 2017-05-22 2017-09-29 华南理工大学 一种篮球动作模型重建和防守的指导系统及方法
CN107577451A (zh) * 2017-08-03 2018-01-12 中国科学院自动化研究所 多Kinect人体骨架坐标变换方法及处理设备、可读存储介质
CN108154125A (zh) * 2017-12-26 2018-06-12 深圳Tcl新技术有限公司 动作教学方法、终端及计算机可读存储介质
CN108205654A (zh) * 2017-09-30 2018-06-26 北京市商汤科技开发有限公司 一种基于视频的动作检测方法及装置
CN108269309A (zh) * 2018-02-11 2018-07-10 长沙市凯旭达测控技术有限公司 一种跳伞操纵动作量化评估方法及系统
CN108537284A (zh) * 2018-04-13 2018-09-14 东莞松山湖国际机器人研究院有限公司 基于计算机视觉深度学习算法的姿态评估打分方法和系统
CN108542021A (zh) * 2018-03-18 2018-09-18 江苏特力威信息系统有限公司 一种运动服及基于色条识别的肢体测量方法及装置
CN109005380A (zh) * 2017-06-06 2018-12-14 松下电器(美国)知识产权公司 动态图像列表生成方法、程序以及服务器装置
CN109325466A (zh) * 2018-10-17 2019-02-12 兰州交通大学 一种基于动作识别技术的智能运动指导系统及方法
CN109446871A (zh) * 2018-06-01 2019-03-08 浙江理工大学 一种基于多项式拟合的模特走秀动作评价方法
CN109589563A (zh) * 2018-12-29 2019-04-09 南京华捷艾米软件科技有限公司 一种基于3d体感摄像头的舞蹈姿态教辅方法及系统
CN109635724A (zh) * 2018-12-11 2019-04-16 东莞市强艺体育器材有限公司 一种动作智能比对方法
CN109833608A (zh) * 2018-12-29 2019-06-04 南京华捷艾米软件科技有限公司 一种基于3d体感摄像头的舞蹈动作教辅方法及系统
CN110175629A (zh) * 2019-04-25 2019-08-27 上海师范大学 一种人体动作相似度计算方法及装置
CN110414143A (zh) * 2019-07-30 2019-11-05 厦门钛尚人工智能科技有限公司 一种羽毛球球技分析系统
CN110458235A (zh) * 2019-08-14 2019-11-15 广州大学 一种视频中运动姿势相似度比对方法
CN110472462A (zh) * 2018-05-11 2019-11-19 北京三星通信技术研究有限公司 姿态估计方法、基于姿态估计的处理方法及电子设备
CN112101315A (zh) * 2019-11-20 2020-12-18 北京健康有益科技有限公司 一种基于深度学习的运动评判指导方法和系统
CN112487965A (zh) * 2020-11-30 2021-03-12 重庆邮电大学 一种基于3d重构的智能健身动作指导方法

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111437583B (zh) 2020-04-10 2021-06-29 哈尔滨工业大学 一种基于Kinect的羽毛球基本动作辅助训练系统

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140085313A1 (en) * 2010-05-25 2014-03-27 Disney Enterprises, Inc. Systems and methods for animating non-humanoid characters with human motion data
CN103706106A (zh) * 2013-12-30 2014-04-09 南京大学 一种基于Kinect的自适应连续动作训练方法
CN104133813A (zh) * 2014-08-11 2014-11-05 南通大学 一种基于Kinect的海军旗语训练方法
CN104317386A (zh) * 2014-06-25 2015-01-28 西南科技大学 一种姿势序列有限状态机动作识别方法
CN104460972A (zh) * 2013-11-25 2015-03-25 安徽寰智信息科技股份有限公司 一种基于Kinect的人机交互系统

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140085313A1 (en) * 2010-05-25 2014-03-27 Disney Enterprises, Inc. Systems and methods for animating non-humanoid characters with human motion data
CN104460972A (zh) * 2013-11-25 2015-03-25 安徽寰智信息科技股份有限公司 一种基于Kinect的人机交互系统
CN103706106A (zh) * 2013-12-30 2014-04-09 南京大学 一种基于Kinect的自适应连续动作训练方法
CN104317386A (zh) * 2014-06-25 2015-01-28 西南科技大学 一种姿势序列有限状态机动作识别方法
CN104133813A (zh) * 2014-08-11 2014-11-05 南通大学 一种基于Kinect的海军旗语训练方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
白正彪: "基于Kinect的运动示教系统研究与实现", 《中国优秀硕士学位论文全文数据库 信息科技辑》 *

Cited By (34)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106022208A (zh) * 2016-04-29 2016-10-12 北京天宇朗通通信设备股份有限公司 人体动作识别方法及装置
CN105999670A (zh) * 2016-05-31 2016-10-12 山东科技大学 基于kinect的太极拳动作判定和指导系统及其指导方法
CN106310609B (zh) * 2016-09-29 2019-10-29 广东小天才科技有限公司 一种羽毛球运动的分析方法及装置
CN106310609A (zh) * 2016-09-29 2017-01-11 广东小天才科技有限公司 一种羽毛球运动的分析方法及装置
CN106422211A (zh) * 2016-11-18 2017-02-22 广东小天才科技有限公司 球类训练技术统计方法及装置
CN106422211B (zh) * 2016-11-18 2019-08-20 广东小天才科技有限公司 球类训练技术统计方法及装置
CN107050803A (zh) * 2017-03-19 2017-08-18 西安理工大学 一种羽毛球训练监控评估系统
CN106980116A (zh) * 2017-04-09 2017-07-25 复旦大学 基于Kinect摄像头的高精度室内人物测距方法
CN106980116B (zh) * 2017-04-09 2021-06-22 复旦大学 基于Kinect摄像头的高精度室内人物测距方法
CN107220608A (zh) * 2017-05-22 2017-09-29 华南理工大学 一种篮球动作模型重建和防守的指导系统及方法
CN109005380A (zh) * 2017-06-06 2018-12-14 松下电器(美国)知识产权公司 动态图像列表生成方法、程序以及服务器装置
CN107577451A (zh) * 2017-08-03 2018-01-12 中国科学院自动化研究所 多Kinect人体骨架坐标变换方法及处理设备、可读存储介质
CN108205654A (zh) * 2017-09-30 2018-06-26 北京市商汤科技开发有限公司 一种基于视频的动作检测方法及装置
CN108154125A (zh) * 2017-12-26 2018-06-12 深圳Tcl新技术有限公司 动作教学方法、终端及计算机可读存储介质
CN108154125B (zh) * 2017-12-26 2021-08-24 深圳Tcl新技术有限公司 动作教学方法、终端及计算机可读存储介质
CN108269309B (zh) * 2018-02-11 2021-04-06 长沙市凯旭达测控技术有限公司 一种跳伞操纵动作量化评估方法及系统
CN108269309A (zh) * 2018-02-11 2018-07-10 长沙市凯旭达测控技术有限公司 一种跳伞操纵动作量化评估方法及系统
CN108542021A (zh) * 2018-03-18 2018-09-18 江苏特力威信息系统有限公司 一种运动服及基于色条识别的肢体测量方法及装置
CN108537284A (zh) * 2018-04-13 2018-09-14 东莞松山湖国际机器人研究院有限公司 基于计算机视觉深度学习算法的姿态评估打分方法和系统
CN110472462A (zh) * 2018-05-11 2019-11-19 北京三星通信技术研究有限公司 姿态估计方法、基于姿态估计的处理方法及电子设备
CN109446871B (zh) * 2018-06-01 2024-02-09 浙江理工大学 一种基于多项式拟合的模特走秀动作评价方法
CN109446871A (zh) * 2018-06-01 2019-03-08 浙江理工大学 一种基于多项式拟合的模特走秀动作评价方法
CN109325466B (zh) * 2018-10-17 2022-05-03 兰州交通大学 一种基于动作识别技术的智能运动指导系统及方法
CN109325466A (zh) * 2018-10-17 2019-02-12 兰州交通大学 一种基于动作识别技术的智能运动指导系统及方法
CN109635724A (zh) * 2018-12-11 2019-04-16 东莞市强艺体育器材有限公司 一种动作智能比对方法
CN109833608A (zh) * 2018-12-29 2019-06-04 南京华捷艾米软件科技有限公司 一种基于3d体感摄像头的舞蹈动作教辅方法及系统
CN109589563A (zh) * 2018-12-29 2019-04-09 南京华捷艾米软件科技有限公司 一种基于3d体感摄像头的舞蹈姿态教辅方法及系统
CN110175629A (zh) * 2019-04-25 2019-08-27 上海师范大学 一种人体动作相似度计算方法及装置
CN110175629B (zh) * 2019-04-25 2023-05-23 上海师范大学 一种人体动作相似度计算方法及装置
CN110414143A (zh) * 2019-07-30 2019-11-05 厦门钛尚人工智能科技有限公司 一种羽毛球球技分析系统
CN110458235A (zh) * 2019-08-14 2019-11-15 广州大学 一种视频中运动姿势相似度比对方法
CN112101315A (zh) * 2019-11-20 2020-12-18 北京健康有益科技有限公司 一种基于深度学习的运动评判指导方法和系统
CN112487965B (zh) * 2020-11-30 2023-01-31 重庆邮电大学 一种基于3d重构的智能健身动作指导方法
CN112487965A (zh) * 2020-11-30 2021-03-12 重庆邮电大学 一种基于3d重构的智能健身动作指导方法

Also Published As

Publication number Publication date
CN105512621B (zh) 2019-04-09

Similar Documents

Publication Publication Date Title
CN105512621A (zh) 一种基于Kinect的羽毛球动作指导系统
CN111144217B (zh) 一种基于人体三维关节点检测的动作评价方法
Tekin et al. Learning to fuse 2d and 3d image cues for monocular body pose estimation
CN106055091A (zh) 一种基于深度信息和校正方式的手部姿态估计方法
CN101964064B (zh) 一种人脸比对方法
Elgammal et al. Tracking people on a torus
CN102184541B (zh) 多目标优化人体运动跟踪方法
Calinon et al. Learning of gestures by imitation in a humanoid robot
CN101968846B (zh) 一种人脸跟踪方法
CN102567703B (zh) 一种基于分类特征的手部动作识别信息处理方法
CN103003846B (zh) 关节区域显示装置、关节区域检测装置、关节区域归属度计算装置、关节状区域归属度计算装置以及关节区域显示方法
CN106127125B (zh) 基于人体行为特征的分布式dtw人体行为识别方法
CN102500094A (zh) 一种基于kinect的动作训练方法
CN102622766A (zh) 多目标优化的多镜头人体运动跟踪方法
CN113762133A (zh) 基于人体姿态识别的自重健身辅助教练系统、方法、终端
CN103824326A (zh) 一种动态的人体三维建模方法
CN105184767A (zh) 一种运动人体姿态相似性度量方法
Ko et al. CNN and bi-LSTM based 3D golf swing analysis by frontal swing sequence images
CN103839280B (zh) 一种基于视觉信息的人体姿态跟踪方法
CN102930250B (zh) 一种多尺度条件随机场模型的动作识别方法
Liu et al. Trampoline motion decomposition method based on deep learning image recognition
Thobbi et al. Imitation learning of arm gestures in presence of missing data for humanoid robots
CN111539364A (zh) 基于特征融合和多分类器投票的多体感人体行为识别算法
CN106096565A (zh) 基于传感网络的移动机器人与静态传感器的任务协作方法
Zhao et al. Recognition of Volleyball Player's Arm Motion Trajectory and Muscle Injury Mechanism Analysis Based upon Neural Network Model

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20190409

Termination date: 20211130