CN103706106B - 一种基于Kinect的自适应连续动作训练方法 - Google Patents

一种基于Kinect的自适应连续动作训练方法 Download PDF

Info

Publication number
CN103706106B
CN103706106B CN201310745454.7A CN201310745454A CN103706106B CN 103706106 B CN103706106 B CN 103706106B CN 201310745454 A CN201310745454 A CN 201310745454A CN 103706106 B CN103706106 B CN 103706106B
Authority
CN
China
Prior art keywords
action
joint
angle
mrow
practicer
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201310745454.7A
Other languages
English (en)
Other versions
CN103706106A (zh
Inventor
武港山
胡晓祥
金宇
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nanjing University
Original Assignee
Nanjing University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nanjing University filed Critical Nanjing University
Priority to CN201310745454.7A priority Critical patent/CN103706106B/zh
Publication of CN103706106A publication Critical patent/CN103706106A/zh
Application granted granted Critical
Publication of CN103706106B publication Critical patent/CN103706106B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

一种基于Kinect的自适应连续动作训练方法,用户通过训练系统来练习自身的动作达到标准动作,所述训练系统包括用户骨架数据获取模块、骨架数据采样模块、快速动作比对模块和显示结果与动作回放模块,骨架数据采样模块对用户骨架数据获取模块获取的用户骨架数据进行采样,并将采样数据送至快速动作比对模块进行分析处理,显示结果与动作回放模块用于显示及回放分析处理得到的数据,其中用户骨架数据获取模块采用微软的Kinect体感设备。本发明方法中,用户本身不需要携带任何传感器或者穿戴有标记传感器的衣物,在不需要教练员的情况下,用户通过该系统可以跟着标准视频动作自主地练习动作,通过系统的不断反馈逐步提高学习的准确度。

Description

一种基于Kinect的自适应连续动作训练方法
技术领域
本发明涉及一种自适应的连续动作的训练方法,特别涉及一种基于体感设备的自适应的连续动作训练方法,属于人机交互领域。
背景技术
自动训练技术使得用户在不需要教练员的情况下能够较准确地学习动作。一般来说,要实现自动训练需要昂贵的设备的支持,而这会阻碍自动训练系统的普及。
2010年6月份,微软正式推出了作为Xbox360的体感周边外设的Kinect,使得人机交互的理念更加彻底的展现出来。通过Kinect,我们能够获得场景内的彩色图,深度图,以及对至多达两位用户的骨架跟踪图的数据。对普通用户而言,Kinect价位合理,这进一步推动了它的普及。
人们在日常生活中,经常需要练习一些连续的动作,比如练习太极拳,舞蹈训练,康复动作训练等等。JackyC.P.Chan等人提出了一套基于动作捕捉技术的舞蹈动作训练系统。该系统使用了专用的光学相机,同时要求练习者穿戴专用的带有标记传感器的衣服。练习者会按着专业的动作表演者的动作来练习,通过比对归一化的关节长度来比较练习者的动作与标准动作,反馈时通过将明显不同的部位用显眼的颜色标识来提醒练习者。
发明内容
本发明要解决的问题是:现有技术中,再进行动作练习时通常需要专业的设备,不适于普及应用。
本发明的技术方案为:一种基于Kinect的自适应连续动作训练方法,用户通过训练系统来练习自身的动作达到标准动作,所述训练系统包括基于体感外设的用户骨架数据获取模块、骨架数据采样模块、快速动作比对模块和显示结果与动作回放模块,骨架数据采样模块对用户骨架数据获取模块获取的用户骨架数据进行采样,并将采样数据送至快速动作比对模块进行分析处理,显示结果与动作回放模块用于显示及回放分析处理得到的数据,其中基于体感外设的用户骨架数据获取模块采用微软的Kinect体感设备,
所述快速动作比对模块的分析处理步骤为:
步骤一、维护练习者的用户ID:Kinect体感设备对识别到的每个人体骨架分配一个固定ID,快速动作比对模块只对动作练习者的用户ID的骨架进行比对,排除临时走入Kinect体感设备视野的旁人的干扰;
步骤二、计算练习者的具有一个自由度的关节的张开角度与标准动作对应关节张开角度之间的角度差,所述具有一个自由度的关节包括左手肘、右手肘、左膝和右膝;
步骤三、计算练习者的具有三个自由度的关节的旋转角度与标准动作对应关节旋转角度之间的角度差,所述具有三个自由度的关节包括左肩、右肩、左臀和右臀;
步骤四、计算练习者脊柱关节夹角与标准动作脊柱关节夹角的角度差,所述脊柱关节夹角为两肩关节形成的向量与两臀关节形成的向量的夹角,将当前动作练习者脊柱关节夹角与标准动作的夹角相减得两者的角度差;
步骤五、计算当前得分和到目前为止的总得分:对每个动作设定一个固定的总分,为步骤二、三、四的各个角度差计算一个部分得分;通过对不同的部分得分设置权重值,计算得到动作的相似度得分S,练习者通过相似度得分S判断自身动作的准确性,来实现自适应的连续动作训练,动作的相似度得分S是通过计算步骤二、三、四各部分得分的带权均值来得到的,计算公式如下:
S = Σ i = 1 4 α i J 1 i + Σ j = 1 4 β j J 3 j + γJ s p i n e
其中,α和J1分别表示步骤二中角度差的权重和得分,i表示不同关节的编号,β和J3分别表示步骤三中角度差的权重和得分,j表示不同关节的编号,γ和Jspine分别表示步骤四的脊柱关节夹角的角度差的权重和得分。
步骤二中关节的张开角度的计算为:
左手肘:从Kinect体感设备获取左手腕、左手肘、左肩的三维空间坐标,分别设为L、M、N,左手肘关节张开的角度计算公式如下:
M L → = L - M
M N → = N - M
cos v a l u e = ( M L → · M N → ) / ( | M L | → × | M N | → )
∠LMN=arccos(cosvalue)×180.0/π
其中,表示将两个向量进行点乘运算;
用练习者动作的左手肘关节张开的角度与标准动作的左手肘张开的角度相减得两者的角度差;
右手肘、左膝和右膝同样通过从Kinect体感设备获取的数据得到三维空间坐标,计算右手肘、左膝和右膝的关节张开的角度。
步骤三中关节的旋转角度的计算为:
左肩:从Kinect体感设备获取左手肘、左肩、右肩的三维空间坐标,分别设为P、Q、R,则左肩关节的旋转角度的计算步骤如下:
1)计算练习者动作中两肩关节相对于标准动作中两肩关节的旋转角度,即计算练习者动作两肩关节构成的空间向量与标准动作两肩关节构成的空间向量之间的夹角θ;
2)构造旋转矩阵,练习者动作和标准动作计算方式一样:
2.1)将进行向量点乘,得点乘得
2.2)将三个列向量构成一个3×3的矩阵C,即旋转矩阵,对矩阵C每一列构成的列向量分别进行归一化处理;
2.3)对标准动作的旋转矩阵进行修正,对旋转矩阵的每一列i,变换该列的相应元素:
C[0][i]=C[0][i]×cosθ-C[2][i]×sinθ
C[2][i]=C[0][i]×sinθ+C[2][i]×cosθ;
式中,C[0][i]表示矩阵第0行第i列的元素的值;
3)计算表示旋转量的轴角:其中是旋转轴,ψ是沿着旋转轴旋转的角度,即旋转自由度关节的旋转角度;记步骤2)得到的标准动作左肩关节的修正后的旋转矩阵为B,练习者动作的左肩关节的旋转矩阵分别为D,则计算轴角,即旋转角度的具体步骤如下:
3.1)求矩阵B的逆矩阵B-1
3.2)将练习者动作的旋转矩阵D与步骤3.1)的逆矩阵相乘,得R=D×B-1
3.3)计算RI=R-I,其中I是单位矩阵;计算矩阵R的特征向量,由于旋转矩阵是正交的,所以将矩阵RI阶梯化后得到的基础解系即是矩阵R的特征向量,将该向量进行归一化处理得到旋转轴向量
3.4)计算矩阵R的迹trace,则旋转角ψ=arccos((trace-1)/2.0)×180.0/π;
右肩、左臀和右臀同样通过从Kinect体感设备获取的数据建立三维空间坐标,分别计算右肩、左臀和右臀的旋转角度。
作为优选方式,所述骨架数据采样模块对从Kinect体感设备获取的用户骨架数据按照该数据获取的时间戳进行均匀采样。
进一步的,所述显示结果与动作回放模块的显示包括:
对当前动作相似度得分和到目前为止的总得分在屏幕上实时显示;
对具有三个自由度的关节,显示练习者动作的关节与标准关节的旋转轴,并用箭头显示旋转的方向,以便用户直观地改进动作;
对具有一个自由度和三个自由度的关节分别设置一个阈值,若练习者动作与标准动作该关节的角度差超过其阈值,则用颜色标识出该关节以提醒练习者注意;
当练习者选择暂停时,将标准动作定格叠加显示在暂停时的动作上,练习者据此调整自己的动作,直至达到标准动作;
在练习者练习动作的时候,将Kinect体感设备拍摄的彩色图,获得的练习者所有关节的三维坐标数据,以及每次的得分保存起来,当练习者选择回放时,按照时间序列将这些信息展示给练习者,用于练习者分析自己练习过的动作。
本发明提出了一种基于Kinect的自适应连续动作训练方法,用户本身不需要携带任何传感器或者穿戴有标记传感器的衣物,在不需要教练员的情况下,用户通过该系统可以跟着标准视频动作自主地练习动作,通过系统的不断反馈逐步提高学习的准确度。
本发明基于体感外设Kinect的自适应的连续动作训练方法与现有技术相比,其优点在于:采用体感外设Kinect来获取用户的三维坐标数据,用户本身不需要携带任何传感器或者穿戴有标记传感器的衣物,系统的使用不需要其他人的辅助;对动作的比对会针对不同类型的关节采用不同自由度的角度表示方法,避免了采用关节长度来评价动作相似度时需要归一化所有关节的操作,因而人体的高矮胖瘦的不同特征不会对动作比对结果产生影响,除此之外,练习者身体的不同朝向对动作比对结果也不会产生影响;该基于体感外设Kinect的快速动作比对系统能够采集三维空间数据,对用户的动作提供客观的评价,给予用户直观有效的反馈。
附图说明
图1为自适应连续动作训练系统的框架图。
图2为一个自由度关节的夹角角度差示意图。
图3为表示三个自由度关节的旋转的轴角的示意图。
图4为基于Kinect的自适应连续动作训练方法中人体的关节选取示意图,其中1号关节脊柱,2号关节左肩,3号关节左手肘,4号关节左手腕,5号关节右肩,6号关节右手肘,7号关节右手腕,8号关节左臀,9号关节左膝,10号关节左脚踝,11号关节右臀,12号关节右膝,13号关节右脚踝。
具体实施方式
为了更好地阐明本发明的技术方案,以下结合附图进一步说明本发明的具体的实施示例。
如图1所示,本发明公开了一种基于Kinect的自适应的连续动作训练方法,用户通过训练系统来练习自身的动作达到标准动作,所述训练系统包括基于体感外设的用户骨架数据获取模块,骨架数据采样模块,快速动作比对模块和显示结果与动作回放模块。
基于体感外设的用户骨架数据获取模块采用微软的Kinect体感设备,该设备通过主动发出带光编码的红外线来获得场景内物体的深度,因此用户本身不需要携带任何动作传感设备或特殊标记物。当Kinect的视野中有人时,Kinect的API会实时返回彩色图数据、深度图数据以及所跟踪到的人体的骨架三维坐标数据。
骨架数据采样模块会对Kinect获取的用户骨架数据进行采样,采用均匀采样的原则,每隔t秒采样一次,实际使用中t可以取值0.25;快速动作比对模块只对采样后的骨架数据进行处理,但是系统仍然会保存获取到的所有的彩色图,以用于动作回放。
快速动作比对模块会对采样后的用户骨架数据与对应的标准动作数据进行比对。动作的对应是通过该动作到起始动作的时间间隔最相近来实现的。该动作比对的具体步骤如下:
步骤一、为了使动作训练系统不至于受到其他走入Kinect相机视野范围内的旁人的干扰,系统会维护一个当前练习动作的用户的ID。由于Kinect对识别的人体骨架会分配一个固定ID,当有其他人进入时,只对该不变的ID的骨架进行比对;同时,系统会记录上一次该练习者距离Kinect的距离,当有超过一个人物在Kinect视野范围内,而Kinect输出的人体骨架的ID号与当前维护的ID号都不相同时,系统会选择当前人体骨架到Kinect的距离与系统记录的上一次的距离不超过△t的人体骨架来进行动作比对,同时记录下该人体骨架的ID。
步骤二、计算具有一个自由度的关节张开的角度与标准动作对应的关节的角度的差。在图4中,各标号表示不同的关节,需要计算关节角度的关节中具有一个自由度的关节有:3号关节左手肘,6号关节右手肘,9号关节左膝,12号关节右膝;需要计算旋转轴角的具有三个自由度的关节有:2号关节左肩,5号关节右肩,8号关节左臀,11号关节右臀;另外,1号关节脊柱是通过上半身和下半身旋转的角度作为该关节的旋转的角度。
本实施示例中,以左手肘为例来进行说明。从Kinect获取的人体关节的坐标数据中,令左手腕、左手肘、左肩的三维空间坐标分别是L、M、N,标准动作中左手腕、左手肘、左肩的三维空间坐标分别是Ls、Ms、Ns,则计算左手肘关节当前张开角度的公式如下:
M L → = L - M
M N → = N - M
cos v a l u e = ( M L → · M N → ) / ( | M L | → × | M N | → )
∠LMN=arccos(cosvalue)×180.0/π
其中,表示两个向量的点乘,表示向量的模;令标准动作中左手肘关节张开的角度用上面的公式计算为∠LsMsNs,则两个左手肘关节的张开角度的差为:
delta=∠LMN-∠LsMsNs
右手肘、左膝和右膝同样通过从Kinect体感设备获取的数据得到三维空间坐标,按照上述步骤的原理计算右手肘、左膝和右膝的关节张开的角度。根据三维空间坐标计算关节张开角度为空间几何计算,不再详述计算过程。
步骤三、计算具有三个自由度的关节与标准动作中对应关节的旋转角度。以左肩关节为例说明,令左手肘、左肩、右肩的三维空间坐标分别是P、Q、R,标准动作中左手肘、左肩、右肩的三维空间坐标分别是Ps、Qs、Rs,则左肩关节的旋转角度计算公式如下:
(1)计算练习者动作与标准动作的两肩关节的旋转角度,即计算向量的夹角θ,计算方法采用步骤二中计算夹角的公式:
cos v a l u e = ( Q R → · Q s R s → ) / ( | Q R | → × | Q s R s | → )
θ=arccos(cosvalue)×180.0/π
(2)构造旋转矩阵,练习者动作和标准动作的计算方式一样:
2.1)将进行向量点乘,得到进行点乘得到向量
2.2)将三个列向量构成一个3×3的矩阵C,即旋转矩阵,对矩阵C每一列构成的列向量分别进行归一化;
2.3)对标准动作的旋转矩阵进行修正,对每一列i(设i从0开始计数),变换该列的相应矩阵元素的方法为:
C[0][i]=C[0][i]×cosθ-C[2][i]×sinθ
C[2][i]=C[0][i]×sinθ+C[2][i]×cosθ
式中,C[0][i]表示矩阵第0行第i列的元素的值;
修正的目的是为了保证练习者动作与标准动作之间的比较不会因为身体主平面的角度变化而发生偏差。通常标准动作和练习者之间可能因为拍摄角度的原因,身体主平面会有些角度变化。因此在比较时对其中一个进行修正就可以了。
(3)计算表示关节旋转的轴角:其中是旋转轴,ψ是该关节沿着旋转轴旋转的角度;记步骤2)得到的标准动作左肩关节的修正后的旋转矩阵为B,练习者动作的左肩关节的旋转矩阵分别为D,则计算轴角,即旋转角度的具体步骤如下:
3.1)求矩阵B的逆矩阵B-1
3.2)将练习者动作的旋转矩阵D与步骤3.1)的逆矩阵相乘,得R=D×B-1
3.3)计算RI=R-I,其中I是单位矩阵;计算矩阵R的特征向量,由于旋转矩阵是正交的,所以将矩阵RI阶梯化后得到的基础解系即是矩阵R的特征向量,将该向量进行归一化处理得到旋转轴向量
(3.4)计算矩阵R的迹为trace,将矩阵R的正对角线上的元素求和即可得到该矩阵的迹;则该关节的旋转角ψ=arccos((trace-1)/2.0)×180.0/π;
右肩、左臀和右臀同样通过从Kinect体感设备获取的数据建立三维空间坐标,按照上述步骤的原理分别计算右肩、左臀和右臀的旋转角度,技术人员根据上述说明能够对应完成右肩、左臀和右臀的空间几何计算,不再详述计算过程。
步骤四、计算脊柱关节的旋转角度的差,此处是指计算人体的上半身与下半身的旋转的角度,具体地,计算两肩关节形成的向量和两臀关节形成的向量之间的夹角delta,计算方式如下:
cos v a l u e = ( Q R → · E F → ) / ( | Q R → | × | E F → | )
delta=arccos(cosvalue)×180.0/π
将练习者的脊柱关节的旋转角度与标准动作的相减即得到两者的旋转的角度差。
步骤五、计算练习者当前的得分以及到目前为止的总得分;以给出得分这种形式,练习者可以从定量的角度知道自己的动作与标准动作的相似程度。
每个动作都会有一个相同的固定的总分,参与计算的九个关节都会有一个相应的部分得分,该部分得分是通过练习者的动作与标准动作中该关节的角度的偏差值来计算得到的。
练习者动作与标准动作的相似度是采用九个关节的部分得分的带权均值来计算得到的,每个关节的权重值是由该动作评价标准下每个关节的重要性给出。两个动作的相似度得分计算公式如下:
S = Σ i = 1 4 α i J 1 i + Σ j = 1 4 β j J 3 j + γJ s p i n e
上式中,αi分别表示第i个有一个自由度关节的权重和得分,βj分别表示第j个有三个自由度关节的权重和得分,γ和Jspine分别表示脊柱关节的权重和得分。
到目前为止的总得分是通过计算每个动作的得分的带权均值来得到的。
结果显示和动作回放模块,会对当前得分和到当前为止的总得分在屏幕上实时显示,并对用户所练习的动作进行视频回放。
为了使练习者能直观地看到自己的动作与标准动作的差别,分别对一个自由度和三个自由度的关节设置了一个阈值,脊柱关节的阈值采用一个自由度关节的阈值;当某个关节的角度差超过其阈值时,表明该关节与标准动作中的关节在相似性上差别比较明显,用红色标识出该关节,提醒练习者注意。练习者在练习过程中可以选择暂停,这时标准动作播放画面会定格在此刻的动作上,练习者根据系统的提示,不断地调整自己的动作,直至跟标准动作相似,练习者选择继续练习后续的动作,系统会把调整动作期间最后时刻的打分记为调整后该动作的打分结果。
练习者练习动作时,系统会将Kinect拍摄的彩色图像,Kinect获得的练习者所有关节的三维空间坐标数据,以及每个动作所得的分保存下来。当练习者选择回放时,会按照时间序列将彩色图画面播放,同时会把对应的骨架示意图和打分也显示出来,方便练习者分析自己的动作。
本发明提出了一种基于Kinect的自适应的连续动作训练方法,使得动作训练能够实时实现。训练时,用户跟随预先录制好的标准动作进行练习,Kinect会实时捕捉用户骨架的三维坐标数据,通过对一个自由度的关节计算角度差,对三个自由度的关节计算旋转角的角度差,来发现用户动作与标准动作的差别,当差别超过一定阈值时,在显示的关节上通过使用比较显眼的颜色标识来提示用户。通过对不同关节自主地设置不同的权重,系统能够自适应地衡量不同关节在一个动作中的重要程度。练习过程中,用户可以选择暂停,以便针对该动作进行调整,并实时获得系统反馈。调整完后,用户可以选择继续练习后续的动作。动作练习完后,用户可以选择回放功能,来浏览并分析所练习的每个动作。本发明对人体体征差异具有很好的鲁棒性,具有实时性高,对用户友好,系统反馈及时且非常直观的特点。

Claims (5)

1.一种基于Kinect的自适应连续动作训练方法,其特征是用户通过训练系统来练习自身的动作达到标准动作,所述训练系统包括基于体感外设的用户骨架数据获取模块、骨架数据采样模块、快速动作比对模块和显示结果与动作回放模块,骨架数据采样模块对用户骨架数据获取模块获取的用户骨架数据进行采样,并将采样数据送至快速动作比对模块进行分析处理,显示结果与动作回放模块用于显示及回放分析处理得到的数据,其中基于体感外设的用户骨架数据获取模块采用微软的Kinect体感设备,
所述快速动作比对模块的分析处理步骤为:
步骤一、维护练习者的用户ID:Kinect体感设备对识别到的每个人体骨架分配一个固定ID,快速动作比对模块只对动作练习者的用户ID的骨架进行比对,排除临时走入Kinect体感设备视野的旁人的干扰;
步骤二、计算练习者的具有一个自由度的关节的张开角度与标准动作对应关节张开角度之间的角度差,所述具有一个自由度的关节同时包括左手肘、右手肘、左膝和右膝;
步骤三、计算练习者的具有三个自由度的关节的旋转角度与标准动作对应关节旋转角度之间的角度差,所述具有三个自由度的关节同时包括左肩、右肩、左臀和右臀;
步骤四、计算练习者脊柱关节夹角与标准动作脊柱关节夹角的角度差,所述脊柱关节夹角为两肩关节形成的向量与两臀关节形成的向量的夹角,将当前动作练习者脊柱关节夹角与标准动作的夹角相减得两者的角度差;
步骤五、计算当前得分和到目前为止的总得分:对每个动作设定一个固定的总分,为步骤二、三、四的各个角度差计算一个部分得分;通过对不同的部分得分设置权重值,计算得到动作的相似度得分S,练习者通过相似度得分S判断自身动作的准确性,来实现自适应的连续动作训练,动作的相似度得分S是通过计算步骤二、三、四各部分得分的带权均值来得到的,计算公式如下:
S = Σ i = 1 4 α i J 1 i + Σ j = 1 4 β j J 3 j + γ J spine
其中,α和J1分别表示步骤二中角度差的权重和得分,i表示不同关节的编号,β和J3分别表示步骤三中角度差的权重和得分,j表示不同关节的编号,γ和Jspine分别表示步骤四的脊柱关节夹角的角度差的权重和得分。
2.根据权利要求1所述的一种基于Kinect的自适应连续动作训练方法,其特征是步骤二中关节的张开角度的计算为:
左手肘:从Kinect体感设备获取左手腕、左手肘、左肩的三维空间坐标,分别设为L、M、N,左手肘关节张开的角度计算公式如下:
ML → = L - M
MN → = N - M
cos value = ( ML → · MN → ) / ( | ML → | × | MN → | )
∠LMN=arccos(cosvalue)×180.0/π
其中,表示将两个向量进行点乘运算;
用练习者动作的左手肘关节张开的角度与标准动作的左手肘张开的角度相减得两者的角度差;
右手肘、左膝和右膝同样通过从Kinect体感设备获取的数据得到三维空间坐标,计算右手肘、左膝和右膝的关节张开的角度。
3.根据权利要求1所述的一种基于Kinect的自适应连续动作训练方法,其特征是步骤三中关节的旋转角度的计算为:
左肩:从Kinect体感设备获取左手肘、左肩、右肩的三维空间坐标,分别设为P、Q、R,则左肩关节的旋转角度的计算步骤如下:
1)计算练习者动作中两肩关节相对于标准动作中两肩关节的旋转角度,即计算练习者动作两肩关节构成的空间向量与标准动作两肩关节构成的空间向量之间的夹角θ;
2)构造旋转矩阵,练习者动作和标准动作计算方式一样:
2.1)将进行向量点乘,得点乘得
2.2)将三个列向量构成一个3×3的矩阵C,即旋转矩阵,对矩阵C每一列构成的列向量分别进行归一化处理;
2.3)对标准动作的旋转矩阵进行修正,对旋转矩阵的每一列i,变换该列的相应元素:
C[0][i]=C[0][i]×cosθ-C[2][i]×sinθ
C[2][i]=C[0][i]×sinθ+C[2][i]×cosθ;
式中,C[0][i]表示矩阵第0行第i列的元素的值;
3)计算表示旋转量的轴角:其中是旋转轴,ψ是沿着旋转轴旋转的角度,即旋转自由度关节的旋转角度;记步骤2)得到的标准动作左肩关节的修正后的旋转矩阵为B,练习者动作的左肩关节的旋转矩阵分别为D,则计算轴角,即旋转角度的具体步骤如下:
3.1)求矩阵B的逆矩阵B-1
3.2)将练习者动作的旋转矩阵D与步骤3.1)的逆矩阵相乘,得R=D×B-1
3.3)计算RI=R-I,其中I是单位矩阵;计算矩阵R的特征向量,由于旋转矩阵是正交的,所以将矩阵RI阶梯化后得到的基础解系即是矩阵R的特征向量,将该向量进行归一化处理得到旋转轴向量
3.4)计算矩阵R的迹trace,则旋转角ψ=arccos((trace-1)/2.0)×180.0/π;
右肩、左臀和右臀同样通过从Kinect体感设备获取的数据建立三维空间坐标,分别计算右肩、左臀和右臀的旋转角度。
4.根据权利要求1所述的一种基于Kinect的自适应连续动作训练方法,其特征是所述骨架数据采样模块对从Kinect体感设备获取的用户骨架数据按照该数据获取的时间戳进行均匀采样。
5.根据权利要求1所述的一种基于Kinect的自适应连续动作训练方法,其特征是所述显示结果与动作回放模块的显示包括:
对当前动作相似度得分和到目前为止的总得分在屏幕上实时显示;
对具有三个自由度的关节,显示练习者动作的关节与标准关节的旋转轴,并用箭头显示旋转的方向,以便用户直观地改进动作;
对具有一个自由度和三个自由度的关节分别设置一个阈值,若练习者动作与标准动作该关节的角度差超过其阈值,则用颜色标识出该关节以提醒练习者注意;
当练习者选择暂停时,将标准动作定格叠加显示在暂停时的动作上,练习者据此调整自己的动作,直至达到标准动作;
在练习者练习动作的时候,将Kinect体感设备拍摄的彩色图,获得的练习者所有关节的三维坐标数据,以及每次的得分保存起来,当练习者选择回放时,按照时间序列将这些信息展示给练习者,用于练习者分析自己练习过的动作。
CN201310745454.7A 2013-12-30 2013-12-30 一种基于Kinect的自适应连续动作训练方法 Active CN103706106B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201310745454.7A CN103706106B (zh) 2013-12-30 2013-12-30 一种基于Kinect的自适应连续动作训练方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201310745454.7A CN103706106B (zh) 2013-12-30 2013-12-30 一种基于Kinect的自适应连续动作训练方法

Publications (2)

Publication Number Publication Date
CN103706106A CN103706106A (zh) 2014-04-09
CN103706106B true CN103706106B (zh) 2015-12-30

Family

ID=50399678

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201310745454.7A Active CN103706106B (zh) 2013-12-30 2013-12-30 一种基于Kinect的自适应连续动作训练方法

Country Status (1)

Country Link
CN (1) CN103706106B (zh)

Families Citing this family (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104035557B (zh) * 2014-05-22 2017-04-19 华南理工大学 一种基于关节活跃度的Kinect动作识别方法
CN105469679A (zh) * 2015-11-14 2016-04-06 辽宁大学 基于Kinect的心肺复苏辅助训练系统及方法
CN105512621B (zh) * 2015-11-30 2019-04-09 华南理工大学 一种基于Kinect的羽毛球动作指导系统
CN105999670B (zh) * 2016-05-31 2018-09-07 山东科技大学 基于kinect的太极拳动作判定和指导系统及其指导方法
CN106485055B (zh) * 2016-09-22 2017-09-29 吉林大学 一种基于Kinect传感器的老年II型糖尿病患者运动训练系统
CN106774896B (zh) * 2016-12-19 2018-03-13 吉林大学 一种坐式手工装配线模特值评测系统
CN107240049B (zh) * 2017-05-10 2020-04-03 中国科学技术大学先进技术研究院 一种沉浸式环境中远程动作教学质量的自动评价方法和系统
CN107247924A (zh) * 2017-05-19 2017-10-13 安徽信息工程学院 基于Kinect的动作比对系统和比对方法
CN107349570A (zh) * 2017-06-02 2017-11-17 南京邮电大学 基于Kinect的上肢康复训练与评估方法
CN107520843A (zh) * 2017-08-22 2017-12-29 南京野兽达达网络科技有限公司 一种类人多自由度机器人的动作训练方法
CN108040289A (zh) * 2017-12-12 2018-05-15 天脉聚源(北京)传媒科技有限公司 一种视频播放的方法及装置
CN110314344B (zh) * 2018-03-30 2021-08-24 杭州海康威视数字技术股份有限公司 运动提醒方法、装置及系统
CN108615055B (zh) * 2018-04-19 2021-04-27 咪咕动漫有限公司 一种相似度计算方法、装置及计算机可读存储介质
CN109675264A (zh) * 2018-08-13 2019-04-26 淮海工学院 一种基于Kinect的通用肢体训练系统及方法
CN109409199B (zh) * 2018-08-31 2021-01-12 百度在线网络技术(北京)有限公司 微表情训练方法、装置、存储介质及电子设备
CN109833608B (zh) * 2018-12-29 2021-06-22 南京华捷艾米软件科技有限公司 一种基于3d体感摄像头的舞蹈动作教辅方法及系统
CN109589563B (zh) * 2018-12-29 2021-06-22 南京华捷艾米软件科技有限公司 一种基于3d体感摄像头的舞蹈姿态教辅方法及系统
CN109840478B (zh) * 2019-01-04 2021-07-02 广东智媒云图科技股份有限公司 一种动作评估方法、装置、移动终端和可读存储介质
CN111080589A (zh) * 2019-12-05 2020-04-28 广州极泽科技有限公司 目标对象匹配方法、系统、设备及机器可读介质
CN111273780B (zh) * 2020-02-21 2021-09-28 腾讯科技(深圳)有限公司 基于虚拟环境的动画播放方法、装置、设备及存储介质
CN111681281B (zh) * 2020-04-16 2023-05-09 北京诺亦腾科技有限公司 肢体动作捕捉的校准方法、装置、电子设备及存储介质
CN111991772B (zh) * 2020-09-08 2021-07-13 衢州职业技术学院 辅助上肢训练的装置及系统
CN113283385B (zh) * 2021-06-17 2024-02-23 贝塔智能科技(北京)有限公司 一种基于肢体识别技术的体感交互系统和交互方法
CN113283384A (zh) * 2021-06-17 2021-08-20 贝塔智能科技(北京)有限公司 一种基于肢体识别技术的太极互动系统
CN113780206B (zh) * 2021-09-16 2022-11-04 福建平潭瑞谦智能科技有限公司 一种基于视频图像分析处理方法
CN116262171A (zh) * 2021-12-14 2023-06-16 成都拟合未来科技有限公司 基于健身装置的健身训练方法及系统及装置及介质
CN115294821A (zh) * 2022-07-15 2022-11-04 国网浙江省电力有限公司嘉兴供电公司 一种基于vr和动作捕捉的技能培训系统
CN118356625B (zh) * 2024-06-20 2024-09-27 广州华夏汇海科技有限公司 一种基于智能手环的颠球训练方法及系统

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8123622B1 (en) * 2011-06-03 2012-02-28 Nyko Technologies, Inc. Lens accessory for video game sensor device
CN102500094A (zh) * 2011-10-28 2012-06-20 北京航空航天大学 一种基于kinect的动作训练方法
CN102824176A (zh) * 2012-09-24 2012-12-19 南通大学 一种基于Kinect传感器的上肢关节活动度测量方法

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012054231A2 (en) * 2010-10-04 2012-04-26 Gerard Dirk Smits System and method for 3-d projection and enhancements for interactivity
US20120257035A1 (en) * 2011-04-08 2012-10-11 Sony Computer Entertainment Inc. Systems and methods for providing feedback by tracking user gaze and gestures

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8123622B1 (en) * 2011-06-03 2012-02-28 Nyko Technologies, Inc. Lens accessory for video game sensor device
CN102500094A (zh) * 2011-10-28 2012-06-20 北京航空航天大学 一种基于kinect的动作训练方法
CN102824176A (zh) * 2012-09-24 2012-12-19 南通大学 一种基于Kinect传感器的上肢关节活动度测量方法

Also Published As

Publication number Publication date
CN103706106A (zh) 2014-04-09

Similar Documents

Publication Publication Date Title
CN103706106B (zh) 一种基于Kinect的自适应连续动作训练方法
KR100772497B1 (ko) 골프 클리닉 시스템 및 그것의 운용방법
US8314840B1 (en) Motion analysis using smart model animations
US4891748A (en) System and method for teaching physical skills
KR100606996B1 (ko) 골프 스윙모션 분석방법 및 그 시스템
Alexiadis et al. Evaluating a dancer's performance using kinect-based skeleton tracking
Hughes et al. Notational analysis of sport: Systems for better coaching and performance in sport
EP3986266A1 (en) Wearable joint tracking device with muscle activity and methods thereof
EP0880380B1 (en) System for human trajectory learning in virtual environments
EP2203896B1 (en) Method and system for selecting the viewing configuration of a rendered figure
US11134866B2 (en) Garments, systems and methods for sports training
JP2005198818A (ja) 身体動作の学習支援システム及び学習支援方法
Echeverria et al. KUMITRON: Artificial intelligence system to monitor karate fights that synchronize aerial images with physiological and inertial signals
Samhitha et al. Vyayam: Artificial Intelligence based Bicep Curl Workout Tacking System
CN118172833A (zh) 一种对羽毛球运动中运动损伤进行筛查的方法、装置及设备
CN114832349B (zh) 元宇宙游泳教学辅助系统及其使用方法
CN110458076A (zh) 一种基于计算机视觉的教学方法及系统
CN114360052A (zh) 一种基于AlphaPose和关节点角度匹配算法的智能体感教练系统
CN116963807A (zh) 运动数据展示方法和系统
Liebermann et al. Video-based technologies
CN107592483B (zh) 一种智能辅助学习系统及方法
Kahtan et al. Motion analysis-based application for enhancing physical education
KR20090058803A (ko) 비디오운동 강습방법
Lanz et al. Facial movement dysfyctions: Conceptual design of a therapy-accompanying training system
LU100034B1 (en) Physical activity feedback

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant