CN102500094A - 一种基于kinect的动作训练方法 - Google Patents
一种基于kinect的动作训练方法 Download PDFInfo
- Publication number
- CN102500094A CN102500094A CN2011103349097A CN201110334909A CN102500094A CN 102500094 A CN102500094 A CN 102500094A CN 2011103349097 A CN2011103349097 A CN 2011103349097A CN 201110334909 A CN201110334909 A CN 201110334909A CN 102500094 A CN102500094 A CN 102500094A
- Authority
- CN
- China
- Prior art keywords
- action
- user
- training
- stage
- kinect
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Processing Or Creating Images (AREA)
Abstract
本发明是一种基于kinect的动作训练方法,通过kinect采集人体动作数据,实现无标记点的人体动作提取,使动作训练更加简单实用。基于kinect的动作训练方法分为在线动作训练和离线动作训练两种方式。在线动作训练能够自动把训练的动作划分为若干个阶段,用户通过跟随每一个阶段的提示,对动作进行学习,通过用户动作的动能和势能判断用户是否完成每一个阶段的动作,并自动计算并提示用户该动作阶段重要的关节点。离线动作训练方法中,用户首先自主地完成整个动作,用户动作通过kinect捕捉后自动与标准动作进行匹配,通过对匹配的动作进行对比分析并根据用户动作与标准动作骨骼方向上的差距大小以不同的颜色进行标识,使用户能够更直观地发现差距所在。
Description
技术领域
本发明涉及一种动作训练方法,特别涉及一种基于kinect的动作训练方法,属于虚拟现实领域。
背景技术
自动训练系统能够使用户能够在没有教练的情况下对动作进行学习和训练。但自动训练往往需要昂贵的设备支持,这也妨碍了自动训练系统步入普通的家庭。但是一些新型设备的出现使得原本很难实现的应用变成可能,例如微软的kinect,它能够实时的捕捉人体的姿态,并且它的价格便宜,能被大众所接受。因此可以把一些训练项目做成一个游戏应用,比如简单的舞蹈、健美操等,用户在娱乐的同时还能学习相应的技能。
Akio Nakamura等人设计了一套基础舞蹈训练系统,该系统由动作捕捉设备、移动的显示器以及附加在学员身上的震动器件组成。该训练系统通过动作捕捉设备获取教练舞蹈的动作数据,用动作数据生成动画图像显示在能够自动移动的显示器上,在训练时使用动作捕捉设备实时采集学员动作并与教练动作进行比较,用震动器提示学员动作与教练动作的差别。Doo Young Kwon等人使用体传感器以及摄像机作为视觉传感器设计了一套动作训练系统,该系统使用体传感器精确测量身体各部分的朝向、运动以及加速度,同时视觉传感器实时采集用户的图像,通过多种传感器结合,实现动作训练的功能。例如,用户手腕上的加速计测量不能通过肉眼观察到的精确朝向变化以及速度变化,用户通过比较自己动作与教练员动作的传感数据,分析动作的不足。
本发明实现了一个基于kinect的动作训练方法,它分为在线训练和离线训练两种方式。其不同点在于,在线训练时,能够自动把训练动作划分为若干个阶段,分阶段提示用户,并使用动作动能与势能的判断用户是否完成每一个阶段的动作,在每一个阶段,提示用户该动作阶段重要的关节点,用户通过跟随每一个阶段的动作提示,对动作进行学习。离线训练时,用户首先自主完成动作,训练系统自动将捕捉到的用户动作与标准动作进行匹配,将匹配的动作进行对比分析,根据用户动作与标准动作的骨骼方向的差距大小,在不同的骨骼上以不同的颜色进行标识,使用户能够更直观地发现差距所在。本发明具有真实,便利,方便等优点,使用的设备简单,使用户能够以一种虚实结合的方式学习相应的动作。
发明内容
本发明解决的技术问题:提出一种基于kinect的动作训练方法,它包括在线训练和离线训练两种方式。在线动作训练中,自动把训练动作划分为若干个阶段,通过动能与势能判断用户是否完成每一个阶段的动作,并自动提示每个阶段关键关节点;离线动作训练中,自动实现用户动作与标准动作的匹配,使用加权差距计算用户动作差距,并把动作的差距通过直观的方式呈现给用户。
本发明技术方案:一种基于kinect的动作训练方法,其特征在于如下步骤:
(1)用户选择所使用训练模式,训练方法分为在线动作训练和离线动作训练两种模式;所述在线动作训练用户将跟随虚拟教练员的提示完成动作训练,动作将被分解成若干个阶段,用户跟随每一个阶段的提示完成动作训练;所述离线动作训练是由用户自主完成动作,用户动作通过kinect捕捉后自动与标准动作进行对比分析,并向提示用户动作的差距;
(2)通过训练视图提示用户完成训练;所述训练视图分为动画视图及真实视图,动画视图中有两个角色模型,分别代表教练员及用户;教练员模型使用标准动作数据驱动,完成动作演示的功能,称之为虚拟教练员;用户模型使用采集的用户动作数据驱动,完成显示用户动作的功能;真实视图显示kinect采集的真实图片,在动作训练过程中用户能够通过真实视图观察自己的动作,真实视图还能在训练结束后回放用户动作。
进一步的,所述在线动作训练的步骤如下:
(1.a1)在线动作训练将一套将要进行训练的动作划分为若干个阶段,动作划分使用关键动作提取方法完成,并通过能量方法判断用户是否完成每一个阶段的动作;用户跟随动画视图中的虚拟教练员进行动作训练,当判断用户已经完成每个阶段的动作后,虚拟教练员自动提示下一个阶段的动作,用户通过跟随虚拟教练员依次完成每一个阶段的动作;
(1.a2)对于每一个阶段的动作,向用户提示该阶段动作需要注意的关键点,通过标记出较为重要的关节点提醒用户注意;关键点通过计算每个阶段各个关节点位移的均方差得到,取均方差最大的若干个关节点作为关键点,并提醒用户注意每个阶段的关键点。
进一步的,所述的关键动作提取方法的步骤为:
1.1.1使用重要度计算方法评价每帧动作的重要程度,首先通过帧Ft(k)的前一帧动作Ft(k-1)与后一帧动作Ft(k+1)插值得到Ft(k)的插值帧IFt(k),然后计算帧Ft(k)与IFt(k)的差距interplaterError,公式如下:
其中表示原始动作Ft(k)的第j个关节点,表示插值得到的动作IFt(k)的第j个关节点,其中jointNumber为动作关节点的个数,关节点之间的距离采用欧氏距离计算;最后动作Ft(k)的重要度Dt(k)的计算公式为:
Dt(k)=(Ft(k+1)-Ft(k-1))×interplaterError(Ft(k-1),Ft(k),Ft(k+1))/2;
1.1.2关键动作提取算法通过不断删除重要度较低的动作最后得到关键动作,在删除动作的过程中,会对动作的重要度进行更新,并且每次都会选择重要度最低的动作删除。
1.1.3使用基于静态双向链表和最小堆的复合堆数据结构进行优化,降低算法的时间复杂度。
进一步的,所述使用能量方法的的步骤为:
通过动作的势能判断用户动作与教练员动作的差距,当用户已经完成某个阶段动作后,与教练员的动作差距应较小;使用动作动能判断用户动作的稳定程度,当用户完成某个阶段的动作后,应等待虚拟教练员提示下一个阶段的动作,此时用户动作应较为稳定;当用户的动作满足动能和势能分别小于预定阈值时,虚拟教练员将提示下一个阶段的动作。
进一步的,所述离线动作训练的步骤为:
(1.b1))进行训练时,虚拟教练员首先完成动作演示,然后用户自主完成动作,在动作过程中kinect自动采集用户动作数据,在用户完成动作后将用户动作与标准动作数据进行对比,并在动画视图中显示对比结果;对比结果分上下两排显示,上排为采样后的标准动作数据,下排为采样的用户动作,动作差距在用户模型骨骼上以不同的颜色标识;
(1.b2)使用动态规划算法对用户动作与标准动作进行匹配;用户动作与标准动作要进行匹配后才能进行比较,离线动作训练以用户动作与标准动作的差距作为匹配代价,使用动态规划算法,对采集动作数据与标准动作数据进行匹配,使得两个动作序列进行匹配后的总代价最小;
(1.b3)在计算用户动作与标准动作的差距时,将计算用户动作与标准动作所有对应骨骼的方向差距,方向差距使用骨骼长度进行加权,称之为加权差距;根据加权差距的大小,把用户动作与标准动作的差距分为无偏差、中等偏差、严重偏差,并分别使用绿色、蓝色、红色在对应的骨骼上进行标识。
本发明与现有技术相比的优点在于:
(1)本发明利用虚实结合的方式进行动作训练,通过虚拟教练的演示,用户可以对动作进行学习,与传统的技术如基于视频的动作训练技术相比,基于kinect的动作训练能够采集真实数据进行比较、评价,并指明应该改进的方向。
(2)使用的设备简单,甚至安装过程也非常简单,用户只需要有一台kinect传感器,在家用PC上就能进行动作训练。本发明的实时性好,能够进行在线和离线的动作训练。
附图说明
图1为在线动作训练示意图;
图2为关键动作提取代价函数示意图;
图3为复合堆数据结构示意图;
图4为离线动作训练示意图;
图5为基于kinect的动作训练方法示意图。
具体实施方式
为了更好的理解本发明的技术方案,以下结合附图和实施示例做进一步详细叙述。
1、在线训练方法的步骤如下:
在线训练首先自动把动作划分为若干个关键的阶段,当用户完成一个阶段的动作后,自动提示下一个阶段的动作,在提示每个阶段的动作时,对每个阶段的关键关节点进行提示。以一个将手提起并伸展的动作为例,图1为在线训练的示意图,每一行对应一个关键动作。最左边一列是使用kinect采集的动作数据实时驱动三维模型的结果,中间一列是标准动作数据驱动三维模型的结果,右边是kinect采集的彩色图片。当用户的动作到达左列的各个姿势时,已经大致完成每个阶段的动作,此时将向用户提示下一个阶段的动作,并向用户提示下一个阶段的关键关节点,如中间一列标准动作中被圈中的关节点。具体实现如下:
1)使用关键动作提取算法对标准动作进行动作阶段划分,首先提取动作序列的关键动作,两个关键动作之间的动作是从一个关键动作变化到更一个关键动作的过程,因此把两个关键动作之间的动作定义为一个阶段,只要算出动作序列的关键动作,就能对原始序列进行阶段划分。假设原始动作序列包含n帧动作,当删除n-t帧动作后得到当前动作序列,它包含t帧动作。如图2所示,Ft(k)表示Ft中的第k帧动作在原始动作序列中的序号,而Ft(k-1)和Ft(k+1)分别表示Ft(k)的前一个动作以及下一个动作在原始动作序列Fn中的序号,则Ft(k)的重要度,也就是删除Ft(k)的代价Dt(k)如公式所示:
Dt(k)=(Ft(k+1)-Ft(k-1))×interplaterError(Ft(k-1),Ft(k),Ft(k+1))/2
interplaterError(Ft(k-1),Ft(k),Ft(k+1))表示通过动作Ft(k-1)和Ft(k+1)插值得到动作IFt(k)与动作Ft(k)的差距,其中插值的方法是对关节点的位置进行线性插值,然后计算插值得到的插值动作IFt(k)与原始动作Ft(k)的差距:
其中表示原始动作Ft(k)的第j个关节点,表示插值得到的动作IFt(k)的第j个关节点。注意,如果动作Ft(k)被删除后,则需要对Ft(k-1)和Ft(k+1)的代价进行更新,因为当动作Ft(k)被删除后,动作Ft(k-1)代价需要通过动作Ft(k-2)和动作Ft(k+1)计算,而动作Ft(k+1)的代价通过动作Ft(k-1)和动作Ft(k+2)计算。算法的步骤为:
Step1.计算Fn中每一个动作的代价Dn(k);
Step2.假定当前动作数量为t,代价最小的动作为Ft(k),把Ft(k)从Ft中删除;
Step3.计算更新Ft(k-1)和Ft(k+1)的代价;
Step4.如果得到指定的关键动作数量,则退出,否则转到Step2。
在上述算法步骤中,使用复合堆数据结构进行优化,提高算法效率。复合堆由静态双向链表和最小堆两种数据结构构成。如图3所示,静态双向链表包含n个DoubleListNode结点,用静态数组实现,其中第i个节点保存的是第i个动作的信息。DoubleListNode结构包含prev,next,heapPos三个元素,其中prev指向前一个动作,next指向后一个动作,这两个元素用于在删除部分重要度低的动作后的动作序列中快速查找到某个动作对应的前驱和后继在原始序列中的序号。如关键动作提取算法所述,动作Ft(k)被删除后,需要更新该动作前趋Ft(k-1)和后继Ft(k+1)的代价。当更新动作的代价时,需要调整前趋Ft(k-1)和后继Ft(k+1)在最小堆中的位置,使用heapPos能够快速找到动作在最小堆中的位置(最小堆的作用,在于将最小代价动作放在顶端,这样只要把顶端取出,就可以得到代价最小的动作)。对于最小堆节点HeapNode,它有两个元素,其中frameId表示当前节点对应的动作序号,它直接指向动作在静态双向链表中的位置,deleteCost表示删除该动作的代价,也就是该动作的重要度,根据deleteCost的大小调整动作在最小堆中的位置。通过最小堆能够快速找到重要度最低的动作。调整的方法分为上浮和下沉,目的是保持最小堆中节点的deleteCost值比它的左右孩子的deleteCost值都要小这一性质,具体的调整方法是:
a.上浮,当节点的deleteCost比父亲节点的deleteCost小,则该节点与父亲节点交换,直到该节点的deleteCost大于父亲节点的deleteCost。
b.下沉,当节点的deleteCost比左右孩子中deleteCost较小的节点的deleteCost要大时,则交换该节点与deleteCost较小的孩子节点,直到节点的deleteCost比左右孩子的deleteCost大。
2)使用动能和势能来判断用户是否完成某一个阶段的动作,判断的标准是用户的动作满足低动能状态以及与目标动作成低势能状态。
a.动能,通过均方差定义动作的动能,保存最新采集的msize个动作,也就是维护一个msize大小的窗口,当采集到一个新的动作时,替换掉窗口中最早采集的动作。表示窗口中第i帧第j个关节点的位置,表示窗口所有msize帧第j个关节点位置的平均值。当kinetic小于特定的阈值σkinetic时,表示用户处于低动能。
b.势能分为相对势能以及绝对势能。定义用户动作p的关节点pjointi∈p与所对应的标准动作s的关节点sjointi∈s的距离为dist(sjointi,pjointi),用户动作p与标准动作s的距离可以通过公式计算,其中距离dist使用欧氏距离计算,当d(s,p)小于阈值σpotential,表明用户动作p相对标准动作s满足低绝对势能。相对势能,设标准动作序列S={s1,s2,...sn}的关键动作为F={sf(1),sf(2),sf(3)...sf(t)},由于根据关键动作对动作序列进行阶段划分,因此每个阶段的第一个动作为关键动作。当前用户动作p对于关键动作sf(i)满足低相对势能的条件为:计算用户当前完成的动作p为与F集合中的每一个关键动作的距离,得到距离序列D={df(1),df(2),df(3)...df(t)},距离df(i)比D中其它的值都小,表明动作对于关键动作sf(i)满足低势能状态。当用户动作与下一个阶段的关键动作sf(i+1)满足低势能状态时,则表明用户已经完成当前阶段的动作。
3)根据动作过程中关节点位置的变化幅度计算关键关节点,并提醒用户进行关注,其中变化幅度使用均方差进行计算,对于每个阶段的动作,计算关节点在该阶段动作坐标位置的均方差:
其中n表示该动作阶段的帧数,表示关节点i在该阶段第k帧的位置,表示关节点i在该阶段位置的均值。计算出均方差后,选择均方差值较大的m个关节点作为提示的关节点,并在该阶段的动作过程中向用户提示。m的值设定为2~3个,这是因为用户通常不能同时关注过多的关节点。
2、离线动作训练指用户自主完成动作,然后自动对用户的动作作出评价。由于用户动作采集帧数与标准动作帧数不同或者用户完成动作的速率与标准动作不完全一致等原因,两个动作序列不能直接进行比较,需要对动作序列进行匹配后进行比较,通过加权差距计算用户动作与标准动作的差距。离线动作训练如图4所示,上排为标准动作数据,下排为kinect采集的用户动作,用户动作与标准动作的差距在骨骼上以不同的颜色标识,其中绿色表示差距较小,蓝色表示差距不大,红色表示差距较大。
(1)其中动作序列匹配的具体实现如下。
Step1.设标准动作序列S={s1,s2,...sn}以及采集到的用户动作序列P={p1,p2,...pm}。首先建立一个n×m的网格,它的行表示标准动作,它的列表示用户动作,格点的权值cost[i][j](1≤i≤n,1≤j≤m)表示用户的动作pj与标准动作si的匹配代价d(si,pj),问题转化为求取从网格(1,1)找到一条走到对端的路径path={x1y1,x2y2,...xtyt},其中x1=1,y1=1并且xt=n或者yt=m,使得该路径的平均代价最小,这里xtyt为路径的最后一个格点,而max(xt,yt)表示最后一个格点所在的行数和所在的列数中取最大的数,并且该路径满足连续、因果关系、斜率限制三个条件:
a.连续,路径上的格点必须与路径上的某些格点共享一个顶点或一条边。
b.因果关系,路径不能反向,它们的方向必须是向右、向下或者向右下方前进。
c.斜率限制,路径上最多有w-1个连续的水平朝向的格点或w个连续的竖直朝向的格点,也就是每个标准动作最多与w个用户动作相匹配以及每个用户动作最多与w个标准动作相匹配,w的取值为3。
Step 2.对网格进行动态规划,计算最优路径,它的状态转移方程为:
其中dp_match_seq[i][j]表示标准动作第1到第i帧与用户动作第1到第j帧进行匹配的最优匹配代价,len是为了满足斜率限制而定义的枚举变量,其枚举的范围为0到w-1,表示标准动作第w-1帧到第i帧与用户动作第j帧匹配的匹配代价,表示标准动作第i帧与用户动作第j-len到第j帧匹配的匹配代价。在动作规划过程中,使用另一个数组pre_match_seq[i][j]保存最优解的前驱,根据它求得最优的匹配序列。
Step 3.设该最优路径为path={x1y1,x2y2,...xtyt},表示标准动作与用户动作相匹配,用户动作序列的评价根据对匹配动作的分析比较得到。注意,两个动作序列并不一定是完全匹配的,也就是不保证xt=n并且yt=m,因此当xt=n时,可以令所有i>yt的动作pt与动作sn匹配;否则当yt=m时,可以令所有i>xt的动作si与动作pm匹配。
(2)动作差距提示的具体实现如下:
Step 1对匹配动作序列进行等间隔采样。
Step 2计算骨骼方向的差距,动作的差距体现在骨骼方向的差距,但是由于骨骼长度不同,在同样的角度差距下,不同长度的骨骼对动作的影响也会不同,从感观上较长的骨骼的影响将较大。
dis(ski,sk′i)=angle(ski,sk′i)×length(ski)
其中,ski表示标准动作中第i根骨骼的矢量表示,sk′i表示用户动作的第i根骨骼的矢量表示,它与ski相对应;angle(ski,sk′i)=acos(dot_multiply(ski,sk′i)/length(ski)/length(sk′i)),它表示两个骨骼ski与sk′i方向夹角,以弧度表示,其中dot_multiply计算两个向量的点积,length计算向量的长度,acos为反余弦函数;length(ski)表示骨骼ski的长度,由于用户动作以及标准动作经过重定向处理,length(ski)与length(sk′i)相等。
Step 3根据dis(ski,sk′i)的大小,把骨骼方向的差距分为三个不同的层次,并使用不同的颜色标识。当dis<σ1时可以看作两个骨骼的无偏差,标定颜色为绿色;σ1≤dis<σ2为细微偏差,标定颜色为蓝色;而dis≥σ2为严重偏差,标定颜色为红色。其中σ1、σ2为预设的阈值并且σ1<σ2,它根据骨骼的不同会有所变化。
Claims (5)
1.一种基于kinect的动作训练方法,其特征在于如下步骤:
(1)用户选择所使用训练模式,训练方法分为在线动作训练和离线动作训练两种模式;所述在线动作训练用户将跟随虚拟教练员的提示完成动作训练,动作将被分解成若干个阶段,用户跟随每一个阶段的提示完成动作训练;所述离线动作训练是由用户自主完成动作,用户动作通过kinect捕捉后自动与标准动作进行对比分析,并向提示用户动作的差距;
(2)通过训练视图提示用户完成训练;所述训练视图分为动画视图及真实视图,动画视图中有两个角色模型,分别代表教练员及用户;教练员模型使用标准动作数据驱动,完成动作演示的功能,称之为虚拟教练员;用户模型使用采集的用户动作数据驱动,完成显示用户动作的功能;真实视图显示kinect采集的真实图片,在动作训练过程中用户能够通过真实视图观察自己的动作,真实视图还能在训练结束后回放用户动作。
2.根据权利要求1所述基于kinect的动作训练方法,其特征在于所述在线动作训练的步骤如下:
(1.a1)在线动作训练将一套将要进行训练的动作划分为若干个阶段,动作划分使用关键动作提取方法完成,并通过能量方法判断用户是否完成每一个阶段的动作;用户跟随动画视图中的虚拟教练员进行动作训练,当判断用户已经完成每个阶段的动作后,虚拟教练员自动提示下一个阶段的动作,用户通过跟随虚拟教练员依次完成每一个阶段的动作;
(1.a2)对于每一个阶段的动作,向用户提示该阶段动作需要注意的关键点,通过标记出较为重要的关节点提醒用户注意;关键点通过计算每个阶段各个关节点位移的均方差得到,取均方差最大的若干个关节点作为关键点,并提醒用户注意每个阶段的关键点。
3.根据权利要求2所述基于kinect的动作训练方法,其特征在于所述的关键动作提取方法的步骤为:
1.a1.1使用重要度计算方法评价每帧动作的重要程度,首先通过帧Ft(k)的前一帧动作Ft(k-1)与后一帧动作Ft(k+1)插值得到Ft(k)的插值帧IFt(k),然后计算帧Ft(k)与IFt(k)的差距interplaterError,公式如下:
其中表示原始动作Ft(k)的第j个关节点,表示插值得到的动作IFt(k)的第j个关节点,其中jointNumber为动作关节点的个数,关节点之间的距离采用欧氏距离计算;最后动作Ft(k)的重要度Dt(k)的计算公式为:
Dt(k)=(Ft(k+1)-Ft(k-1))×interplaterError(Ft(k-1),Ft(k),Ft(k+1))/2;
1.a1.2关键动作提取算法通过不断删除重要度较低的动作最后得到关键动作,在删除动作的过程中,会对动作的重要度进行更新,并且每次都会选择重要度最低的动作删除;
1.a1.3使用基于静态双向链表和最小堆的复合堆数据结构进行优化,降低算法的时间复杂度。
4.根据权利要求2所述基于kinect的动作训练方法,其特征在于所使用能量方法的步骤为:
通过动作的势能判断用户动作与教练员动作的差距,当用户已经完成某个阶段动作后,与教练员的动作差距应较小;使用动作动能判断用户动作的稳定程度,当用户完成某个阶段的动作后,应等待虚拟教练员提示下一个阶段的动作,此时用户动作应较为稳定;当用户的动作满足动能和势能分别小于预定阈值时,虚拟教练员将提示下一个阶段的动作。
5.如权利要求1所述的基于kinect的动作训练方法,其特征在于所述离线动作训练的步骤为:
(1.b1))进行训练时,虚拟教练员首先完成动作演示,然后用户自主完成动作,在动作过程中kinect自动采集用户动作数据,在用户完成动作后将用户动作与标准动作数据进行对比,并在动画视图中显示对比结果;对比结果分上下两排显示,上排为采样后的标准动作数据,下排为采样的用户动作,动作差距在用户模型骨骼上以不同的颜色标识;
(1.b2)使用动态规划算法对用户动作与标准动作进行匹配;用户动作与标准动作要进行匹配后才能进行比较,离线动作训练以用户动作与标准动作的差距作为匹配代价,使用动态规划算法,对采集动作数据与标准动作数据进行匹配,使得两个动作序列进行匹配后的总代价最小;
(1.b3)在计算用户动作与标准动作的差距时,将计算用户动作与标准动作所有对应骨骼的方向差距,方向差距使用骨骼长度进行加权,称之为加权差距;根据加权差距的大小,把用户动作与标准动作的差距分为无偏差、中等偏差、严重偏差,并分别使用绿色、蓝色、红色在对应的骨骼上进行标识。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN 201110334909 CN102500094B (zh) | 2011-10-28 | 2011-10-28 | 一种基于kinect的动作训练方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN 201110334909 CN102500094B (zh) | 2011-10-28 | 2011-10-28 | 一种基于kinect的动作训练方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN102500094A true CN102500094A (zh) | 2012-06-20 |
CN102500094B CN102500094B (zh) | 2013-10-30 |
Family
ID=46212266
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN 201110334909 Expired - Fee Related CN102500094B (zh) | 2011-10-28 | 2011-10-28 | 一种基于kinect的动作训练方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN102500094B (zh) |
Cited By (33)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102727362A (zh) * | 2012-07-20 | 2012-10-17 | 上海海事大学 | 基于体感外设手臂运动追踪的康复训练系统及其训练方法 |
CN102801924A (zh) * | 2012-07-20 | 2012-11-28 | 合肥工业大学 | 一种基于Kinect的电视节目主持互动系统 |
CN102824176A (zh) * | 2012-09-24 | 2012-12-19 | 南通大学 | 一种基于Kinect传感器的上肢关节活动度测量方法 |
CN103706106A (zh) * | 2013-12-30 | 2014-04-09 | 南京大学 | 一种基于Kinect的自适应连续动作训练方法 |
CN104317386A (zh) * | 2014-06-25 | 2015-01-28 | 西南科技大学 | 一种姿势序列有限状态机动作识别方法 |
CN104616336A (zh) * | 2015-02-26 | 2015-05-13 | 苏州大学 | 一种动画构建方法及装置 |
CN104720811A (zh) * | 2015-04-03 | 2015-06-24 | 西南大学 | 一种利用普通体感相机非接触式测量呼吸率的方法 |
CN103258078B (zh) * | 2013-04-02 | 2016-03-02 | 上海交通大学 | 融合Kinect设备和Delmia环境的人机交互虚拟装配系统及装配方法 |
CN105635669A (zh) * | 2015-12-25 | 2016-06-01 | 北京迪生数字娱乐科技股份有限公司 | 基于三维运动捕捉数据与实拍视频的动作对比系统及方法 |
CN105791698A (zh) * | 2016-04-22 | 2016-07-20 | 周口职业技术学院 | 一种舞蹈训练判定系统及方法 |
CN105912985A (zh) * | 2016-04-01 | 2016-08-31 | 上海理工大学 | 基于能量函数的人体骨架关节点的行为动作表示方法 |
CN106066996A (zh) * | 2016-05-27 | 2016-11-02 | 上海理工大学 | 人体动作的局部特征表示方法及其在行为识别的应用 |
CN106464773A (zh) * | 2014-03-20 | 2017-02-22 | 2Mee有限公司 | 增强现实的装置及方法 |
CN106446569A (zh) * | 2016-09-29 | 2017-02-22 | 宇龙计算机通信科技(深圳)有限公司 | 一种运动指导方法和终端 |
CN107240049A (zh) * | 2017-05-10 | 2017-10-10 | 中国科学技术大学先进技术研究院 | 一种沉浸式环境中远程动作教学质量的自动评价方法和系统 |
CN107247924A (zh) * | 2017-05-19 | 2017-10-13 | 安徽信息工程学院 | 基于Kinect的动作比对系统和比对方法 |
CN107469293A (zh) * | 2016-06-08 | 2017-12-15 | 上海体育学院 | 一种乒乓球运动裁判训练系统 |
CN107679522A (zh) * | 2017-10-31 | 2018-02-09 | 内江师范学院 | 基于多流lstm的动作识别方法 |
CN107694046A (zh) * | 2017-07-19 | 2018-02-16 | 咪咕互动娱乐有限公司 | 一种健身运动训练方法、装置及计算机可读存储介质 |
CN108205654A (zh) * | 2017-09-30 | 2018-06-26 | 北京市商汤科技开发有限公司 | 一种基于视频的动作检测方法及装置 |
CN108519822A (zh) * | 2018-03-29 | 2018-09-11 | 北京微播视界科技有限公司 | 基于人机交互的动作匹配系统、方法、存储介质及交互装置 |
CN108536293A (zh) * | 2018-03-29 | 2018-09-14 | 北京字节跳动网络技术有限公司 | 人机交互系统、方法、计算机可读存储介质及交互装置 |
CN108853946A (zh) * | 2018-07-10 | 2018-11-23 | 燕山大学 | 一种基于Kinect的健身指导训练系统及方法 |
CN109011517A (zh) * | 2018-08-15 | 2018-12-18 | 成都大学 | 关节康复训练设备 |
CN109248414A (zh) * | 2018-09-30 | 2019-01-22 | 深圳市科迈爱康科技有限公司 | 运动训练提醒方法、装置、设备以及可读存储介质 |
CN109409199A (zh) * | 2018-08-31 | 2019-03-01 | 百度在线网络技术(北京)有限公司 | 微表情训练方法、装置、存储介质及电子设备 |
CN109470263A (zh) * | 2018-09-30 | 2019-03-15 | 北京诺亦腾科技有限公司 | 动作捕捉方法、电子设备以及计算机存储介质 |
CN109550209A (zh) * | 2017-09-26 | 2019-04-02 | 本田技研工业株式会社 | 动作矫正装置及动作矫正方法 |
CN109684943A (zh) * | 2018-12-07 | 2019-04-26 | 北京首钢自动化信息技术有限公司 | 一种运动员辅助训练数据获取方法、装置及电子设备 |
CN109977890A (zh) * | 2019-03-30 | 2019-07-05 | 骞一凡 | 一种动作识别的方法及其识别系统 |
CN111179385A (zh) * | 2019-12-31 | 2020-05-19 | 网易(杭州)网络有限公司 | 一种舞蹈动画的处理方法及装置、电子设备、存储介质 |
CN113952700A (zh) * | 2021-11-22 | 2022-01-21 | 深圳市天鹏宇科技有限公司 | 一种智能健身交互系统以及智能健身远程指导系统 |
CN114783045A (zh) * | 2021-01-06 | 2022-07-22 | 北京航空航天大学 | 基于虚拟现实的动作训练检测方法、装置、设备及介质 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN2113795U (zh) * | 1991-12-18 | 1992-08-26 | 李于 | 单人十功能组合训练器 |
CN2419634Y (zh) * | 2000-03-03 | 2001-02-14 | 郭永胜 | 电脑后像增视仪的数码计数训练机构 |
DE10125653C1 (de) * | 2001-05-25 | 2002-11-07 | Siemens Ag | Vorrichtung zur interaktiven Rehabilitationsunterstützung mit Gestikerkennung |
GB2447915A (en) * | 2007-03-24 | 2008-10-01 | James Adam Ryder | Fitness training program creator |
CN201823234U (zh) * | 2010-07-21 | 2011-05-11 | 四川阳光文化企业有限责任公司 | 新型坐姿划船训练器 |
-
2011
- 2011-10-28 CN CN 201110334909 patent/CN102500094B/zh not_active Expired - Fee Related
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN2113795U (zh) * | 1991-12-18 | 1992-08-26 | 李于 | 单人十功能组合训练器 |
CN2419634Y (zh) * | 2000-03-03 | 2001-02-14 | 郭永胜 | 电脑后像增视仪的数码计数训练机构 |
DE10125653C1 (de) * | 2001-05-25 | 2002-11-07 | Siemens Ag | Vorrichtung zur interaktiven Rehabilitationsunterstützung mit Gestikerkennung |
GB2447915A (en) * | 2007-03-24 | 2008-10-01 | James Adam Ryder | Fitness training program creator |
CN201823234U (zh) * | 2010-07-21 | 2011-05-11 | 四川阳光文化企业有限责任公司 | 新型坐姿划船训练器 |
Cited By (47)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102727362A (zh) * | 2012-07-20 | 2012-10-17 | 上海海事大学 | 基于体感外设手臂运动追踪的康复训练系统及其训练方法 |
CN102801924A (zh) * | 2012-07-20 | 2012-11-28 | 合肥工业大学 | 一种基于Kinect的电视节目主持互动系统 |
CN102727362B (zh) * | 2012-07-20 | 2014-09-24 | 上海海事大学 | 基于体感外设手臂运动追踪的康复训练系统及其训练方法 |
CN102801924B (zh) * | 2012-07-20 | 2014-12-03 | 合肥工业大学 | 一种基于Kinect的电视节目主持互动系统 |
CN102824176A (zh) * | 2012-09-24 | 2012-12-19 | 南通大学 | 一种基于Kinect传感器的上肢关节活动度测量方法 |
CN102824176B (zh) * | 2012-09-24 | 2014-06-04 | 南通大学 | 一种基于Kinect传感器的上肢关节活动度测量方法 |
CN103258078B (zh) * | 2013-04-02 | 2016-03-02 | 上海交通大学 | 融合Kinect设备和Delmia环境的人机交互虚拟装配系统及装配方法 |
CN103706106A (zh) * | 2013-12-30 | 2014-04-09 | 南京大学 | 一种基于Kinect的自适应连续动作训练方法 |
CN103706106B (zh) * | 2013-12-30 | 2015-12-30 | 南京大学 | 一种基于Kinect的自适应连续动作训练方法 |
CN106464773B (zh) * | 2014-03-20 | 2021-02-19 | 2Mee有限公司 | 增强现实的装置及方法 |
CN106464773A (zh) * | 2014-03-20 | 2017-02-22 | 2Mee有限公司 | 增强现实的装置及方法 |
CN104317386A (zh) * | 2014-06-25 | 2015-01-28 | 西南科技大学 | 一种姿势序列有限状态机动作识别方法 |
CN104317386B (zh) * | 2014-06-25 | 2017-08-04 | 西南科技大学 | 一种姿势序列有限状态机动作识别方法 |
CN104616336A (zh) * | 2015-02-26 | 2015-05-13 | 苏州大学 | 一种动画构建方法及装置 |
CN104616336B (zh) * | 2015-02-26 | 2018-05-01 | 苏州大学 | 一种动画构建方法及装置 |
CN104720811A (zh) * | 2015-04-03 | 2015-06-24 | 西南大学 | 一种利用普通体感相机非接触式测量呼吸率的方法 |
CN105635669B (zh) * | 2015-12-25 | 2019-03-01 | 北京迪生数字娱乐科技股份有限公司 | 基于三维运动捕捉数据与实拍视频的动作对比系统及方法 |
CN105635669A (zh) * | 2015-12-25 | 2016-06-01 | 北京迪生数字娱乐科技股份有限公司 | 基于三维运动捕捉数据与实拍视频的动作对比系统及方法 |
CN105912985A (zh) * | 2016-04-01 | 2016-08-31 | 上海理工大学 | 基于能量函数的人体骨架关节点的行为动作表示方法 |
CN105791698A (zh) * | 2016-04-22 | 2016-07-20 | 周口职业技术学院 | 一种舞蹈训练判定系统及方法 |
CN106066996A (zh) * | 2016-05-27 | 2016-11-02 | 上海理工大学 | 人体动作的局部特征表示方法及其在行为识别的应用 |
CN106066996B (zh) * | 2016-05-27 | 2019-07-30 | 上海理工大学 | 人体动作的局部特征表示方法及其在行为识别的应用 |
CN107469293A (zh) * | 2016-06-08 | 2017-12-15 | 上海体育学院 | 一种乒乓球运动裁判训练系统 |
CN106446569A (zh) * | 2016-09-29 | 2017-02-22 | 宇龙计算机通信科技(深圳)有限公司 | 一种运动指导方法和终端 |
CN107240049A (zh) * | 2017-05-10 | 2017-10-10 | 中国科学技术大学先进技术研究院 | 一种沉浸式环境中远程动作教学质量的自动评价方法和系统 |
CN107240049B (zh) * | 2017-05-10 | 2020-04-03 | 中国科学技术大学先进技术研究院 | 一种沉浸式环境中远程动作教学质量的自动评价方法和系统 |
CN107247924A (zh) * | 2017-05-19 | 2017-10-13 | 安徽信息工程学院 | 基于Kinect的动作比对系统和比对方法 |
CN107694046A (zh) * | 2017-07-19 | 2018-02-16 | 咪咕互动娱乐有限公司 | 一种健身运动训练方法、装置及计算机可读存储介质 |
CN109550209A (zh) * | 2017-09-26 | 2019-04-02 | 本田技研工业株式会社 | 动作矫正装置及动作矫正方法 |
CN108205654A (zh) * | 2017-09-30 | 2018-06-26 | 北京市商汤科技开发有限公司 | 一种基于视频的动作检测方法及装置 |
CN107679522A (zh) * | 2017-10-31 | 2018-02-09 | 内江师范学院 | 基于多流lstm的动作识别方法 |
CN107679522B (zh) * | 2017-10-31 | 2020-10-13 | 内江师范学院 | 基于多流lstm的动作识别方法 |
CN108536293A (zh) * | 2018-03-29 | 2018-09-14 | 北京字节跳动网络技术有限公司 | 人机交互系统、方法、计算机可读存储介质及交互装置 |
CN108519822A (zh) * | 2018-03-29 | 2018-09-11 | 北京微播视界科技有限公司 | 基于人机交互的动作匹配系统、方法、存储介质及交互装置 |
CN108536293B (zh) * | 2018-03-29 | 2020-06-30 | 北京字节跳动网络技术有限公司 | 人机交互系统、方法、计算机可读存储介质及交互装置 |
CN108853946A (zh) * | 2018-07-10 | 2018-11-23 | 燕山大学 | 一种基于Kinect的健身指导训练系统及方法 |
CN109011517A (zh) * | 2018-08-15 | 2018-12-18 | 成都大学 | 关节康复训练设备 |
CN109409199B (zh) * | 2018-08-31 | 2021-01-12 | 百度在线网络技术(北京)有限公司 | 微表情训练方法、装置、存储介质及电子设备 |
CN109409199A (zh) * | 2018-08-31 | 2019-03-01 | 百度在线网络技术(北京)有限公司 | 微表情训练方法、装置、存储介质及电子设备 |
CN109248414A (zh) * | 2018-09-30 | 2019-01-22 | 深圳市科迈爱康科技有限公司 | 运动训练提醒方法、装置、设备以及可读存储介质 |
CN109470263A (zh) * | 2018-09-30 | 2019-03-15 | 北京诺亦腾科技有限公司 | 动作捕捉方法、电子设备以及计算机存储介质 |
CN109248414B (zh) * | 2018-09-30 | 2021-08-10 | 深圳市科迈爱康科技有限公司 | 运动训练提醒方法、装置、设备以及可读存储介质 |
CN109684943A (zh) * | 2018-12-07 | 2019-04-26 | 北京首钢自动化信息技术有限公司 | 一种运动员辅助训练数据获取方法、装置及电子设备 |
CN109977890A (zh) * | 2019-03-30 | 2019-07-05 | 骞一凡 | 一种动作识别的方法及其识别系统 |
CN111179385A (zh) * | 2019-12-31 | 2020-05-19 | 网易(杭州)网络有限公司 | 一种舞蹈动画的处理方法及装置、电子设备、存储介质 |
CN114783045A (zh) * | 2021-01-06 | 2022-07-22 | 北京航空航天大学 | 基于虚拟现实的动作训练检测方法、装置、设备及介质 |
CN113952700A (zh) * | 2021-11-22 | 2022-01-21 | 深圳市天鹏宇科技有限公司 | 一种智能健身交互系统以及智能健身远程指导系统 |
Also Published As
Publication number | Publication date |
---|---|
CN102500094B (zh) | 2013-10-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN102500094A (zh) | 一种基于kinect的动作训练方法 | |
CN105512621B (zh) | 一种基于Kinect的羽毛球动作指导系统 | |
US11120640B1 (en) | Fusion method for movements of teacher in teaching scene | |
CN100440257C (zh) | 一种虚拟人群运动的三维可视化方法 | |
CN101458434B (zh) | 精确测量和预测乒乓球轨迹系统 | |
CN102184541B (zh) | 多目标优化人体运动跟踪方法 | |
CN107349594A (zh) | 一种虚拟舞蹈系统的动作评价方法 | |
CN109011508A (zh) | 一种智能教练系统及方法 | |
CN104408760B (zh) | 一种基于双目视觉的高精度虚拟装配系统算法 | |
CN102207771A (zh) | 推断参与运动捕捉系统的用户意图 | |
CN102184009A (zh) | 跟踪系统中的手位置后处理精炼 | |
CN109345614B (zh) | 基于深度强化学习的ar增强现实大屏互动的动画仿真方法 | |
CN105957105A (zh) | 基于行为学习的多目标跟踪方法及系统 | |
CN105912991A (zh) | 基于3d点云与关键骨骼节点的行为识别 | |
CN109815930A (zh) | 一种动作模仿拟合度评价方法 | |
CN107240049A (zh) | 一种沉浸式环境中远程动作教学质量的自动评价方法和系统 | |
CN104038799A (zh) | 一种面向立体电视的手势操控方法 | |
Lin et al. | Balancing and reconstruction of segmented postures for humanoid robots in imitation of motion | |
CN102693549A (zh) | 一种虚拟人群运动的三维可视化方法 | |
CN106073793A (zh) | 基于微惯性传感器的姿态跟踪与识别方法 | |
Kumrai et al. | Human activity recognition with deep reinforcement learning using the camera of a mobile robot | |
CN109833608B (zh) | 一种基于3d体感摄像头的舞蹈动作教辅方法及系统 | |
CN102930250B (zh) | 一种多尺度条件随机场模型的动作识别方法 | |
CN110523067A (zh) | 一种用于体育训练用定位标志装置及其使用方法 | |
CN107563490A (zh) | 一种基于关注力模型的人群多样性仿真方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20131030 Termination date: 20201028 |
|
CF01 | Termination of patent right due to non-payment of annual fee |