CN102855639B - 一种运动捕捉数据的关键帧提取方法 - Google Patents
一种运动捕捉数据的关键帧提取方法 Download PDFInfo
- Publication number
- CN102855639B CN102855639B CN201210298734.3A CN201210298734A CN102855639B CN 102855639 B CN102855639 B CN 102855639B CN 201210298734 A CN201210298734 A CN 201210298734A CN 102855639 B CN102855639 B CN 102855639B
- Authority
- CN
- China
- Prior art keywords
- frame
- cluster
- similarity
- motion
- clustering
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Landscapes
- Image Analysis (AREA)
Abstract
本发明公开了一种用于被动式光学人体运动捕捉数据中关键帧提取方法。通过分层使用聚类方法,初次聚类得到初始分类数目和初始类划分等第二次聚类所需的阈值,然后采用动态的无监督聚类算法ISODATA再次自动提取聚类,而无需人工预定义阈值。最后得到比较合理的聚类,并提取出离聚类中心最近的运动帧作为关键帧。本发明在得到较理想的关键帧的同时,能够满足运动捕捉的实时性要求。
Description
技术领域 本发明涉及一种运动捕捉数据的关键帧提取方法,属于图像处理技术领域。
背景技术 由于运动捕捉技术获得的动画具有高度的逼真性,20世纪70年代末,运动捕捉技术已经应用于人体动画的制作,而在过去的十年里,随着计算机技术的迅猛发展,使得基于运动捕获技术的角色动画制作已经逐渐代替传统的关键帧、过程模拟、动力学等计算机动画制作方法,成为制作三维计算机动画的主流方法,同时也成为计算机图形学领域的一大热点,该技术被广泛应用于电影广告、数字娱乐、体育仿真等领域。在具体动画制作过程中,动画师将运动捕获设备捕获得到的真实感的角色运动数据应用在动画角色身上,以此制作完成具有很强真实感的计算机动画。值得一提的是,虚拟角色运动的逼真性往往能掩盖其角色模型本身的粗糙感和不真实性,这大大改善了最后制作完成的计算机动画的视觉效果。
运动捕捉的分类方法有很多种。从应用角度来看,可以分为表情捕捉和身体运动捕捉两类;从实时性来看,可以分为实时捕捉系统和非实时捕捉系统两类;而从工作原理角度来看,则可分为机械式、声学式、电磁式和光学式。不同原理的设备各有其优缺点,主要体现在定位精度、实时性、使用方便程度、可捕捉运动范围大小、成本、干扰性、多目标捕捉能力等方面。常用的光学式运动捕捉的优点是表演者活动范围大,无电缆、机械装置的限制,表演者可以自由地表演,使用很方便。其采样速率较高,可以满足多数高速运动测量的需要。而这种方法的缺点是,在使用这种技术的过程中,由于标记点经常会被遮挡或者混淆,运动信息往往会缺失或者计算产生错误,发生这种情况后,需要后期进行人工干预,对标记点空间坐标的计算,需要对标一记点进行识别和跟踪,这就使后期的工作量变得非常大。一般来说,目前的光学式运动捕捉系统价格比较贵,对一使用场地的灯光及反射情况有一定的要求,安装和定位都比较繁琐。再者,运动捕获技术仍存在以下缺点:①价格昂贵;②大量冗余数据的存在,不便于运动数据的压缩存储及浏览;③运动数据重用性差,表示形象特征的高维信号难以进行编辑等。鉴于运动捕获技术存在上述不足之处,近年来对运动捕获数据进行后期处理成为国内外众多研究学者竟相研究的热点问题。如果一个动画师只想修改运动中的一部分动作,那么他需要修改每一帧的关节信息,这将耗费大量的时间。
而关键帧技术恰好能解决这个问题。这个过程需要从大量的运动数据中选取一些具有代表性的帧,动画师只需修改关键帧的信息,再通过插值还原等方法重建运动序列来达到想要的结果。关键帧提取是一种被广泛应用于视频分析与检索领域的技术,与二维时序视频数据中的关键帧不同,在运动捕获数据中,关键帧指能够代表运动序列的三维骨架数据。现有的运动捕获数据关键帧提取技术主要分为三大类:基于曲线简化、聚类和基于矩阵分解的技术。基于曲线简化就是将运动捕获数据中每一帧看成高维空间中的一点,通过按序连接整段数据中的数据点,将原始运动视为高维空间中的一段曲线,然后采用曲线简化算法提取关键帧;聚类是将N帧运动数据聚类到K个群集合中,取各集合中的某一帧作为关键帧;基于矩阵分解就是将每一帧的所有关节点放在一个矩阵的同一行上,然后这个矩阵被近似的因式分解成一个权重矩阵和一个关键帧矩阵。
上述方法,均需预先指定一些经验阈值,这些阈值对某些实验数据有效,而对有些是无效的。尤其是在对运动内容一无所知的情况下,要求预先指定决定其中需要的各个经验阈值是一个非常困难的问题。而众所周知,基于差异的关键帧提取技术对于相关参数的设定非常敏感,初值设置不当对实验结果影响很大。而运功序列中运动类型速率的不同,运动内容千差万别,不可能用统一的阈值对所有的实验数据均取得较好的效果。从而设计一种能够自适应地根据当前运动序列,获得动态数据来进行动态设定所需参数,进而提高效率,减少误差的关键帧提取方法仍然是一个具有挑战性的任务。
发明内容
为了实现上述的目标,本发明的目的在于提出了一种运动捕捉数据的关键帧提取方法,该方法通过分层使用聚类的方法提取关键帧,着重解决在运动内容未知的情况下需要多次人工设定阈值的问题,从而提高了数据的处理效率,使得在处理过程中无需人工干预,并且在原始数据上进行操作的短耗时也满足运动捕捉的实时性要求。
本发明的技术方案如下:
第一步:初始聚类的划分和所需阈值计算,其由以下4步骤构成:
步骤1.有n帧的运动序列连续读入,这里利用欧拉公式得到的相邻帧之间的相似度存放在数组中,数组中共有n-1个元素;
所述利用欧拉公式来表示相邻运动帧之间的相似度,采用的计算公式是:
Fi,t和Fj,t是相邻的Fi,运动帧和Fj运动帧中的t关节,ω是各个关节点的权值,t指的是各个关节点;
步骤2.数组中存放的相似度的元素作为参数分别依次进行聚类,分为两类,而且通过比较得到的两类的离散度最小时候的相似度值,此时的相似度作为所求的阈值之一;
所有基于帧间差异来判断两帧是否相似的方法都要指定阈值,采用以下步骤来计算出第二次聚类所需的各种阈值参数:
(1)设一个运动序列中共有N帧{F1,F2,F3,...,FN},连续读入这些运动,并利用第一步步骤1中计算相似度的公式来计算相邻帧之间的相似度,得到数组Dif={D1,D2,...,DN-1},所述N是运动序列中总的运动帧数目;
(2)依次以Dif中的相似度为参数分别依次进行聚类,分为两类,而且通过比较得到的两类的离散度最小时候的相似度值。此时的相似度作为所求的阈值之一;离散度的计算公式如下:
δ2=min(δ1 2+δ2 2);
所述1≤T≤N-2,N是运动序列中总的帧数目;δ2是两个聚类离散度的和;当δ2最小的时候,此时分得两个聚类的相似度DT就是我们在下一步聚类过程中需要的参数之一;
步骤3.利用得到离散度最小的聚类时候的相似度开始对运动序列进行分类,如果相邻的帧的相似度大于或等于DT,则开始新的类;否则如果当前帧与当前聚类中心的距离大于等于DT时,开始新的类;
步骤4.当此算法停止的时候,得到划分的初始类的数目和初始类的划分,以及第二次聚类所需的其他阈值;
第二步:利用ISODATA进行动态聚类,步骤如下;
步骤1.利用ISODATA进行动态聚类并提取关键帧,过程如下:
动态聚类的分裂:如果某类的类内离散度大于各个分类离散度的均值,且该类的最大标准偏差大于各个相邻聚类间的最大标准偏差时,将此类分裂成新的两类;并且如果此时的聚类数目小于K/2或是当迭代次数是奇数且此时的聚类数目在K/2和2K之间的时候分裂成两类;所述K是期望的最大聚类数目;
动态聚类的合并:如果某相邻聚类的类中心的相似度小于在初始分类得到两类离散度最小时候的相似度值时,合并这两个聚类;或者聚类内部的帧数目小于一个聚类可容纳的最少帧数目时将其与相邻的聚类合并;再者如果聚类的数目大于2K或者当前迭代次数是偶数且此时聚类数目在K/2和2K之间的时候合并两类;
步骤2.确定阈值;所述确定阈值的方法如下:
K:期望得到的最大聚类数目,无需从太短的序列里提取关键帧,我们使用的运动捕捉数据库的采样频率是每秒120帧,每秒最多提取四个关键帧即可,
ON:一个聚类中的最小样本数目,通过上述K取值为25;
OS:距离当前聚类中心的在最大标准偏差参数,这里取在初始聚类中得到的DT相对应的两帧Fi和Fi+1之间的标准偏差,所述OS在每次动态的分裂和合并后会进行动态的计算,其公式为:
OC:两个聚类之间距离的最小值,选取初始分类中得到的DT,假如在每次动态的分裂和合并后DT相对应的两帧是Fi和Fi+1,利用的公式 进行动态的计算DT,
L:每次迭代可以合并的聚类数目,这里我们按照运动序列的顺序,根据合并和分裂规则处理相邻的帧或是聚类;
I:最大的迭代次数,用于判断迭代终止的一个条件;经过每次迭代后的聚类数目对多会是原来运动序列帧的数目的一半,当达到期望的最大聚类数目时需要的迭代次数可以由以下式子得到:
ON和L的值与运动内容是无关的,对于不同类型的运动序列可以设定同样的数值,而K、OS、OC和I则是根据运动内容动态计算得到的;这些设置保证了阈值的自适应设定而无需人工设定;
步骤3.当完成一次迭代之后检测是否满足终止迭代的条件,如果满足就终止迭代,并提取出每个聚类中距离类中心最近的帧作为最终的关键帧;否则就返回经过初始化的上次迭代后的各个参数继续进行迭代操作,直至满足停止迭代的条件为止。
本发明与现有技术相比具有以下优点:
1、一般的运动捕捉数据关键帧提取方法是人工设定各个参数的,但是在运动内容未知的情况下,想要很快设定所需的理想参数是很困难的,因此要耗费大量的时间。而本发明是基于分层聚类的方法,仅需设定两个对于任何运动序列都是固有的阈值,而其他所需阈值均是根据运动内容动态计算得到的,无需人工设定,这大大提高了处理的效率,且能得到较理想的误差,能够满足基于运动捕捉数据制作计算机动画的实时性的要求。
2、该方法具有良好的可扩展性;表现在:(1)可以用在不同类型的运动数据库上,针对不同的运动数据库设定相应的参数即可实现自适应提取。(2)可以提取满足不同需求的关键帧数目。
附图说明
图1本发明算法流程图。
图2 walk运动分为两个聚类时的离散度的曲线图。
图3提取不同数目关键帧所需时间示意图。
图4 walk运动关键帧提取结果图。
具体实施方式
本发明通过分层使用聚类方法,初次聚类得到初始分类数目和初始类划分等第二次聚类所需的阈值,然后采用动态的无监督聚类算法ISODATA再次自动提取聚类,而无需人工预定义阈值。最后得到比较合理的聚类,并提取出离聚类中心最近的运动帧作为关键帧。本发明在得到较理想的关键帧的同时,能够满足运动捕捉的实时性要求。附图1所示为本发明算法流程图。其具体包括以下技术环节:
第一步:初始类的划分和所需阈值的确定
人体是一种关节链结构,其状态可以用跟关节的平移和其它各个关节的旋转来表示。在三维空间中,平移通常是普通的三维向量,旋转可以用旋转矩阵,欧拉角和四元数表示,这里我们采用欧拉角来表示旋转。用欧拉公式定义两帧间的相似度:
Fi,t和Fj,t是相邻的Fi,运动帧和Fj运动帧中的t关节,ω是各个关节点的权值,t指的是各个关节点。
所有基于帧间差异来判断两帧是否相似的方法都要指定阈值,我们采用以下步骤来计算出第二次聚类所需的参数:
(1)设一个运动序列中共有N帧{F1,F2,F3,...,FN},连续读入这些运动,并利用第一步步骤1中计算相似度的公式来计算相邻帧之间的相似度,得到数组Dif={D1,D2,...,DN-1};
(2)依次以Dif中的相似度为参数分别依次进行聚类,分为两类,而且通过比较得到的两类的离散度最小时候的相似度值。此时的相似度作为所求的阈值之一。离散度的计算公式如下:
δ2=min(δ1 2+δ2 2),
δ2是两个聚类离散度的和。当δ2最小的时候,此时分得两个聚类的相似度DT就是我们在下一步聚类过程中需要的参数之一。附图2所示是walk运动分为两个聚类时的离散度的曲线图。纵坐标表示离散度值,横坐标是以按时间顺序排列的运动帧序列。从图中可以看到,在标识位置分为两个聚类的时候两类的离散度之和最小。
(3)利用得到离散度最小的聚类时候的相似度开始对运动序列进行分类,如果相邻的帧的相似度大于或等于DT,则开始新的类;否则如果当前帧与当前聚类中心的距离大于等于DT时,开始新的类。
(4)当此算法停止的时候,得到划分的初始类的数目和初始类的划分,以及第二次聚类所需的其他阈值。
第二步:利用ISODATA进行动态聚类并提取关键帧,
在得到初始的分类等相关参数后,利用经典聚类方法—ISODATA算法动态的对运动序列进行聚类。该算法不仅能通过调整样本所属类别完成聚类分析,而且还能自动地进行类的合并和分裂,从而得到类数较为合理的各个聚类。ISODATA算法需设置7个参数,我们采用自适应来确定阈值的方法。
K:期望得到的最大聚类数目。无需从太短的序列里提取关键帧,我们使用的运动捕捉数据库的采样频率是每秒120帧,每秒最多提取四个关键帧即可。
ON:一个聚类中的最小样本数目,通过上述K取值为25。
OS:距离当前聚类中心的在最大标准偏差参数。这里取在初始聚类中得到的DT相对应的两帧Fi和Fi+1之间的标准偏差。在此发明中,设定OS在每次动态的分裂和合并后会进行动态的计算,其公式为:
OC:两个聚类之间距离的最小值。选取初始分类中得到的DT,假如在每次动态的分裂和合并后DT相对应的两帧是Fi和Fi+1,利用公式 进行动态的计算DT。
L:每次迭代可以合并的聚类数目。这里我们按照运动序列的顺序,根据合并和分裂规则处理相邻的帧或是聚类。
I:最大的迭代次数,用于判断迭代终止的一个条件。经过每次迭代后的聚类数目对多会是原来运动序列帧的数目的一半,当达到期望的最大聚类数目时需要的迭代次数可以由以下式子得到:
ON和L的值与运动内容是无关的,对于不同类型的运动序列可以设定同样的数值,而K、OS、OC和I则是根据运动内容动态计算得到的。这些设置保证了阈值的自适应设定而无需人工设定。
设定动态聚类的分裂和合并的思想是:
分裂:如果某类的类内离散度大于各个分类离散度的均值,且该类的最大标准偏差大于各个相邻聚类间的最大标准偏差时,将此类分裂成新的两类;并且如果此时的聚类数目小于K/2(K:期望的最大聚类数目)或是当迭代次数是奇数且此时的聚类数目在K/2和2K之间的时候分裂成两类。
合并:如果某相邻聚类的类中心的相似度小于在初始分类得到两类离散度最小时候的相似度值时,合并这两个聚类;或者聚类内部的帧数目小于一个聚类可容纳的最少帧数目时将其与相邻的聚类合并;再者如果聚类的数目大于2K或者当前迭代次数是偶数且此时聚类数目在K/2和2K之间的时候合并两类。
当完成一次迭代之后检测是否满足终止迭代的条件,如果满足就终止迭代,并提取出每个聚类中距离类中心最近的帧作为最终的关键帧;否则就返回初始化经过上次迭代后的各个参数继续进行迭代操作。附图3所示的是提取不同书目关键帧帧时候所耗费的时间,从图中可以看出时间基本是以线性比例增长的,且在可接受范围内。
本发明的实施例是在以本发明技术方案为前提下进行实施的,给出了详细的实施方式和具体的操作过程,但本发明的保护范围不限于下述实施例。实例选取几组运动类型进行验证,运动类型选取的是CMU的数据库,标记关节点是31个,其中各个关节点的权值如表一。其中,LHipJoint和RightJoint的权值相同,依次类推。
表一:各个关节点的权值
Hips | 16 | Neck1 | 1 |
LHipJoint | 0 | Head | 0 |
LeftUpLeg | 8 | LeftShoulder | 0 |
LeftLeg | 4 | LeftArm | 1 |
LeftFoot | 2 | LeftForeArm | 0.5 |
LeftToeBase | 1 | LeftHand | 0.25 |
LowerBack | 0 | LeftFingerBase | 0.125 |
Spine | 8 | LFingers | 0 |
Spine1 | 4 | LThumb | 0 |
Neck | 2 |
具体操作步骤为:
步骤1:采集原始数据。
步骤2:载入运动数据
步骤3:运动序列的初次聚类。
步骤4:利用ISODATA进行动态聚类。
步骤5:提取出每个聚类中距离类中心最近的帧作为最终的关键帧。附图4所示的是对walk运动提取出的关键帧效果图,可以看出关键帧分布比较均匀。
表二展示出用本发明从几组具有不同运动类型的运动提取关键帧的结果以及所耗费时间、误差等信息。
表二:不同运动类型提取出关键帧的详细情况
运动类型 | 总的帧数目 | 关键帧数目 | 压缩比率 | 耗时(s) |
Run | 166 | 8 | 4.2% | 0.1672 |
Jump | 427 | 19 | 4.4% | 0.5086 |
Kick ball | 802 | 34 | 4.2% | 1.0620 |
Swordplay | 1034 | 43 | 4.1% | 1.4253 |
Play | 2611 | 80 | 3.1% | 3.6557 |
Claims (1)
1.一种运动捕捉数据的关键帧提取方法,其特征在于:
第一步:初始聚类的划分和所需阈值计算,其由以下4步骤构成:
步骤1.有n帧的运动序列连续读入,这里利用欧拉公式得到的相邻帧之间的相似度存放在数组中,数组中共有n-1个元素;
所述利用欧拉公式来表示相邻运动帧之间的相似度,采用的计算公式是:
其中:Fi,t和Fj,t是相邻的Fi,运动帧和Fj运动帧中的t关节,ω是各个关节点的权值,t指的是各个关节点;
步骤2.数组中存放的相似度的元素作为参数分别依次进行聚类,分为两类,而且通过比较得到的两类的离散度最小时候的相似度值,此时的相似度作为所求的阈值之一;
所有基于帧间差异来判断两帧是否相似的方法都要指定阈值,采用以下步骤来计算出第二次聚类所需的各种阈值参数:
(1)设一个运动序列中共有N帧{F1,F2,F3,...,FN},连续读入这些运动,并利用第一步步骤1中计算相似度的公式来计算相邻帧之间的相似度,得到数组Dif={D1,D2,...,DN-1},所述N是运动序列中总的运动帧数目;
(2)依次以Dif中的相似度为参数分别依次进行聚类,分为两类,而且通过比较得到的两类的离散度最小时候的相似度值,此时的相似度作为所求的阈值之一;离散度的计算公式如下:
δ2=min(δ1 2+δ2 2);
所述1≤T≤N-2,N是运动序列中总的帧数目;δ2是两个聚类离散度的和;当δ2最小的时候,此时分得两个聚类的相似度DT就是我们在下一步聚类过程中需要的参数之一;
步骤3.利用得到离散度最小的聚类时候的相似度开始对运动序列进行分类,如果相邻的帧的相似度大于或等于DT,则开始新的类;否则如果当前帧与当前聚类中心的距离大于等于DT时,开始新的类;
步骤4.当此算法停止的时候,得到划分的初始类的数目和初始类的划分,以及第二次聚类所需的其他阈值;
第二步:利用ISODATA进行动态聚类,步骤如下;
步骤1.利用ISODATA进行动态聚类并提取关键帧,过程如下:
动态聚类的分裂:如果某类的类内离散度大于各个分类离散度的均值,且该类的最大标准偏差大于各个相邻聚类间的最大标准偏差时,将此类分裂成新的两类;并且如果此时的聚类数目小于K/2或是当迭代次数是奇数且此时的聚类数目在K/2和2K之间的时候分裂成两类;所述K是期望的最大聚类数目;
动态聚类的合并:如果某相邻聚类的类中心的相似度小于在初始分类得到两类离散度最小时候的相似度值时,合并这两个聚类;或者聚类内部的帧数目小于一个聚类可容纳的最少帧数目时将其与相邻的聚类合并;再者如果聚类的数目大于2K或者当前迭代次数是偶数且此时聚类数目在K/2和2K之间的时候合并两类;
步骤2.确定阈值;所述确定阈值的方法如下:
K:期望得到的最大聚类数目,无需从太短的序列里提取关键帧,我们使用的运动捕捉数据库的采样频率是每秒120帧,每秒最多提取四个关键帧即可,
ON:一个聚类中的最小样本数目,通过上述K取值为25;
OS:距离当前聚类中心的在最大标准偏差参数,这里取在初始聚类中得到的DT相对应的两帧Fi和Fi+1之间的标准偏差,所述OS在每次动态的分裂和合并后会进行动态的计算,其公式为:
OC:两个聚类之间距离的最小值,选取初始分类中得到的DT,假如在每次动态的分裂和合并后DT相对应的两帧是Fi和Fi+1,利用公式 进行动态的计算DT;
L:每次迭代可以合并的聚类数目,这里我们按照运动序列的顺序,根据合并和分裂规则处理相邻的帧或是聚类;
I:最大的迭代次数,用于判断迭代终止的一个条件;经过每次迭代后的聚类数目对多会是原来运动序列帧的数目的一半,当达到期望的最大聚类数目时需要的迭代次数可以由以下式子得到:
ON和L的值与运动内容是无关的,对于不同类型的运动序列可以设定同样的数值,而K、OS、OC和I则是根据运动内容动态计算得到的;这些设置保证了阈值的自适应设定而无需人工设定;
步骤3.当完成一次迭代之后检测是否满足终止迭代的条件,如果满足就终止迭代,并提取出每个聚类中距离类中心最近的帧作为最终的关键帧;否则就返回经过初始化的上次迭代后的各个参数继续进行迭代操作,直至满足停止迭代的条件为止。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201210298734.3A CN102855639B (zh) | 2012-08-16 | 2012-08-16 | 一种运动捕捉数据的关键帧提取方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201210298734.3A CN102855639B (zh) | 2012-08-16 | 2012-08-16 | 一种运动捕捉数据的关键帧提取方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN102855639A CN102855639A (zh) | 2013-01-02 |
CN102855639B true CN102855639B (zh) | 2014-11-19 |
Family
ID=47402201
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201210298734.3A Active CN102855639B (zh) | 2012-08-16 | 2012-08-16 | 一种运动捕捉数据的关键帧提取方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN102855639B (zh) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104156986A (zh) * | 2014-08-28 | 2014-11-19 | 大连大学 | 基于局部线性嵌入的运动捕捉数据的关键帧提取方法 |
CN105469383A (zh) * | 2014-12-30 | 2016-04-06 | 北京大学深圳研究生院 | 基于多特征融合的无线胶囊内窥镜冗余图像筛除方法 |
CN106303756A (zh) * | 2016-10-10 | 2017-01-04 | 中国农业大学 | 一种用于视频版权保护的方法及装置 |
CN108537250B (zh) * | 2018-03-16 | 2022-06-14 | 新智认知数据服务有限公司 | 一种目标跟踪模型构建方法及装置 |
CN108520250B (zh) * | 2018-04-19 | 2021-09-14 | 北京工业大学 | 一种人体运动序列关键帧提取方法 |
CN109886065A (zh) * | 2018-12-07 | 2019-06-14 | 武汉理工大学 | 一种在线增量式回环检测方法 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1967525A (zh) * | 2006-09-14 | 2007-05-23 | 浙江大学 | 三维人体运动数据关键帧提取方法 |
JP2012105205A (ja) * | 2010-11-12 | 2012-05-31 | Nikon Corp | キーフレーム抽出装置、キーフレーム抽出プログラム、キーフレーム抽出方法、撮像装置、およびサーバ装置 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
AUPQ535200A0 (en) * | 2000-01-31 | 2000-02-17 | Canon Kabushiki Kaisha | Extracting key frames from a video sequence |
-
2012
- 2012-08-16 CN CN201210298734.3A patent/CN102855639B/zh active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1967525A (zh) * | 2006-09-14 | 2007-05-23 | 浙江大学 | 三维人体运动数据关键帧提取方法 |
JP2012105205A (ja) * | 2010-11-12 | 2012-05-31 | Nikon Corp | キーフレーム抽出装置、キーフレーム抽出プログラム、キーフレーム抽出方法、撮像装置、およびサーバ装置 |
Non-Patent Citations (4)
Title |
---|
《Adaptive key frame extraction using unsupervised clustering》;Zhuang Yueting 等;《1998 International conference on image processing》;19981007;第1卷;第866-870页 * |
《An efficient keyframe extraction from motion capture data》;Jun Xiao等;《24th Computer graphics international conference》;20060628;第494-501页 * |
Jun Xiao等.《An efficient keyframe extraction from motion capture data》.《24th Computer graphics international conference》.2006,第494-501页. * |
Zhuang Yueting 等.《Adaptive key frame extraction using unsupervised clustering》.《1998 International conference on image processing》.1998,第1卷第866-870页. * |
Also Published As
Publication number | Publication date |
---|---|
CN102855639A (zh) | 2013-01-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN102855639B (zh) | 一种运动捕捉数据的关键帧提取方法 | |
Xie et al. | Deepshape: Deep learned shape descriptor for 3d shape matching and retrieval | |
CN107784293B (zh) | 一种基于全局特征和稀疏表示分类的人体行为识别方法 | |
Gosselin et al. | Revisiting the fisher vector for fine-grained classification | |
CN109410242A (zh) | 基于双流卷积神经网络的目标跟踪方法、系统、设备及介质 | |
CN109902583B (zh) | 一种基于双向独立循环神经网络的骨架手势识别方法 | |
CN105654049A (zh) | 人脸表情识别的方法及装置 | |
CN103279980A (zh) | 基于点云数据的树叶建模方法 | |
CN107103326A (zh) | 基于超像素聚类的协同显著性检测方法 | |
Chen et al. | Learning a deep network with spherical part model for 3D hand pose estimation | |
Li et al. | JointsGait: A model-based gait recognition method based on gait graph convolutional networks and joints relationship pyramid mapping | |
CN105868706A (zh) | 一种基于稀疏自编码的三维模型识别方法 | |
Huynh-The et al. | Hierarchical topic modeling with pose-transition feature for action recognition using 3D skeleton data | |
Liu et al. | Deep convolutional neural networks-based age and gender classification with facial images | |
CN111047596A (zh) | 一种三维点云实例分割方法、系统及电子设备 | |
CN105354528A (zh) | 基于深度图像序列的人体动作识别的方法及系统 | |
CN103745218A (zh) | 一种深度图像中的姿势识别方法及装置 | |
CN104268285A (zh) | 一种基于动态弯曲算法的运动捕捉数据库检索方法 | |
Hsu et al. | Online view-invariant human action recognition using rgb-d spatio-temporal matrix | |
Huang et al. | Cross-modal deep metric learning with multi-task regularization | |
Yu et al. | Behavioral segmentation for human motion capture data based on graph cut method | |
Wang et al. | Anti-occlusion face recognition algorithm based on a deep convolutional neural network | |
Huang et al. | Multiple spatial pooling for visual object recognition | |
Qin et al. | PointSkelCNN: Deep Learning‐Based 3D Human Skeleton Extraction from Point Clouds | |
Pan et al. | Afinet: Attentive feature integration networks for image classification |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant |