CN104573665A - 一种基于改进维特比算法的连续动作识别方法 - Google Patents

一种基于改进维特比算法的连续动作识别方法 Download PDF

Info

Publication number
CN104573665A
CN104573665A CN201510035514.5A CN201510035514A CN104573665A CN 104573665 A CN104573665 A CN 104573665A CN 201510035514 A CN201510035514 A CN 201510035514A CN 104573665 A CN104573665 A CN 104573665A
Authority
CN
China
Prior art keywords
joint
sequence
action
video
whole body
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201510035514.5A
Other languages
English (en)
Other versions
CN104573665B (zh
Inventor
张磊
白栋天
黄华
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenzhen Research Institute, Beijing Institute of Technology
Beijing Institute of Technology BIT
Original Assignee
Beijing Institute of Technology BIT
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Institute of Technology BIT filed Critical Beijing Institute of Technology BIT
Priority to CN201510035514.5A priority Critical patent/CN104573665B/zh
Publication of CN104573665A publication Critical patent/CN104573665A/zh
Application granted granted Critical
Publication of CN104573665B publication Critical patent/CN104573665B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/23Recognition of whole body movements, e.g. for sport training
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/19Recognition using electronic means
    • G06V30/192Recognition using electronic means using simultaneous comparisons or correlations of the image signals with a plurality of references
    • G06V30/194References adjustable by an adaptive method, e.g. learning

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Social Psychology (AREA)
  • Psychiatry (AREA)
  • Health & Medical Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

本发明属于视频处理领域,具体涉及一种基于改进维特比算法的连续动作识别方法,用于高效地识别人体全身连续动作。首先通过建立以人体关节为基准的坐标系消除人旋转平移等因素造成的动作差异性。其次通过按照人体模型的约束对人体骨架坐标进行进一步处理,消除因为人体形的差异,然后通过K-means对人体关节点数据进行编码,然后为每个动作训练对应的隐式马尔科夫模型,接着通过活跃关节的变化、速度快慢、角度大小进行连续动作序列的分割,然后为每个子序列筛选出较好的候选动作,最后通过改进的维特比算法找出最佳路径,进而得到最佳的动作序列。与已有的方法相比,该方法能够高效地识别出连续动作序列中包含的动作。

Description

一种基于改进维特比算法的连续动作识别方法
技术领域
本发明属于视频处理领域,具体涉及一种基于改进维特比算法的连续动作识别方法,用于高效地识别人体全身连续动作。
背景技术
随着计算机应用的迅速发展,基于视频序列的人体行为识别逐渐成为计算机视觉领域研究的热点,在人机接口系统、智能家居应用、智能监控、运动分析等方面得到了广泛的应用。
对于动作识别这一具有较高应用价值问题,国内外的学者已经做了大量的基础研究。常用的动作识别方法有:基于HMM的方法、基于DTW的方法、基于SVM的方法以及基于神经网络的方法等。对于单个的动作识别这些方法都达到了比较令人满意的效果,但是对于连续的动作识别,国内外的研究学者大多只是专注于手势的识别,并且连续的动作识别没有达到很好的效果。A.Ali等人在文献《Segmentation and recognition of continuous human activity》(IEEE Workshop on.IEEE,2001:28-35)实现了基于普通视频的动作分割算法,但是该算法中用于分割的方法不具备良好的鲁棒性。该方法利用一些特定的静态姿态对连续的动作视频进行分割。其它用于分割连续手势序列的文献也都是基于特定的静态手势或者是概率模型,对于手势或者动作的分割都不尽如人意;并且大部分是以实现手势的连续识别为目标,并没有将其拓展到全身动作领域。目前对于全身的连续动作识别还没有系统的方法。
本发明中涉及到的重要一项已有技术是隐马尔可夫模型。
隐马尔可夫模型是一种有效的描述存在于离散时间段上的具有关联关系的数据序列的统计学方法。
隐马尔科夫模型的理论基础是在1970年前后由Baum等人建立起来的,随后有CMU的Baker和IBM的Jelinek等人将其应用到语音识别之中,由于Bell实验室Rabiner等人在80年代中期对隐马尔科夫模型的深入浅出的介绍,才逐渐使隐马尔科夫模型为世界各国从事语音处理的研究员所了解和熟悉,进而成为公认的一个研究热点。
隐马尔科夫模型是在Markov链(一种有限状态机)的基础上发展起来的。首先介绍两个概念:状态集合和观察序列。状态集合指隐马尔科夫模型所具有的全部状态{S1,...,Si,...,SN},其中N为隐式状态数;观察序列是一个具有上下文关联性的数据序列,用v1,...,vt,...,vT表示,v1,...,vt,...,vT为一个观测序列,其中vt=cb,表示该序列中时刻t的元素的取值为cb,1≤b≤B,B表示每个状态可输出的元素(值)的总数。
由于实际问题比Markov链模型所描述的更为复杂,观察到的观察序列中的元素并不是与Markov链中的状态一一对应,而是通过一组概率分布相联系。这样,站在观察者的角度,只能看到观察值,不像Markov链模型中的观察值和状态一一对应。因此,不能直接看到状态,而是通过一个随机过程去感知状态的存在及其特性,这就是所谓的“隐”Markov模型,即Hidden Markov Model(HMM)。
隐马尔科夫模型的三个基本问题是:评估问题、解码问题及学习问题。其中,学习问题是使模型参数最优化,及调整模型参数,以使模型能最好的描述一个给定观测序列,最好的说明这个观测序列就是最优化模型产生出来的,用来解决分类问题。
发明内容
本发明的目的是针对人体连续动作的识别,提出了一种基于改进维特比算法的连续动作识别方法。该方法首先通过建立以人体关节为基准的坐标系消除人旋转平移等因素造成的动作差异性。其次通过按照人体模型的约束对人体骨架坐标进行进一步处理,消除因为人体形的差异,然后通过K-means对骨骼数据进行编码,然后为每个动作训练对应的隐式马尔科夫模型,接着通过活跃关节的变化、速度快慢、角度大小进行连续动作序列的分割,然后为每个子序列筛选出较好的候选动作,最后通过改进的维特比算法找出最佳路径,进而得到最佳的动作序列。
本发明的目的是通过下述技术方案实现的。
本发明的一种基于改进维特比算法的连续动作识别方法,其特征在于:其包括训练过程和识别过程。
所述训练过程的具体实施步骤如下:
步骤一、对训练数据中的人体全身动作视频数据进行预处理。
将每一种人体全身动作的训练数据称为一个训练样本集;一个训练样本集中的训练样本数量用R表示,R≥20。分别对每个训练样本集中的每个人体全身动作视频数据做预处理,得到一条单一动作编码序列。
所述人体全身动作视频是通过三维体感摄像机拍摄获得的单个人体全身动作。
所述人体全身动作视频为RGB-D格式视频。
所述对每个训练样本集中的每个人体全身动作视频数据做预处理,得到一条单一动作编码序列的具体操作步骤为:
步骤1.1:利用人体骨架提取工具从每个人体全身动作视频的每帧图像中提取人的骨架信息。
所述骨架信息为人体关节点在三维体感摄像机所建立的原始坐标系上的三维坐标值。所述人体关节点的个数用符号m表示,m≥10。
所述人体关节点包括头部关节点、脊柱关节点、肩膀中心节点、左肩膀关节点、右肩膀关节点、左肘关节点、右肘关节点、左腕关节点、右腕关节点、左手关节点、右手关节点、臀部关节点、左髋骨关节点、右髋骨关节点、左膝关节点、右膝关节点、左踝关节点、右踝关节点、左脚关节点、右脚关节点。
步骤1.2:建立矫正坐标系。
以脊柱关节点为坐标原点,以左肩膀关节点和右肩膀关节点的连线为X轴,以垂直于X轴并指向所述三维体感摄像机的方向为Z轴,重建右手坐标系,第三轴为Y轴,则重建的三维坐标系称为矫正坐标系。
步骤1.3:获得每个人体全身动作视频的每帧图像中的全部人体关节点在矫正坐标系中的坐标值,得到矫正骨架信息。
步骤1.4:为了解决因不同人体型不同造成的对矫正骨架信息的影响,对步骤1.3得到的矫正骨架信息进行归一化处理,具体为:
步骤1.4.1:建立人体模型。所述人体模型定义了每两个相邻并连接的关节点之间的距离。
步骤1.4.2:按照人体模型中定义的相邻并连接的关节点之间的距离,调整矫正骨架信息,具体操作位:首先保证脊柱关节点位置不变;然后对于其它关节点,在保证相邻并连接的两个相邻关节点连线与矫正坐标系所成角度不变的情况下,调整各个关节点的位置,使相邻并连接的两个关节点的距离与人体模型中与之对应的相邻并连接的两个关节点之间的距离相等。
经过步骤1.4的操作,得到归一化处理后的矫正骨架信息。
步骤1.5:得到每个人体全身动作视频对应的单一动作编码序列。
将每个人体全身动作视频的每帧图像对应的归一化处理后的矫正骨架信息中的m个人体关节点的三维坐标信息,组成一个3×m维的向量;然后通过K均值聚类算法对训练数据中全部人体全身动作视频中的各帧图像对应的3×m维向量进行聚类,并将各帧图像用一个距离最近的聚类中心的序号来表示,该序号称为聚类编码。因此,一个人体全身动作视频用一组代表各帧图像的聚类编码的有序序列表示,该有序序列称为单一动作编码序列。
通过步骤1.5的操作,将每个人体全身动作视频表示为一个单一动作编码序列。
步骤二、建立HMM分类器。
在步骤一操作的基础上,建立HMM分类器。所述HMM分类器的模型参数为λ={N,M,AN×N,BN×M,π,o}。其中,N表示模型的隐式状态数,5≤N≤10;M为显式状态数量,即步骤一第5步中所述对训练数据中全部人体全身动作视频中的各帧图像对应的3×m维向量进行聚类后的聚类数量;AN×N为N×N的状态转移概率矩阵;BN×M为N×M混淆矩阵,即隐式状态转移到显式状态的概率矩阵;π为初始隐式状态分布N维向量;o为最终隐式状态分布N维向量,表示最终的隐式状态的分布情况,用于辅助判断动作的起始位置。
步骤三、训练HMM分类器。
在步骤二操作的基础上,同时训练Q个HMM分类器,Q表示训练数据中人体全身动作类别的数量;即:对应每一种人体全身动作,训练一个HMM分类器。用φq表示第q种人体全身动作对应的HMM分类器,1≤q≤Q。
使用第q种人体全身动作的训练样本集对HMM分类器φq进行训练的过程为:
步骤3.1:给参数AN×N,BN×M,π,o赋初始值,满足AN×N,BN×M,π,o中的元素值均为正数,且AN×N,BN×M,π,o中同一行的元素值之和为1。
步骤3.2:将步骤一得到的第q种全身动作视频对应的全部单一动作编码序列,作为观测序列,输入到HMM分类器φq中,使用前向后向算法对HMM分类器φq里的参数AN×N,BN×M,π,o进行训练。训练过程中使用的迭代公式如公式(1)至公式(5)所示。
o ‾ = γ T ( i ) - - - ( 1 )
其中,为当前迭代得到的最终隐式状态分布N维向量;γT(i)表示T时刻隐式状态为i的概率,1≤i≤N;T为观测序列的长度;γT(i)的值可通过公式(2)得到,公式(2)中当t=T时,即得到γT(i)。
γ t ( i ) = Σ j = 1 N ξ t ( i , j ) - - - ( 2 )
其中,γt(i)表示t时刻隐式状态为i的概率;1≤t≤T;ξt(i,j)表示隐式状态在t时刻为i且在t+1时刻为j的概率,1≤i,j≤N,ξt(i,j)=P(qt=i,qt+1=j|O,λ),qt表示t时刻的隐式状态,qt+1表示t+1时刻的隐式状态,O表示观测序列;λ表示HMM模型的所有参数。
π ‾ = γ 1 ( i ) - - - ( 3 )
其中,为当前迭代得到的初始隐式状态分布N维向量;γ1(i)可通过公式(2)得到,公式(2)中当t=1时,即得到γ1(i)。
a ‾ i , j = Σ t = 1 T - 1 ξ t ( i , j ) Σ t = 1 T - 1 γ t ( i ) - - - ( 4 )
其中,为当前迭代得到的AN×N第i行第j列的元素值。
b ‾ i , k = Σ t = 1 , O t = k T γ t ( i ) Σ t = 1 T γ t ( i ) - - - ( 5 )
其中,为当前迭代得到的BN×M第i行第k列的元素值;1≤k≤M;Ot表示t时刻的观测值。
所述识别过程的具体实施步骤如下:
步骤四、对待识别人体全身连续动作视频(用x表示)进行预处理,得到待识别人体全身连续动作视频x的连续动作编码序列。
所述待识别人体全身连续动作视频x包括1个以上人体全身动作。
步骤4.1:利用人体骨架提取工具从待识别人体全身连续动作视频x的每帧图像中提取人的骨架信息,其包含的关节点与步骤1.1中所述骨架信息中包含的关节点相同。
步骤4.2:建立矫正坐标系。
以脊柱关节点为坐标原点,以左肩膀关节点和右肩膀关节点的连线为X轴,以垂直于X轴并指向所述三维体感摄像机的方向为Z轴,重建右手坐标系,第三轴为Y轴,则重建的三维坐标系称为矫正坐标系。
步骤4.3:获得待识别人体全身连续动作视频x的每帧图像中的人体关节点在矫正坐标系中的坐标值,得到矫正骨架信息。
步骤4.4:为了解决因不同人体型不同造成的对矫正骨架信息的影响,对第4.3步得到的矫正骨架信息进行归一化处理,得到归一化处理后的矫正骨架信息。
步骤4.5:得到待识别人体全身连续动作视频x对应的连续动作编码序列。
将待识别人体全身连续动作视频x对应的归一化处理后的矫正骨架信息中的m个人体关节点的三维坐标信息,组成一个3×m维的向量;然后利用步骤一第5步得到的K个聚类中心,将待识别人体全身连续动作视频x的各帧图像用一个距离最近的聚类中心的序号来表示,得到连续动作编码序列。
步骤五、通过步骤三得到的Q个HMM分类器,得到待识别人体全身连续动作视频x包含的动作类别序列,具体过程为:
步骤5.1:依次从待识别人体全身连续动作视频x的每一帧图像中找出活跃关节。具体为:
分别计算当前图像帧中的每个关节与前一图像帧中的对应关节的距离,并将距离最大的关节作为备选活跃关节;如果备选活跃关节与前一帧图像的活跃关节不是同一关节,则判断d2≤2×d1是否成立,如果成立,则将前一帧图像的活跃关节确定为当前帧图像的活跃关节;否则,将当前帧的备选活跃关节确定为当前帧图像的活跃关节。其中,d1表示前一图像帧中的活跃关节与当前图像帧中的对应关节的距离;d2表示当前图像帧中的备选活跃关节与前一图像帧中的对应关节的距离。此方法可以避免因为同时有两个关节在运动而造成的活跃关节在二者之间来回变换。
步骤5.2:对待识别人体全身连续动作视频x进行分割。具体为:
步骤5.2.1:当相邻两帧图像的活跃关节发生变化时,在两帧图像之间进行分割;分割后的每一段视频称为一个图像子序列。
步骤5.2.2:对于步骤5.2.1得到的每个图像子序列,按照动作快慢进行分割。具体为:用D表示当前图像子序列中每帧图像的活跃关节的平均活动距离,所述活动距离为图像中的活跃关节与前一图像帧中的对应关节的距离。如果同时满足以下3个条件:①前一帧活跃关节的活动距离不大于0.3×D;②当前帧活跃关节的活动距离大于0.3×D;③当前帧之前的连续e帧图像活跃关节的活动距离均不大于0.3×D;则在当前帧与前一帧图像之间做分割。其中,5≤e≤15。经过步骤5.2.2的操作,得到更多图像子序列。
步骤5.2.3:对于步骤5.2.2得到的每个图像子序列按照动作变化角度进行分割。具体为:用p1表示前一帧活跃关节;用p2表示当前帧活跃关节;用p3表示后一帧活跃关节;如果向量与向量的夹角大于60度,则在当前帧与下一帧之间做分割。
经过步骤5.2的操作,完成对待识别人体全身连续动作视频x的分割,得到的图像子序列的数量用符号H表示,H≥1。
步骤5.3:选出候选动作。
依次对步骤5.2得到的每一个图像子序列分别进行如下操作:从步骤四得到的连续动作编码序列中,找到当前图像子序列对应的编码序列,并将其分别输入到步骤三得到的Q个HMM分类器,选择概率值最高的C个HMM分类器对应的动作作为候选动作,记为Lh={lh,g|g=1,2,...,C},Lh表示第h个图像子序列的候选动作集合;lh,g表示第h个图像子序列的第g个候选动作;C表示每个图像子序列的候选动作数量。其中,3≤C≤5。
步骤5.4:确定动作类别序列。通过改进的维特比算法依次对每个图像子序列求解最优动作类别。具体为:
步骤5.4.1:通过公式(6)依次计算待识别人体全身连续动作视频x的第h个图像子序列为候选动作集合中第J个候选动作的能量值(用符号Ωh,J表示)。其中,1≤h≤H;1≤J≤C。
Ω h , J = min I = 1,2 , . . . , C { Ω U , l U , J + δ + λ h , J , I Θ h , J , I } - - - ( 6 )
其中,U表示第U个图像子序列的动作不是候选动作集合中第J个候选动作,但第U+1个图像子序列到当前图像子序列的动作都为候选动作集合中第J个候选动作,U∈[1,J-1];lU,J表示第U个图像子序列的第J个候选动作;δ是一个常数惩罚项,δ=0.6;λh,J,I可通过公式(7)计算得到;Θh,J,I可通过公式(10)计算得到。
λ h , J , I = Σ K = U + 1 h - 1 ( 1 - Φ ~ K , l h - 1 , J ) + 1 - Φ ~ h , J I - U - - - ( 7 )
其中,可通过公式(8)计算得到;可通过公式(9)计算得到。
Φ ~ h , J = Φ h , J Σ I ′ = 1 C Φ h , I ′ - - - ( 8 )
其中,Φh,J表示第h个图像子序列由第g个候选动作第J个候选动作对应的HMM分类器输出的概率;Φh,I′表示第h个图像子序列由第I′个候选动作对应的HMM分类器输出的概率。
Φ ~ K , l h - 1 , J = Φ K , l h - 1 , J Σ I ′ = 1 C Φ h , I ′ - - - ( 9 )
其中,表示第K个图像子序列由第J个候选动作对应的HMM分类器输出的概率。
其中,Φ<U+1,h>,J表示从U+1个图像子序列到第h个图像子序列由第J个候选动作对应的HMM分类器输出的概率;η是一个常数因子,η;可通过公式(11)计算得到;οJ,end(h)可通过公式(12)计算得到。
其中,beg(U+1)表示第U+1个图像子序列对应的编码序列里第一个编码值;BJ,i,beg(U+1)表示第J个候选动作对应的HMM分类器的混淆矩阵第i行第beg(U+1)列的元素值;πJ,i表示第J个候选动作对应的HMM分类器的初始隐式状态分布概率向量第i个元素值。
o J , end ( h ) = Σ i = 1 N B J , i , end ( h ) σ J , i - - - ( 12 )
其中,end(h)表示第h个图像子序列对应的编码序列里最后一个编码值;BJ,i,end(h)表示第J个选动作对应的HMM分类器的混淆矩阵第i行第end(h)列的元素值;σJ,i表示第J个选动作对应的HMM分类器的最终隐式状态分布概率向量第i个元素值。
步骤5.4.2:对于待识别人体全身连续动作视频x的每个图像子序列,从步骤5.4.1计算得到的其候选动作集合中候选动作的能量值中选择最大值,将最大值对应的候选动作,作为该图像子序列的动作类别。
经过步骤五的操作,即可得到待识别人体全身连续动作视频x包含的动作类别序列。
有益效果
本发明提出的基于改进维特比算法的连续动作识别方法与已有技术相比较具有如下优点:
(1)能够较好的消除不同人做同一动作的差异性;
(2)能够准确地识别出视频中包含的多个动作;
(3)能够对人体全身动作进行识别;
(4)处理时间远远小于视频时间。
附图说明
图1为本发明具体实施方式中使用基于改进维特比算法的连续动作识别方法识别视频中人的连续动作的流程示意图。
具体实施方式
下面结合附图和具体实施例对本发明方法的实施方式做详细说明。
训练数据包括400条人体全身动作视频,人体全身动作视频是通过微软的KINECT工具拍摄获得的RGB-D格式视频。共8个动作,每个动作采集50个视频,这些人体全身动作视频中只包含单个动作,并且同一个动作的视频由体形不同的表演者拍摄。测试数据为10个,每个测试数据包含2个以上连续动作。连续动作由训练数据中的10个动作随机组合而成。
本实施例采用基于改进维特比算法的连续动作识别方法对测试数据中的视频进行动作识别,其操作步骤包括训练过程和识别过程。
训练过程的具体实施步骤如下:
步骤一、对训练数据中的人体全身动作视频数据进行预处理。
将每一种人体全身动作的训练数据称为一个训练样本集;一个训练样本集中的训练样本数量用R表示,R=50。分别对每个训练样本集中的每个人体全身动作视频数据做预处理,得到一条单一动作编码序列。
所述对每个训练样本集中的每个人体全身动作视频数据做预处理,得到一条单一动作编码序列的具体操作步骤为:
步骤1.1:利用人体骨架提取工具从每个人体全身动作视频的每帧图像中提取人的骨架信息。
所述骨架信息为人体关节点在KINECT工具所建立的原始坐标系上的三维坐标值。所述人体关节点的个数用符号m表示,m=20。
所述人体关节点包括头部关节点、脊柱关节点、肩膀中心节点、左肩膀关节点、右肩膀关节点、左肘关节点、右肘关节点、左腕关节点、右腕关节点、左手关节点、右手关节点、臀部关节点、左髋骨关节点、右髋骨关节点、左膝关节点、右膝关节点、左踝关节点、右踝关节点、左脚关节点、右脚关节点。
步骤1.2:建立矫正坐标系。
以脊柱关节点为坐标原点,以左肩膀关节点和右肩膀关节点的连线为X轴,以垂直于X轴并指向KINECT工具的方向为Z轴,重建右手坐标系,第三轴为Y轴,则重建的三维坐标系称为矫正坐标系。
步骤1.3:获得每个人体全身动作视频的每帧图像中的全部人体关节点在矫正坐标系中的坐标值,得到矫正骨架信息。
步骤1.4:为了解决因不同人体型不同造成的对矫正骨架信息的影响,对步骤1.3得到的矫正骨架信息进行归一化处理,具体为:
步骤1.4.1:建立人体模型。所述人体模型定义了每两个相邻并连接的关节点之间的距离。
步骤1.4.2:按照人体模型中定义的相邻并连接的关节点之间的距离,调整矫正骨架信息,具体操作位:首先保证脊柱关节点位置不变;然后对于其它关节点,在保证相邻并连接的两个相邻关节点连线与矫正坐标系所成角度不变的情况下,调整各个关节点的位置,使相邻并连接的两个关节点的距离与人体模型中与之对应的相邻并连接的两个关节点之间的距离相等。
经过步骤1.4的操作,得到归一化处理后的矫正骨架信息。
步骤1.5:得到每个人体全身动作视频对应的单一动作编码序列。
将每个人体全身动作视频的每帧图像对应的归一化处理后的矫正骨架信息中的m个人体关节点的三维坐标信息,组成一个3×m维的向量;然后通过K均值聚类算法对训练数据中全部人体全身动作视频中的各帧图像对应的3×m维向量进行聚类,并将各帧图像用一个距离最近的聚类中心的序号来表示,该序号称为聚类编码。因此,一个人体全身动作视频用一组代表各帧图像的聚类编码的有序序列表示,该有序序列称为单一动作编码序列。
通过步骤1.5的操作,将每个人体全身动作视频表示为一个单一动作编码序列。
步骤二、建立HMM分类器。
在步骤一操作的基础上,建立HMM分类器。所述HMM分类器的模型参数为λ={N,M,AN×N,BN×M,π,o}。其中,N表示模型的隐式状态数,N=5;M为显式状态数量,即步骤一第5步中所述对训练数据中全部人体全身动作视频中的各帧图像对应的3×m维向量进行聚类后的聚类数量;AN×N为N×N的状态转移概率矩阵;BN×M为N×M混淆矩阵,即隐式状态转移到显式状态的概率矩阵;π为初始隐式状态分布N维向量;o为最终隐式状态分布N维向量,表示最终的隐式状态的分布情况,用于辅助判断动作的起始位置。
步骤三、训练HMM分类器。
在步骤二操作的基础上,同时训练Q个HMM分类器,Q=8。用φq表示第q种人体全身动作对应的HMM分类器,1≤q≤Q。
使用第q种人体全身动作的训练样本集对HMM分类器φq进行训练的过程为:
步骤3.1:给参数AN×N,BN×M,π,o赋初始值,满足AN×N,BN×M,π,o中的元素值均为正数,且AN×N,BN×M,π,o中同一行的元素值之和为1。
步骤3.2:将步骤一得到的第q种全身动作视频对应的全部单一动作编码序列,作为观测序列,输入到HMM分类器φq中,使用前向后向算法对HMM分类器φq里的参数AN×N,BN×M,π,o进行训练。训练过程中使用的迭代公式如公式(1)至公式(5)所示。
所述识别过程的具体实施步骤如下:
步骤四、对待识别人体全身连续动作视频x进行预处理,得到待识别人体全身连续动作视频x的连续动作编码序列。
步骤4.1:利用人体骨架提取工具从待识别人体全身连续动作视频x的每帧图像中提取人的骨架信息,其包含的关节点与步骤1.1中所述骨架信息中包含的关节点相同。
步骤4.2:建立矫正坐标系。
以脊柱关节点为坐标原点,以左肩膀关节点和右肩膀关节点的连线为X轴,以垂直于X轴并指向KINECT工具的方向为Z轴,重建右手坐标系,第三轴为Y轴,则重建的三维坐标系称为矫正坐标系。
步骤4.3:获得待识别人体全身连续动作视频x的每帧图像中的人体关节点在矫正坐标系中的坐标值,得到矫正骨架信息。
步骤4.4:为了解决因不同人体型不同造成的对矫正骨架信息的影响,对第4.3步得到的矫正骨架信息进行归一化处理,得到归一化处理后的矫正骨架信息。
步骤4.5:得到待识别人体全身连续动作视频x对应的连续动作编码序列。
将待识别人体全身连续动作视频x对应的归一化处理后的矫正骨架信息中的m个人体关节点的三维坐标信息,组成一个3×m维的向量;然后利用步骤一第5步得到的K个聚类中心,将待识别人体全身连续动作视频x的各帧图像用一个距离最近的聚类中心的序号来表示,得到连续动作编码序列。
步骤五、通过步骤三得到的Q个HMM分类器,得到待识别人体全身连续动作视频x包含的动作类别序列,具体过程为:
步骤5.1:依次从待识别人体全身连续动作视频x的每一帧图像中找出活跃关节。具体为:
分别计算当前图像帧中的每个关节与前一图像帧中的对应关节的距离,并将距离最大的关节作为备选活跃关节;如果备选活跃关节与前一帧图像的活跃关节不是同一关节,则判断d2≤2×d1是否成立,如果成立,则将前一帧图像的活跃关节确定为当前帧图像的活跃关节;否则,将当前帧的备选活跃关节确定为当前帧图像的活跃关节。其中,d1表示前一图像帧中的活跃关节与当前图像帧中的对应关节的距离;d2表示当前图像帧中的备选活跃关节与前一图像帧中的对应关节的距离。此方法可以避免因为同时有两个关节在运动而造成的活跃关节在二者之间来回变换。
步骤5.2:对待识别人体全身连续动作视频x进行分割。具体为:
步骤5.2.1:当相邻两帧图像的活跃关节发生变化时,在两帧图像之间进行分割;分割后的每一段视频称为一个图像子序列。
步骤5.2.2:对于步骤5.2.1得到的每个图像子序列,按照动作快慢进行分割。具体为:用D表示当前图像子序列中每帧图像的活跃关节的平均活动距离,所述活动距离为图像中的活跃关节与前一图像帧中的对应关节的距离。如果同时满足以下3个条件:①前一帧活跃关节的活动距离不大于0.3×D;②当前帧活跃关节的活动距离大于0.3×D;③当前帧之前的连续e帧图像活跃关节的活动距离均不大于0.3×D;则在当前帧与前一帧图像之间做分割。其中,e=8。经过步骤5.2.2的操作,得到更多图像子序列。
步骤5.2.3:对于步骤5.2.2得到的每个图像子序列按照动作变化角度进行分割。具体为:用p1表示前一帧活跃关节;用p2表示当前帧活跃关节;用p3表示后一帧活跃关节;如果向量与向量的夹角大于60度,则在当前帧与下一帧之间做分割。
经过步骤5.2的操作,完成对待识别人体全身连续动作视频x的分割,得到的图像子序列的数量用符号H表示,H≥1。
步骤5.3:选出候选动作。
依次对步骤5.2得到的每一个图像子序列分别进行如下操作:从步骤四得到的连续动作编码序列中,找到当前图像子序列对应的编码序列,并将其分别输入到步骤三得到的Q个HMM分类器,选择概率值最高的C个HMM分类器对应的动作作为候选动作,记为Lh={lh,g|g=1,2,...,C},Lh表示第h个图像子序列的候选动作集合;lh,g表示第h个图像子序列的第g个候选动作;C表示每个图像子序列的候选动作数量。其中,C=4。
步骤5.4:确定动作类别序列。通过改进的维特比算法依次对每个图像子序列求解最优动作类别。具体为:
步骤5.4.1:通过公式(6)依次计算待识别人体全身连续动作视频x的第h个图像子序列为候选动作集合中第J个候选动作的能量值Ωh,J。其中,1≤h≤H;1≤J≤C。
步骤5.4.2:对于待识别人体全身连续动作视频x的每个图像子序列,从步骤5.4.1计算得到的其候选动作集合中候选动作的能量值中选择最大值,将最大值对应的候选动作,作为该图像子序列的动作类别。
经过步骤五的操作,即可得到待识别人体全身连续动作视频x包含的动作类别序列。

Claims (5)

1.一种基于改进维特比算法的连续动作识别方法,其特征在于:其包括训练过程和识别过程;
所述训练过程的具体实施步骤如下:
步骤一、对训练数据中的人体全身动作视频数据进行预处理;
将每一种人体全身动作的训练数据称为一个训练样本集;一个训练样本集中的训练样本数量用R表示,R≥20;分别对每个训练样本集中的每个人体全身动作视频数据做预处理,得到一条单一动作编码序列;
所述对每个训练样本集中的每个人体全身动作视频数据做预处理,得到一条单一动作编码序列的具体操作步骤为:
步骤1.1:利用人体骨架提取工具从每个人体全身动作视频的每帧图像中提取人的骨架信息;
所述骨架信息为人体关节点在三维体感摄像机所建立的原始坐标系上的三维坐标值;所述人体关节点的个数用符号m表示,m≥10;
步骤1.2:建立矫正坐标系;
以脊柱关节点为坐标原点,以左肩膀关节点和右肩膀关节点的连线为X轴,以垂直于X轴并指向所述三维体感摄像机的方向为Z轴,重建右手坐标系,第三轴为Y轴,则重建的三维坐标系称为矫正坐标系;
步骤1.3:获得每个人体全身动作视频的每帧图像中的全部人体关节点在矫正坐标系中的坐标值,得到矫正骨架信息;
步骤1.4:为了解决因不同人体型不同造成的对矫正骨架信息的影响,对步骤1.3得到的矫正骨架信息进行归一化处理,具体为:
步骤1.4.1:建立人体模型;所述人体模型定义了每两个相邻并连接的关节点之间的距离;
步骤1.4.2:按照人体模型中定义的相邻并连接的关节点之间的距离,调整矫正骨架信息,具体操作位:首先保证脊柱关节点位置不变;然后对于其它关节点,在保证相邻并连接的两个相邻关节点连线与矫正坐标系所成角度不变的情况下,调整各个关节点的位置,使相邻并连接的两个关节点的距离与人体模型中与之对应的相邻并连接的两个关节点之间的距离相等;
经过步骤1.4的操作,得到归一化处理后的矫正骨架信息;
步骤1.5:得到每个人体全身动作视频对应的单一动作编码序列;
将每个人体全身动作视频的每帧图像对应的归一化处理后的矫正骨架信息中的m个人体关节点的三维坐标信息,组成一个3×m维的向量;然后通过K均值聚类算法对训练数据中全部人体全身动作视频中的各帧图像对应的3×m维向量进行聚类,并将各帧图像用一个距离最近的聚类中心的序号来表示,该序号称为聚类编码;因此,一个人体全身动作视频用一组代表各帧图像的聚类编码的有序序列表示,该有序序列称为单一动作编码序列;
通过步骤1.5的操作,将每个人体全身动作视频表示为一个单一动作编码序列;
步骤二、建立HMM分类器;
在步骤一操作的基础上,建立HMM分类器;所述HMM分类器的模型参数为λ={N,M,AN×N,BN×M,π,o};其中,N表示模型的隐式状态数,5≤N≤10;M为显式状态数量,即步骤一第5步中所述对训练数据中全部人体全身动作视频中的各帧图像对应的3×m维向量进行聚类后的聚类数量;AN×N为N×N的状态转移概率矩阵;BN×M为N×M混淆矩阵,即隐式状态转移到显式状态的概率矩阵;π为初始隐式状态分布N维向量;o为最终隐式状态分布N维向量,表示最终的隐式状态的分布情况,用于辅助判断动作的起始位置;
步骤三、训练HMM分类器;
在步骤二操作的基础上,同时训练Q个HMM分类器,Q表示训练数据中人体全身动作类别的数量;即:对应每一种人体全身动作,训练一个HMM分类器;用φq表示第q种人体全身动作对应的HMM分类器,1≤q≤Q;
所述识别过程的具体实施步骤如下:
步骤四、对待识别人体全身连续动作视频x进行预处理,得到待识别人体全身连续动作视频x的连续动作编码序列;
所述待识别人体全身连续动作视频x包括1个以上人体全身动作;
步骤4.1:利用人体骨架提取工具从待识别人体全身连续动作视频x的每帧图像中提取人的骨架信息,其包含的关节点与步骤1.1中所述骨架信息中包含的关节点相同;
步骤4.2:建立矫正坐标系;2 -->
以脊柱关节点为坐标原点,以左肩膀关节点和右肩膀关节点的连线为X轴,以垂直于X轴并指向所述三维体感摄像机的方向为Z轴,重建右手坐标系,第三轴为Y轴,则重建的三维坐标系称为矫正坐标系;
步骤4.3:获得待识别人体全身连续动作视频x的每帧图像中的人体关节点在矫正坐标系中的坐标值,得到矫正骨架信息;
步骤4.4:为了解决因不同人体型不同造成的对矫正骨架信息的影响,对第4.3步得到的矫正骨架信息进行归一化处理,得到归一化处理后的矫正骨架信息;
步骤4.5:得到待识别人体全身连续动作视频x对应的连续动作编码序列;
将待识别人体全身连续动作视频x对应的归一化处理后的矫正骨架信息中的m个人体关节点的三维坐标信息,组成一个3×m维的向量;然后利用步骤一第5步得到的K个聚类中心,将待识别人体全身连续动作视频x的各帧图像用一个距离最近的聚类中心的序号来表示,得到连续动作编码序列;
步骤五、通过步骤三得到的Q个HMM分类器,得到待识别人体全身连续动作视频x包含的动作类别序列,具体过程为:
步骤5.1:依次从待识别人体全身连续动作视频x的每一帧图像中找出活跃关节;具体为:
分别计算当前图像帧中的每个关节与前一图像帧中的对应关节的距离,并将距离最大的关节作为备选活跃关节;如果备选活跃关节与前一帧图像的活跃关节不是同一关节,则判断d2≤2×d1是否成立,如果成立,则将前一帧图像的活跃关节确定为当前帧图像的活跃关节;否则,将当前帧的备选活跃关节确定为当前帧图像的活跃关节;其中,d1表示前一图像帧中的活跃关节与当前图像帧中的对应关节的距离;d2表示当前图像帧中的备选活跃关节与前一图像帧中的对应关节的距离;此方法可以避免因为同时有两个关节在运动而造成的活跃关节在二者之间来回变换;
步骤5.2:对待识别人体全身连续动作视频x进行分割;具体为:
步骤5.2.1:当相邻两帧图像的活跃关节发生变化时,在两帧图像之间进行分割;分割后的每一段视频称为一个图像子序列;
步骤5.2.2:对于步骤5.2.1得到的每个图像子序列,按照动作快慢进行分割;具体为:用D表示当前图像子序列中每帧图像的活跃关节的平均活动距离,所述3 --> 活动距离为图像中的活跃关节与前一图像帧中的对应关节的距离;如果同时满足以下3个条件:①前一帧活跃关节的活动距离不大于0.3×D;②当前帧活跃关节的活动距离大于0.3×D;③当前帧之前的连续e帧图像活跃关节的活动距离均不大于0.3×D;则在当前帧与前一帧图像之间做分割;其中,5≤e≤15;经过步骤5.2.2的操作,得到更多图像子序列;
步骤5.2.3:对于步骤5.2.2得到的每个图像子序列按照动作变化角度进行分割;具体为:用p1表示前一帧活跃关节;用p2表示当前帧活跃关节;用p3表示后一帧活跃关节;如果向量与向量的夹角大于60度,则在当前帧与下一帧之间做分割;
经过步骤5.2的操作,完成对待识别人体全身连续动作视频x的分割,得到的图像子序列的数量用符号H表示,H≥1;
步骤5.3:选出候选动作;
依次对步骤5.2得到的每一个图像子序列分别进行如下操作:从步骤四得到的连续动作编码序列中,找到当前图像子序列对应的编码序列,并将其分别输入到步骤三得到的Q个HMM分类器,选择概率值最高的C个HMM分类器对应的动作作为候选动作,记为Lh={lh,g|g=1,2,...,C},Lh表示第h个图像子序列的候选动作集合;lh,g表示第h个图像子序列的第g个候选动作;C表示每个图像子序列的候选动作数量;其中,3≤C≤5;
步骤5.4:确定动作类别序列;通过改进的维特比算法依次对每个图像子序列求解最优动作类别;具体为:
步骤5.4.1:通过公式(6)依次计算待识别人体全身连续动作视频x的第h个图像子序列为候选动作集合中第J个候选动作的能量值(用符号Ωh,J表示);其中,1≤h≤H;1≤J≤C;
Ω h , J = min I = 1,2 , . . . , C { Ω U , l U , J + δ + λ h , J , I Θ h , J , I } - - - ( 6 )
其中,U表示第U个图像子序列的动作不是候选动作集合中第J个候选动作,但第U+1个图像子序列到当前图像子序列的动作都为候选动作集合中第J个候选动作,U∈[1,J-1];lU,J表示第U个图像子序列的第J个候选动作;δ是一个常数惩罚项,δ=0.6;λh,J,I可通过公式(7)计算得到;Θh,J,I可通过公式(10)计算4 --> 得到;
λ h , J , I = Σ K = U + 1 h - 1 ( 1 - Φ ~ K , l h - 1 , J ) + 1 - Φ ~ h , J I - U - - - ( 7 )
其中,可通过公式(8)计算得到;可通过公式(9)计算得到;
Φ ~ h , J = Φ h , J Σ I ′ = 1 C Φ h , I ′ - - - ( 8 )
其中,Φh,J表示第h个图像子序列由第g个候选动作第J个候选动作对应的HMM分类器输出的概率;Φh,I′表示第h个图像子序列由第I′个候选动作对应的HMM分类器输出的概率;
Φ ~ K , l h - 1 , J = Φ K , l h - 1 , J Σ I ′ = 1 C Φ h , I ′ - - - ( 9 )
其中,表示第K个图像子序列由第J个候选动作对应的HMM分类器输出的概率;
其中,Φ<U+1,h>,J表示从U+1个图像子序列到第h个图像子序列由第J个候选动作对应的HMM分类器输出的概率;η是一个常数因子,η;可通过公式(11)计算得到;οJend(h)可通过公式(12)计算得到;
其中,beg(U+1)表示第U+1个图像子序列对应的编码序列里第一个编码值;BJ,i,beg(U+1)表示第J个候选动作对应的HMM分类器的混淆矩阵第i行第beg(U+1)列的元素值;πJ,i表示第J个候选动作对应的HMM分类器的初始隐式状态分布概率向量第i个元素值;
o J , end ( h ) = Σ i = 1 N B J , i , end ( h ) σ J , i - - - ( 12 )
其中,end(h)表示第h个图像子序列对应的编码序列里最后一个编码值;BJ,i,end(h)表示第J个选动作对应的HMM分类器的混淆矩阵第i行第end(h)列的元素值;σJ,i表示第J个选动作对应的HMM分类器的最终隐式状态分布概率向量第i个元素值;5 -->
步骤5.4.2:对于待识别人体全身连续动作视频x的每个图像子序列,从步骤5.4.1计算得到的其候选动作集合中候选动作的能量值中选择最大值,将最大值对应的候选动作,作为该图像子序列的动作类别;
经过步骤五的操作,即可得到待识别人体全身连续动作视频x包含的动作类别序列。
2.如权利要求1所述的一种基于改进维特比算法的连续动作识别方法,其特征在于:训练过程的步骤一中所述人体全身动作视频是通过三维体感摄像机拍摄获得的单个人体全身动作。
3.如权利要求1或2所述的一种基于改进维特比算法的连续动作识别方法,其特征在于:训练过程的步骤一中所述人体全身动作视频为RGB-D格式视频。
4.如权利要求1或2所述的一种基于改进维特比算法的连续动作识别方法,其特征在于:训练过程的步骤一步骤1.1中所述人体关节点包括:头部关节点、脊柱关节点、肩膀中心节点、左肩膀关节点、右肩膀关节点、左肘关节点、右肘关节点、左腕关节点、右腕关节点、左手关节点、右手关节点、臀部关节点、左髋骨关节点、右髋骨关节点、左膝关节点、右膝关节点、左踝关节点、右踝关节点、左脚关节点、右脚关节点。
5.如权利要求1或2所述的一种基于改进维特比算法的连续动作识别方法,其特征在于:训练过程的步骤三中所述对应每一种人体全身动作,训练一个HMM分类器的训练过程为:
步骤3.1:给参数AN×N,BN×M,π,o赋初始值,满足AN×N,BN×M,π,o中的元素值均为正数,且AN×N,BN×M,π,o中同一行的元素值之和为1;
步骤3.2:将步骤一得到的第q种全身动作视频对应的全部单一动作编码序列,作为观测序列,输入到HMM分类器φq中,使用前向后向算法对HMM分类器φq里的参数AN×N,BN×M,π,o进行训练,1≤q≤Q;训练过程中使用的迭代公式如公式(1)至公式(5)所示;
o ‾ = γ T ( i ) - - - ( 1 )
其中,为当前迭代得到的最终隐式状态分布N维向量;γT(i)表示T时刻隐式状态为i的概率,1≤i≤N;T为观测序列的长度;γT(i)的值可通过公式(2)得到,公式(2)中当t=T时,即得到γT(i);
γ t ( i ) = Σ j = 1 N ξ t ( i , j ) - - - ( 2 )
其中,γt(i)表示t时刻隐式状态为i的概率;1≤t≤T;ξt(i,j)表示隐式状态在t时刻为i且在t+1时刻为j的概率,1≤i,j≤N,ξt(i,j)=P(qt=i,qt+1=j|O,λ),qt表示t时刻的隐式状态,qt+1表示t+1时刻的隐式状态,O表示观测序列;λ表示HMM模型的所有参数;
π ‾ = γ 1 ( i ) - - - ( 3 )
其中,为当前迭代得到的初始隐式状态分布N维向量;γ1(i)可通过公式(2)得到,公式(2)中当t=1时,即得到γ1(i);
a ‾ i , j = Σ t = 1 T - 1 ξ t ( i , j ) Σ t = 1 T - 1 γ t ( i ) - - - ( 4 )
其中,为当前迭代得到的AN×N第i行第j列的元素值;
b ‾ i , k = Σ t = 1 , O t = k T γ t ( i ) Σ t = 1 T γ t ( i ) - - - ( 5 )
其中,为当前迭代得到的BN×M第i行第k列的元素值;1≤k≤M;Ot表示t时刻的观测值。7 -->
CN201510035514.5A 2015-01-23 2015-01-23 一种基于改进维特比算法的连续动作识别方法 Expired - Fee Related CN104573665B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201510035514.5A CN104573665B (zh) 2015-01-23 2015-01-23 一种基于改进维特比算法的连续动作识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201510035514.5A CN104573665B (zh) 2015-01-23 2015-01-23 一种基于改进维特比算法的连续动作识别方法

Publications (2)

Publication Number Publication Date
CN104573665A true CN104573665A (zh) 2015-04-29
CN104573665B CN104573665B (zh) 2017-10-17

Family

ID=53089687

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201510035514.5A Expired - Fee Related CN104573665B (zh) 2015-01-23 2015-01-23 一种基于改进维特比算法的连续动作识别方法

Country Status (1)

Country Link
CN (1) CN104573665B (zh)

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105678779A (zh) * 2016-01-15 2016-06-15 上海交通大学 基于椭圆匹配的人体朝向角度实时检测方法
CN107169423A (zh) * 2017-04-24 2017-09-15 南京邮电大学 一种视频人物运动类型识别方法
CN107194344A (zh) * 2017-05-16 2017-09-22 西安电子科技大学 自适应骨骼中心的人体行为识别方法
CN107301370A (zh) * 2017-05-08 2017-10-27 上海大学 一种基于Kinect三维骨架模型的肢体动作识别方法
CN108154551A (zh) * 2017-11-29 2018-06-12 深圳奥比中光科技有限公司 实时动态重建三维人体模型的方法及系统
CN108256472A (zh) * 2018-01-17 2018-07-06 清华大学 一种视频图像序列分割系统和方法
CN108319960A (zh) * 2018-01-09 2018-07-24 和芯星通(上海)科技有限公司 基于概率图模型的行为识别系统及方法、设备及存储介质
CN108446583A (zh) * 2018-01-26 2018-08-24 西安电子科技大学昆山创新研究院 基于姿态估计的人体行为识别方法
WO2019120108A1 (zh) * 2017-12-19 2019-06-27 华为技术有限公司 图像编码方法、动作识别的方法及计算机设备
CN110414479A (zh) * 2019-08-08 2019-11-05 燕山大学 一种饮水行为感知方法、连续和非连续动作分割识别方法
CN111507219A (zh) * 2020-04-08 2020-08-07 广东工业大学 一种动作识别方法、装置及电子设备和存储介质
CN111954032A (zh) * 2019-05-17 2020-11-17 阿里巴巴集团控股有限公司 视频处理方法、装置、电子设备及存储介质
CN112131979A (zh) * 2020-09-09 2020-12-25 东南大学 一种基于人体骨骼信息的连续动作识别方法
WO2021082749A1 (zh) * 2019-10-30 2021-05-06 腾讯科技(深圳)有限公司 一种基于人工智能的动作识别方法和相关装置
CN113345061A (zh) * 2021-08-04 2021-09-03 成都市谛视科技有限公司 动作补全模型的训练方法、装置、补全方法、设备和介质

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6993462B1 (en) * 1999-09-16 2006-01-31 Hewlett-Packard Development Company, L.P. Method for motion synthesis and interpolation using switching linear dynamic system models
CN102707806A (zh) * 2012-05-18 2012-10-03 北京航空航天大学 一种基于加速度传感器的运动识别方法
CN102938070A (zh) * 2012-09-11 2013-02-20 广西工学院 一种基于动作子空间与权重化行为识别模型的行为识别方法
CN103390168A (zh) * 2013-07-18 2013-11-13 重庆邮电大学 基于Kinect深度信息的智能轮椅动态手势识别方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6993462B1 (en) * 1999-09-16 2006-01-31 Hewlett-Packard Development Company, L.P. Method for motion synthesis and interpolation using switching linear dynamic system models
CN102707806A (zh) * 2012-05-18 2012-10-03 北京航空航天大学 一种基于加速度传感器的运动识别方法
CN102938070A (zh) * 2012-09-11 2013-02-20 广西工学院 一种基于动作子空间与权重化行为识别模型的行为识别方法
CN103390168A (zh) * 2013-07-18 2013-11-13 重庆邮电大学 基于Kinect深度信息的智能轮椅动态手势识别方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
袁俊: ""HMM连续语音识别中Viterbi算法的优化及应用"", 《电脑纵横》 *

Cited By (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105678779B (zh) * 2016-01-15 2018-05-08 上海交通大学 基于椭圆匹配的人体朝向角度实时检测方法
CN105678779A (zh) * 2016-01-15 2016-06-15 上海交通大学 基于椭圆匹配的人体朝向角度实时检测方法
CN107169423B (zh) * 2017-04-24 2020-08-04 南京邮电大学 一种视频人物运动类型识别方法
CN107169423A (zh) * 2017-04-24 2017-09-15 南京邮电大学 一种视频人物运动类型识别方法
CN107301370A (zh) * 2017-05-08 2017-10-27 上海大学 一种基于Kinect三维骨架模型的肢体动作识别方法
CN107194344A (zh) * 2017-05-16 2017-09-22 西安电子科技大学 自适应骨骼中心的人体行为识别方法
CN107194344B (zh) * 2017-05-16 2020-06-05 西安电子科技大学 自适应骨骼中心的人体行为识别方法
CN108154551A (zh) * 2017-11-29 2018-06-12 深圳奥比中光科技有限公司 实时动态重建三维人体模型的方法及系统
CN108154551B (zh) * 2017-11-29 2021-04-30 奥比中光科技集团股份有限公司 实时动态重建三维人体模型的方法及系统
WO2019120108A1 (zh) * 2017-12-19 2019-06-27 华为技术有限公司 图像编码方法、动作识别的方法及计算机设备
US11825115B2 (en) 2017-12-19 2023-11-21 Huawei Technologies Co., Ltd. Image coding method, action recognition method, and action recognition apparatus
US11303925B2 (en) 2017-12-19 2022-04-12 Huawei Technologies Co., Ltd. Image coding method, action recognition method, and action recognition apparatus
CN108319960A (zh) * 2018-01-09 2018-07-24 和芯星通(上海)科技有限公司 基于概率图模型的行为识别系统及方法、设备及存储介质
CN108256472A (zh) * 2018-01-17 2018-07-06 清华大学 一种视频图像序列分割系统和方法
CN108446583A (zh) * 2018-01-26 2018-08-24 西安电子科技大学昆山创新研究院 基于姿态估计的人体行为识别方法
CN111954032A (zh) * 2019-05-17 2020-11-17 阿里巴巴集团控股有限公司 视频处理方法、装置、电子设备及存储介质
CN110414479A (zh) * 2019-08-08 2019-11-05 燕山大学 一种饮水行为感知方法、连续和非连续动作分割识别方法
CN110414479B (zh) * 2019-08-08 2021-11-16 燕山大学 一种饮水行为感知方法、连续和非连续动作分割识别方法
WO2021082749A1 (zh) * 2019-10-30 2021-05-06 腾讯科技(深圳)有限公司 一种基于人工智能的动作识别方法和相关装置
CN111507219A (zh) * 2020-04-08 2020-08-07 广东工业大学 一种动作识别方法、装置及电子设备和存储介质
CN112131979A (zh) * 2020-09-09 2020-12-25 东南大学 一种基于人体骨骼信息的连续动作识别方法
CN113345061A (zh) * 2021-08-04 2021-09-03 成都市谛视科技有限公司 动作补全模型的训练方法、装置、补全方法、设备和介质

Also Published As

Publication number Publication date
CN104573665B (zh) 2017-10-17

Similar Documents

Publication Publication Date Title
CN104573665A (zh) 一种基于改进维特比算法的连续动作识别方法
Song et al. Constructing stronger and faster baselines for skeleton-based action recognition
CN105512621A (zh) 一种基于Kinect的羽毛球动作指导系统
CN111027403B (zh) 手势估计方法、装置、设备及计算机可读存储介质
CN110728220A (zh) 基于人体动作骨骼信息的体操辅助训练方法
CN107229920B (zh) 基于整合深度典型时间规整及相关修正的行为识别方法
CN103092329A (zh) 一种基于唇读技术的唇语输入方法
CN109274883B (zh) 姿态矫正方法、装置、终端及存储介质
CN107885327A (zh) 一种基于Kinect深度信息的指尖检测方法
Ghotkar et al. Dynamic hand gesture recognition using hidden Markov model by Microsoft Kinect sensor
CN102682452A (zh) 基于产生式和判别式结合的人体运动跟踪方法
CN110135277B (zh) 一种基于卷积神经网络的人体行为识别方法
CN104182748A (zh) 一种基于拆分匹配的汉字笔画自动提取方法
CN113191243B (zh) 基于相机距离的人手三维姿态估计模型建立方法及其应用
CN111204476A (zh) 一种基于强化学习的视触融合精细操作方法
CN103955680A (zh) 基于形状上下文的动作识别方法及装置
CN105976395A (zh) 一种基于稀疏表示的视频目标跟踪方法
CN107909003B (zh) 一种针对大词汇量的手势识别方法
CN113780059A (zh) 一种基于多特征点的连续手语识别方法
CN109670401A (zh) 一种基于骨骼运动图的动作识别方法
CN116524062A (zh) 一种基于扩散模型的2d人体姿态估计方法
CN113255569B (zh) 一种基于图空洞卷积编码器解码器的3d姿态估计方法
CN104964684B (zh) 一种高动态下快速星跟踪方法
CN102034275B (zh) 面向大尺度变形的非刚性注册方法
CN102663369B (zh) 基于surf高效匹配核的人体运动跟踪方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
ASS Succession or assignment of patent right

Owner name: SHENZHEN RESEARCH INSTITUTE, BEIJING INSTITUTE OF

Effective date: 20150701

C41 Transfer of patent application or patent right or utility model
TA01 Transfer of patent application right

Effective date of registration: 20150701

Address after: 100081 Haidian District, Zhongguancun, South Street, No. 5, Beijing Institute of Technology,

Applicant after: Beijing Institute of Technology

Applicant after: Shenzhen Research Institute, Beijing Institute of Technology

Address before: 100081 Haidian District, Zhongguancun, South Street, No. 5, Beijing Institute of Technology,

Applicant before: Beijing Institute of Technology

GR01 Patent grant
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20171017

Termination date: 20180123

CF01 Termination of patent right due to non-payment of annual fee