CN108491754A - 一种基于骨骼特征的动态表示和匹配的人体行为识别方法 - Google Patents

一种基于骨骼特征的动态表示和匹配的人体行为识别方法 Download PDF

Info

Publication number
CN108491754A
CN108491754A CN201810106594.2A CN201810106594A CN108491754A CN 108491754 A CN108491754 A CN 108491754A CN 201810106594 A CN201810106594 A CN 201810106594A CN 108491754 A CN108491754 A CN 108491754A
Authority
CN
China
Prior art keywords
sequence
segmentation
key poses
behavior
key
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201810106594.2A
Other languages
English (en)
Other versions
CN108491754B (zh
Inventor
李琦铭
李俊
崇米娜
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Quanzhou Institute of Equipment Manufacturing
Original Assignee
Quanzhou Institute of Equipment Manufacturing
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Quanzhou Institute of Equipment Manufacturing filed Critical Quanzhou Institute of Equipment Manufacturing
Priority to CN201810106594.2A priority Critical patent/CN108491754B/zh
Publication of CN108491754A publication Critical patent/CN108491754A/zh
Application granted granted Critical
Publication of CN108491754B publication Critical patent/CN108491754B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • G06F18/232Non-hierarchical techniques
    • G06F18/2321Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
    • G06F18/23213Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions with fixed number of clusters, e.g. K-means clustering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/46Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/48Matching video sequences

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Evolutionary Computation (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Probability & Statistics with Applications (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Human Computer Interaction (AREA)
  • Image Analysis (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本发明一种基于骨骼特征的动态表示和匹配的人体行为识别方法,对每个分段中的不同数量的关键姿态进行提取,用于动态地表示不同行为的视频序列,利用k近邻搜索算法进行关键姿态提取,能提取出鲁棒性和区分性更强的关键姿态序列,在识别匹配过程中,利用形状上下文信息进行关键姿态的动态匹配,以解决对应行为分段中的关键姿态数量不一致的问题,同时,形状上下文信息也能提供在行为识别过程中更丰富的关键姿态之间的信息量。

Description

一种基于骨骼特征的动态表示和匹配的人体行为识别方法
技术领域
本发明涉及一种基于骨骼特征的动态表示和匹配的人体行为识别方法。
背景技术
Kinect等设备提取的RGB-D图像的人体骨骼特征信息能够很好地刻画人体关节点在三维坐标中的位置和方向信息。但是由于不同人体行为类别以及同一行为在不同个体的差异性,使得传统基于RGB-D图像的骨骼特征的关键姿态表示方法存在一些局限性。
现有方案是把聚类算法得到的固定数量的聚类中心用于表示不同长度的行为视频分段,其存在一定的问题:若分段中提取的关键姿态数量大,会造成长度较小的视频序列计算复杂度提高;而反之,会造成长度较大的视频序列的信息损失。单纯的根据分段长度设定提取的关键姿态数量,不能保证提取的关键姿态序列的鲁棒性。首先,这种运用聚类方法得到的固定数量的聚类中心表示视频序列的关键姿态的做法,不能针对视频序列长度得到动态数量的关键姿态;其次,由于人体存在形变及遮挡等特性,图像骨骼特征序列中存在一些噪声和失效的特征,而利用这些特征得到的聚类中心用于表示行为序列,会使行为识别方法的分类性能降低。
发明目的
本发明的目的在于提出一种基于骨骼特征的动态表示和匹配的人体行为识别方法,是对每个分段中的不同数量的关键姿态进行提取,用于动态地表示不同行为的视频序列,更具有普遍性和鲁棒性,同时,提出利用形状上下文信息的动态时间规整方法对具有不同数量的关键姿态的行为分段进行动态匹配,可提高RGB-D图像中人体行为识别的准确率,可应用于基于Kinect等深度传感器的电子娱乐、虚拟现实等人机交互相关的新兴产业。
本发明一种基于骨骼特征的动态表示和匹配的人体行为识别方法,包括如下步骤:
步骤1、训练过程
(1)在人体行为视频序列中,将每一帧的人体骨骼中关节点的三维坐标作为骨骼特征序列的训练样本,数据库中训练样本所属的类别为已知,对骨骼的三维坐标进行预处理后提取骨骼特征信息,根据骨骼特征信息的势能变化,将视频序列中的人体行为分为运动变化较小的静态行为序列,以及运动变化较大的动态行为序列,将视频序列分成姿态变化不一样的多个分段;
(2)对上述每个分段提取一定数量的关键姿态,在一定数量的连续分段中随机提取关键姿态,使得每个训练样本在每个分段中得到不同数量的关键姿态来构成骨骼特征的关键姿态序列,利用k近邻分类器提取出鲁棒和区分性更强的骨骼特征的关键姿态序列,并把提取出来的关键姿态序列与同一分段中的关键姿态进行合并,得到最终表示连续视频分段的人体行为特征的关键姿态序列,使每个分段中的关键姿态的数量根据自身长短变化特性进行改变;
步骤2、识别过程
针对骨骼特征序列识别样本,首先,将人体行为视频序列分成姿态变化不一样的静态行为分段和动态行为分段;其次,利用与训练过程相同的关键姿态序列的提取方法用于表示识别样本;最后,将识别样本的行为序列分成具有固定长度分段的测试子序列与训练样本进行匹配,同时对静态行为分段和动态行为分段运用不同的匹配方法,结合静态行为分段和动态行为分段匹配的结果,得到匹配度最高的对应训练样本的类别作为该测试子序列的类别。
所述根据骨骼特征信息的势能变化,将视频序列中的人体行为分为运动变化较小的静态行为序列,以及运动变化较大的动态行为序列,将视频序列分成姿态变化不一样的多个分段,具体步骤如下:
对人体行为视频序列中骨骼的三维坐标提取的骨骼特征信息生成每一帧的特征向量,假设Fi表示人体行为视频序列的第i帧的特征向量,那么势能Ep(i)可由当前帧与第一帧的特征向量F1的欧氏距离得到:Ep(i)=||Fi-F1||2 (1);
然后用相邻帧的势能变化Ed(i)作为骨骼特征的势能变化大小:
Ed(i)=Ep(i)-Ep(i-1) (2);
设定势能变化阈值,把小于这一势能变化阈值的视频序列作为运动变化较小的静态行为分段,反之则为动态行为分段,将所有势能变化大小小于所述势能变化阈值的置为零。
上述步骤1训练过程的步骤(2),具体包括如下步骤:
(1)假设Fr={Fr1,Fr1,...,Frm}是由m个随机选择的关键姿态r组成的序列,r指的是随机选择的关键姿态,表示第j次选取的序列,为了寻找中所有关键姿态的k近邻,为其构造一个训练集,训练集中包含与属于同一行为的视频帧特征向量,以及其它行为序列中随机选择的视频帧特征向量,那么,在训练集中得到其k近邻的得票的置信度分数为:
其中,ki在训练集中得到的k近邻的个数,是k近邻中与属于同一行为的近邻的个数,在所有随机提取的关键姿态序列中,选择置信度分数位于前N个关键姿态序列用于表示这一行为视频序列,从统计学的角度出发,当j和k的个数足够大的,可以提取出鲁棒性及区分性能高的行为视频序列;
(2)利用K均值聚类方法从已得到的人体行为视频序列中位于该分段内的关键姿态中提取固定数量的关键姿态用于表示静态行为分段,则所有位于相同静态行为分段中的关键姿态都利用K均值聚类得到固定数量的关键姿态用于表示该分段;而所有位于动态行为分段中的关键姿态序列直接提取用于表示该分段,针对姿态变化较大的分段可以用较多数量的关键姿态表示,反之姿态变化较小的分段用较小数量的关键姿态表示。
上述步骤2的识别过程具体包括如下步骤:
(1)由于静态行为分段中是由固定数量的聚类中心表示,那么,识别样本中的测试子序列与训练样本中的静态行为分段距离可由公式(4)衡量:
其中,ns表示识别样本的测试子序列第l个分段中聚类得到的关键姿态的个数,由于静态行为分段和动态行为分段是交替出现的,假设第一个出现的是静态行为分段,表示识别样本的测试子序列第l个分段中第i个关键姿态,表示训练样本对应的第l个分段中距离最近的关键姿态;
(2)在动态行为分段的匹配过程中,识别样本和训练样本的动态行为分段都由多个不同长度的关键姿态序列表示,利用形状信息动态时间规整shapeDTW方法进行动态匹配,人体行为序列的运动轨迹可形象地表示为具有形状上下文信息的曲线,对单个关键姿态的上下文信息构造其局部的形状特征,采用前后关键姿态的特征信息与当前关键姿态的特征信息拼接作为形状信息动态时间规整shapeDTW方法中当前关键姿态的形状上下文信息,具体的匹配过程包括如下步骤:
假设两个关键姿态序列为:
X={x1,x2,...xm}
Y={y1,y2,...yn} (5)
其中,序列X中含有m个关键姿态,序列Y中含有n个关键姿态,且每个关键姿态xi和yi都是多维的骨骼特征向量,两个关键姿态之间的距离为:
其中,分别表示关键姿态xi和yi的形状上下文信息,i=1,2,...m,j=1,2,...n,然后,通过迭代计算两个关键姿态序列的shapeDTW距离Dshape(m,n),其中每个迭代步骤得到的距离为:D(i,j)=dij+min{D(i-1),D(i,j-1),D(i-1,j-1)} (7)
然后,根据关键姿态序列的shapeDTW距离的计算方法,得到识别样本和和训练样本的子序列对应第l个动态行为分段的距离:
其中,nm表示识别样本的测试子序列第l个动态分段中得到的关键姿态序列的个数,表示测试子序列第l个动态分段中第i个关键姿态序列,表示训练样本对应的第l个动态分段中距离最近的关键姿态序列;
(3)利用测试子序列的静态行为分段及动态行为分段的距离之和得到最终的匹配结果,将与识别样本测试子序列距离最小的训练样本的类别作为其类别。
本发明提出一种针对每个行为分段中的不同数量的关键姿态进行提取方法,对每个分段中的不同数量的关键姿态进行提取,用于动态地表示不同行为的视频序列,这样做可使关键姿态的提取方法更具有普遍性和鲁棒性。本发明利用k近邻搜索算法进行关键姿态提取,能提取出鲁棒性和区分性更强的关键姿态序列。在识别匹配过程中,本发明利用形状上下文信息进行关键姿态的动态匹配,以解决对应行为分段中的关键姿态数量不一致的问题。同时,形状上下文信息也能提供在行为识别过程中更丰富的关键姿态之间的信息量。
附图说明
图1为本发明基于骨骼特征的动态表示和匹配的人体行为识别方法总体流程图;
图2为本发明关键姿态数量的分段示意图;
图3为本发明人体行为序列的运动轨迹匹配示意图;
图4为本发明关键姿态序列的动态表示示意图。
以下结合具体实施例和附图对本发明做进一步详述。
具体实施方式
如图1所示,本发明一种基于骨骼特征的动态表示和匹配的人体行为识别方法,主要分为训练和识别两个过程,包括如下步骤:
步骤1、训练过程
(1)在人体行为视频序列中,将每一帧的人体骨骼中关节点的三维坐标作为骨骼特征序列的训练样本,数据库中训练样本所属的类别为已知,然后,对骨骼的三维坐标进行预处理(即平滑处理),并提取骨骼特征信息(Normalized Relative Orientation,NRO),根据骨骼特征信息的势能变化,将视频序列中的人体行为分为运动变化较小的静态行为序列,以及运动变化较大的动态行为序列,将视频序列分成姿态变化不一样的多个分段,从而对静态和动态行为进行区分处理,具体步骤如下:
对人体行为视频序列中的骨骼的三维坐标进行预处理并提取骨骼特征信息生成每一帧的特征向量,假设Fi表示人体行为视频序列的第i帧的特征向量,那么势能Ep(i)可由当前帧与第一帧的特征向量F1的欧氏距离得到:Ep(i)=||Fi-F1||2 (1);
然后用相邻帧的势能变化Ed(i)作为骨骼特征的势能变化大小:
Ed(i)=Ep(i)-Ep(i-1) (2)
设定势能变化阈值,把小于这一势能变化阈值的视频序列作为运动变化较小的静态行为分段,反之则为动态行为分段,如图2所示,将所有势能变化大小小于所述势能变化阈值的置为零;
(2)在得到人体行为视频序列的分段后,对每个分段提取一定数量的关键姿态,不同于其它在一个分段中提取固定数量的关键姿态的提取方法,本发明在一定数量的连续分段中多次随机提取关键姿态,这样可以使得每个训练样本在每个分段中得到不同数量的关键姿态,构成骨骼特征的关键姿态序列,由于这些姿态序列存在的随机性,并不是所有的这些姿态序列都能很好的表示其所在的连续视频分段,需要对其进行筛选,利用k近邻(k-Nearest Neighbours,kNN)分类器提取出鲁棒和区分性更强的骨骼特征的关键姿态序列,并把提取出来的关键姿态序列与同一分段中的关键姿态进行合并,得到最终表示连续视频分段的人体行为特征的关键姿态序列,这样做可使每个分段中的关键姿态的数量根据自身长短变化特性进行改变,包括如下步骤:
(1)假设Fr={Fr1,Fr1,...,Frm}是由m个随机选择的关键姿态r组成的序列,r指的是随机选择的关键姿态,表示第j次选取的序列,为了寻找中所有关键姿态的k近邻,为其构造一个训练集,训练集中包含与属于同一行为的视频帧特征向量,以及其它行为序列中随机选择的视频帧特征向量,那么,在训练集中得到其k近邻的得票的置信度分数为:
其中,ki在训练集中得到的k近邻的个数,是k近邻中与属于同一行为的近邻的个数,在所有随机提取的关键姿态序列中,选择置信度分数位于前N个关键姿态序列用于表示这一行为视频序列,从统计学的角度出发,当j和k的个数足够大的,可以提取出鲁棒性及区分性能高的行为视频序列;
(2)在上一步中已经得到了前N置信度分数的关键姿态序列用于表示人体行为视频序列,然而,一个视频序列是分成静态和动态行为的分段,需要对不同分段进行动态的表示,由于静态行为分段中的人体行为姿态变化小,不需要使用和动态行为分段中相同数量的关键姿态;所以,本发明利用K均值聚类方法从已得到的人体行为视频序列中位于该分段内的关键姿态中提取固定数量的关键姿态用于表示静态行为分段;如图4所示,所有位于相同静态行为分段中的关键姿态运用K均值聚类得到固定数量的关键姿态用于表示该分段;而所有位于动态行为分段中的关键姿态序列直接提取用于表示该分段,这样便得到了用于表示动态行为分段的不同数量的关键姿态序列,针对姿态变化较大的分段可以用较多数量的关键姿态表示,反之姿态变化较小的分段用较小数量的关键姿态表示;
步骤2、识别过程
针对骨骼特征序列识别样本,首先,将人体行为视频序列分成姿态变化不一样的静态行为分段和动态行为分段;其次,利用与训练过程相同的关键姿态序列的提取方法用于表示识别样本;最后,将识别样本的行为序列分成具有固定长度分段的测试子序列与训练样本进行匹配,同时对静态行为分段和动态行为分段运用不同的匹配方法,结合静态行为分段和动态行为分段匹配的结果,得到匹配度最高的对应训练样本的类别作为该测试子序列的类别;具体包括如下步骤:
(1)由于静态行为分段中是由固定数量的聚类中心表示,那么,识别样本中的测试子序列与训练样本中的静态行为分段距离可由公式(4)衡量:
其中,ns表示识别样本的测试子序列第l个分段中聚类得到的关键姿态的个数,由于静态行为分段和动态行为分段是交替出现的,假设第一个出现的是静态行为分段,表示识别样本的测试子序列第l个分段中第i个关键姿态,表示训练样本对应的第l个分段中距离最近的关键姿态;
(2)而在动态行为分段的匹配过程中,由于识别样本和训练样本的动态行为分段都由多个不同长度的关键姿态序列表示,因此需要解决不同长度的关键姿态序列的动态匹配问题;为了解决这一问题,目前常采用的是动态时间规整(Dynamic Time Warping,DTW)方法,然而,DTW虽然可得到全局最优解,但是没有考虑局部特征的上下文信息,即关键姿态之间的空间信息,形状信息动态时间规整(shape Dynamic Time Warping,shapeDTW)是一种结合全局和局部上下文信息的动态匹配方法,在DTW中两个序列的匹配只利用了当前特征向量的自身信息进行匹配,而shapeDTW提取的是当前特征向量的局部形状上下文信息进行匹配,如图3所示,人体行为序列的运动轨迹可形象地表示为具有形状上下文信息的曲线;对单个关键姿态的上下文信息构造其局部的形状特征,采用前后关键姿态的特征信息与当前关键姿态的特征信息拼接作为shapeDTW方法中当前关键姿态的形状上下文信息,具体的匹配过程包括如下步骤:
假设两个关键姿态序列为:
X={x1,x2,...xm}
Y={y1,y2,...yn} (5)
其中,序列X中含有m个关键姿态,序列Y中含有n个关键姿态,且每个关键姿态xi和yi都是多维的骨骼特征向量,两个关键姿态之间的距离为:
其中,分别表示关键姿态xi和yi的形状上下文信息,i=1,2,...m,j=1,2,...n,然后,通过迭代计算两个关键姿态序列的shapeDTW距离Dshape(m,n),其中每个迭代步骤得到的距离为:D(i,j)=dij+min{D(i-1),D(i,j-1),D(i-1,j-1)} (7)
然后,根据关键姿态序列的shapeDTW距离的计算方法,得到识别样本和和训练样本的子序列对应第l=2,4,...,个动态行为分段的距离:
其中,nm表示识别样本的测试子序列第l个动态分段中得到的关键姿态序列的个数,表示测试子序列第l个动态分段中第i个关键姿态序列,表示训练样本对应的第l个动态分段中距离最近的关键姿态序列;
(3)利用测试子序列的静态行为分段及动态行为分段的距离之和得到最终的匹配结果,将与识别样本测试子序列距离最小的训练样本的类别作为其类别。
以上所述,仅是本发明较佳实施例而已,并非对本发明的技术范围作任何限制,故凡是依据本发明的技术实质对以上实施例所作的任何细微修改、等同变化与修饰,均仍属于本发明技术方案的范围内。

Claims (4)

1.一种基于骨骼特征的动态表示和匹配的人体行为识别方法,其特征在于包括如下步骤:
步骤1、训练过程
(1)在人体行为视频序列中,将每一帧的人体骨骼中关节点的三维坐标作为骨骼特征序列的训练样本,数据库中训练样本所属的类别为已知,对骨骼的三维坐标进行预处理后提取骨骼特征信息,根据骨骼特征信息的势能变化,将视频序列中的人体行为分为运动变化较小的静态行为序列,以及运动变化较大的动态行为序列,将视频序列分成姿态变化不一样的多个分段;
(2)对上述每个分段提取一定数量的关键姿态,在一定数量的连续分段中随机提取关键姿态,使得每个训练样本在每个分段中得到不同数量的关键姿态来构成骨骼特征的关键姿态序列,利用k近邻分类器提取出鲁棒和区分性更强的骨骼特征的关键姿态序列,并把提取出来的关键姿态序列与同一分段中的关键姿态进行合并,得到最终表示连续视频分段的人体行为特征的关键姿态序列,使每个分段中的关键姿态的数量根据自身长短变化特性进行改变;
步骤2、识别过程
针对骨骼特征序列识别样本,首先,将人体行为视频序列分成姿态变化不一样的静态行为分段和动态行为分段;其次,利用与训练过程相同的关键姿态序列的提取方法用于表示识别样本;最后,将识别样本的行为序列分成具有固定长度分段的测试子序列与训练样本进行匹配,同时对静态行为分段和动态行为分段运用不同的匹配方法,结合静态行为分段和动态行为分段匹配的结果,得到匹配度最高的对应训练样本的类别作为该测试子序列的类别。
2.根据权利要求1所述的一种基于骨骼特征的动态表示和匹配的人体行为识别方法,其特征在于:所述根据骨骼特征信息的势能变化,将视频序列中的人体行为分为运动变化较小的静态行为序列,以及运动变化较大的动态行为序列,将视频序列分成姿态变化不一样的多个分段,具体步骤如下:
对人体行为视频序列中骨骼的三维坐标提取的骨骼特征信息生成每一帧的特征向量,假设Fi表示人体行为视频序列的第i帧的特征向量,那么势能Ep(i)可由当前帧与第一帧的特征向量F1的欧氏距离得到:Ep(i)=||Fi-F1||2 (1);
然后用相邻帧的势能变化Ed(i)作为骨骼特征的势能变化大小:
Ed(i)=Ep(i)-Ep(i-1) (2);
设定势能变化阈值,把小于这一势能变化阈值的视频序列作为运动变化较小的静态行为分段,反之则为动态行为分段,将所有势能变化大小小于所述势能变化阈值的置为零。
3.根据权利要求1所述的一种基于骨骼特征的动态表示和匹配的人体行为识别方法,其特征在于:上述步骤1训练过程的步骤(2),具体包括如下步骤:
(1)假设Fr={Fr1,Fr1,...,Frm}是由m个随机选择的关键姿态r组成的序列,r指的是随机选择的关键姿态,表示第j次选取的序列,为了寻找中所有关键姿态的k近邻,为其构造一个训练集,训练集中包含与属于同一行为的视频帧特征向量,以及其它行为序列中随机选择的视频帧特征向量,那么,在训练集中得到其k近邻的得票的置信度分数为:
其中,ki在训练集中得到的k近邻的个数,是k近邻中与属于同一行为的近邻的个数,在所有随机提取的关键姿态序列中,选择置信度分数位于前N个关键姿态序列用于表示这一行为视频序列,从统计学的角度出发,当j和k的个数足够大的,可以提取出鲁棒性及区分性能高的行为视频序列;
(2)利用K均值聚类方法从已得到的人体行为视频序列中位于该分段内的关键姿态中提取固定数量的关键姿态用于表示静态行为分段,则所有位于相同静态行为分段中的关键姿态都利用K均值聚类得到固定数量的关键姿态用于表示该分段;而所有位于动态行为分段中的关键姿态序列直接提取用于表示该分段,针对姿态变化较大的分段可以用较多数量的关键姿态表示,反之姿态变化较小的分段用较小数量的关键姿态表示。
4.根据权利要求1所述的一种基于骨骼特征的动态表示和匹配的人体行为识别方法,其特征在于上述步骤2的识别过程具体包括如下步骤:
(1)由于静态行为分段中是由固定数量的聚类中心表示,那么,识别样本中的测试子序列与训练样本中的静态行为分段距离可由公式(4)衡量:
其中,ns表示识别样本的测试子序列第l个分段中聚类得到的关键姿态的个数,由于静态行为分段和动态行为分段是交替出现的,假设第一个出现的是静态行为分段,表示识别样本的测试子序列第l个分段中第i个关键姿态,表示训练样本对应的第l个分段中距离最近的关键姿态;
(2)在动态行为分段的匹配过程中,识别样本和训练样本的动态行为分段都由多个不同长度的关键姿态序列表示,利用形状信息动态时间规整shapeDTW方法进行动态匹配,人体行为序列的运动轨迹可形象地表示为具有形状上下文信息的曲线,对单个关键姿态的上下文信息构造其局部的形状特征,采用前后关键姿态的特征信息与当前关键姿态的特征信息拼接作为形状信息动态时间规整shapeDTW方法中当前关键姿态的形状上下文信息,具体的匹配过程包括如下步骤:
假设两个关键姿态序列为:
X={x1,x2,...xm}
Y={y1,y2,...yn} (5)
其中,序列X中含有m个关键姿态,序列Y中含有n个关键姿态,且每个关键姿态xi和yi都是多维的骨骼特征向量,两个关键姿态之间的距离为:
其中,分别表示关键姿态xi和yi的形状上下文信息,i=1,2,...m,j=1,2,...n,然后,通过迭代计算两个关键姿态序列的shapeDTW距离Dshape(m,n),其中每个迭代步骤得到的距离为:D(i,j)=dij+min{D(i-1),D(i,j-1),D(i-1,j-1)} (7)
然后,根据关键姿态序列的shapeDTW距离的计算方法,得到识别样本和和训练样本的子序列对应第l个动态行为分段的距离:
其中,nm表示识别样本的测试子序列第l个动态分段中得到的关键姿态序列的个数,表示测试子序列第l个动态分段中第i个关键姿态序列,表示训练样本对应的第l个动态分段中距离最近的关键姿态序列;
(3)利用测试子序列的静态行为分段及动态行为分段的距离之和得到最终的匹配结果,将与识别样本测试子序列距离最小的训练样本的类别作为其类别。
CN201810106594.2A 2018-02-02 2018-02-02 一种基于骨骼特征的动态表示和匹配的人体行为识别方法 Active CN108491754B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810106594.2A CN108491754B (zh) 2018-02-02 2018-02-02 一种基于骨骼特征的动态表示和匹配的人体行为识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810106594.2A CN108491754B (zh) 2018-02-02 2018-02-02 一种基于骨骼特征的动态表示和匹配的人体行为识别方法

Publications (2)

Publication Number Publication Date
CN108491754A true CN108491754A (zh) 2018-09-04
CN108491754B CN108491754B (zh) 2020-09-15

Family

ID=63344496

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810106594.2A Active CN108491754B (zh) 2018-02-02 2018-02-02 一种基于骨骼特征的动态表示和匹配的人体行为识别方法

Country Status (1)

Country Link
CN (1) CN108491754B (zh)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109583492A (zh) * 2018-11-26 2019-04-05 平安科技(深圳)有限公司 一种识别对抗性图像的方法及终端
CN109598229A (zh) * 2018-11-30 2019-04-09 李刚毅 基于动作识别的监控系统及其方法
CN109711374A (zh) * 2018-12-29 2019-05-03 深圳美图创新科技有限公司 人体骨骼点识别方法及装置
CN109720353A (zh) * 2018-12-27 2019-05-07 南京航空航天大学 一种基于智能手机的驾驶行为检测方法
CN110070070A (zh) * 2019-04-30 2019-07-30 苏州大学 一种动作识别方法
CN110210284A (zh) * 2019-04-12 2019-09-06 哈工大机器人义乌人工智能研究院 一种人体姿态行为智能评价方法
CN110575663A (zh) * 2019-09-25 2019-12-17 郑州大学 一种基于人工智能的体育辅助训练方法
CN111914798A (zh) * 2020-08-17 2020-11-10 四川大学 基于骨骼关节点数据的人体行为识别方法
WO2021237913A1 (zh) * 2020-05-27 2021-12-02 大连成者云软件有限公司 一种基于单目视频图像序列的坐姿识别方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2889805A2 (en) * 2013-12-31 2015-07-01 Konica Minolta Laboratory U.S.A., Inc. Method and system for emotion and behavior recognition
CN104899561A (zh) * 2015-05-27 2015-09-09 华南理工大学 一种并行化的人体行为识别方法
CN106650619A (zh) * 2016-11-15 2017-05-10 上海师范大学 一种人体动作识别方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2889805A2 (en) * 2013-12-31 2015-07-01 Konica Minolta Laboratory U.S.A., Inc. Method and system for emotion and behavior recognition
CN104899561A (zh) * 2015-05-27 2015-09-09 华南理工大学 一种并行化的人体行为识别方法
CN106650619A (zh) * 2016-11-15 2017-05-10 上海师范大学 一种人体动作识别方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
OMAR RIHAWI 等: "3D-AD: 3D-autism dataset for repetitive behaviours with kinect sensor", 《14TH IEEE INTERNATIONAL CONFERENCE ON ADVANCED VIDEO AND SIGNAL BASED SURVEILLANCE》 *
朱秋煜 等: "基于视差和帧差的图割优化运动目标分割算法", 《电视技术》 *

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109583492A (zh) * 2018-11-26 2019-04-05 平安科技(深圳)有限公司 一种识别对抗性图像的方法及终端
CN109598229A (zh) * 2018-11-30 2019-04-09 李刚毅 基于动作识别的监控系统及其方法
CN109720353B (zh) * 2018-12-27 2020-11-17 南京航空航天大学 一种基于智能手机的驾驶行为检测方法
CN109720353A (zh) * 2018-12-27 2019-05-07 南京航空航天大学 一种基于智能手机的驾驶行为检测方法
CN109711374A (zh) * 2018-12-29 2019-05-03 深圳美图创新科技有限公司 人体骨骼点识别方法及装置
CN109711374B (zh) * 2018-12-29 2021-06-04 深圳美图创新科技有限公司 人体骨骼点识别方法及装置
CN110210284A (zh) * 2019-04-12 2019-09-06 哈工大机器人义乌人工智能研究院 一种人体姿态行为智能评价方法
CN110070070B (zh) * 2019-04-30 2021-03-02 苏州大学 一种动作识别方法
CN110070070A (zh) * 2019-04-30 2019-07-30 苏州大学 一种动作识别方法
CN110575663A (zh) * 2019-09-25 2019-12-17 郑州大学 一种基于人工智能的体育辅助训练方法
WO2021237913A1 (zh) * 2020-05-27 2021-12-02 大连成者云软件有限公司 一种基于单目视频图像序列的坐姿识别方法
CN111914798A (zh) * 2020-08-17 2020-11-10 四川大学 基于骨骼关节点数据的人体行为识别方法
CN111914798B (zh) * 2020-08-17 2022-06-07 四川大学 基于骨骼关节点数据的人体行为识别方法

Also Published As

Publication number Publication date
CN108491754B (zh) 2020-09-15

Similar Documents

Publication Publication Date Title
CN108491754A (zh) 一种基于骨骼特征的动态表示和匹配的人体行为识别方法
WO2021017606A1 (zh) 视频处理方法、装置、电子设备及存储介质
Zhao et al. A survey on deep learning-based fine-grained object classification and semantic segmentation
CN106682598B (zh) 一种基于级联回归的多姿态的人脸特征点检测方法
CN104463250B (zh) 一种基于达芬奇技术的手语识别翻译方法
Raheja et al. Robust gesture recognition using Kinect: A comparison between DTW and HMM
Cimpoi et al. Describing textures in the wild
Wang et al. Mining motion atoms and phrases for complex action recognition
Feng et al. Depth-projection-map-based bag of contour fragments for robust hand gesture recognition
Nai et al. Fast hand posture classification using depth features extracted from random line segments
US11783615B2 (en) Systems and methods for language driven gesture understanding
CN109993102B (zh) 相似人脸检索方法、装置及存储介质
Zhu et al. Vision based hand gesture recognition using 3D shape context
Wang et al. Sparse observation (so) alignment for sign language recognition
CN111460976B (zh) 一种数据驱动的基于rgb视频的实时手部动作评估方法
CN111209897B (zh) 视频处理的方法、装置和存储介质
CN111339343A (zh) 图像检索方法、装置、存储介质及设备
WO2021169257A1 (zh) 人脸识别
CN114299559A (zh) 基于轻量级融合全局与局部特征网络的指静脉识别方法
CN111898561A (zh) 一种人脸认证方法、装置、设备及介质
CN114937285B (zh) 动态手势识别方法、装置、设备及存储介质
CN115527269A (zh) 一种人体姿态图像智能识别方法及系统
Gheitasi et al. Estimation of hand skeletal postures by using deep convolutional neural networks
CN113486751A (zh) 一种基于图卷积和边缘权重注意力的行人特征提取方法
Shan et al. Adaptive slice representation for human action classification

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant