CN106066996B - 人体动作的局部特征表示方法及其在行为识别的应用 - Google Patents

人体动作的局部特征表示方法及其在行为识别的应用 Download PDF

Info

Publication number
CN106066996B
CN106066996B CN201610363508.7A CN201610363508A CN106066996B CN 106066996 B CN106066996 B CN 106066996B CN 201610363508 A CN201610363508 A CN 201610363508A CN 106066996 B CN106066996 B CN 106066996B
Authority
CN
China
Prior art keywords
artis
local feature
vector
human
skeleton
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
CN201610363508.7A
Other languages
English (en)
Other versions
CN106066996A (zh
Inventor
王永雄
曾艳
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
University of Shanghai for Science and Technology
Original Assignee
University of Shanghai for Science and Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by University of Shanghai for Science and Technology filed Critical University of Shanghai for Science and Technology
Priority to CN201610363508.7A priority Critical patent/CN106066996B/zh
Publication of CN106066996A publication Critical patent/CN106066996A/zh
Application granted granted Critical
Publication of CN106066996B publication Critical patent/CN106066996B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/23Recognition of whole body movements, e.g. for sport training
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/253Fusion techniques of extracted features

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Abstract

本发明涉及图像处理和图像识别领域,具体为人体动作的局部特征表示方法及其在行为识别的应用,人体动作的局部特征表示方法包括如下步骤:首先根据人体行为生物学和运动学特征,从能量的角度提取了人体骨骼关节点的动能、人体骨骼关节点的位置坐标、人体骨骼关节点的方向变化向量以及人体骨骼关节点的姿态势能,构建局部特征组合矩阵。然后利用K‑means聚类将局部特征矩阵降维并提取词袋(Bag Of Word,BOW)特征,并结合人体关节角特征组成用于行为识别的特征向量,将该特征向量应用到人体行为识别领域经实验验证有较好的效果。

Description

人体动作的局部特征表示方法及其在行为识别的应用
技术领域
本发明涉及一种图像处理和图像识别领域中的基于人体三维空间信息的局部特征提取方法,属于图像识别领域。
背景技术
近几年,随着视频设备和3D相机的广泛使用,基于三维信息的行为识别因为其受环境影响小等特点得到了广泛关注和重视。经对现有文献的检索发现,Gu J.等人[Gu J,Ding X,Wang S,et al.Action and gait recognition from recovered 3-D humanjoints[J].Systems,Man,and Cybernetics,Part B:Cybernetics,IEEE Transactionson,2010,40(4):1021-1033.]认为人体关节点三维空间位置序列可以很好的描述人体运动过程,Junxia G.等人[Junxia G,Xiaoqing D,Shengjin W,et al.Full body tracking-based human action recognition[C]//IEEE19th International Conference onPattern Recognition.ICPR 2008:1-4.]在采用关节点空间位置序列的基础上加入了全局运动特征及局部形态特征,基于更多信息特征的识别率明显优于Gu J.等人的方法,因此特征的优劣及选取特征的数量对识别的准确率有重大的影响,选取能够对动作具有更多描述的信息将有助于识别率的提高。
然而随着特征不断加入,识别准确率随之提高,但是数据量的增加,计算量也随之变大,并且难以从高层语义上进行理解,因此有必要对组合特征数据进行降维,生成有利于识别的高层语义特征。Li等人[Li T,Kweon I S.A semantic region descriptor forlocal feature based image categorization[C]//Acoustics,Speech and SignalProcessing.IEEE International Conference on.ICASSP,2008:1333-1336.]提出了一种新的局部特征方法,通过使用局部的高层语义信息建立局部特征矩阵,然后使用聚类的方法建立视觉单词本,即建立BOW(词袋,Bag Of Word)作为描述图片的特征,实现了多种特征数据的融合。
但是研究发现,在大多数的特征表示方法中,难以从人动作的物理属性来定性解释,难以较好地描述动作的变化过程。进一步我们的分析发现:人的不同动作不仅表现在位置信息上的区别,而且表现在关节点序列的能量特征上,但是上述相关学者的研究都没有考虑到关节点序列的能量特征,对应的识别效果不是很高。
发明内容
本发明是为解决上述问题而提出的,经过设计和优化,提供了一种人体动作的局部特征表示方法和该方法在在行为识别上的应用方案。
一种人体动作的局部特征表示方法,用于从三维空间的动态图像中提取得到人体的局部特征矩阵,其特征在于,包括:
步骤一,从三维空间的动态图像中获取人体是三维坐标,再从所述动态图像中的相邻两帧静态图像中的15个人体骨骼关节点的坐标变化中获取对应的所述人体骨骼关节点的动能,计算公式如下:
其中,Eki,t表示Ft帧所述静态图像中第i个所述人体骨骼关节点的动能,k为动能参数,Δt表示所述相邻两帧静态图像之间的时间间隔,
Pi,t表示第i个所述人体骨骼关节点在Ft帧所述静态图像中的空间位置,使用三维空间坐标(xi,t,yi,t,zi,t)表示;
步骤二,计算每帧所述静态图像中的所述人体骨骼关节点的方向变化向量,计算公式如下:
φi,t=(xi,t-xi,t-1,yi,t-yi,t-1,zi,t-zi,t-1) (2)
其中φi,t表示Ft帧中第i个关节点相对于上一帧的所述静态图像中第i个所述人体骨骼关节点的方向变化向量,xi,t、yi,t、zi,t分别表示该人体骨骼关节点在Ft帧所述静态图像中的空间三维坐标;
步骤三,选取所述人体骨骼关节点中的躯干处关节点或头部关节点作为零势能参照点,则对应的对应的t帧中第i个所述人体骨骼关节点的姿态势能定义为:
Ei,t=L(|Pi,t-P1,t|) (3)
其中,L为势能参数,Pi,t为t帧中第i个关节点位置,P1,t表示t帧中所述零势能参照点的坐标位置;
步骤四,定义并计算6个代表性人体关节角度,θ1和θ2分别表示左手大臂与左手大小臂形成的人体关节角和右手大臂与右手小臂形成的人体关节角,θ3和θ4分别表示左腿大腿与左腿小腿的人体关节角和右腿大腿与右腿小腿的人体关节角,θ5和θ6分别表示左手大臂与躯干形成的夹角和右手大臂与躯干形成的人体关节角,则上述的人体关节角计算公式为:
其中,θn,t表示Ft帧中第n个关节角,“·”符号表示向量的内积,“||”表示向量的模,α和β分别表示对应的所述人体关节角中两个关节的两个向量;
步骤五,基于步骤一、二、三、四计算得到的所述人体骨骼关节点的动能、所述人体骨骼关节点的坐标、所述人体骨骼关节点的方向变化向量以及所述人体骨骼关节点的姿态势能这四类特征组合成所述人体的局部特征矩阵Yt,该矩阵Yt如下式:
本发明提供的人体动作的局部特征表示方法,还可以具有这样的特征:其中,步骤一的15个所述人体骨骼关节点包括头、颈、躯干、左肩、左手肘、右肩、右手肘、左髋关节、左膝盖、右髋关节、右膝盖、左手、右手、左脚、右脚。
本发明提供的人体动作的局部特征表示方法,还可以具有这样的特征:其中,步骤一的所述动能参数k取1,所述时间间隔Δt取1/30s。
本发明还提供一种人体动作的局部特征表示方法在行为识别上的应用,利用上述的人体动作的局部特征表示方法来进行所述动态图像中人的行为识别,其特征在于包括以下步骤:
S1,按照下列公式(7)(8)(9)进行运算,由所述人体的局部特征矩阵Yt得到标准化局部特征矩阵Yt*:
式中M表示15个所述所述人体骨骼关节点的特征X的均值,Xi表示第i个所述人体骨骼关节点的特征X,
式中S表示15个所述所述人体骨骼关节点的特征X的标准差,
式中Xi*表示第i个所述人体骨骼关节点标准化后的特征X,最终的标准化局部特征矩阵Yt*计算式为
S2,使用K-means算法对所述标准化局部特征矩阵Yt*进行多次重复聚类,聚类后得到得到5个聚类中心点C1、C2、C3、C4、C5,将所述局部特征矩阵Yt向5个聚类中心点C1、C2、C3、C4、C5映射得到指定维数K的特征向量;
S3,构建第Ft帧的所述静态图像的BOWt特征,定义BOWt特征:
BOWt=[bin1 bin2 bin3 bin4 bin5] (6)
其中,bini表示第i个动作;
S4,选取合适的核函数进行分类运算,将S1、S2中的数据输入到基于所述核函数的SVM算法程序中得到所述局部特征矩阵Yt与BOWt特征中的bini的对应关系,实现所述动态图像中人的行为识别。
本发明提供的人体动作的局部特征表示方法在行为识别上的应用,还具有这样的特征:其中,步骤S2的所述指定维数K取值为5。
本发明提供的人体动作的局部特征表示方法在行为识别上的应用,还具有这样的特征:其中,步骤S2的所述多次重复聚类的重复次数为100。
本发明提供的人体动作的局部特征表示方法在行为识别上的应用,还具有这样的特征:其中,步骤S4的所述核函数为径向基内核函数Radial Basis Function,其公式为
其中xc为核函数中心,σ为函数的宽度参数,γ为核参数。
发明作用与效果
本发明提供了一种人体动作的局部特征表示方法及其在行为识别的应用,在关节点位置序列的基础上提取人体关节点的运动能量和姿态能量信息作为全局运动特征,并加入关节点方向变化等特征用于表示运动中的局部形态变化,组合为一个局部特征矩阵,从而建立BOW作为描述图片的特征,实现了多种特征数据的融合,较好地描述了动作的变化过程提高行为识别的准确率,减少计算的数据量缩短识别时间,提高了图像中的人体动作识别的匹配率。
附图说明
图1是本发明的实施例的人体动作的局部特征表示方法的流程示意图;
图2为人体的骨架中人体关节角示意图;
图3为本实施例的BOWt构建过程示意图;
图4为本发明行为识别系统的框架示意图;
图5为本发明的实验的四组数据分类结果混淆矩阵示意图,对应的分别标记为图5(a)、图5(b)、图5(c)、图5(d);
图6为本实验的十二个动作准确率统计图。
具体实施方式
以下结合附图来说明本发明的具体实施方式。
图1是本实施例的人体动作的局部特征表示方法的流程示意图。
第一步,使用微软公司的Kinect SDK(kinect sdk for windows的硬件和软件)获取人体动态图像以及人体的骨架,骨架是由20个关节点和13根连接关节的线段组成,如手,颈部,躯干,左肩,左手肘,左掌,右肩膀等。本实施例使用的数据库是康奈尔大学的Dataset-1200(CAD-60),数据库中的人体骨架模型由15个人体骨骼关节点组成,具体顺序和编号如表1所示。从而获取每一个时刻的人体骨骼关节点的位置三维坐标(xi,t,yi,t,zi,t)信息并作如下计算:
表1关节点编号
a.通过相邻两帧静态图像的坐标信息变化计算出每一帧静态图像中人体骨骼关节点的动能。计算公式如下:
其中,Eki,t表示Ft帧中第i个人体骨骼关节点的动能,k为动能参数,实验中k取1,Δt表示相邻两帧静态图像之间的时间间隔,根据所使用Kinect硬件的性能指标,本实施例中Δt取1/30s,Pi,t表示第i个人体骨骼关节点在Ft帧中的空间位置,即三维空间坐标(xi,t,yi,t,zi,t)。
b.通过第i个人体骨骼关节点的三维空间坐标(xi,t,yi,t,zi,t)来计算每一帧静态图像中人体骨骼关节点相对于上一帧所对应的人体骨骼关节点的方向变化向量,计算过程如式(2)
φi,t=(xi,t-xi,t-1,yi,t-yi,t-1,zi,t-zi,t-1) (2)
其中φi,t表示Ft帧静态图像中第i个人体骨骼关节点相对于上一帧中第i个人体骨骼关节点的方向变化向量,xi,t、yi,t、zi,t分别表示该关节点在Ft帧中的空间三维坐标。
c.选取躯干处的人体骨骼关节点(即第3个人体骨骼关节点)或头部处的人体骨骼关节点(即第1个人体骨骼关节点)作为零势能参照点,则t帧中第i个人体骨骼关节点的人体姿态势能Ei,t定义如(3):
Ei,t=L(|Pi,t-P1,t|) (3)
式中L为势能参数,本实施例取值为1,Pi,t为t帧中第i个人体骨骼关节点的位置,P1,t表示t帧中头部关节点(即即第1个人体骨骼关节点),即本实施例以编号为1的头部处的人体骨骼关节点作为零势能参照点。
图2为人体的骨架中人体关节角示意图。
d.根据人体运动规律定义6个代表性人体关节角,如图2所示,θ1和θ2分别表示左手大臂与左手大小臂形成的人体关节角和右手大臂与右手小臂形成的人体关节角,θ3和θ4分别表示左腿大腿与左腿小腿的人体关节角和右腿大腿与右腿小腿的人体关节角,θ5和θ6分别表示左手大臂与躯干形成的夹角和右手大臂与躯干形成的人体关节角。公式(4)给出了人体关节角计算方法。
其中θn,t表示Ft帧中第n个人体关节角,“·”符号表示向量的内积,“||”表示向量的模。α和β分别表示关节角对应的两个向量。
e,基于步骤a、b、c、d计算得到的所述人体骨骼关节点的动能Eki,t、所述人体骨骼关节点的坐标Pi,t、所述人体骨骼关节点的方向变化向量φi,t以及所述人体骨骼关节点的姿态势能Ei,t这四类特征组合成所述人体的局部特征矩阵Yt,该矩阵Yt如下式:
由上述第一步的a、b、c、d、e这5个小步骤就完成了一个完整的人体动作的局部特征表示方法,由人体动态图像得到了我们进行行为识别的人体的局部特征矩阵Yt
下面详细介绍利用上述构建的人体的局部特征矩阵Yt进行人体行为识别的详细原理以及真实实验的过程与结果。
由于人体关节角特征较少,不利于降维处理,因此将人体关节角作为BOW(词袋,Bag Of Word)之外的特征与BOW一起构建特征向量,即构建一个共计11维的特征向量。
提取人体骨骼关节点的动能Eki,t、所述人体骨骼关节点的坐标Pi,t、所述人体骨骼关节点的方向变化向量φi,t以及所述人体骨骼关节点的姿态势能Ei,t、人体关节角θn,t作为BOW的预选特征。
第二步,首先基于提取的人体骨骼关节点的动能Eki,t、人体骨骼关节点的坐标Pi,t、人体骨骼关节点的方向变化向量φi,t、人体骨骼关节点的姿态势能Ei,t共4类特征组合成局部特征矩阵Yt,矩阵结构如式(6),矩阵的行i与关节点的序号相对应,按列依次存放以上4类特征。
在进行下一步的聚类前,需首先对局部特征矩阵Yt按公式(7)(8)(9)作标准化处理即:
S1,按照下列公式(7)(8)(9)进行运算,由所述人体的局部特征矩阵Yt得到标准化局部特征矩阵Yt*:
式中M表示15个所述所述人体骨骼关节点的特征X的均值,Xi表示第i个所述人体骨骼关节点的特征X,
式中S表示15个所述所述人体骨骼关节点的特征X的标准差,
式中Xi*表示第i个所述人体骨骼关节点标准化后的特征X,最终的标准化局部特征矩阵Yt*计算式为
然后用K-means算法对局部特征矩阵Y进行聚类,通过聚类找出这些数据的中心点,将这些数据向聚类中心映射得到指定维数为k的特征向量。本文就K值的选择作了多次实验,最终发现当K取5时效果较好,因此将K设置为5且聚类重复次数为100。注意聚类前需首先对局部特征矩阵按公式(7)(8)(9)作标准化处理。
式中M表示15个关节点特征X的均值,Xi表示第i关节点的特征X。
式中S表示15个关节点特征X的标准差。
式中Xi*表示第i个关节点标准化后的特征X。最终的标准化局部特征矩阵Yt*如下:
S2,使用K-means算法对所述标准化局部特征矩阵Yt*进行多次重复聚类,聚类后得到得到5个聚类中心点C1、C2、C3、C4、C5,将所述局部特征矩阵Yt向5个聚类中心点C1、C2、C3、C4、C5映射得到指定维数K的特征向量,本实施例就K值的选择作了多次实验,最终发现当K取5时效果较好,因此将K设置为5,且聚类重复次数为100。
S3,聚类后得到5个聚类中心C1、C2、C3、C4、C5,然后将所有特征向量映射到这5个聚类中心,式(11)定义了表示第Ft帧的BOWt特征
BOWt=[bin1 bin2 bin3 bin4 bin5] (11)
其中,bini表示第i个动作;
BOWt构建过程的编程伪代码思路如下所示:
i.初始化:BOWt=[0 0 0 0 0]即bink=0(k=1,2,3,4,5)
ii.(1)令
Yt=[vector1,vector2,vector3……,vector15]T
vectori=[Eki,t * φi,t * Pi,t * Ei,t *]
(2)利用K-means算法对vectori(i=1,2……,15)聚类后得到5
个聚类中C1、C2、C3、C4、C5即Ck(k=1,2,3,4,5)。
(3)for i:15,
for k:5,
计算所有vector与Ck的欧式距离计算公式如式
(12):
end
如果D[index]是D中的最小值
binindex=binindex+1
图3为本实施例的BOWt构建过程示意图。
BOWt特征过程可由附图3所示,图中星号表示vectori,点表示聚类中心。聚类中心的个数与K-means聚类中的K值相等均为5。
第三步,选取合适的核函数进行分类运算,将S1、S2中的数据输入到基于所述核函数的SVM(支持向量机,Support Vector Machine)算法程序中得到所述局部特征矩阵Yt与BOWt特征中的bini的对应关系,实现所述动态图像中人的行为识别。
选取合适的核函数,根据数据特点选择合适的核函数可使SVM发挥最好的分类能力。因为径向基内核函数(Radial Basis Function,RBF Kernel)具有良好的性能且调节参数较少,因此本实施例采用基于RBF核函数的SVM分类器(RBF-SVM),RBF核函数公式如式(13)。
其中xc为核函数中心,σ为函数的宽度参数,γ为核参数。
此次实施例实验中SVM算法程序采用的是由中国台湾大学林仁智(Lin Chih-Jen)教授开发的libsvm程序,通过反复交叉验证选择了一组最优参数c=32、g=2。
实施例的作用与效果
为了说明上述实施例提供的人体动作的局部特征表示方法以及该人体动作的局部特征表示方法在行为识别上的应用的实际效果,下面进行了实际模型实验。
图4为行为识别系统框架示意图;
图5为本实验的四组数据分类结果混淆矩阵示意图,对应的一、二、三、四组数据分别标记为图5(a)、图5(b)、图5(c)、图5(d);
图6为本实验的十二个动作准确率统计图。
本次试验测试了四个人的四组数据,每个人都做相同的动作。实验时将数据库中每个动作的70%数据作为SVM的训练集,将余下30%的数据作为测试集。按图4中的方案对4个人的数据分别进行分类识别,每个人有12个行为数据依次分别为站立、打电话、在黑板上写字、喝水、漱口、刷牙(brushing teeth)、佩戴隐形眼镜、在沙发上聊天、躺在沙发上、做饭、打开药瓶、用电脑办公。分类结果用混淆矩阵表示如图5,每个动作的准确率统计如图6。
由图5和图6可知,在随机的测试过程中,实施例提供的人体动作的局部特征表示方法以及该人体动作的局部特征表示方法在行为识别上的应用效果是比较好的,行为识别准确率在80%左右,一些动作如站立、打电话、在黑板上写字、喝水、刷牙、在沙发上聊天、躺在沙发上、用电脑办公都达到了90%以上的识别率,较背景技术中提到的技术方案效果都要好。

Claims (7)

1.一种人体动作的局部特征表示方法,用于从三维空间的动态图像中提取得到人体的局部特征矩阵,其特征在于,包括:
步骤一,从三维空间的动态图像中获取人体的三维坐标,再从所述动态图像中的相邻两帧静态图像中的15个人体骨骼关节点的坐标变化中获取对应的所述人体骨骼关节点的动能,计算公式如下:
其中,Eki,t表示Ft帧所述静态图像中第i个所述人体骨骼关节点的动能,k为动能参数,Δt表示所述相邻两帧静态图像之间的时间间隔,
Pi,t表示第i个所述人体骨骼关节点在Ft帧所述静态图像中的空间位置,使用三维空间坐标(xi,t,yi,t,zi,t)表示;
步骤二,计算每帧所述静态图像中的所述人体骨骼关节点的方向变化向量,计算公式如下:
φi,t=(xi,t-xi,t-1,yi,t-yi,t-1,zi,t-zi,t-1) (2)
其中φi,t表示Ft帧中第i个关节点相对于上一帧的所述静态图像中第i个所述人体骨骼关节点的方向变化向量,xi,t、yi,t、zi,t分别表示该人体骨骼关节点在Ft帧所述静态图像中的空间三维坐标;
步骤三,选取所述人体骨骼关节点中的躯干处关节点或头部关节点作为零势能参照点,则对应的Ft帧中第i个所述人体骨骼关节点的姿态势能定义为:
Ei,t=L(|Pi,t-P1,t|) (3)
其中,L为势能参数,Pi,t为t帧中第i个关节点位置,P1,t表示Ft帧中所述零势能参照点的坐标位置;
步骤四,定义并计算6个代表性人体关节角度,θ1和θ2分别表示左手大臂与左手小臂形成的人体关节角和右手大臂与右手小臂形成的人体关节角,θ3和θ4分别表示左腿大腿与左腿小腿的人体关节角和右腿大腿与右腿小腿的人体关节角,θ5和θ6分别表示左手大臂与躯干形成的夹角和右手大臂与躯干形成的人体关节角,则上述的人体关节角计算公式为:
其中,θn,t表示Ft帧中第n个关节角,“·”符号表示向量的内积,“| |”表示向量的模,α和β分别表示对应的所述人体关节角中两个关节的两个向量;
步骤五,基于步骤一、二、三、四计算得到的所述人体骨骼关节点的动能、所述人体骨骼关节点的坐标、所述人体骨骼关节点的方向变化向量以及所述人体骨骼关节点的姿态势能这四类特征组合成所述人体的局部特征矩阵Yt,该矩阵Yt如下式:
2.根据权利要求1所述的人体动作的局部特征表示方法,其特征在于:
其中,步骤一的15个所述人体骨骼关节点包括头、颈、躯干、左肩、左手肘、右肩、右手肘、左髋关节、左膝盖、右髋关节、右膝盖、左手、右手、左脚、右脚。
3.根据权利要求1所述的人体动作的局部特征表示方法,其特征在于:
其中,步骤一的所述动能参数k取1,所述时间间隔Δt取1/30s。
4.人体动作的局部特征表示方法在行为识别上的应用方法,利用权利要求1-3中任意一项所述的人体动作的局部特征表示方法来进行所述动态图像中人的行为识别,其特征在于包括以下步骤:
S1,按照下列公式(7)(8)(9)进行运算,由所述人体的局部特征矩阵Yt得到标准化局部特征矩阵Yt*:
式中M表示15个所述所述人体骨骼关节点的特征X的均值,Xi表示第i个所述人体骨骼关节点的特征X,
式中S表示15个所述所述人体骨骼关节点的特征X的标准差,
式中Xi*表示第i个所述人体骨骼关节点标准化后的特征X,最终的标准化局部特征矩阵Yt*计算式为
S2,使用K-means算法对所述标准化局部特征矩阵Yt*进行多次重复聚类,聚类后得到5个聚类中心点C1、C2、C3、C4、C5
S3,将所述局部特征矩阵Yt向5个聚类中心点C1、C2、C3、C4、C5映射,通过欧式距离公式计算所述局部特征矩阵Yt中每个vectori向量与所述聚类中心点C1、C2、C3、C4、C5之间的距离,
所述欧式距离公式为:
所述欧式距离公式中,i=1~15,k=1~5,
根据计算结果,将每个所述vectori向量分别聚类至与该vectori向量之间距离最短的所述聚类中心点C1、C2、C3、C4、C5,再分别对聚类至所述聚类中心点C1、C2、C3、C4、C5的所述vectori向量求和,从而得到与所述聚类中心点C1、C2、C3、C4、C5相对应的bin1特征、bin2特征、bin3特征、bin4特征以及bin5特征,
所述bin1、bin2、bin3、bin4以及bin5构成了第Ft帧的所述静态图像的指定维数K的BOWt特征向量,该BOWt特征向量的定义为:
BOWt=[bin1 bin2 bin3 bin4 bin5] (11)
S4,选取合适的核函数进行分类运算,将S1、S2中的数据输入到基于所述核函数的SVM算法程序中得到所述局部特征矩阵Yt与所述BOWt特征向量中的bini特征的对应关系,实现所述动态图像中人的行为识别。
5.根据权利要求4所述的人体动作的局部特征表示方法在行为识别上的应用方法,其特征在于:
其中,步骤S3的所述指定维数K取值为5。
6.根据权利要求4所述的人体动作的局部特征表示方法在行为识别上的应用方法,其特征在于:
其中,步骤S2的所述多次重复聚类的重复次数为100。
7.根据权利要求6所述的人体动作的局部特征表示方法在行为识别上的应用方法,其特征在于:
其中,步骤S4的所述核函数为径向基内核函数Radial Basis Function,其公式为
其中xc为核函数中心,σ为函数的宽度参数,γ为核参数。
CN201610363508.7A 2016-05-27 2016-05-27 人体动作的局部特征表示方法及其在行为识别的应用 Expired - Fee Related CN106066996B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201610363508.7A CN106066996B (zh) 2016-05-27 2016-05-27 人体动作的局部特征表示方法及其在行为识别的应用

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201610363508.7A CN106066996B (zh) 2016-05-27 2016-05-27 人体动作的局部特征表示方法及其在行为识别的应用

Publications (2)

Publication Number Publication Date
CN106066996A CN106066996A (zh) 2016-11-02
CN106066996B true CN106066996B (zh) 2019-07-30

Family

ID=57420759

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201610363508.7A Expired - Fee Related CN106066996B (zh) 2016-05-27 2016-05-27 人体动作的局部特征表示方法及其在行为识别的应用

Country Status (1)

Country Link
CN (1) CN106066996B (zh)

Families Citing this family (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106971050B (zh) * 2017-04-18 2020-04-28 华南理工大学 一种基于Kinect的Darwin机器人关节映射解析方法
CN107194344B (zh) * 2017-05-16 2020-06-05 西安电子科技大学 自适应骨骼中心的人体行为识别方法
CN107953331B (zh) * 2017-10-17 2019-12-10 华南理工大学 一种应用于人形机器人动作模仿的人体姿态映射方法
CN107679522B (zh) * 2017-10-31 2020-10-13 内江师范学院 基于多流lstm的动作识别方法
CN108055479B (zh) * 2017-12-28 2020-07-03 暨南大学 一种动物行为视频的制作方法
CN108446583A (zh) * 2018-01-26 2018-08-24 西安电子科技大学昆山创新研究院 基于姿态估计的人体行为识别方法
CN110298221B (zh) * 2018-03-23 2022-02-11 上海史贝斯健身管理有限公司 自助健身方法、系统、电子设备、存储介质
CN109086729B (zh) * 2018-08-13 2022-03-01 成都云盯科技有限公司 通信行为检测方法、装置、设备及存储介质
CN109344790A (zh) * 2018-10-16 2019-02-15 浩云科技股份有限公司 一种基于姿态分析的人体行为分析方法及系统
CN111079481B (zh) * 2018-10-22 2023-09-26 西安邮电大学 一种基于二维骨架信息的攻击性行为识别方法
CN111301280A (zh) * 2018-12-11 2020-06-19 北京嘀嘀无限科技发展有限公司 一种危险状态识别方法及装置
CN109886068B (zh) * 2018-12-20 2022-09-09 陆云波 基于运动数据的动作行为识别方法
CN111353519A (zh) * 2018-12-24 2020-06-30 北京三星通信技术研究有限公司 用户行为识别方法和系统、具有ar功能的设备及其控制方法
CN111488773B (zh) * 2019-01-29 2021-06-11 广州市百果园信息技术有限公司 一种动作识别方法、装置、设备及存储介质
CN109902614A (zh) * 2019-02-25 2019-06-18 重庆邮电大学 一种基于局部时空特征的人体行为识别方法
CN110472497A (zh) * 2019-07-08 2019-11-19 西安工程大学 一种融合旋转量的动作特征表示方法
CN110377084B (zh) * 2019-07-30 2021-01-05 天津大学 一种基于智慧控制策略的建筑室内环境调控方法
CN111539352A (zh) * 2020-04-27 2020-08-14 支付宝(杭州)信息技术有限公司 一种判断人体关节运动方向的方法及系统
CN112184010A (zh) * 2020-09-27 2021-01-05 北京斯年智驾科技有限公司 刷牙效果评估方法、装置、系统、电子装置和存储介质
CN114743261A (zh) * 2022-03-22 2022-07-12 天津大学 一种基于运动姿态伪能量模型的自动情绪识别方法及装置
CN117238026B (zh) * 2023-07-10 2024-03-08 中国矿业大学 一种基于骨骼和图像特征的姿态重建交互行为理解方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1975779A (zh) * 2006-09-14 2007-06-06 浙江大学 三维人体运动数据分割方法
CN102500094A (zh) * 2011-10-28 2012-06-20 北京航空航天大学 一种基于kinect的动作训练方法
CN103399637A (zh) * 2013-07-31 2013-11-20 西北师范大学 基于kinect人体骨骼跟踪控制的智能机器人人机交互方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150363214A1 (en) * 2014-06-16 2015-12-17 Ca, Inc. Systems and methods for clustering trace messages for efficient opaque response generation

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1975779A (zh) * 2006-09-14 2007-06-06 浙江大学 三维人体运动数据分割方法
CN102500094A (zh) * 2011-10-28 2012-06-20 北京航空航天大学 一种基于kinect的动作训练方法
CN103399637A (zh) * 2013-07-31 2013-11-20 西北师范大学 基于kinect人体骨骼跟踪控制的智能机器人人机交互方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Human Activities Segmentation and Location of Key Frames Based on 3D Skeleton;WANG Yongxiong.etc;《Proceedings of the 33rd Chinese Control Conference》;20140730;第4786-4790页
基于中心距离特征的人体运动序列关键帧提取;彭淑娟;《系统仿真学报》;20120331;第24卷(第3期);第565-569页

Also Published As

Publication number Publication date
CN106066996A (zh) 2016-11-02

Similar Documents

Publication Publication Date Title
CN106066996B (zh) 人体动作的局部特征表示方法及其在行为识别的应用
Liu et al. Ntu rgb+ d 120: A large-scale benchmark for 3d human activity understanding
Shahroudy et al. Deep multimodal feature analysis for action recognition in rgb+ d videos
Liu et al. Two-stream 3d convolutional neural network for skeleton-based action recognition
Liu et al. Multi-view hierarchical bidirectional recurrent neural network for depth video sequence based action recognition
Chaudhry et al. Bio-inspired dynamic 3d discriminative skeletal features for human action recognition
Amor et al. Action recognition using rate-invariant analysis of skeletal shape trajectories
Zhu et al. Evaluating spatiotemporal interest point features for depth-based action recognition
Ghezelghieh et al. Learning camera viewpoint using CNN to improve 3D body pose estimation
Chen Sitting posture recognition based on OpenPose
CN110263720A (zh) 基于深度图像和骨骼信息的动作识别方法
CN111414839A (zh) 基于姿态的情感识别方法及装置
CN110084211B (zh) 一种动作识别方法
CN104063721B (zh) 一种基于语义特征自动学习与筛选的人类行为识别方法
CN107025678A (zh) 一种3d虚拟模型的驱动方法及装置
Santhalingam et al. Sign language recognition analysis using multimodal data
Guo Detection of Head Raising Rate of Students in Classroom Based on Head Posture Recognition.
CN103500340A (zh) 基于主题知识迁移的人体行为识别方法
Fang et al. Dynamic gesture recognition using inertial sensors-based data gloves
Geng et al. Combining features for chinese sign language recognition with kinect
Suardi et al. Design of sign language recognition using E-CNN
CN112906520A (zh) 一种基于姿态编码的动作识别方法及装置
Huang et al. Discriminative parts learning for 3D human action recognition
Ramezanpanah et al. Human action recognition using laban movement analysis and dynamic time warping
Ong et al. Investigation of feature extraction for unsupervised learning in human activity detection

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20190730

CF01 Termination of patent right due to non-payment of annual fee