CN108898064A - 一种基于空间匹配的3d骨骼动作识别方法 - Google Patents

一种基于空间匹配的3d骨骼动作识别方法 Download PDF

Info

Publication number
CN108898064A
CN108898064A CN201810567026.2A CN201810567026A CN108898064A CN 108898064 A CN108898064 A CN 108898064A CN 201810567026 A CN201810567026 A CN 201810567026A CN 108898064 A CN108898064 A CN 108898064A
Authority
CN
China
Prior art keywords
artis
sequence
action
bone
joint point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201810567026.2A
Other languages
English (en)
Inventor
王峰
梁淇
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
East China Normal University
Original Assignee
East China Normal University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by East China Normal University filed Critical East China Normal University
Priority to CN201810567026.2A priority Critical patent/CN108898064A/zh
Publication of CN108898064A publication Critical patent/CN108898064A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2411Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/253Fusion techniques of extracted features

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于空间匹配的3D骨骼动作识别方法,该方法首先计算骨骼数据序列的特征,然后计算各骨骼关节点之间的空间相对距离并选取值较高的top‑K个关节对,以此为指标匹配这K个关节对之间的特征,最后计算匹配后的特征相似性,进行动作的分类与识别。本发明针对3D骨骼动作识别中关节点间相关性信息的缺失进行弥补,通过选取具有较高相关性的关节点对进行特征匹配,实现了3D骨骼动作识别准确率的提升。

Description

一种基于空间匹配的3D骨骼动作识别方法
技术领域
本发明涉及3D骨骼动作识别领域,即基于空间匹配的动作识别方法。
背景技术
动作识别在诸如智能安防、人机交互、无人驾驶等应用领域具有关键作用。很长一段时间,RGB图像都是动作识别的信息来源。随着深度相机的出现以及深度图像估测技术的发展,动作识别中出现了新的分支,即3D骨架动作识别。3D骨架关节点数据是在深度图像的基础之上通过估测技术得到的,具有光照变化不敏感的特性。
当前存在的3D骨骼动作识别大多都专注与提取具有区分度的特征以描述每个骨骼部位的变化特点,再计算对应部位的动作特征相似性,用以进行动作识别。然而,动作在执行时,各个部位之间不是独立存在,而是协同配合以完成某个动作。这些协同信息在以往的方法中常被忽略。3D骨骼动作识别准确率还具有上升的空间。
发明内容
本发明的目的是提供一种基于空间匹配的3D骨骼动作识别方法,该方法通过简单有效的步骤挖掘出能够表达动作模式的骨骼关节点对,通过匹配的方法获取有效特征,实现3D骨骼动作识别准确率的提升。
本发明的目的是这样实现的:
一种基于空间匹配的3D骨骼动作识别方法,特点是通过计算骨骼关节点之间的相关性,选取具有代表动作模式的top-k个关节点对,并对这些关节点对进行特征匹配,匹配后的特征与之前的特征使用级联进行动作识别;具体包括以下步骤:
步骤1:以经过预处理后的深度相机获取的动作骨骼关节点序列为输入;
步骤2:每个关节点的坐标和时间帧级联成特征;
步骤3:计算每一个动作序列中,骨骼关节点之间的空间相对距离;
步骤4:根据降序,选取top-K个骨骼关节点对,并得到对应的指示矩阵;
步骤5:根据指示矩阵,使用平均池化的方法获取匹配后的特征;
步骤6:根据指示矩阵和匹配后的特征计算MSCKernel;
步骤7:计算匹配前的特征对应的MSCKernel,并与匹配后计算的MSCKernel进行融合,最后放入SVM进行动作分类。
所述步骤1中的动作骨骼关节点序列为各关节点的三维空间坐标。
所述步骤3中计算每一个动作序列中,骨骼关节点之间的空间相对距离公式为:
其中,表示N帧时长的动作序列上点关节点i和关节点j之间的距离均值;而且,Dist(t,(i,j))表示在t时刻,骨骼关节点i和j之间的空间距离,即:
xi(t),yi(t),zi(t)表示关节点i在t时刻的坐标值。
所述步骤4中得到对应的指示矩阵,具体包括:
1)将所有的关节点对对应的空间相对距离进行降序排列;
2)选取第K大的空间相对距离为阈值ε,大于等于该阈值则为1,否则为0,得到指示矩阵H,其中,对角元素皆为0:
所述步骤5中的平均池化为:
其中,Ci表示动作序列中骨骼t时刻第i个骨骼关节点的坐标,ti表示第i个关节点的时间帧;Cj表示动作序列中骨骼t时刻第j个骨骼关节点的坐标,tj表示第j个关节点的时间帧。
所述计算MSCKernel,具体为:
其中,表示动作序列a的指示矩阵i行j列的值,其意义是关节点i和j之间的空间相对距离是否在top-k中,即动作关节点对(i,j)是否参与动作执行;同理,表示序列b的对应含义;λi,j表示的是动作序列a和b对应的点对是否都参与了动作执行;分别表示的是动作序列a和b中,关节点i和j平均池化后的特征;Kernel(a,b)是表征动作序列a和b之间相似距离的核函数值;Gσ1是参数为σ1的径向量积核函数;σ1参数控制径向量积核函数作用范围的参数,表示的是两个动作序列中对应关节点的坐标特征相似的程度;Gσ2表示的是参数为σ2的径向量积核函数;σ2参数控制径向量积核函数作用范围的参数,表示的是两个动作序列中对应关节点的时间特征相似的程度;t1,t2,N1,N2分别表示序列1中关节点i所在的时间帧,序列2中关节点i所在的时间帧,序列1的长度,序列2的长度;m表示需要计算的关节点的数量,n表示的是骨骼的关节点数。
步骤7中,所述进行融合,具体为:
FKernel=α*K1+β*K2
其中,FKernel表示放入SVM进行分类的核函数,K1表示匹配前特征的核函数,K2表示的是步骤6计算出的核函数kernel,α表示K1的权重参数,β表示的是K2对应的权重参数。
本发明所述的SVM(Support Vector Machine)是支持向量机,为常见的一种判别方法。在机器学习领域,是一个有监督的学习模型,通常用来进行模式识别、分类以及回归分析。
本发明的有益效果:通过空间匹配选择具有表达动作模式有关节点对,获得匹配后的特征。该特征具有描述执行某一动作时骨骼关节点协同信息的能力,弥补了已有特征对骨骼相互之间协同信息挖掘不充分的缺陷。本方法完善3D骨骼关节点的特征信息,能够提升3D骨骼动作识别的准确率。
附图说明
图1为本发明流程图。
具体实施方式
本发明公开了一种基于空间匹配的3D骨骼动作识别方法,下面对所述的方法结合MSRAction 3D公共数据集为例,进一步具体说明。
MSRAction 3D公共数据集中,每个骨骼用20个关节点来描述人体。为了实现归一化处理,使用动作幅度不大的hip-center关节点作为坐标原点,建立坐标系。所以,某一时刻的骨骼的状态可以用3*19的向量来表示。而且,一个时间长度为T的动作序列可以使用57*T的矩阵进行表示。
本发明的整个动作识别分为两个流程,如图1所示,首先计算每个对应关节点之间的相似性;参考《Human Action Recognition by Representing 3D Skeletons as Pointsin a Lie Group》进行相似性计算;首先,将每个关节点的坐标和时间节点组合作为描述该关节点的特征,即(x,y,z,t)。使用逐个计算对应关节点的匹配程度,使用MSCKernel计算两个动作序列间的相似性。
其中,M1,M2表示两个动作序列,表示M1序列中关节点i在t1时刻的坐标,N1表示的是序列M1的总时长;表示M2序列中关节点i在t2时刻的坐标,N2表示序列M2的总时长。Gσ1是参数为σ1的径向量积核函数;σ1参数控制径向量积核函数作用范围的参数,表示的是两个动作序列中对应关节点的坐标特征相似的程度。Gσ2表示的是参数为σ2的径向量积核函数;σ2参数控制径向量积核函数作用范围的参数,表示的是两个动作序列中对应关节点的时间特征相似的程度。
接着,由于上述匹配是对应关节点之间的匹配,关节点之间的协同信息没有挖掘出来,因此,使用基于空间匹配的方法进行弥补。运动动作关节点之间距离变化方差大,说明关节点对于动作执行的参与程度高。基于这一点,计算所有点对空间相对距离。如下公式所示:
其中表示N帧时长的动作序列上点对(i,j)的距离均值。Dist(t,(i,j))表示在t时刻,关节点i和关节点j之间的距离:
然后,将这些距离由大到小进行排序,选取出top-k个关节点对,用这k个点对来表征该动作模式。选取第K大的空间相对距离为阈值ε,大于等于该阈值则为1,否则为0,得到指示矩阵H,其中对角元素皆为0。
其中H(i,j)=1,表示在该序列中关节点i,j参与动作执行,并且关节点i和j的协同信息能够表征动作运动模式。
根据指示矩阵,将具有表征动作的联动信息的关节点特征,使用平均池化方法进行匹配,得到空间匹配特征:
其中,Ci表示第i个骨骼关节点的坐标,ti表示第i个关节点的时间帧;Cj表示第j个骨骼关节点的坐标,tj表示第j个关节点的时间帧。
然后,先使用匹配前特征计算出K1,再使用得到的空间匹配特征和指示矩阵计算核K2:
接着,使用融合的方式,获取Final Kernel:
FKernel=α*K1+β*K2
其中,FKernel表示放入SVM进行分类的核函数,K1表示匹配前特征的核函数,K2表示的是步骤6计算出的核函数kernel,α表示K1的权重参数,β表示的是K2对应的权重参数。
最后,将得到的Final Kernel放入SVM中进行分类,实现对于3D骨骼动作的识别。

Claims (7)

1.一种基于空间匹配的3D骨骼动作识别方法,具体包括以下步骤:
步骤1:以经过预处理后的深度相机获取的动作骨骼关节点序列为输入;
步骤2:每个关节点的坐标和时间帧级联成特征;
步骤3:计算每一个动作序列中,骨骼关节点之间的空间相对距离;
步骤4:根据降序,选取top-K个骨骼关节点对,并得到对应的指示矩阵;
步骤5:根据指示矩阵,使用平均池化获取匹配后的特征;
步骤6:根据指示矩阵和匹配后的特征计算MSCKernel;
步骤7:计算匹配前的特征对应的MSCKernel,并与匹配后计算的MSCKernel进行融合,最后放入SVM进行动作分类。
2.根据权利要求1所述的3D骨骼动作识别方法,其特征在于,所述步骤1中的动作骨骼关节点序列为各关节点的三维空间坐标。
3.根据权利要求1所述的3D骨骼动作识别方法,其特征在于,所述步骤3中计算每一个动作序列中,骨骼关节点之间的空间相对距离公式为:
其中,表示N帧时长的动作序列上点关节点i和关节点j之间的距离均值;而且,Dist(t,(i,j))表示在t时刻,骨骼关节点i和j之间的空间距离,即:xi(t),yi(t),zi(t)表示关节点i在t时刻的坐标值。
4.根据权利要求1所述的3D骨骼动作识别方法,其特征在于,所述步骤4中得到对应的指示矩阵,具体包括:
1)将所有的关节点对对应的空间相对距离进行降序排列;
2)选取第K大的空间相对距离为阈值ε,大于等于该阈值则为1,否则为0,得到指示矩阵H,其中,对角元素皆为0:
5.根据权利要求1所述的3D骨骼动作识别方法,其特征在于,所述步骤5中的平均池化为:
其中,Ci表示动作序列中骨骼t时刻第i个骨骼关节点的坐标,ti表示第i个关节点的时间帧;Cj表示动作序列中骨骼t时刻第j个骨骼关节点的坐标,tj表示第j个关节点的时间帧。
6.根据权利要求1所述的3D骨骼动作识别方法,其特征在于所述计算MSCKernel,具体为:
其中,表示动作序列a的指示矩阵i行j列的值,其意义是关节点i和j之间的空间相对距离是否在top-k中,即动作关节点对(i,j)是否参与动作执行;同理,表示序列b的对应含义;λi,j表示的是动作序列a和b对应的点对是否都参与了动作执行;分别表示的是动作序列a和b中,关节点i和j平均池化后的特征;Kernel(a,b)是表征动作序列a和b之间相似距离的核函数值;Gσ1是参数为σ1的径向量积核函数;σ1参数控制径向量积核函数作用范围的参数,表示的是两个动作序列中对应关节点的坐标特征相似的程度;Gσ2表示的是参数为σ2的径向量积核函数;σ2参数控制径向量积核函数作用范围的参数,表示的是两个动作序列中对应关节点的时间特征相似的程度;t1,t2,N1,N2分别表示序列1中关节点i所在的时间帧,序列2中关节点i所在的时间帧,序列1的长度,序列2的长度;m表示需要计算的关节点的数量,n表示的是骨骼的关节点数。
7.根据权利要求1所述的3D骨骼动作识别方法,其特征在于,步骤7中,所述进行融合,具体为:
FKernel=α*K1+β*K2
其中,FKernel表示放入SVM进行分类的核函数,K1表示匹配前特征的核函数,K2表示的是步骤6计算出的核函数kernel,α表示K1的权重参数,β表示的是K2对应的权重参数。
CN201810567026.2A 2018-06-05 2018-06-05 一种基于空间匹配的3d骨骼动作识别方法 Pending CN108898064A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810567026.2A CN108898064A (zh) 2018-06-05 2018-06-05 一种基于空间匹配的3d骨骼动作识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810567026.2A CN108898064A (zh) 2018-06-05 2018-06-05 一种基于空间匹配的3d骨骼动作识别方法

Publications (1)

Publication Number Publication Date
CN108898064A true CN108898064A (zh) 2018-11-27

Family

ID=64344153

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810567026.2A Pending CN108898064A (zh) 2018-06-05 2018-06-05 一种基于空间匹配的3d骨骼动作识别方法

Country Status (1)

Country Link
CN (1) CN108898064A (zh)

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101216896A (zh) * 2008-01-14 2008-07-09 浙江大学 一种基于模版匹配的视点无关的人体动作识别方法
CN104933417A (zh) * 2015-06-26 2015-09-23 苏州大学 一种基于稀疏时空特征的行为识别方法
KR20160099335A (ko) * 2015-02-12 2016-08-22 재단법인대구경북과학기술원 3d 골격데이터를 스트리밍하여 공격적인 행동을 감지하는 장치 및 그 방법
CN106384093A (zh) * 2016-09-13 2017-02-08 东北电力大学 一种基于降噪自动编码器和粒子滤波的人体动作识别方法
CN107392131A (zh) * 2017-07-14 2017-11-24 天津大学 一种基于人体骨骼节点距离的动作识别方法
CN107506756A (zh) * 2017-09-26 2017-12-22 北京航空航天大学 一种基于Gabor滤波器三维卷积神经网络模型的人体动作识别方法
CN107607992A (zh) * 2017-08-24 2018-01-19 电子科技大学 基于卷积神经网络的多波匹配方法
CN107908288A (zh) * 2017-11-30 2018-04-13 沈阳工业大学 一种面向人机交互的快速人体动作识别方法

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101216896A (zh) * 2008-01-14 2008-07-09 浙江大学 一种基于模版匹配的视点无关的人体动作识别方法
KR20160099335A (ko) * 2015-02-12 2016-08-22 재단법인대구경북과학기술원 3d 골격데이터를 스트리밍하여 공격적인 행동을 감지하는 장치 및 그 방법
CN104933417A (zh) * 2015-06-26 2015-09-23 苏州大学 一种基于稀疏时空特征的行为识别方法
CN106384093A (zh) * 2016-09-13 2017-02-08 东北电力大学 一种基于降噪自动编码器和粒子滤波的人体动作识别方法
CN107392131A (zh) * 2017-07-14 2017-11-24 天津大学 一种基于人体骨骼节点距离的动作识别方法
CN107607992A (zh) * 2017-08-24 2018-01-19 电子科技大学 基于卷积神经网络的多波匹配方法
CN107506756A (zh) * 2017-09-26 2017-12-22 北京航空航天大学 一种基于Gabor滤波器三维卷积神经网络模型的人体动作识别方法
CN107908288A (zh) * 2017-11-30 2018-04-13 沈阳工业大学 一种面向人机交互的快速人体动作识别方法

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
MENG LI等: "Graph-based approach for 3D human skeletal action recognition", 《PATTERN RECOGNITION LETTERS》 *
QI LIANG等: "MCTD: Motion-Coordinate-Time Descriptor for 3D Skeleton-Based Action Recognition", 《ADVANCES IN MULTIMEDIA INFORMATION PROCESSING - PCM》 *
TONG ZHANG等: "Deep Manifold-to-Manifold Transforming Network", 《ARXIV:1705.10732V3》 *
彭玲: "基于3D骨架的室内人体行为识别研究", 《中国优秀硕士学位论文全文数据库 信息科技辑》 *

Similar Documents

Publication Publication Date Title
Breitenstein et al. Robust tracking-by-detection using a detector confidence particle filter
US7706571B2 (en) Flexible layer tracking with weak online appearance model
CN102385690B (zh) 基于视频图像的目标跟踪方法及系统
WO2017150032A1 (en) Method and system for detecting actions of object in scene
CN103049751A (zh) 一种改进的加权区域匹配高空视频行人识别方法
CN102903119A (zh) 一种目标跟踪方法和装置
Zhou et al. Entropy distribution and coverage rate-based birth intensity estimation in GM-PHD filter for multi-target visual tracking
CN103942535B (zh) 多目标跟踪方法及装置
Roy et al. A hierarchical method combining gait and phase of motion with spatiotemporal model for person re-identification
CN104834916A (zh) 一种多人脸检测跟踪方法
Zhou et al. Game-theoretical occlusion handling for multi-target visual tracking
Yadav Efficient method for moving object detection in cluttered background using Gaussian Mixture Model
Yamamoto et al. Multiple players tracking and identification using group detection and player number recognition in sports video
Garcia-Martin et al. On collaborative people detection and tracking in complex scenarios
Hwang et al. A novel part-based approach to mean-shift algorithm for visual tracking
Wu et al. Realtime single-shot refinement neural network with adaptive receptive field for 3D object detection from LiDAR point cloud
Jin et al. Analysis-by-synthesis: Pedestrian tracking with crowd simulation models in a multi-camera video network
Chu et al. Target tracking via particle filter and convolutional network
CN103996207A (zh) 一种物体跟踪方法
Wang et al. Robust visual tracking by metric learning with weighted histogram representations
Duan et al. An approach to dynamic hand gesture modeling and real-time extraction
CN108898064A (zh) 一种基于空间匹配的3d骨骼动作识别方法
Sun et al. Dynamic multi-cue tracking using particle filter
Dash et al. Ohta based covariance technique for tracking object in video scene
Liu et al. A new multi-view articulated human motion tracking algorithm with improved silhouette extraction and view adaptive fusion

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
WD01 Invention patent application deemed withdrawn after publication

Application publication date: 20181127

WD01 Invention patent application deemed withdrawn after publication