CN103810496B - 基于图像深度信息的3d高斯空间人体行为识别方法 - Google Patents
基于图像深度信息的3d高斯空间人体行为识别方法 Download PDFInfo
- Publication number
- CN103810496B CN103810496B CN201410009445.6A CN201410009445A CN103810496B CN 103810496 B CN103810496 B CN 103810496B CN 201410009445 A CN201410009445 A CN 201410009445A CN 103810496 B CN103810496 B CN 103810496B
- Authority
- CN
- China
- Prior art keywords
- joint
- human
- gaussian
- depth information
- action
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Landscapes
- Image Analysis (AREA)
Abstract
本发明专利公开了一种基于图像深度信息的3D高斯空间人体行为识别方法。基于图像深度信息的3D高斯空间人体行为识别方法包括以下步骤:提取深度信息中的人体骨骼3D坐标并对其进行归一化操作,过滤对人体行为识别率低的关节及冗余关节;针对各个行为构建兴趣关节群,基于高斯距离核对人体动作空间特征进行AP聚类,获得行为特征单词表并对其进行数据清理;构建人体行为条件随机场识别模型,据此实现对人体行为的分类。本发明专利对人体具体方向、骨骼尺寸、空间位置都具有较强的抗干扰性,对不同实验个体引入的动作差异有很强的泛化能力,对不同类的相似行为也有很好的识别能力。
Description
技术领域:
本发明涉及机器视觉领域,特别涉及一种基于图像深度信息的3D高斯空间人体行为识别方法。
背景技术:
视频中的人体行为识别在很多视频监控、人机交互、视频恢复等领域中都有重要的应用。尽管在近十年内,各国专家学者提出了很多方法,在该领域内取得了很多激动人心的进展,但是高精度的人体行为识别依然是一项极具挑战的工作。原因之一就是人体行为是一种动态的动作时间序列,各种动作分界模糊,即使是同一人其动作亦会变形,甚至各种动作相互组合,同时在动作进行中可能发生被遮挡的情况的发生。人体本身从背景中的分割就是一项艰巨的任务,进一步加剧了行为识别的难度。
近几年推出的深度摄像机提供了毫米级的3D深度信息。这在很大程度上降低了人体分割的难度。针对深度信息,Shotton提出了一种基于随机决策森林分类器的单像素物体识别方法(Shotton,J.,et al.Real-Time Human Pose Recognition in Parts fromSingle Depth Images.in Computer Vision and Pattern Recognition (CVPR),2011IEEE Conference on.2011.),该方法借鉴了物体识别理论,采用一种人体部位中间表达方法将比较困难的动作估计映射为简单的面向像素的分类问题,并采用基于均值漂移的局部最优的方法找到各关节最优估计。基于该方法,可以直接获得人体3D骨架关节坐标。人体动作是一种铰链结构,给定如图1所示的骨架,左图为深度图像,右图为Shotton 提出的基于随机决策森林分类器的单像素物体识别方法获取的对应的骨骼图像,人眼视觉系统可以轻松判定其动作,即使部分关节被遮挡。
但是,基于单目深度信息估计的3D关节带有很多噪声,甚至有明显的错误,尤其是在遮挡的情况下,如双手交叉、多个人体相互触碰等。基于此3D关节推理,依然不能保证人体行为识别精度。
发明内容:
本发明是为了克服上述现有技术中缺陷,提供了一种鲁棒的基于图像深度信息的3D高斯空间人体行为识别方法。
为了实现上述目的,本发明提供如下技术方案:
基于图像深度信息的3D高斯空间人体行为识别方法,其步骤为:
步骤一,针对每帧图像的深度信息,采用Shotton提出的基于随机决策森林分类器的单像素物体识别方法确认人体部位并进一步获取人体3D关节坐标;
步骤二,将所述人体3D关节坐标数据归一化;
步骤三,筛选人体关节,过滤对人体行为识别贡献低的关节或冗余关节;
步骤四,分析每类行为,基于AP聚类算法,统计每类行为中,关节空间运动行程突出的关节点,构建兴趣关节群;
步骤五,针对每类行为,基于兴趣关节群,计算每个动作的3D高斯空间特征;
步骤六,采用AP聚类算法,构建高斯距离核,将投影到人体动作空间的3D高斯空间特征聚为n组动作分类,并获取代表每组动作的聚类中心;
步骤七,针对每组动作,采用每个动作所属聚类中心构建行为特征单词表,并对每组动作进行数据清理准备;
步骤八,构建人体行为条件随机场模型,训练样本,得到人体行为识别模 型;
步骤九,对新样本进行识别。
上述技术方案中,步骤二中将所述人体3D关节坐标数据归一化包括骨架肢体矢量尺寸归一、骨架参考零点归一和骨架方向归一。
其中所述骨架肢体矢量尺寸归一的步骤包括:
a)选择一个人体3D关节坐标为标准模型;
b)保持各样本肢体段矢量方向不变,将各矢量缩放至标准模型长度;
c)以臀部中心为参考点,构造关节树,根据缩放长度移动各关节,移动矢量为:这里Δdfi是当前节点的第fi个祖先的移动矢量,n为当前节点的祖先个数。
其中所述骨架参考零点归一的步骤包括:以臀部中心为新坐标参考空间零点O′,移动骨架。
其中所述骨架方向归一的步骤包括:
a)选择原坐标系X轴,使其与左臀到右臀的矢量平行,以新坐标参考空间零点O′为臀部中心构建直线垂直于新的地面参考平面,得到新坐标参考空间Z轴;
b)旋转骨架,将骨架映射到新的坐标参考空间。
上述技术方案中,步骤三通过筛选保留对人体行为识别贡献大的关节组,保留的关节组包括12个关节:头、左/右手肘、左/右手腕、左/右膝盖、左/右脚腕、左/右臀、臀部中心。
上述技术方案中,步骤四通过AP算法构建兴趣关节群的步骤为:
a)计算相邻帧各个关节的运动距离,设在相邻帧(i帧,i+1帧)中某关节的坐标分别为:(xik,yik,zik),(xi+1,k,yi+1,k,zi+1,k),则运动距离dik为:
dik 2=(xik-xi+1,k)2+(yik-yi+1,k)2+(zik-zi+1,k)2
b)累加所有运动距离得到一个关节的总行程Dk:
c)基于AP算法,指定聚类数,采用欧氏距离为相似度度量,根据上一步计算所得运动距离将所有关节分为3类;
d)摒弃运动距离最短的关节,取运动距离较长的两类作为贡献度较高的关节,构建该行为的兴趣关节群。
上述技术方案中,步骤五中每个动作的3D高斯空间特征的计算过程为:
a)将3D空间划分为m×n×l(m,n,l∈Z)个子空间,每个关节必在一个子空间内;
b)计算除臀部中心外的其余11个关节的子空间高斯密度:
(1)对每个关节,计算其子空间高斯密度,
其中X代表关节坐标,u代表子空间中心,∑代表协方差矩阵,令∑=d/3*n*I,这里d为每个子空间对角线长度,n是子空间个数,I为单位矩阵;
(2)对于正态分布,99%的信息包含在正负3个标准差内(即d*n*I,n=3.5),令距离子空间中心距离djoint,bin>ε(ε=d;)的关节对应子空间高斯密度p(X,u,∑)=0;
c)每个动作的11个关节的子空间高斯密度即构成了稀疏的动作特征表达。上述技术方案中,步骤六中高斯距离核的构造方法为:
这里x,y代表两组特征向量,σ为标准差。
步骤六中人体动作空间的3D高斯空间特征聚类方法为:
a)采用上述高斯距离核,计算各组动作高斯密度特征相似度s(x,y);
b)针对大数量矩阵,令的相似度为0,构建稀疏相似矩阵;
c)取为参考值,n为样本个数,根据样本,通过消息传递,自动确定聚类数,应用支持稀疏矩阵的AP聚类,得到k′个聚类中心动作。上述技术方案中,步骤七中行为特征单词表的构造方法为:
a)替换原动作序列所有样本为其所属样本中心动作,得到一组视觉单词串;
b)清理每个行为样本视觉单词串,删除连续重复的单词,以减少不同样本间时间偏移造成的影响,得到行为特征单词表。
上述技术方案中,对步骤八得到的人体行为识别模型采用PSS进行优化:
minθf(θ)=-logpθ(Y|X)+r(θ),
这里
gb(yt,yt-1)=1[yt=m1∧yt-1=m2],其中m1,m2∈Y
与现有技术相比,本发明具有如下有益效果:
通过步骤二将所述人体3D关节坐标归一化技术,增强了该方法的方向不变性、骨骼尺寸不变性、空间位置抗干扰性;通过步骤三人体行为识别贡献大的关节组的选择及步骤四的与行为相关的兴趣关节群选择,显著增大了各类别距离,有效滤除无关关节引起的干扰,增强了模型的抗噪能力;结合人体3D关节坐标归一化技术、识别贡献大的关节组的选择、兴趣关节群选择、3D高斯空间特征稀疏表达及人体行为条件随机场模型共同构建了一个鲁棒的学习系统;本发明对同类别行为具有很高的辨识度,对不同实验个体引入的动作差异有很强的泛化能力,同时对相似行为也有很好的识别能力。
附图说明:
图1为采用Shotton提出的基于随机决策森林分类器的单像素物体识别方法获取的人体骨骼示意图;
图2为本发明的基于图像深度信息的3D高斯空间人体行为识别方法的流程 图;
图3为本发明人体3D关节坐标归一化示意图;
图4为本发明采用的人体行为条件随机场模型示意图;
图5为本发明采用的人体行为条件随机场模型进一步细化解释,该图以右手挥手为例;
图6为本发明对8种常见行为的识别混淆矩阵。
具体实施方式:
如图1、2所示,步骤一,针对每帧深度信息,采用Shotton提出的基于随机决策森林分类器的单像素物体识别方法确认人体部位并进一步获取人体3D关节坐标,左图为深度图像,右图为上述方法获取的对应的骨骼图像。
如图2、3所示,步骤二,将所述人体3D关节坐标数据归一化包括骨架肢体矢量尺寸归一、骨架参考零点归一和骨架方向归一。
其中所述骨架肢体矢量尺寸归一的步骤包括:
a)选择一个人体3D关节坐标为标准模型;
b)保持各样本肢体段矢量方向不变,将各矢量缩放至标准模型长度;
c)以臀部中心为参考点,构造关节树,根据缩放长度移动各关节,移动矢量为:这里Δdfi是当前节点的第fi个祖先的移动矢量,n为当前节点的祖先个数。
其中所述骨架参考零点归一的步骤包括:以臀部中心为新坐标参考空间零点O′,移动骨架。
其中所述骨架方向归一的步骤包括:
a)选择原坐标系X轴,使其与左臀到右臀的矢量平行,以新坐标参考空 间零点O′为臀部中心构建直线垂直于新的地面参考平面,得到新坐标参考空间Z轴;
b)旋转骨架,将骨架映射到新的坐标参考空间。
通过将所述人体3D关节坐标归一化技术,增强了该方法的方向不变性、骨骼尺寸不变性、空间位置抗干扰性。
如图2所示,步骤三,筛选人体关节,过滤对人体行为识别贡献低的关节或冗余关节,保留对人体行为识别贡献大的关节组,保留的关节组包括12个关节:头、左/右手肘、左/右手腕、左/右膝盖、左/右脚腕、左/右臀、臀部中心。
如图6所示,步骤四、步骤五中的每类行为是指一组动作序列构成的一个典型行为。在本发明的实验结果中,包括以下8种行为的识别结果:高抛投掷、前踢、侧踢、小跑、网球击球、网球发球、高尔夫击球、捡起并投掷。
如图2所示,步骤四,分析每类行为,基于AP聚类算法,统计每一类行为中,关节空间运动行程突出的关节点,构建兴趣关节群:
a)计算相邻帧各个关节的运动距离,设在相邻帧(i帧,i+1帧)中某关节的坐标分别为:(xik,yik,zik),(xi+1,k,yi+1,k,zi+1,k),则运动距离dik为:
dik 2=(xik-xi+1,k)2+(yik-yi+1,k)2+(zik-zi+1,k)2
b)累加所有运动距离得到一个关节的总行程Dk:
c)基于AP算法,指定聚类数,采用欧氏距离为相似度度量,根据上一步计算所得运动距离将所有关节分为3类;
d)摒弃运动距离最短的关节,取运动距离较长的两类作为贡献度较高的关节,构建该行为的兴趣关节群。
通过步骤三人体行为识别贡献大的关节组的选择及步骤四的与行为相关的兴趣关节群选择,显著增大了各类别距离,有效滤除无关关节引起的干扰,增强了模型的抗噪能力。
如图2所示,步骤五,针对每类行为,基于兴趣关节群,计算每个动作的3D高斯空间特征:
a)将3D空间划分为m×n×l(m,n,l∈Z)个子空间,每个关节必在一个子空间内;
b)计算除臀部中心外的其余11个关节的子空间高斯密度:
(1)对每个关节,计算其子空间高斯密度,
其中X代表关节坐标,u代表子空间中心,∑代表协方差矩阵,令∑=d/3*n*I,这里d为每个子空间对角线长度,n是子空间个数,I为单位矩阵。
(2)对于正态分布,99%的信息包含在正负3个标准差内(即d*n*I,n=3.5),令距离子空间中心距离djoint,bin>ε(ε=d;)的关节对应子空间高斯密度p(X,u,∑)=0。
c)每个动作的11个关节的子空间高斯密度即构成了稀疏的动作特征表达。如图2所示,步骤六,采用AP聚类算法,构建高斯距离核:
这里x,y代表两组特征向量,σ为标准差。
将投影到人体动作空间的3D高斯空间特征聚为n组动作分类,并获取代表每组动作的聚类中心:
a)采用上述高斯距离核,计算各组动作高斯密度特征相似度s(x,y);
b)针对大数量矩阵,令的相似度为0,构建稀疏相似矩阵;
c)取为参考值,n为样本个数,根据样本,通过消息传递,自动确定聚类数,应用支持稀疏矩阵的AP聚类,得到k′个聚类中心动作。
如图2所示,步骤七,针对每组动作,采用每个动作所属聚类中心构建行为特征单词表,并对每组动作进行数据清理准备:
a)替换原动作序列所有样本为其所属样本中心动作,得到一组视觉单词串;
b)清理每个行为样本视觉单词串,删除连续重复的单词,以减少不同样本间时间偏移造成的影响,得到行为特征单词表。
如图2所示,步骤八,构建人体行为条件随机场模型,训练样本,得到人体行为识别模型;
人体行为条件随机场模型如图4所示,图4中yt是预测离散状态,xt为随机动作变量,即步骤七所获得视觉特征单词表。
人体行为条件随机场模型解释如图5所示,图5所列示例为右手挥手动作,其兴趣关节群包括右手腕,右手肘及头部。
对步骤八得到的人体行为识别模型采用PSS(Schmidt,M.,Graphical ModelStructure Learning with L1-Regularization,2010,UNIVERSITY OF BRITISHCOLUMBIA.)进行优化:
minθf(θ)=-logpθ(Y|X)+r(θ),
这里
gb(yt,yt-1)=1[yt=m1∧yt-1=m2],其中m1,m2∈Y
如图2、6所示,步骤九,对新样本进行识别,本发明对同类别行为具有很高的辨识度,对不同实验个体引入的动作差异有很强的泛化能力,同时对相似行为也有很好的识别能力。
结合人体3D关节坐标归一化技术、识别贡献大的关节组的选择、兴趣关节群选择、3D高斯空间特征稀疏表达及人体行为条件随机场模型共同构建了一个鲁棒的学习系统;本发明对同类别行为具有很高的辨识度,对不同实验个体引入的动作差异有很强的泛化能力,同时对相似行为也有很好的识别能力。
本发明在视频监控、人机交互、视频检索等领域都有广泛的应用前景。
以上公开的仅为本发明的几个具体实施例,但是,本发明并非局限于此,任何本领域的技术人员能思之的变化都应落入本发明的保护范围。
Claims (9)
1.基于图像深度信息的3D高斯空间人体行为识别方法,其特征在于,包括下列步骤:
步骤一,针对每帧图像的深度信息,采用Shotton提出的基于随机决策森林分类器的单像素物体识别方法确认人体部位并进一步获取人体3D关节坐标;
步骤二,将所述人体3D关节坐标数据归一化;
步骤三,筛选人体关节,过滤对人体行为识别贡献低的关节或冗余关节;
步骤四,分析每类行为,基于AP聚类算法,统计每一类行为中,关节空间运动行程突出的关节点,构建兴趣关节群;
步骤五,针对每类行为,基于兴趣关节群,计算每个动作的3D高斯空间特征;
步骤六,采用AP聚类算法,构建高斯距离核,将投影到人体动作空间的3D高斯空间特征聚为n组动作分类,并获取代表每组动作的聚类中心;
步骤七,针对每组动作,采用每个动作所属聚类中心构建行为特征单词表,并对每组动作进行数据清理准备;
步骤八,构建人体行为条件随机场模型,训练样本,得到人体行为识别模型;
步骤九,对新样本进行识别。
2.根据权利要求1所述的基于图像深度信息的3D高斯空间人体行为识别方法,其特征在于:所述步骤二中将所述人体3D关节坐标数据归一化包括骨架肢体矢量尺寸归一、骨架参考零点归一和骨架方向归一;
其中所述骨架肢体矢量尺寸归一的步骤包括:
a)选择一个人体3D关节坐标为标准模型;
b)保持各样本肢体段矢量方向不变,将各矢量缩放至标准模型长度;
c)以臀部中心为参考点,构造关节树,根据缩放长度移动各关节,移动矢量为:这里Δdfi是当前节点的第fi个祖先的移动矢量,n为当前节点的祖先个数;
其中所述骨架参考零点归一的步骤包括:以臀部中心为新坐标参考空间零点O′,移动骨架;
其中所述骨架方向归一的步骤包括:
a)选择原坐标系X轴,使其与左臀到右臀的矢量平行,以新坐标参考空间零点O′为臀部中心构建直线垂直于新的地面参考平面,得到新坐标参考空间Z轴;
b)旋转骨架,将骨架映射到新的坐标参考空间。
3.根据权利要求1所述的基于图像深度信息的3D高斯空间人体行为识别方法,其特征在于:所述步骤三通过筛选保留对人体行为识别贡献大的关节组,保留的关节组包括12个关节:头、左/右手肘、左/右手腕、左/右膝盖、左/右脚腕、左/右臀、臀部中心。
4.根据权利要求1所述的基于图像深度信息的3D高斯空间人体行为识别方法,其特征在于:所述步骤四通过AP算法构建兴趣关节群的步骤为:
a)计算相邻帧各个关节的运动距离,设在相邻帧(i帧,i+1帧)中某关节的坐标分别为:(xik,yik,zik),(xi+1,k,yi+1,k,zi+1,k),则运动距离dik为:
dik 2=(xik-xi+1,k)2+(yik-yi+1,k)2+(zik-zi+1,k)2
b)累加所有运动距离得到一个关节的总行程Dk:
c)基于AP算法,指定聚类数,采用欧氏距离为相似度度量,根据上一步计算所得运动距离将所有关节分为3类;
d)摒弃运动距离最短的关节,取运动距离较长的两类作为贡献度较高的关节,构建该行为的兴趣关节群。
5.根据权利要求1所述的基于图像深度信息的3D高斯空间人体行为识别方法,其特征在于:所述步骤五中每个动作的3D高斯空间特征的计算过程为:
a)将3D空间划分为m×n×l(m,n,l∈Z)个子空间,每个关节必在一个子空间内;
b)计算除臀部中心外的其余11个关节的子空间高斯密度:
(1)对每个关节,计算其子空间高斯密度,
其中X代表关节坐标,u代表子空间中心,∑代表协方差矩阵,令∑=d/3*n*I,这里d为每个子空间对角线长度,n是子空间个数,I为单位矩阵;
(2)对于正态分布,99%的信息包含在正负3个标准差内(即d*n*I,n=3.5),令距离子空间中心距离djoint,bin>ε(ε=d;)的关节对应子空间高斯密度p(X,u,∑)=0;
c)每个动作的11个关节的子空间高斯密度即构成了稀疏的动作特征表达。
6.根据权利要求1所述的基于图像深度信息的3D高斯空间人体行为识别方法,其特征在于:所述步骤六中高斯距离核的构造方法为:
这里x,y代表两组特征向量,σ为标准差。
7.根据权利要求1所述的基于图像深度信息的3D高斯空间人体行为识别方法,其特征在于:所述步骤六中人体动作空间的3D高斯空间特征聚类方法为:
a)采用上述高斯距离核,计算各组动作高斯密度特征相似度s(x,y);
b)针对大数量矩阵,令的相似度为0,构建稀疏相似矩阵;
c)取为参考值,n为样本个数,根据样本,通过消息传递,自动确定聚类数,应用支持稀疏矩阵的AP聚类,得到k′个聚类中心动作。
8.根据权利要求1所述的基于图像深度信息的3D高斯空间人体行为识别方法,其特征在于:所述步骤七中行为特征单词表的构造方法为:
a)替换原动作序列所有样本为其所属样本中心动作,得到一组视觉单词串;
b)清理每个行为样本视觉单词串,删除连续重复的单词,以减少不同样本间时间偏移造成的影响,得到行为特征单词表。
9.根据权利要求1所述的基于图像深度信息的3D高斯空间人体行为识别方法,其特征在于:所述步骤八得到的人体行为识别模型采用PSS进行优化:
minθf(θ)=-logpθ(Y|X)+r(θ),
这里
为团(clique)C对应的隐函数,
其中m∈Y,j∈[0,T],
gb(yt,yt-1)=1[yt=m1∧yt-1=m2],其中m1,m2∈Y。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201410009445.6A CN103810496B (zh) | 2014-01-09 | 2014-01-09 | 基于图像深度信息的3d高斯空间人体行为识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201410009445.6A CN103810496B (zh) | 2014-01-09 | 2014-01-09 | 基于图像深度信息的3d高斯空间人体行为识别方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN103810496A CN103810496A (zh) | 2014-05-21 |
CN103810496B true CN103810496B (zh) | 2017-01-25 |
Family
ID=50707237
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201410009445.6A Active CN103810496B (zh) | 2014-01-09 | 2014-01-09 | 基于图像深度信息的3d高斯空间人体行为识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN103810496B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108875563A (zh) * | 2018-04-28 | 2018-11-23 | 尚谷科技(天津)有限公司 | 一种基于肌肉信号的人体动作识别方法 |
Families Citing this family (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6388356B2 (ja) * | 2014-06-17 | 2018-09-12 | ナント ホールディングス アイピー, エルエルシー | 行動認識システム及び方法 |
CN104616028B (zh) * | 2014-10-14 | 2017-12-12 | 北京中科盘古科技发展有限公司 | 基于空间分割学习的人体肢体姿势动作识别方法 |
CN106156714A (zh) * | 2015-04-24 | 2016-11-23 | 北京雷动云合智能技术有限公司 | 基于骨骼关节特征和表面特征融合的人体行为识别方法 |
CN104951793B (zh) * | 2015-05-14 | 2018-04-17 | 西南科技大学 | 一种基于stdf特征的人体行为识别方法 |
CN106919947B (zh) * | 2015-12-25 | 2019-12-13 | 中国移动通信集团公司 | 一种用户吃饭行为识别的方法及装置 |
CN105740815B (zh) * | 2016-01-29 | 2018-12-18 | 南京邮电大学 | 一种基于深度递归分层条件随机场的人体行为识别方法 |
CN105787439B (zh) * | 2016-02-04 | 2019-04-05 | 广州新节奏智能科技股份有限公司 | 一种基于卷积神经网络的深度图像人体关节定位方法 |
CN106021926B (zh) * | 2016-05-20 | 2019-06-18 | 北京九艺同兴科技有限公司 | 一种人体动作序列的实时评价方法 |
CN107341471B (zh) * | 2017-07-04 | 2019-10-01 | 南京邮电大学 | 一种基于双层条件随机场的人体行为识别方法 |
CN108564047B (zh) * | 2018-04-19 | 2021-09-10 | 北京工业大学 | 一种基于3d关节点序列的人体行为识别方法 |
CN108846348B (zh) * | 2018-06-07 | 2022-02-11 | 四川大学 | 一种基于三维骨骼特征的人体行为识别方法 |
CN108830215B (zh) * | 2018-06-14 | 2021-07-13 | 南京理工大学 | 基于人员骨架信息的危险行为识别方法 |
CN108921810A (zh) * | 2018-06-20 | 2018-11-30 | 厦门美图之家科技有限公司 | 一种颜色迁移方法及计算设备 |
CN108965850B (zh) * | 2018-07-05 | 2020-04-07 | 盎锐(上海)信息科技有限公司 | 人体形态的采集装置及方法 |
CN110597251B (zh) * | 2019-09-03 | 2022-10-25 | 三星电子(中国)研发中心 | 用于控制智能移动设备的方法及装置 |
CN111310605B (zh) * | 2020-01-21 | 2023-09-01 | 北京迈格威科技有限公司 | 一种图像处理方法、装置、电子设备及存储介质 |
CN111931804B (zh) * | 2020-06-18 | 2023-06-27 | 南京信息工程大学 | 一种基于rgbd摄像机的人体动作自动评分方法 |
CN112749671A (zh) * | 2021-01-19 | 2021-05-04 | 澜途集思生态科技集团有限公司 | 一种基于视频的人体行为识别方法 |
CN113705542A (zh) * | 2021-10-27 | 2021-11-26 | 北京理工大学 | 一种行人行为状态识别方法及系统 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102867175A (zh) * | 2012-08-31 | 2013-01-09 | 浙江捷尚视觉科技有限公司 | 一种基于立体视觉的atm机行为分析方法 |
CN103400160A (zh) * | 2013-08-20 | 2013-11-20 | 中国科学院自动化研究所 | 一种零训练样本行为识别方法 |
CN103500342A (zh) * | 2013-09-18 | 2014-01-08 | 华南理工大学 | 一种基于加速度计的人体行为识别方法 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8200011B2 (en) * | 2007-09-27 | 2012-06-12 | Behavioral Recognition Systems, Inc. | Context processor for video analysis system |
-
2014
- 2014-01-09 CN CN201410009445.6A patent/CN103810496B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102867175A (zh) * | 2012-08-31 | 2013-01-09 | 浙江捷尚视觉科技有限公司 | 一种基于立体视觉的atm机行为分析方法 |
CN103400160A (zh) * | 2013-08-20 | 2013-11-20 | 中国科学院自动化研究所 | 一种零训练样本行为识别方法 |
CN103500342A (zh) * | 2013-09-18 | 2014-01-08 | 华南理工大学 | 一种基于加速度计的人体行为识别方法 |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108875563A (zh) * | 2018-04-28 | 2018-11-23 | 尚谷科技(天津)有限公司 | 一种基于肌肉信号的人体动作识别方法 |
Also Published As
Publication number | Publication date |
---|---|
CN103810496A (zh) | 2014-05-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN103810496B (zh) | 基于图像深度信息的3d高斯空间人体行为识别方法 | |
CN108961272B (zh) | 一种基于深度卷积对抗生成网络的皮肤病图像的生成方法 | |
CN110188637A (zh) | 一种基于深度学习的行为识别技术方法 | |
CN106778856A (zh) | 一种物体识别方法及装置 | |
CN109101896A (zh) | 一种基于时空融合特征和注意力机制的视频行为识别方法 | |
CN106066996A (zh) | 人体动作的局部特征表示方法及其在行为识别的应用 | |
CN108681700B (zh) | 一种复杂行为识别方法 | |
CN106570477A (zh) | 基于深度学习的车型识别模型构建方法及车型识别方法 | |
CN108805078A (zh) | 基于行人平均状态的视频行人再识别方法及系统 | |
CN104866860A (zh) | 一种室内人体行为识别方法 | |
CN108875586B (zh) | 一种基于深度图像与骨骼数据多特征融合的功能性肢体康复训练检测方法 | |
CN111160294B (zh) | 基于图卷积网络的步态识别方法 | |
CN107808376A (zh) | 一种基于深度学习的举手检测方法 | |
Khoshhal et al. | Probabilistic LMA-based classification of human behaviour understanding using power spectrum technique | |
CN106815855A (zh) | 基于产生式和判别式结合的人体运动跟踪方法 | |
CN109657634A (zh) | 一种基于深度卷积神经网络的3d手势识别方法及系统 | |
CN109726748A (zh) | 一种基于频带特征融合的gl-cnn遥感图像场景分类方法 | |
CN107351080A (zh) | 一种基于相机单元阵列的混合智能研究系统及控制方法 | |
CN105373810A (zh) | 一种用于建立动作识别模型的方法及系统 | |
Li et al. | Modelling human body pose for action recognition using deep neural networks | |
CN107194929A (zh) | 一种基于深度信念网络的肺结节良恶性分类方法 | |
CN104778459A (zh) | 一种足球比赛视频中的多运动员的行为的特征融合方法 | |
CN104200218A (zh) | 一种基于时序信息的跨视角动作识别方法及系统 | |
CN103839280B (zh) | 一种基于视觉信息的人体姿态跟踪方法 | |
Yasui et al. | Analyzing and learning an opponent’s strategies in the RoboCup small size league |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant | ||
TR01 | Transfer of patent right |
Effective date of registration: 20220208 Address after: 400000 12-10, building 2, No. 297, Yunan Avenue, Banan District, Chongqing Patentee after: Chongqing weiminghui Information Technology Co.,Ltd. Address before: No. 1800 Lihu Avenue, Wuxi City, Jiangsu Province Patentee before: Jiangnan University |
|
TR01 | Transfer of patent right |