CN103984921A - 一种用于人体动作识别的三轴特征融合方法 - Google Patents

一种用于人体动作识别的三轴特征融合方法 Download PDF

Info

Publication number
CN103984921A
CN103984921A CN201410179116.6A CN201410179116A CN103984921A CN 103984921 A CN103984921 A CN 103984921A CN 201410179116 A CN201410179116 A CN 201410179116A CN 103984921 A CN103984921 A CN 103984921A
Authority
CN
China
Prior art keywords
axle
feature
axis
fusion
feature base
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201410179116.6A
Other languages
English (en)
Other versions
CN103984921B (zh
Inventor
薛洋
胡耀全
金连文
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
South China University of Technology SCUT
Original Assignee
South China University of Technology SCUT
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by South China University of Technology SCUT filed Critical South China University of Technology SCUT
Priority to CN201410179116.6A priority Critical patent/CN103984921B/zh
Publication of CN103984921A publication Critical patent/CN103984921A/zh
Priority to PCT/CN2014/092630 priority patent/WO2015165260A1/zh
Application granted granted Critical
Publication of CN103984921B publication Critical patent/CN103984921B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing

Landscapes

  • Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Theoretical Computer Science (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Artificial Intelligence (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Image Analysis (AREA)

Abstract

本发明提供了一种用于人体动作识别的三轴特征融合方法,包括以下步骤:(1)基于特征基的三轴特征表示,将三轴特征表示成特征基的线性组合,确定每轴特征基的系数;(2)融合权重,利用每轴特征基的系数,基于方差贡献率计算每轴特征的融合权重;(3)三轴特征融合,利用每轴特征对不同动作识别的贡献大小来融合三轴特征,提高对动作识别的识别率。具有动作识别准确率高等优点。

Description

一种用于人体动作识别的三轴特征融合方法
技术领域
本发明涉及一种模式识别与人工智能技术,特别涉及一种用于人体动作识别的三轴特征融合方法。
背景技术
近年来,随着个人电子设备的发展,智能手机越来越多的内置传感设备和增强嵌入式计算能力。当智能手机被人们放在裤兜或背包中,随着人体运动频率的改变,手机加速度传感器可以检测到人体运动的状态,这极大的提高了识别人体运动行为的方便,手机加速度传感器逐渐成为人体运动模式分类的理想平台。然而,基于智能手机加速度传感器的人体运动模式分类仍存在很大限制和困难,其中一项就是加速度信号特征的融合能力差,很多特征融合后识别率反倒下降,而成功的融合方法也基于很多考虑,融合效果不是很好,我们为此提出更普用的高识别率的特征融合算法。
发明内容
本发明的目的在于克服现有技术的缺点与不足,提供一种用于人体动作识别的三轴特征融合方法,该方法是一种适用于智能手机三轴加速度信号融合特征的提取方法。
本发明的目的通过下述技术方案实现:一种用于人体动作识别的三轴特征融合方法,包括以下步骤:
(1)基于特征基的三轴特征表示,将三轴特征表示成特征基的线性组合,确定每轴特征基的系数;
(2)融合权重,利用每轴特征基的系数,基于方差贡献率计算每轴特征的融合权重;
(3)三轴特征融合,利用每轴特征对不同动作识别的贡献大小来融合三轴特征,提高对动作识别的识别率。
所述步骤(1)中,基于特征基的三轴特征表示是将三轴特征表示成特征基的线性组合,由此确定每轴特征基的系数,具体方法如下:
从多类动作构成的大量三轴加速度信号样本集中分别提取每轴的时频域特征,构成三轴特征矢量空间,记为F=[Fx,Fy,Fz],Fx,Fy,Fz分别表示x轴、y轴和z轴的特征向量,每一轴的特征向量维数记为m,即三轴特征矢量空间F是一个3×m的矩阵,则三轴特征矢量可以表示成特征基[X1,X2,…,Xm]的线性组合,即:
Fx=Ax1X1+Ax2X2+…+AxmXmx
Fy=Ay1X1+Ay2X2+…+AymXmy,    (1)
Fz=Az1X1+Az2X2+…+AzmXmz
其中,特征基[X1,X2,…,Xm]可以唯一的表示每一轴的特征向量,Aij是一个3×m的矩阵,表示特征基的系数,i∈{x,y,z},j=[1,2,…,m]。εi表示每轴的误差平衡,i∈{x,y,z};
特征基X=[X1,X2,…,Xm]的线性组合通过稀疏编码重构三轴特征矢量空间F的代价函数,用矩阵形式表示如下:
J ( A , X ) = | | AX - F | | 2 2 + λ | | X | | 1 + γ | | A | | 2 2 , - - - ( 2 )
用L1范数对基矢量X做稀疏性惩罚,同时为防止特征基的系数矩阵A过大,对特征基的系数矩阵A用L2范数来约束;但是基矢量X处的L1范数在0点是不可微的,所以不能用梯度下降法对上面的代价函数寻优,于是为了在0处可导,将公式(2)变成:
J ( A , X ) = | | AX - F | | 2 2 + λ X 2 + ϵ + γ | | A | | 2 2 , - - - ( 3 )
对公式(3)执行以下算法就可以确定使J(A,x)最小化的特征基X和特征基的系数矩阵A,其算法包括如下步骤:
1)随机初始化A;
2)根据步骤1)给定的A,求解能够最小化J(A,x)的X;
3)根据步骤2)得到的X,求解能够最小化J(A,x)的A;
4)重复步骤2)、3)直至AX收敛于F。
所述步骤(2)融合权重,每轴特征向量的融合权重系数的提取如下:
利用每轴特征基的系数可以计算方差贡献率:
VC i 2 = Σ j = 1 m ( A ij - μ i ) ( A ij - μ i ) T , i ∈ { x , y , z } , - - - ( 4 )
其中,表示每轴特征基系数的均值;
因为每一类动作的三个轴的特征基的系数应该分别稳定在三轴系数的均值附近,从而每一类动作的特征空间才是稳定的,这样不同动作的特征空间才会更少的重叠,识别效果才更好。所以特征基系数的方差贡献率重新计算如下:
VC i _ new 2 = VC max 2 - VC min 2 VC i 2 - VC min 2 , i ∈ { x , y , z } - - - ( 5 )
将三轴的特征基系数的方差贡献率进行幅度上的压缩,就可以得到三轴特征的融合权重矩阵,记为W=[Wx,Wy,Wz],Wx,Wy,Wz分别表示x轴、y轴和z轴的特征融合权重,三轴特征的融合权重矩阵W也是一个3×m的矩阵,幅度压缩后的特征融合权重表示为:
[ W x , W y , W z ] = [ VC x _ new 2 , VC y _ new 2 , VC z _ new 2 ] VC x _ new 2 + VC y _ new 2 + VC z _ new 2 , - - - ( 6 )
其中,[Wx,Wy,Wz]表示幅度压缩后的特征融合权重。
所述步骤(3)中的三轴特征融合,利用三轴特征的融合权重就可以获得融合后的特征向量:
EFF=[Fx,Fy,Fz][Wx,Wy,Wz]T,    (7)
其中,EFF表示融合后的特征向量。
本发明是基于特征基的三轴特征表示、融合权重确定和三轴特征融合的融合方法,其具体方法也可以描述如下:
1、基于特征基的三轴特征表示;
从多类动作构成的大量三轴加速度信号样本集中分别提取每轴的时频域特征,构成三轴特征矢量空间,记为F=[Fx,Fy,Fz],Fx,Fy,Fz分别表示x轴、y轴和z轴的特征向量,每一轴的特征向量维数记为m,即三轴特征矢量空间F是一个3×m的矩阵。则三轴特征矢量可以表示成特征基[X1,X2,…,Xm]的线性组合,即
Fx=Ax1X1+Ax2X2+…+AxmXmx
Fy=Ay1X1+Ay2X2+…+AymXmy,    (1)
Fz=Az1X1+Az2X2+…+AzmXmz
其中,特征基[X1,X2,…,Xm]可以唯一的表示每一轴的特征向量。Aij是一个3×m的矩阵,表示特征基的系数,i∈{x,y,z},j=[1,2,…,m]。εi表示每轴的误差平衡,i∈{x,y,z}。
特征基X=[X1,X2,…,Xm]的线性组合通过稀疏编码重构三轴特征矢量空间F的代价函数,用矩阵形式表示如下:
J ( A , X ) = | | AX - F | | 2 2 + λ | | X | | 1 + γ | | A | | 2 2 , - - - ( 2 )
这里用L1范数对基矢量X做了稀疏性惩罚,同时为防止特征基的系数矩阵A过大,对其用L2范数来约束。但是基矢量X处的L1范数在0点是不可微的,所以不能用梯度下降法对上面的代价函数寻优,于是为了在0处可导,将公式(2)变成:
J ( A , X ) = | | AX - F | | 2 2 + λ X 2 + ϵ + γ | | A | | 2 2 , - - - ( 3 )
对公式(3)执行以下算法就可以确定使J(A,x)最小化的特征基X和特征基的系数矩阵A。算法如下:
1)随机初始化A;
2)根据步骤1)给定的A,求解能够最小化J(A,x)的X;
3)根据步骤2)得到的X,求解能够最小化J(A,x)的A;
4)重复步骤2)、3)直至AX收敛于F。
2、融合权重的确定;
利用每轴特征基系数的方差贡献率,计算每轴特征的融合权重。具体如下:
利用每轴特征基的系数可以计算方差贡献率:
VC i 2 = Σ j = 1 m ( A ij - μ i ) ( A ij - μ i ) T , i ∈ { x , y , z } , - - - ( 4 )
其中,表示每轴特征基系数的均值。
因为每一类动作的三个轴的特征基的系数应该分别稳定在三轴系数的均值附近,从而每一类动作的特征空间才是稳定的,这样不同动作的特征空间才会更少的重叠,识别效果才更好。所以基于公式(4),每轴特征基系数的方差贡献率重新计算如下:
VC i _ new 2 = VC max 2 - VC min 2 VC i 2 - VC min 2 , i ∈ { x , y , z } - - - ( 5 )
将三轴的特征基系数的方差贡献率进行幅度上的压缩,就可以得到三轴特征的融合权重矩阵,记为W=[Wx,Wy,Wz],Wx,Wy,Wz分别表示x轴、y轴和z轴的特征融合权重,三轴特征的融合权重W也是一个3×m的矩阵。幅度压缩后的特征融合权重表示为:
[ W x , W y , W z ] = [ VC x _ new 2 , VC y _ new 2 , VC z _ new 2 ] VC x _ new 2 + VC y _ new 2 + VC z _ new 2 , - - - ( 6 )
3、三轴特征融合;
利用公式(6)得到的三轴特征的融合权重就可以获得融合后的特征向量:
EFF=[Fx,Fy,Fz][Wx,Wy,Wz]T,    (7)其中,EFF表示融合后的特征向量。
本发明相对于现有技术具有如下的优点及效果:
动作识别准确率高;本发明利用每轴特征对不同动作识别的贡献大小对三轴特征进行融合,针对从智能手机加速度传感器获得的三轴加速度信号中提取的三轴特征,对其进行基于特征基的三轴特征表示、融合权重确定以及三轴特征融合,达到提高了动作识别准确率的目的。
附图说明
图1是本发明的特征融合方法的流程框图。
具体实施方式
下面结合实施例及附图对本发明作进一步详细的描述,但本发明的实施方式不限于此。
实施例
本实施所用的输入设备是内置三轴加速度传感器的智能手机,用计算机进行处理,便能较好地实施本发明。
用于人体动作识别的三轴特征融合算法的系统流程图如图1所示,具体步骤包括:
1、预处理;
对于采集到的三轴加速度信号用比值线性归一化的方法,把不同人的三轴加速度信号归一化到[-1,1]的范围内。
2、基于特征基的三轴特征表示,确定每轴特征基的系数;
从多类动作构成的大量三轴加速度信号样本集中分别提取每轴的时频域特征,构成三轴特征矢量空间,记为F=[Fx,Fy,Fz],Fx,Fy,Fz分别表示x轴、y轴和z轴的特征向量,每一轴的特征向量维数记为m,即三轴特征矢量空间F是一个3×m的矩阵。则三轴特征矢量可以表示成特征基[X1,X2,…,Xm]的线性组合,即
Fx=Ax1X1+Ax2X2+…+AxmXmx
Fy=Ay1X1+Ay2X2+…+AymXmy,    (1)
Fz=Az1X1+Az2X2+…+AzmXmz
其中,特征基[X1,X2,…,Xm]可以唯一的表示每一轴的特征向量。Aij是一个3×m的矩阵,表示特征基的系数,i∈{x,y,z},j=[1,2,…,m]。εi表示每轴的误差平衡,i∈{x,y,z}。
特征基X=[X1,X2,…,Xm]的线性组合通过稀疏编码重构三轴特征矢量空间F的代价函数,用矩阵形式表示如下:
J ( A , X ) = | | AX - F | | 2 2 + λ | | X | | 1 + γ | | A | | 2 2 , - - - ( 2 )
这里用L1范数对基矢量X做了稀疏性惩罚,同时为防止特征基的系数矩阵A过大,对其用L2范数来约束。但是基矢量X处的L1范数在0点是不可微的,所以不能用梯度下降法对上面的代价函数寻优,于是为了在0处可导,将公式(2)变成:
J ( A , X ) = | | AX - F | | 2 2 + λ X 2 + ϵ + γ | | A | | 2 2 , - - - ( 3 )
对公式(3)执行以下算法就可以确定使J(A,x)最小化的特征基X和特征基的系数矩阵A。算法如下:
1)随机初始化A;
2)根据步骤1)给定的A,求解能够最小化J(A,x)的X;
3)根据步骤2)得到的X,求解能够最小化J(A,x)的A;
4)重复步骤2)、3)直至AX收敛于F。
3、基于特征基系数的方差贡献率确定三轴特征的融合权重
利用每轴特征基系数的方差贡献率,计算每轴特征的融合权重。具体如下:
利用每轴特征基的系数可以计算方差贡献率:
VC i 2 = Σ j = 1 m ( A ij - μ i ) ( A ij - μ i ) T , i ∈ { x , y , z } , - - - ( 4 )
其中,表示每轴特征基系数的均值。
因为每一类动作的三个轴的特征基的系数应该分别稳定在三轴系数的均值附近,从而每一类动作的特征空间才是稳定的,这样不同动作的特征空间才会更少的重叠,识别效果才更好。所以基于公式(4),每轴特征基系数的方差贡献率重新计算如下:
VC i _ new 2 = VC max 2 - VC min 2 VC i 2 - VC min 2 , i ∈ { x , y , z } - - - ( 5 )
将三轴的特征基系数的方差贡献率进行幅度上的压缩,就可以得到三轴特征的融合权重矩阵,记为W=[Wx,Wy,Wz],Wx,Wy,Wz分别表示x轴、y轴和z轴的特征融合权重,三轴特征的融合权重W也是一个m×3的矩阵。幅度压缩后的特征融合权重表示为:
[ W x , W y , W z ] = [ VC x _ new 2 , VC y _ new 2 , VC z _ new 2 ] VC x _ new 2 + VC y _ new 2 + VC z _ new 2 , - - - ( 6 )
4、三轴特征融合;
将三轴特征空间F=[Fx,Fy,Fz]用公式(6)获得的融合权重压缩成单轴的特征EFF:
EFF=[Fx,Fy,Fz][Wx,Wy,Wz]T,    (7)
5、贝叶斯网络分类;
用上面生成的样本特征集的80%训练贝叶斯网络分类器,然后对剩下的20%用贝叶斯网络分类器识别出每个测试样本的动作类别。
本发明的优异性能通过大样本的实验得到了证实。下面描述采用本发明所述的特征融合方法,对大量人体运动的加速度信号样本进行相关实验的结果。
由于基于智能手机加速度传感器的人体运动识别目前还没有一个公共的数据库。本实施例采集了87个人的5种动作数据(走、跑、跳、上楼和下楼),共采集到87套数据。每个类随机选取70套样本(占每类总样本数的80%)进行训练,总训练样本数为350,余下的17套样本用于测试,总的测试样本数目为85。
在实验中将本发明提出的基于三轴特征融合方法后的动作识别率和特征融合前的5种动作的识别率做了比较。如表1所示(表1为特征融合前后5种动作识别率的比较的表格),给出了特征融合前后5种动作的识别率。
表1
由表1中可以看到,采用本发明提出的三轴特征融合提取方法获得的特征,其识别率明显高于未融合的三轴加速度信号的时频域特征。因此,实验结果显示了本发明所述的基于三轴特征的融合特征提取方法在性能方面明显优于传统的未融合的时频域特征。
上述实施例为本发明较佳的实施方式,但本发明的实施方式并不受上述实施例的限制,其他的任何未背离本发明的精神实质与原理下所作的改变、修饰、替代、组合、简化,均应为等效的置换方式,都包含在本发明的保护范围之内。

Claims (4)

1.一种用于人体动作识别的三轴特征融合方法,其特征在于,包括以下步骤:
(1)基于特征基的三轴特征表示,将三轴特征表示成特征基的线性组合,确定每轴特征基的系数;
(2)融合权重,利用每轴特征基的系数,基于方差贡献率计算每轴特征的融合权重;
(3)三轴特征融合,利用每轴特征对不同动作识别的贡献大小来融合三轴特征,提高对动作识别的识别率。
2.根据权利要求1所述的用于人体动作识别的三轴特征融合方法,其特征在于,所述步骤(1)中基于特征基的三轴特征表示是将三轴特征表示成特征基的线性组合,由此确定每轴特征基的系数,具体方法如下:
从多类动作构成的大量三轴加速度信号样本集中分别提取每轴的时频域特征,构成三轴特征矢量空间,记为F=[Fx,Fy,Fz],Fx,Fy,Fz分别表示x轴、y轴和z轴的特征向量,每一轴的特征向量维数记为m,即三轴特征矢量空间F是一个3×m的矩阵,则三轴特征矢量可以表示成特征基[X1,X2,…,Xm]的线性组合,即:
Fx=Ax1X1+Ax2X2+L+AxmXmx
Fy=Ay1X1+Ay2X2+…+AymXmy,    (1)
Fz=Az1X1+Az2X2+…+AzmXmz
其中,特征基[X1,X2,…,Xm]可以唯一的表示每一轴的特征向量,Aij是一个3×m的矩阵,表示特征基的系数,i∈{x,y,z},j=[1,2,…,m];εi表示每轴的误差平衡,i∈{x,y,z};
特征基X=[X1,X2,…,Xm]的线性组合通过稀疏编码重构三轴特征矢量空间F的代价函数,用矩阵形式表示如下:
J ( A , X ) = | | AX - F | | 2 2 + λ | | X | | 1 + γ | | A | | 2 2 , - - - ( 2 )
用L1范数对基矢量X做稀疏性惩罚,同时对特征基的系数矩阵A用L2范数来约束;为了在0处可导,将公式(2)变成:
J ( A , X ) = | | AX - F | | 2 2 + λ X 2 + ϵ + γ | | A | | 2 2 , - - - ( 3 )
对公式(3)执行以下算法就可以确定使J(A,x)最小化的特征基X和特征基的系数矩阵A,其算法包括如下步骤:
1)随机初始化A;
2)根据步骤1)给定的A,求解能够最小化J(A,x)的X;
3)根据步骤2)得到的X,求解能够最小化J(A,x)的A;
4)重复步骤2)、3)直至AX收敛于F。
3.根据权利要求1所述的用于人体动作识别的三轴特征融合方法,其特征在于,所述步骤(2)融合权重,每轴特征向量的融合权重系数的提取如下:
利用每轴特征基的系数可以计算方差贡献率:
VC i 2 = Σ j = 1 m ( A ij - μ i ) ( A ij - μ i ) T , i ∈ { x , y , z } , - - - ( 4 )
其中,表示每轴特征基系数的均值;
特征基系数的方差贡献率重新计算如下:
VC i _ new 2 = VC max 2 - VC min 2 VC i 2 - VC min 2 , i ∈ { x , y , z } - - - ( 5 )
将三轴的特征基系数的方差贡献率进行幅度上的压缩,得到三轴特征的融合权重矩阵,记为W=[Wx,Wy,Wz],Wx,Wy,Wz分别表示x轴、y轴和z轴的特征融合权重,三轴特征的融合权重矩阵W也是一个3×m的矩阵,幅度压缩后的特征融合权重表示为:
[ W x , W y , W z ] = [ VC x _ new 2 , VC y _ new 2 , VC z _ new 2 ] VC x _ new 2 + VC y _ new 2 + VC z _ new 2 , - - - ( 6 )
其中,[Wx,Wy,Wz]表示幅度压缩后的特征融合权重。
4.根据权利要求1所述的用于人体动作识别的三轴特征融合方法,其特征在于,所述步骤(3)中的三轴特征融合,利用三轴特征的融合权重获得融合后的特征向量:
EFF=[Fx,Fy,Fz][Wx,Wy,Wz]T,    (7)
其中,EFF表示融合后的特征向量。
CN201410179116.6A 2014-04-29 2014-04-29 一种用于人体动作识别的三轴特征融合方法 Expired - Fee Related CN103984921B (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN201410179116.6A CN103984921B (zh) 2014-04-29 2014-04-29 一种用于人体动作识别的三轴特征融合方法
PCT/CN2014/092630 WO2015165260A1 (zh) 2014-04-29 2014-12-01 一种用于人体动作识别的三轴特征融合方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201410179116.6A CN103984921B (zh) 2014-04-29 2014-04-29 一种用于人体动作识别的三轴特征融合方法

Publications (2)

Publication Number Publication Date
CN103984921A true CN103984921A (zh) 2014-08-13
CN103984921B CN103984921B (zh) 2017-06-06

Family

ID=51276883

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201410179116.6A Expired - Fee Related CN103984921B (zh) 2014-04-29 2014-04-29 一种用于人体动作识别的三轴特征融合方法

Country Status (2)

Country Link
CN (1) CN103984921B (zh)
WO (1) WO2015165260A1 (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104899564A (zh) * 2015-05-29 2015-09-09 中国科学院上海高等研究院 一种人体行为实时识别方法
WO2015165260A1 (zh) * 2014-04-29 2015-11-05 华南理工大学 一种用于人体动作识别的三轴特征融合方法
CN105868779A (zh) * 2016-03-28 2016-08-17 浙江工业大学 一种基于特征增强和决策融合的行为识别方法
CN107145834A (zh) * 2017-04-12 2017-09-08 浙江工业大学 一种基于物理属性的自适应行为识别方法

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108245172B (zh) * 2018-01-10 2020-04-07 山东大学 一种不受位置约束的人体姿态识别方法
CN114404214B (zh) * 2020-10-28 2024-02-13 北京机械设备研究所 一种外骨骼步态辨识装置

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101650869A (zh) * 2009-09-23 2010-02-17 中国科学院合肥物质科学研究院 一种人体摔倒自动检测并报警的装置及其信息处理方法
CN201829026U (zh) * 2010-09-17 2011-05-11 中国科学院深圳先进技术研究院 跌倒监测与报警系统
JP2013003815A (ja) * 2011-06-16 2013-01-07 Aomori Prefectural Industrial Technology Research Center 転倒検出装置、転倒検出ユニット、転倒検出システムおよび転倒検出方法

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009090584A2 (en) * 2008-01-18 2009-07-23 Koninklijke Philips Electronics N.V. Method and system for activity recognition and its application in fall detection
CN101833667A (zh) * 2010-04-21 2010-09-15 中国科学院半导体研究所 一种基于分组稀疏表示的模式识别分类方法
CN102651072A (zh) * 2012-04-06 2012-08-29 浙江大学 一种面向三维人体运动数据的分类方法
CN103500342B (zh) * 2013-09-18 2017-01-04 华南理工大学 一种基于加速度计的人体行为识别方法
CN103984921B (zh) * 2014-04-29 2017-06-06 华南理工大学 一种用于人体动作识别的三轴特征融合方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101650869A (zh) * 2009-09-23 2010-02-17 中国科学院合肥物质科学研究院 一种人体摔倒自动检测并报警的装置及其信息处理方法
CN201829026U (zh) * 2010-09-17 2011-05-11 中国科学院深圳先进技术研究院 跌倒监测与报警系统
JP2013003815A (ja) * 2011-06-16 2013-01-07 Aomori Prefectural Industrial Technology Research Center 転倒検出装置、転倒検出ユニット、転倒検出システムおよび転倒検出方法

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
MI ZHANG ET AL: ""Human Daily Activity Recognition With Sparse Representation Using Wearable Sensors"", 《IEEE JOURNAL OF BIOMEDICAL AND HEALTH INFORMATICS》 *
ZHEN-YU HE ET AL: ""ACTIVITY RECOGNITION FROM ACCELERATION DATA USING AR MODEL REPRESENTATION AND SVM"", 《PROCEEDINGS OF THE SEVENTH INTERNATIONAL CONFERENCE ON MACHINE LEARNING AND CYBERNETICS》 *
李瑞峰 等: ""人体动作行为识别研究综述"", 《模式识别与人工智》 *
王松林 等: ""基于压缩感知的多特征加权目标跟踪算法"", 《计算机应用研究》 *

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015165260A1 (zh) * 2014-04-29 2015-11-05 华南理工大学 一种用于人体动作识别的三轴特征融合方法
CN104899564A (zh) * 2015-05-29 2015-09-09 中国科学院上海高等研究院 一种人体行为实时识别方法
CN105868779A (zh) * 2016-03-28 2016-08-17 浙江工业大学 一种基于特征增强和决策融合的行为识别方法
CN105868779B (zh) * 2016-03-28 2018-12-18 浙江工业大学 一种基于特征增强和决策融合的行为识别方法
CN107145834A (zh) * 2017-04-12 2017-09-08 浙江工业大学 一种基于物理属性的自适应行为识别方法
CN107145834B (zh) * 2017-04-12 2020-06-30 浙江工业大学 一种基于物理属性的自适应行为识别方法

Also Published As

Publication number Publication date
CN103984921B (zh) 2017-06-06
WO2015165260A1 (zh) 2015-11-05

Similar Documents

Publication Publication Date Title
CN103984921A (zh) 一种用于人体动作识别的三轴特征融合方法
Batool et al. Sensors technologies for human activity analysis based on SVM optimized by PSO algorithm
CN105678222B (zh) 一种基于移动设备的人体行为识别方法
Wang et al. Detecting user activities with the accelerometer on android smartphones
CN107016342A (zh) 一种动作识别方法及系统
CN103477192A (zh) 用于推断移动装置的位置的装置、方法和设备
CN106210269A (zh) 一种基于智能手机的人体动作识别系统及方法
CN107015646A (zh) 运动状态的识别方法及装置
CN103699795A (zh) 一种运动行为识别方法、装置及运动强度监测系统
CN103597424A (zh) 用于对多个装置状态分类的方法和设备
Thiemjarus et al. A study on instance-based learning with reduced training prototypes for device-context-independent activity recognition on a mobile phone
CN101882000A (zh) 一种基于加速度传感器的手势识别方法
CN110674875A (zh) 一种基于深度混合模型的行人运动模式识别方法
Oshin et al. ERSP: An energy-efficient real-time smartphone pedometer
CN109976526A (zh) 一种基于表面肌电传感器和九轴传感器的手语识别方法
CN111582361A (zh) 基于惯性传感器的人体行为识别方法
CN108433728A (zh) 一种基于智能手机和ann识别施工人员跌落险兆事故的方法
CN107016411B (zh) 数据处理方法及装置
Abdallah et al. CBARS: Cluster based classification for activity recognition systems
CN107145834B (zh) 一种基于物理属性的自适应行为识别方法
CN109086667A (zh) 基于智能终端的相似活动识别方法
Wei et al. A new inertial sensor-based gait recognition method via deterministic learning
Bai et al. Application and research of MEMS sensor in gait recognition algorithm
Alvee et al. Application of machine learning classifiers for predicting human activity
Permatasari et al. Inertial sensor fusion for gait recognition with symmetric positive definite Gaussian kernels analysis

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20170606