CN112766420B - 一种基于时频域信息的人体行为识别方法 - Google Patents

一种基于时频域信息的人体行为识别方法 Download PDF

Info

Publication number
CN112766420B
CN112766420B CN202110268186.9A CN202110268186A CN112766420B CN 112766420 B CN112766420 B CN 112766420B CN 202110268186 A CN202110268186 A CN 202110268186A CN 112766420 B CN112766420 B CN 112766420B
Authority
CN
China
Prior art keywords
lstm
network
cnn
iteration
triaxial acceleration
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202110268186.9A
Other languages
English (en)
Other versions
CN112766420A (zh
Inventor
丁美双
穆娟
丁蕾
邓雅丽
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hefei Gongda Vocational And Technical College
Original Assignee
Hefei Gongda Vocational And Technical College
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hefei Gongda Vocational And Technical College filed Critical Hefei Gongda Vocational And Technical College
Priority to CN202110268186.9A priority Critical patent/CN112766420B/zh
Publication of CN112766420A publication Critical patent/CN112766420A/zh
Application granted granted Critical
Publication of CN112766420B publication Critical patent/CN112766420B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • G06F18/2155Generating training patterns; Bootstrap methods, e.g. bagging or boosting characterised by the incorporation of unlabelled data, e.g. multiple instance learning [MIL], semi-supervised techniques using expectation-maximisation [EM] or naïve labelling
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Computational Linguistics (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于时频域信息的人体行为识别方法,其步骤包括:1、采集人体行为的三轴加速度序列样本并进行预处理;2、将预处理后的人体行为三轴加速度序列样本分割为训练集和测试集;3、构建LSTM‑CNN网络模型;4、融合基于时频域提取的特征向量并进行人体行为识别;5、通过梯度下降反向传播算法更新LSTM‑CNN网络参数。本发明能够有效提高人体行为识别的准确率。

Description

一种基于时频域信息的人体行为识别方法
技术领域
本发明涉及人工智能和模式识别领域,人体行为识别技术,深度学习技术,具体涉及一种基于时频域信息的人体行为识别方法。
背景技术
人体行为识别与状态监测是当前人工智能和模式识别领域的一个的研究热点,在医疗健康、智能家居、老年护理等领域有着广泛的应用。人体行为识别通过人体行为数据获取的方法来划分大致分为两类,基于计算机视觉的行为识别方法和基于可穿戴设备的行为识别方法。相对于计算机视觉的人体行为识别而言,基于可穿戴设备通过采集传感器数据来实现人体行为识别。此方法不受特定场景和时间的限制且能量消耗少、成本较低,更适合推广使用。
宁波大学於晨阳等人发明了一种基于深度学习的无源人体运动识别方法(公开号:CN 110991251 A),该方法首先对采集的人体运动数据进行行为特征提取获取训练数据,然后基于训练数据对BP神经网络模型进行训练,最终通过神经网络模型实现运动识别。该方法对人体行为识别准确率有一定的提升且识别时间短,但特征提取通过手选特征的方式,只能在某些行为动作方面获得较好的识别率,对于更大的数据集的识别仍存在一些问题。
南京邮电大学李争彦等人发明了一种基于神经网络的人体行为识别方法及系统(公开号:CN 108764059 A),该方法首先对穿戴式图像传感器采集的图像信息进行预处理,再使用LSTM-RNN神经网络算法对图像信息进行运动场景识别。其次使用LSTM-RNN神经网络算法对运动传感器的加速度信息进行动作识别。最后将使用场景标记的运动序列在行为数据库中进行匹配,得到具体的行为信息从而实现人体行为动作识别。该方法提高了人体行为识别的准确性与稳定性,但需要同时采集图像和传感器数据,使得识别效率降低且可推广性差。
发明内容
本发明是为避免上述现有技术所存在的不足之处,提供一种基于时频域信息的人体行为识别方法,以期通过LSTM-CNN网络模型充分获取人体行为的时空信息,从而能有效识别出被监测对象的人体行为,并提高识别准确率和效率。
本发明为解决技术问题采用如下技术方案:
本发明一种基于时频域信息的人体行为识别方法的特点在于包含以下步骤:
步骤1、按照采样频率以固定的采样时长对I种不同的人体行为分别进行连续采样,从而得到N位测试人员在I种人体行为上的三轴加速度序列集合G={Q1,1,...,Qn,i,...,QN,I},其中,Qn,i表示第n位测试人员在进行第i种人体行为的三轴加速度序列,且
Figure BDA0002972922160000021
Figure BDA0002972922160000022
表示第n位测试人员在进行第i种人体行为的X轴加速度序列,
Figure BDA0002972922160000023
表示第n位测试人员在进行第i种人体行为的Y轴加速度序列;
Figure BDA0002972922160000024
表示第n位测试人员在进行第i种人体行为的Z轴加速度序列,n=1,2,...,N,i=1,2,...,I;
步骤2、对所述三轴加速度序列集合G进行小波去噪得到去噪后的三轴加速度序列集合
Figure BDA0002972922160000025
其中,
Figure BDA0002972922160000026
表示去噪后的第n位测试人员在进行第i种人体行为的三轴加速度序列;
步骤3、定义滑动窗口大小为m×3,对所述去噪后的三轴加速度序列集合G1的每个三轴加速度序列进行竖向滑动取值,得到预处理后的三轴加速度序列集合Gprog;从所述预处理后的三轴加速度序列集合Gprog中取出p个三轴加速度序列作为训练集T;
步骤4、构建LSTM-CNN神经网络;
所述LSTM-CNN神经网络包含LSTM网络、小波包特征提取模块、CNN网络、特征融合层、SCN分类器以及输出层;其中,LSTM网络的输入节点个数为m×3,包含2个LSTM层和1个Dense层,输出维数为h1×1;所述CNN网络的输入节点个数为2l×1,包含2个卷积层、2个池化层和1个Dense层,输出维数为h2×1;l表示小波包变换的层数;
步骤5、定义网络当前迭代次数为μ,并初始化μ=1;最大迭代次数为μmax;对所述LSTM-CNN神经网络中各层的参数进行第μ次随机初始化,从而得到第μ次迭代的LSTM-CNN神经网络;
步骤6、定义变量j;
步骤7、初始化j=1;
步骤8、从所述训练集T中取第j个三轴加速度序列样本输入第μ次迭代的LSTM-CNN神经网络中的LSTM网络,得到维数为h1×1的第一特征向量
Figure BDA0002972922160000027
步骤9、将所述训练集T中取第j个三轴加速度序列样本并输入所述小波包特征提取模块中进行l层小波包能量特征提取和归一化处理,得到维数大小为2l×1的第j个三轴加速度序列样本能量特征向量Ej
步骤10、将所述第j个三轴加速度序列样本能量特征向量Ej输入第μ次迭代的LSTM-CNN神经网络中的CNN网络,得到维数为h2×1的第二特征向量
Figure BDA0002972922160000031
步骤11、所述特征融合层构建维数为(h1+h2)×1的人体行为状态特征向量
Figure BDA0002972922160000032
步骤12、定义LSTM-CNN神经网络的期望输出为
Figure BDA0002972922160000033
Figure BDA0002972922160000034
表示第j个三轴加速度序列样本输入LSTM-CNN神经网络,输出层第nc个节点的期望输出值,将所述人体行为状态特征向量Fj,μ输入第μ次迭代的LSTM-CNN神经网络的SCN分类器,再经过输出层,得到网络输出
Figure BDA0002972922160000035
Figure BDA0002972922160000036
表示第j个三轴加速度序列样本输入第μ次迭代的LSTM-CNN神经网络,输出层第nc个节点的输出值,将网络输出
Figure BDA0002972922160000037
与期望输出tj作差得到第μ次迭代的网络输出误差ej,μ
步骤13、将j+1赋值给j后,判断j>p是否成立;若成立,则继续执行步骤14,否则返回步骤8;其中,p是训练集T所包含样本的个数;
步骤14、定义
Figure BDA0002972922160000038
为LSTM-CNN网络第μ次迭代网络输出的均方根误差;判断eμ<error是否成立,若成立,则将当前第μ次迭代的LSTM-CNN网络模型Aμ用于人体行为识别;否则,继续执行步骤15,其中,error是人工设定误差阈值;
步骤15、根据梯度下降的反向传播算法更新第μ次迭代的LSTM-CNN网络的特征融合层到输入层的权重和偏置,并利用式(1-1)-式(1-3)更新第μ次迭代的LSTM-CNN网络的输出层到特征融合层的权重和偏置:
Figure BDA0002972922160000039
Figure BDA0002972922160000041
Figure BDA0002972922160000042
式(1-1)-式(1-3)中,r表示SCN分类器的节点个数;Fμ表示第μ次迭代的LSTM-CNN特征融合层的输出集,Fμ={F1,μ,...,Fj,μ,...,Fp,μ},βr,μ表示第μ次迭代的LSTM-CNN神经网络的SCN分类器第r个节点到输出层的权重;
Figure BDA0002972922160000043
表示第μ次迭代的LSTM-CNN网络的特征融合层到SCN分类器第r个节点的权重;br,μ表示第μ次迭代的LSTM-CNN网络的特征融合层到SCN分类器第r个节点的偏置;k表示LSTM-CNN神经网络的激活函数;
步骤16、将μ+1赋值给μ后,判断μ>μmax是否成立,若成立,将当前第μ次迭代的LSTM-CNN网络模型Aμ用于人体行为识别,否则,返回步骤7。
与已有技术相比,本发明的有益效果体现在:
1、本发明利用LSTM网络和CNN网络分别提取加速度传感器数据在时间维度和空间维度上的特征并进行特征融合,增强了该方法的时空特征表达能力,从而保证了人体行为识别的准确率和可靠性。
2、本发明通过融合LSTM网络和CNN网络实现了端到端的人体行为识别模型,避免了传统识别方法的特征提取与分类器割裂的现象,从而提高了人体行为识别的效率。
3、本发明采用随机配置网络代替了传统深度学习神经网络中的softmax层,实现了加速度传感器数据多尺度特征的人体行为状态的全局逼近,增强了网络的学习能力和泛化能力。
附图说明
图1为基于时频域信息的人体行为识别方法流程图;
图2为基于时频域信息的人体行为识中LSTM-CNN网络模型架构图。
具体实施方式
本实施例中,参照图1,一种基于时频域信息的人体行为识别方法,包含以下步骤:
步骤1、按照采样频率以固定的采样时长对I种不同的人体行为分别进行连续采样,从而得到N位测试人员在I种人体行为上的三轴加速度序列集合G={Q1,1,...,Qn,i,...,QN,I},其中,Qn,i表示第n位测试人员在进行第i种人体行为的三轴加速度序列,且
Figure BDA0002972922160000051
Figure BDA0002972922160000052
表示第n位测试人员在进行第i种人体行为的X轴加速度序列,
Figure BDA0002972922160000053
表示第n位测试人员在进行第i种人体行为的Y轴加速度序列;
Figure BDA0002972922160000054
表示第n位测试人员在进行第i种人体行为的Z轴加速度序列,n=1,2,...,N,i=1,2,...,I;具体实施例中,采样频率为50Hz,采样时长为2min,I=7,7种动作分别为站立、行走、跑步、卧躺、就坐、上楼、下楼;
步骤2、对三轴加速度序列集合G进行小波去噪得到去噪后的三轴加速度序列集合
Figure BDA0002972922160000055
其中,
Figure BDA0002972922160000056
表示去噪后的第n位测试人员在进行第i种人体行为的三轴加速度序列;
步骤3、定义滑动窗口大小为m×3,对去噪后的三轴加速度序列集合G1的每个三轴加速度序列进行竖向滑动取值,得到预处理后的三轴加速度序列集合Gprog;从预处理后的三轴加速度序列集合Gprog中取出p个三轴加速度序列作为训练集T;具体实施例中,m=64;将预处理后的三轴加速度序列集合Gprog剩余三轴加速度序列作为测试集;
步骤4、构建LSTM-CNN神经网络;
LSTM-CNN神经网络包含LSTM网络、小波包特征提取模块、CNN网络、特征融合层、SCN分类器以及输出层;其中,LSTM网络的输入节点个数为m×3,包含2个LSTM层和1个Dense层,输出维数为h1×1;CNN网络的输入节点个数为2l×1,包含2个卷积层、2个池化层和1个Dense层,输出维数为h2×1;l表示小波包变换的层数;具体实施例中,基于时频域信息的人体行为识中LSTM-CNN网络模型架构图如图2所示;LSTM网络的输入节点个数为192*1,输出维数为20*1;CNN网络的输入节点个数为64*1,输出维数为10*1;输出层的输出节点数为7,分别为站立、行走、跑步、卧躺、就坐、上楼、下楼,分别用001、010、011、100、101、110、111表示;
步骤5、定义网络当前迭代次数为μ,并初始化μ=1;最大迭代次数为μmax;对LSTM-CNN神经网络中各层的参数进行第μ次随机初始化,从而得到第μ次迭代的LSTM-CNN神经网络;
步骤6、定义变量j;
步骤7、初始化j=1;
步骤8、从训练集T中取第j个三轴加速度序列样本输入第μ次迭代的LSTM-CNN神经网络中的LSTM网络,得到维数为h1×1的第一特征向量
Figure BDA0002972922160000061
步骤9、将训练集T中取第j个三轴加速度序列样本并输入小波包特征提取模块中进行l层小波包能量特征提取和归一化处理,得到维数大小为2l×1的第j个三轴加速度序列样本能量特征向量Ej
步骤10、将第j个三轴加速度序列样本能量特征向量Ej输入第μ次迭代的LSTM-CNN神经网络中的CNN网络,得到维数为h2×1的第二特征向量
Figure BDA0002972922160000062
步骤11、特征融合层构建维数为(h1+h2)×1的人体行为状态特征向量
Figure BDA0002972922160000063
步骤12、定义LSTM-CNN神经网络的期望输出为
Figure BDA0002972922160000064
Figure BDA0002972922160000065
表示第j个三轴加速度序列样本输入LSTM-CNN神经网络,输出层第nc个节点的期望输出值,将人体行为状态特征向量Fj,μ输入第μ次迭代的LSTM-CNN神经网络的SCN分类器,再经过输出层,得到网络输出
Figure BDA0002972922160000066
Figure BDA0002972922160000067
表示第j个三轴加速度序列样本输入第μ次迭代的LSTM-CNN神经网络,输出层第nc个节点的输出值,将网络输出t′j,μ与期望输出tj作差得到第μ次迭代的网络输出误差ej,μ
步骤13、将j+1赋值给j后,判断j>p是否成立;若成立,则继续执行步骤14,否则返回步骤8;其中,p是训练集T所包含样本的个数;
步骤14、定义
Figure BDA0002972922160000068
为LSTM-CNN网络第μ次迭代网络输出的均方根误差;判断eμ<error是否成立,若成立,则将当前第μ次迭代的LSTM-CNN网络模型Aμ用于人体行为识别;否则,继续执行步骤15,其中,error是人工设定误差阈值。
步骤15、根据梯度下降的反向传播算法更新第μ次迭代的LSTM-CNN网络的特征融合层到输入层的权重和偏置,并利用式(1-1)-式(1-3)更新第μ次迭代的LSTM-CNN网络的输出层到特征融合层的权重和偏置:
Figure BDA0002972922160000071
Figure BDA0002972922160000072
Figure BDA0002972922160000073
式(1-1)-式(1-3)中,r表示SCN分类器的节点个数;Fμ表示第μ次迭代的LSTM-CNN特征融合层的输出集,Fμ={F1,μ,...,Fj,μ,...,Fp,μ},βr,μ表示第μ次迭代的LSTM-CNN神经网络的SCN分类器第r个节点到输出层的权重;
Figure BDA0002972922160000074
表示第μ次迭代的LSTM-CNN网络的特征融合层到SCN分类器第r个节点的权重;br,μ表示第μ次迭代的LSTM-CNN网络的特征融合层到SCN分类器第r个节点的偏置;k表示LSTM-CNN神经网络的激活函数;
步骤16、将μ+1赋值给μ后,判断μ>μmax是否成立,若成立,将当前第μ次迭代的LSTM-CNN网络模型Aμ用于人体行为识别,否则,返回步骤7。
步骤17、利用测试集评估所述步骤14得到的LSTM-CNN网络模型Aμ的精度,准确率可达90.6%。

Claims (1)

1.一种基于时频域信息的人体行为识别方法,其特征在于包含以下步骤:
步骤1、按照采样频率以固定的采样时长对I种不同的人体行为分别进行连续采样,从而得到N位测试人员在I种人体行为上的三轴加速度序列集合G={Q1,1,...,Qn,i,...,QN,I},其中,Qn,i表示第n位测试人员在进行第i种人体行为的三轴加速度序列,且
Figure FDA0002972922150000011
Figure FDA0002972922150000012
表示第n位测试人员在进行第i种人体行为的X轴加速度序列,
Figure FDA0002972922150000013
表示第n位测试人员在进行第i种人体行为的Y轴加速度序列;
Figure FDA0002972922150000014
表示第n位测试人员在进行第i种人体行为的Z轴加速度序列,n=1,2,...,N,i=1,2,...,I;
步骤2、对所述三轴加速度序列集合G进行小波去噪得到去噪后的三轴加速度序列集合
Figure FDA0002972922150000015
其中,
Figure FDA0002972922150000016
表示去噪后的第n位测试人员在进行第i种人体行为的三轴加速度序列;
步骤3、定义滑动窗口大小为m×3,对所述去噪后的三轴加速度序列集合G1的每个三轴加速度序列进行竖向滑动取值,得到预处理后的三轴加速度序列集合Gprog;从所述预处理后的三轴加速度序列集合Gprog中取出p个三轴加速度序列作为训练集T;
步骤4、构建LSTM-CNN神经网络;
所述LSTM-CNN神经网络包含LSTM网络、小波包特征提取模块、CNN网络、特征融合层、SCN分类器以及输出层;其中,LSTM网络的输入节点个数为m×3,包含2个LSTM层和1个Dense层,输出维数为h1×1;所述CNN网络的输入节点个数为2l×1,包含2个卷积层、2个池化层和1个Dense层,输出维数为h2×1;l表示小波包变换的层数;
步骤5、定义网络当前迭代次数为μ,并初始化μ=1;最大迭代次数为μmax;对所述LSTM-CNN神经网络中各层的参数进行第μ次随机初始化,从而得到第μ次迭代的LSTM-CNN神经网络;
步骤6、定义变量j;
步骤7、初始化j=1;
步骤8、从所述训练集T中取第j个三轴加速度序列样本输入第μ次迭代的LSTM-CNN神经网络中的LSTM网络,得到维数为h1×1的第一特征向量
Figure FDA0002972922150000017
步骤9、将所述训练集T中取第j个三轴加速度序列样本并输入所述小波包特征提取模块中进行l层小波包能量特征提取和归一化处理,得到维数大小为2l×1的第j个三轴加速度序列样本能量特征向量Ej
步骤10、将所述第j个三轴加速度序列样本能量特征向量Ej输入第μ次迭代的LSTM-CNN神经网络中的CNN网络,得到维数为h2×1的第二特征向量
Figure FDA0002972922150000021
步骤11、所述特征融合层构建维数为(h1+h2)×1的人体行为状态特征向量
Figure FDA0002972922150000022
步骤12、定义LSTM-CNN神经网络的期望输出为
Figure FDA0002972922150000023
Figure FDA0002972922150000024
表示第j个三轴加速度序列样本输入LSTM-CNN神经网络,输出层第nc个节点的期望输出值,将所述人体行为状态特征向量Fj,μ输入第μ次迭代的LSTM-CNN神经网络的SCN分类器,再经过输出层,得到网络输出
Figure FDA0002972922150000025
Figure FDA0002972922150000026
表示第j个三轴加速度序列样本输入第μ次迭代的LSTM-CNN神经网络,输出层第nc个节点的输出值,将网络输出t′j,μ与期望输出tj作差得到第μ次迭代的网络输出误差ej,μ
步骤13、将j+1赋值给j后,判断j>p是否成立;若成立,则继续执行步骤14,否则返回步骤8;其中,p是训练集T所包含样本的个数;
步骤14、定义
Figure FDA0002972922150000027
为LSTM-CNN网络第μ次迭代网络输出的均方根误差;判断eμ<error是否成立,若成立,则将当前第μ次迭代的LSTM-CNN网络模型Aμ用于人体行为识别;否则,继续执行步骤15,其中,error是人工设定误差阈值;
步骤15、根据梯度下降的反向传播算法更新第μ次迭代的LSTM-CNN网络的特征融合层到输入层的权重和偏置,并利用式(1-1)-式(1-3)更新第μ次迭代的LSTM-CNN网络的输出层到特征融合层的权重和偏置:
Figure FDA0002972922150000031
Figure FDA0002972922150000032
Figure FDA0002972922150000033
式(1-1)-式(1-3)中,r表示SCN分类器的节点个数;Fμ表示第μ次迭代的LSTM-CNN特征融合层的输出集,Fμ={F1,μ,...,Fj,μ,...,Fp,μ},βr,μ表示第μ次迭代的LSTM-CNN神经网络的SCN分类器第r个节点到输出层的权重;
Figure FDA0002972922150000034
表示第μ次迭代的LSTM-CNN网络的特征融合层到SCN分类器第r个节点的权重;br,μ表示第μ次迭代的LSTM-CNN网络的特征融合层到SCN分类器第r个节点的偏置;k表示LSTM-CNN神经网络的激活函数;
步骤16、将μ+1赋值给μ后,判断μ>μmax是否成立,若成立,将当前第μ次迭代的LSTM-CNN网络模型Aμ用于人体行为识别,否则,返回步骤7。
CN202110268186.9A 2021-03-12 2021-03-12 一种基于时频域信息的人体行为识别方法 Active CN112766420B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110268186.9A CN112766420B (zh) 2021-03-12 2021-03-12 一种基于时频域信息的人体行为识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110268186.9A CN112766420B (zh) 2021-03-12 2021-03-12 一种基于时频域信息的人体行为识别方法

Publications (2)

Publication Number Publication Date
CN112766420A CN112766420A (zh) 2021-05-07
CN112766420B true CN112766420B (zh) 2022-10-21

Family

ID=75690959

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110268186.9A Active CN112766420B (zh) 2021-03-12 2021-03-12 一种基于时频域信息的人体行为识别方法

Country Status (1)

Country Link
CN (1) CN112766420B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115273237B (zh) * 2022-08-01 2024-01-30 中国矿业大学 基于集成随机配置神经网络的人体姿态与动作识别方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106845351A (zh) * 2016-05-13 2017-06-13 苏州大学 一种用于视频的基于双向长短时记忆单元的行为识别方法
CN111860117A (zh) * 2020-06-03 2020-10-30 安徽碧耕软件有限公司 一种基于深度学习的人体行为识别方法
CN112232224A (zh) * 2020-10-19 2021-01-15 西安建筑科技大学 一种lstm与cnn相结合的跨视角步态识别方法

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10860873B2 (en) * 2018-09-17 2020-12-08 Honda Motor Co., Ltd. Driver behavior recognition and prediction
CN109784280A (zh) * 2019-01-18 2019-05-21 江南大学 基于Bi-LSTM-Attention模型的人体行为识别方法
CN110555388A (zh) * 2019-08-06 2019-12-10 浙江大学 基于cnn和lstm的心内异常激动点定位模型构建方法
CN110956139B (zh) * 2019-12-02 2023-04-28 河南财政金融学院 一种基于时间序列回归预测的人体运动动作分析方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106845351A (zh) * 2016-05-13 2017-06-13 苏州大学 一种用于视频的基于双向长短时记忆单元的行为识别方法
CN111860117A (zh) * 2020-06-03 2020-10-30 安徽碧耕软件有限公司 一种基于深度学习的人体行为识别方法
CN112232224A (zh) * 2020-10-19 2021-01-15 西安建筑科技大学 一种lstm与cnn相结合的跨视角步态识别方法

Also Published As

Publication number Publication date
CN112766420A (zh) 2021-05-07

Similar Documents

Publication Publication Date Title
CN110020623B (zh) 基于条件变分自编码器的人体活动识别系统及方法
CN110309861B (zh) 一种基于生成对抗网络的多模态人类活动识别方法
CN108171318A (zh) 一种基于模拟退火—高斯函数的卷积神经网络集成方法
CN111476161A (zh) 一种融合图像和生理信号双通道的体感动态手势识别方法
CN110610158A (zh) 一种基于卷积和门控循环神经网络的人体姿态识别方法及系统
CN106127191B (zh) 基于小波包分解及逻辑回归的脑电分类方法
CN109979161A (zh) 一种基于卷积循环神经网络的人体跌倒检测方法
CN110070029A (zh) 一种步态识别方法及装置
CN110490109A (zh) 一种基于单目视觉的在线人体康复动作识别方法
CN113642432A (zh) 基于协方差矩阵变换的卷积神经网络用于人体姿态识别方法
CN113534960A (zh) 基于imu和表面肌电信号的上臂假肢控制方法及系统
CN112766420B (zh) 一种基于时频域信息的人体行为识别方法
CN112464738A (zh) 改进朴素贝叶斯算法基于手机传感器的用户行为识别方法
CN111382699A (zh) 基于粒子群优化lstm算法的动态手势识别方法
CN111860117A (zh) 一种基于深度学习的人体行为识别方法
CN111753683A (zh) 一种基于多专家卷积神经网络的人体姿态识别方法
Wang et al. A2dio: Attention-driven deep inertial odometry for pedestrian localization based on 6d imu
CN115273236A (zh) 一种多模态的人体步态情感识别方法
CN110008847B (zh) 一种基于卷积神经网络的泳姿识别方法
Zhou et al. A self-supervised human activity recognition approach via body sensor networks in smart city
CN112132096B (zh) 动态更新输出权值的随机配置网络的行为模态识别方法
Li et al. Multi-convLSTM neural network for sensor-based human activity recognition
CN113705507A (zh) 基于深度学习的混合现实开集人体姿态识别方法
CN111291804A (zh) 基于注意力机制的多传感器时间序列分析模型
Guan et al. Research on human behavior recognition based on deep neural network

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant