CN110232412B - 一种基于多模态深度学习的人体步态预测方法 - Google Patents

一种基于多模态深度学习的人体步态预测方法 Download PDF

Info

Publication number
CN110232412B
CN110232412B CN201910463800.XA CN201910463800A CN110232412B CN 110232412 B CN110232412 B CN 110232412B CN 201910463800 A CN201910463800 A CN 201910463800A CN 110232412 B CN110232412 B CN 110232412B
Authority
CN
China
Prior art keywords
data
gait
network
neural network
deep neural
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201910463800.XA
Other languages
English (en)
Other versions
CN110232412A (zh
Inventor
方斌
孙富春
王明
吕钦
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tsinghua University
Original Assignee
Tsinghua University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tsinghua University filed Critical Tsinghua University
Priority to CN201910463800.XA priority Critical patent/CN110232412B/zh
Publication of CN110232412A publication Critical patent/CN110232412A/zh
Application granted granted Critical
Publication of CN110232412B publication Critical patent/CN110232412B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01DMEASURING NOT SPECIALLY ADAPTED FOR A SPECIFIC VARIABLE; ARRANGEMENTS FOR MEASURING TWO OR MORE VARIABLES NOT COVERED IN A SINGLE OTHER SUBCLASS; TARIFF METERING APPARATUS; MEASURING OR TESTING NOT OTHERWISE PROVIDED FOR
    • G01D21/00Measuring or testing not otherwise provided for
    • G01D21/02Measuring two or more variables by means not covered by a single other subclass
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/251Fusion techniques of input or preprocessed data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Biomedical Technology (AREA)
  • Computational Linguistics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Health & Medical Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Biophysics (AREA)
  • Evolutionary Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

本发明提供一种基于多模态深度学习的人体步态预测方法,属于步态预测、深度学习领域。该方法基于时间卷积网络构建深度神经网络,对融合了惯性传感器、足底压力传感器和声音传感器三种模态的信息进行分析处理,实时输出步态预测结果。本发明不需要人为设计特征提取器提取步态特征,而是自动将特征学习和步态预测集为一体,可以在不同行走环境下实时预测不同人体步态行为,提高了步态预测的准确率和鲁棒性,未来可以应用于在医疗康复和军事领域中外骨骼机器人的步态预测。

Description

一种基于多模态深度学习的人体步态预测方法
技术领域
本发明涉及一种基于多模态深度学习的人体步态预测方法,属于步态预测、深度学习领域。
背景技术
随着人工智能的发展,尤其近年来深度学习的兴起,人与机器之间的智能协作成为人工智能的重要领域。外骨骼机器人是人机智能协作的一个重要代表,将人的智能和机器人的力量完美地结合在一起,未来在医疗康复和军事领域有巨大的发展潜力。外骨骼机器人通过传感器感知系统实时捕获人体运动步态,控制器产生控制信号驱动机械骨骼跟随人体运动。但是,由于数据采集、信号处理、执行机构响应等需要一定时间,导致机械骨骼运动步态滞后于人体的运动步态,从而影响穿戴者的穿戴舒适性与人机协调性。为解决此问题,外骨骼机器人需要对人体步态进行实时准确预测,使得控制系统的参考信号超前于人体的运动步态,进而实现实时跟随穿戴者的运动步态。
步态预测的本质是利用历史数据预测下一段时间的步态数据和趋势,是一种时序信号预测。而对于外骨骼机器人而言,配置的往往是穿戴式传感器,因此需要研究基于穿戴式传感器的步态预测方法。目前,大部分步态预测方法是基于图像数据的预测方法,或针对单一模态的传感器,如惯性传感器。基于图像数据的预测方法往往很难得到精确的人体步态,不适于高精度的外骨骼机器人步态控制。而现有的基于单一模态传感器的预测方法大多数需要人工提取步态特征,算法的计算效率和预测精度比较低、鲁棒性也较差。
卷积神经网络在最初常用于图像分类、目标检测等二维数据中,而近来有些研究者发现将卷积神经网络用于一维的时间序列中也可以取得不错的效果,其输入为一维时间序列,此时卷积核和池化窗口都由之前的二维变成一维。由于时间序列的先后性,时间序列预测算法在计算时只能利用历史信息,因此最近出现了时间卷积网络(TemporalConvolutional Networks,TCN),其性能超越了深度学习目前最常用的循环神经网络(Recurrent Neural Networks,RNN),成为一种新的能够处理时间序列数据的网络结构。
发明内容
本发明的目的是为克服现有技术中所存在的不足,提出一种基于多模态深度学习的人体步态预测方法。本发明基于时间卷积网络构建深度神经网络,对融合了惯性传感器、足底压力传感器和声音传感器三种模态的信息进行分析处理,不需要人为设计特征提取器提取步态特征,而是自动将特征学习和步态预测集为一体,可以在不同行走环境下预测人体的不同步态,提高了步态预测的准确率和鲁棒性。
本发明提出一种基于多模态深度学习的人体步态预测方法,其特征在于,包括以下步骤:
1)利用步态预测装置采集多模态数据并进行预处理,建立数据样本集,然后将数据样本集划分为训练数据集、验证数据集和测试数据集;具体步骤如下:
1-1)测试者穿戴由7个惯性传感器、12个压力传感器、2个声音传感器组成的步态预测装置;其中,7个惯性传感器分别安装在测试者的腰背、左右大腿、左右小腿和左右脚背共7个位置,用于采集人体下肢不同部位的3维加速度、3维角速度、3维角度、3维磁场数据;12个压力传感器采用鞋垫方式进行布局,左右脚底各1个鞋垫,每个鞋垫包含6个压力传感器数据采集点,用于采集12个数据点的足底压力数据;声音传感器穿戴在脚背上,左右脚背各1个,用于采集人体行走的足底声音;
1-2)令测试者穿戴步态预测装置在5种行走环境下分别进行5种人体步态行为,所述行走环境包括:瓷砖地、水泥地、柏油地、沙土地、草地,所述步态行为包括:平地慢走、平地快走、上下楼梯、上下斜坡、左右转弯;其中上下楼梯只在瓷砖地行走环境下进行,上下斜坡只在柏油地行走环境下进行,共得到17种环境步态组合;其中,单个环境步态组合的时长为10-60分钟;
1-3)在每种环境步态组合下,分别获取由惯性传感器采集得到的7组3维加速度、3维角速度、3维角度、3维磁场共84维数据,由压力传感器采集的12维足底压力数据和由声音传感器采集的2维行走声音数据,各传感器的采样频率为20-100Hz,单个采样时刻的所有数据组成1×98的原始数据样本,
Figure GDA0002723226610000021
i=1,2,…,17,j=1,2,3,…,
Figure GDA0002723226610000022
为第i种环境步态组合下的第j个原始数据样本
Figure GDA0002723226610000023
中的第k维原始数据,k=1,2,…,98,其中98维数据的排列顺序依次为21维加速度、21维角速度、21维角度、21维磁场、12维压力、2维声音;单个环境步态组合采样得到的所有原始数据样本
Figure GDA0002723226610000024
构成的集合为
Figure GDA0002723226610000025
17种环境步态组合对应的所有
Figure GDA0002723226610000026
形成原始数据样本集合
Figure GDA0002723226610000027
XRaw的数据样本总大小为N;
1-4)对XRaw中的所有原始数据样本进行滤波、归一化预处理;滤波方法选择卡尔曼滤波方法,单个原始数据样本
Figure GDA0002723226610000028
中的每一维数据
Figure GDA0002723226610000029
k=1,2,…,98的归一化方法如下:
Figure GDA00027232266100000210
式中:
Figure GDA0002723226610000031
为第i种步态环境组合下的第j个原始数据样本的第k维原始数据归一化后的数据,
Figure GDA0002723226610000032
为第i种步态环境组合下的第j个原始数据样本的第k维原始数据,
Figure GDA0002723226610000033
为所有第k维原始数据的最大值,
Figure GDA0002723226610000034
为所有第k维原始数据的最小值,
Figure GDA0002723226610000035
表示所有第k维原始数据的均值;
对所有原始数据样本预处理完毕后,得到数据样本集XNorm
1-5)将XNorm按设定比例分别划分为训练数据集XTrain、验证数据集XValidate和测试数据集XTest;其中,训练数据集XTrain的比例不低于75%,验证数据集的比例不低于5%,测试数据集的比例不低于5%;
2)构建基于时间卷积网络的深度神经网络;具体步骤如下:
2-1)确定深度神经网络结构;
采用时间卷积网络构建深度神经网络,所述深度神经网络分为过渡时刻预测网络和目标时刻预测网络两部分;
令时间0<t1<t2<t3<t4<t5,在数据样本集XNorm中,选取t1时刻到t2时刻的数据样本作为深度神经网络的输入数据x(t1)…x(t2),t3时刻到t4时刻的数据样本创建为过渡时刻样本标签y(t3)…y(t4),t5时刻的数据样本创建为目标时刻样本标签z(t5);
所述过渡时刻预测网络的输入数据为t1时刻到t2时刻的数据样本x(t1)…x(t2),输出预测数据为t3时刻到t4时刻的数据样本预测值
Figure GDA0002723226610000036
目标时刻预测网络将x(t1)…x(t2)的全部或部分数据x′(t1)…x′(t2)和
Figure GDA0002723226610000037
同时作为输入,输出预测数据为t5时刻的预测值
Figure GDA0002723226610000038
令t2=t1+7Tsample,t3=t2+Tsample,t4=t3+Tsample,t5=t4+Tsample,Tsample为数据采样间隔,即过渡时刻预测网络输入8个采样时刻数据序列x(t1)…x(t2),预测输出2个采样时刻的数据
Figure GDA0002723226610000039
目标时刻预测网络输入8个采样时刻数据序列x′(t1)…x′(t2)和2个采样时刻的过渡时刻预测数据
Figure GDA00027232266100000310
预测输出1个采样时刻的数据
Figure GDA00027232266100000311
2-2)确定深度神经网络的损失函数;
深度神经网络的损失函数L为:
Figure GDA00027232266100000312
式中,Ly和Lz分别表示过渡时刻预测网络和目标时刻预测网络的损失函数,
Figure GDA00027232266100000313
和y分别表示过渡时刻预测网络输出的预测值和标签值,
Figure GDA00027232266100000314
和z分别表示目标时刻预测网络输出的预测值和标签值,wy和wz分别为Ly和Lz权系数,Ly和Lz选择L1损失函数或L2损失函数中的任意一种:
Figure GDA00027232266100000315
Figure GDA0002723226610000041
式中,NB表示批处理样本数,取值范围为{32,64,128,256},
Figure GDA0002723226610000043
为网络输出的预测值,u为网络输出的标签值,j表示网络第j个输出值的编号;
2-3)确定深度神经网络的参数和结构超参数;
过渡时刻预测网络参数包含卷积层的权重Wyc和偏置Byc,全联接层的权重Wyf和偏置Byf
目标时刻预测网络参数包含卷积层的权重Wzc和偏置Bzc,全联接层的权重Wzf和偏置Bzf
深度神经网络的结构超参数,包括Block数、通道数、节点数、卷积核长度、空洞系数、Dropout系数;
其中,Block数的取值范围为[5,10]范围的整数,通道数的取值为[30,200]范围的整数,节点数的取值为[50,500]内的整数,卷积核长度的取值为3或5,空洞系数的取值为1或2,Dropout的取值范围为[0,1];
3)训练步骤2)构建的深度神经网络,得到训练完毕的深度神经网络及对应的最优参数;具体步骤如下:
3-1)训练深度神经网络;
确定深度神经网络的训练参数,包括:训练回合数NEpochs和学习速率α;其中,将训练数据集的全部数据样本训练一轮为一个回合,训练回合数NEpochs的取值范围为NEpochs≥100、学习速率α取值范围为[0,1];
采用随机方法初始化深度神经网络的参数Wyc、Byc、Wyf、Byf、Wzc、Bzc、Wzf、Bzf,利用训练数据集XTrain对深度神经网络参数进行训练,并采用标准的随机梯度下降方法对Wyc、Byc、Wyf、Byf、Wzc、Bzc、Wzf、Bzf进行参数更新;每间隔NV个训练回合数,利用验证数据集XValidate对深度神经网络进行一次验证,并自动保存对于验证集数据集XValidate误差最小的网络参数作为当前网络参数;
如果验证数据集误差不再下降或者训练次数达到了指定的次数NEpochs,则结束训练,进入步骤3-2);
3-2)利用测试数据集XTest对训练结束的深度神经网络进行测试,评估最优的深度神经网络参数;
评估的标准为平均误差值p,计算表达式为:
Figure GDA0002723226610000042
式中,NTest为测试数据集样本个数,
Figure GDA0002723226610000051
和zi分别表示目标时刻预测网络输出的第i个预测值和标签值;
如果评估的平均误差值p<3%,则结束评估,保存当前网络参数为深度神经网络的最优参数Wyc*、Byc*、Wyf*、Byf*、Wzc*、Bzc*、Wzf*、Bzf*,进入步骤4);如果评估的平均误差值p≥3%,则返回步骤3-1),重新训练深度神经网络;
4)利用训练完毕的深度神经网络进行人体步态预测;具体步骤如下:
4-1)选取一个新的测试者,重复步骤1-1),穿戴步态预测装置;
4-2)从步骤1-2)的5种行走环境中任意选择1种行走环境,并从步骤1-2)的5种人体步态行为中任意选取1种人体步态行为,其中上下楼梯只在瓷砖地行走环境下采集,上下斜坡只在柏油地行走环境下采集,重复步骤1-3),测试者穿戴步态预测装置实时采集该环境步态组合下的原始数据样本,单次采样的所有数据排列组成1×98的1个原始数据样本
Figure GDA0002723226610000052
Figure GDA0002723226610000053
为原始数据样本
Figure GDA0002723226610000054
中的第k维原始数据,k=1,2,...,98;
4-3)重复步骤1-4),对
Figure GDA0002723226610000055
进行预处理,得到预处理完毕的数据样本记为
Figure GDA0002723226610000056
4-4)将
Figure GDA0002723226610000057
对应采样时刻的前7个采样时刻的数据样本及
Figure GDA0002723226610000058
组成新的t1时刻到t2时刻的深度神经网络输入数据,将该输入数据输入到步骤3)训练好的深度神经网络中,网络实时输出测试者第t5时刻的步态预测结果
Figure GDA0002723226610000059
Figure GDA00027232266100000510
为步态预测结果数据
Figure GDA00027232266100000511
中的第k维原始数据,k=1,2,...,98。
本发明的特点及有益效果在于:
1、本发明的一种基于多模态深度学习的人体步态预测方法,对融合了惯性传感器、足底压力传感器和声音传感器三种模态的信息进行处理,可以在不同行走环境下实时预测不同人体步态行为的3维加速度、3维角速度、3维角度、3维磁场、12维足底压力和2维行走声音。
2、本发明的一种基于多模态深度学习的人体步态预测方法,采用时间卷积网络构建深度神经网络进行步态预测,不需要人为设计特征提取器提取步态特征,而是自动将特征学习和步态预测集为一体,提高了人体步态预测的准确率和鲁棒性。
3、本发明的一种基于多模态深度学习的人体步态预测方法,适用于大部分不同人体的步态预测,未来可以应用于在医疗康复和军事领域中外骨骼机器人的步态预测。
附图说明
图1为本发明方法的传感器穿戴示意图。
图2为本发明方法的基于TCN的深度神经网络结构图。
图3为本发明方法的TCN深度神经网络的Block图。
图中,1-7为惯性传感器,8-9为声音传感器,10-11为鞋垫式足底压力传感器。
具体实施方式
本发明提出一种基于多模态深度学习的人体步态预测方法,下面结合附图和具体实施例进一步详细说明如下。
本发明提出一种基于多模态深度学习的人体步态预测方法,包括以下步骤:
1)利用步态预测装置采集多模态数据进行预处理,建立数据样本集,然后将数据样本集划分为训练数据集、验证数据集和测试数据集;具体步骤如下:
1-1)测试者穿戴由7个惯性传感器、12个压力传感器、2个声音传感器组成的步态预测装置。选择1个测试者穿戴步态预测装置,穿戴效果如图1所示:其中,7个惯性传感器分别安装在测试者的腰背、左右大腿、左右小腿和左右脚背共7个位置,用于采集人体下肢不同部位的3维加速度、3维角速度、3维角度、3维磁场数据;12个压力传感器采用鞋垫方式进行布局,左右脚底各1个鞋垫,每个鞋垫包含6个压力传感器数据采集点,用于采集12个数据点的足底压力数据;声音传感器穿戴在脚背上,左右脚背各1个,用于采集人体行走的足底声音。
1-2)采集原始数据样本。令测试者穿戴步态预测装置在5种行走环境下(如瓷砖地、水泥地、柏油地、沙土地、草地)分别进行5种人体步态行为(如平地慢走、平地快走、上下楼梯、上下斜坡、左右转弯);其中上下楼梯只在瓷砖地行走环境下采集,上下斜坡只在柏油地行走环境下采集,共得到17种环境步态组合,其中,单个环境步态组合的时长为10-60分钟;
1-3)在每种环境步态组合下,分别获取由惯性传感器采集得到的7组3维加速度、3维角速度、3维角度、3维磁场共84维数据,由压力传感器采集的12维足底压力数据和由声音传感器采集的2维行走声音数据;各传感器的采样频率为20-100Hz,单个采样时刻的所有数据组成1×98的原始数据样本
Figure GDA0002723226610000061
i=1,2,...,17,j=1,2,3,…,
Figure GDA0002723226610000062
为第i种环境步态组合下的第j个原始数据样本中的第k维原始数据,k=1,2,...,98,其中98排列顺序依次为21维加速度、21维角速度、21维角度、21维磁场、12维压力、2维声音,共98维。单个环境步态组合的采样时长为10-60分钟,单个环境步态组合采样得到的所有原始数据样本
Figure GDA0002723226610000063
构成的集合为
Figure GDA0002723226610000064
17种环境步态组合对应的所有
Figure GDA0002723226610000065
形成原始数据样本集合
Figure GDA0002723226610000066
XRaw的数据样本总大小为N。
本实施例中,各传感器的采样频率为20Hz,单个环境步态组合的采样时长为20分钟。
1-4)数据预处理。对XRaw中的所有原始数据样本进行滤波、归一化预处理,缩放到神经网络中常用的数值范围[-1,1]范围之间,以消除由于数据大小范围不一致带来的学习困难。滤波方法选择标准的卡尔曼滤波方法,单个原始数据样本
Figure GDA0002723226610000071
中的每一维数据
Figure GDA0002723226610000072
k=1,2,...,98的归一化方法采用如下计算公式:
Figure GDA0002723226610000073
式中:
Figure GDA0002723226610000074
为第i种步态环境组合下的第j个原始数据样本的第k维原始数据归一化后的数据,
Figure GDA0002723226610000075
为第i种步态环境组合下的第j个原始数据样本的第k维原始数据,
Figure GDA0002723226610000076
为采集的对应传感器对应维所有原始数据中的最大值,
Figure GDA0002723226610000077
为采集的对应传感器对应维所有原始数据中的最小值,
Figure GDA0002723226610000078
表示采集的对应传感器对应维所有原始数据的均值。
对所有原始数据样本预处理完毕后,得到数据样本集XNorm
1-5)将XNorm按一定比例划分为训练数据集XTrain、验证数据集XValidate和测试数据集XTest。其中,训练数据集用于训练深度神经网络模型,验证数据集用于反映训练过程中的效果,但不参与深度神经网络的训练,而测试数据集是在训练结束以后评估训练好的深度神经网络效果。训练数据集XTrain的比例不低于75%,验证数据集的比例不低于5%,测试数据集的比例不低于5%。
本实施例中,将数据样本集XNorm中的前80%作为训练数据集XTrain,再在剩余的数据样本中选取前10%的数据样本组成验证数据集XValidate,最后剩下的10%数据样本作为测试数据集XTest
2)构建基于时间卷积网络的深度神经网络,具体步骤包括:
2-1)确定深度神经网络结构。
由于在利用卷积神经网络进行步态预测时,一般采用滑动窗口的形式来提取过去时间信息,从而保持网络输入大小一致,而步态预测时一般要求预测的值是一段时间以后的步态数值,因此,令时间0<t1<t2<t3<t4<t5,在数据样本集XNorm中,选取t1时刻到t2时刻的数据样本作为深度神经网络的输入数据x(t1)…x(t2),t3时刻到t4时刻的数据样本创建为过渡时刻样本标签y(t3)…y(t4),t5时刻的数据样本创建为目标时刻样本标签z(t5);
本发明采用时间卷积网络构建深度神经网络,网络结构分为过渡时刻预测网络和目标时刻预测网络两部分,结构如图2所示,其中,(a)为过渡时刻预测网络,(b)为目标时刻预测网络。过渡时刻预测网络的输入数据为x(t1)…x(t2),输出预测数据为
Figure GDA0002723226610000079
其中
Figure GDA00027232266100000710
的数据维数可以与x(t1)…x(t2)的维数相同,也可以不相同;目标时刻预测网络将x(t1)…x(t2)的全部或部分数据x′(t1)…x′(t2)和
Figure GDA0002723226610000081
同时作为输入,输出预测数据为
Figure GDA0002723226610000082
其中,x′(t1)…x′(t2)的传感器数据类型与数据维数与
Figure GDA0002723226610000083
的数据类型与维数相同,
Figure GDA0002723226610000084
的数据类型与维数可以与x′(t1)…x′(t2)和
Figure GDA0002723226610000085
的数据类型与维数相同,也可以不相同。在步态预测时,一般方法都是直接通过x(t1)…x(t2)预测
Figure GDA0002723226610000086
而本发明加入了过渡过程
Figure GDA0002723226610000087
这样可以使得网络学习到更多的变化趋势,降低个别时刻的随机误差带来的预测不准确,提升预测效果。
所述深度神经网络中的Block采用残差结构,按照顺序执行空洞因果卷积、权重归一化、ReLU、Dropout操作,然后再按顺序重复执行一次,具体操作流程如图3所示。TCN的Block结构中的1×1卷积是可选模块,当残差输入和输出维度不同时,执行卷积操作;当残差输入和输出维度相同时,不需要执行卷积操作,用单位矩阵替代即可,这种残差结构可以有效地减少信息在卷积网络中的丢失,更便于程序扩展。
所述的空洞因果卷积操作F作用在第s个输出神经元的计算公式为:
Figure GDA0002723226610000088
式中:x为输入层序列x(t1)…x(t2),xs-d*i为输入层序列中对应第s-d*i个输入,f为卷积核,d为空洞系数,k是卷积核长度。
所述的ReLU(Rectified Linear Unit)函数,其计算公式为:
f(u)=max(0,u)
u为ReLU函数的输入,当u>0时,函数导数为1;当u<0时,函数导数为0,这样使得函数具有非线性。
所述Dropout操作是随机舍弃输入中部分神经元的激活值,以避免过拟合,提高卷积神经网络的泛化能力。Dropout的取值范围为[0,1]。
所述的权重归一化操作是通过一个向量参数v和一个标量参数g对神经网络的每个权重向量w进行重新参数化,并对新引入的参数进行随机梯度下降,以加快优化过程的收敛速度。权重向量w可以表示为:
Figure GDA0002723226610000089
式中,v是k维向量,g是标量,||·||表示欧几里得范数,这种重新参数化具有固定权重参数w的欧几里得范数的效果,使得w=g,而与参数v无关。
本实施例中,令t2=t1+7Tsample,t3=t2+Tsample,t4=t3+Tsample,t5=t4+Tsample,Tsample为数据采样间隔,即过渡时刻预测网络输入8个采样时刻数据序列x(t1)…x(t2),预测输出2个采样时刻的数据
Figure GDA0002723226610000091
过渡时刻预测输出
Figure GDA0002723226610000092
与x(t1)…x(t2)的数据维数一致;目标时刻预测网络输入8个采样时刻数据序列x′(t1)…x′(t2)和2个采样时刻的过渡时刻预测数据
Figure GDA0002723226610000093
预测输出1个采样时刻的数据
Figure GDA0002723226610000094
其中,x′(t1)…x′(t2)的数据与x(t1)…x(t2)的数据相同。
2-2)确定深度神经网络的损失函数。损失函数用来衡量深度神经网络模型的拟合效果,通过求得各个参数的偏导数进行梯度的反向传递,以对神经网络参数进行优化。深度神经网络的损失函数L为:
Figure GDA0002723226610000095
式中,Ly和Lz分别表示过渡时刻预测网络和目标时刻预测网络的损失函数,
Figure GDA0002723226610000096
和y分别表示过渡时刻预测网络输出的预测值和标签值,
Figure GDA0002723226610000097
和z分别表示目标时刻预测网络输出的预测值和标签值,wy和wz分别为Ly和Lz权系数。Ly和Lz可以选择L1损失函数或L2损失函数中的任意一种:
Figure GDA0002723226610000098
Figure GDA0002723226610000099
式中,NB表示批处理样本数,取值范围为{32,64,128,256},
Figure GDA00027232266100000910
为网络输出的预测值,u为网络输出的标签值,j表示网络第j个输出值的编号。
本实施例选择NB=64,wy=0.5,wz=0.5,以及Ly和Lz都选择L1损失函数。
2-3)确定深度神经网络的参数和结构超参数。过渡时刻预测网络需要优化的参数包含卷积层的权重Wyc和偏置Byc,全联接层的权重Wyf和偏置Byf;目标时刻预测网络需要优化的参数包含卷积层的权重Wzc和偏置Bzc,全联接层的权重Wzf和偏置Bzf。深度神经网络需要确定的结构超参数,包括Block数、通道数、节点数、卷积核长度、空洞系数、Dropout系数。其中,Block数的取值范围为[5,10]范围的整数,通道数的取值为[30,200]范围的整数,节点数的取值为[50,500]内的整数,卷积核长度的取值为3或5,空洞系数的取值为1或2,Dropout的取值范围为[0,1]。
本实施例中,深度神经网络的结构超参数如表1所示。
表1深度神经网络的结构超参数
Figure GDA00027232266100000911
Figure GDA0002723226610000101
Block*6表示6个Block串联,作为特征提取网络;通道数或节点数,对于Block则为Block中空洞因果卷积层的通道数,对于全联接层则为神经元输出节点数。
3)训练步骤2)构建的深度神经网络,得到训练完毕的深度神经网络及对应的最优参数。具体步骤如下:
3-1)训练深度神经网络。确定深度神经网络的训练参数,包括:训练回合数NEpochs和学习速率α。其中,将训练数据集的全部数据样本训练一轮为一个回合,训练回合数NEpochs的取值范围为NEpochs≥100、学习速率α取值范围为[0,1]。采用随机方法初始化深度神经网络的参数Wyc、Byc、Wyf、Byf、Wzc、Bzc、Wzf、Bzf,利用训练数据集XTrain对深度神经网络参数进行训练,并采用标准的随机梯度下降方法对Wyc、Byc、Wyf、Byf、Wzc、Bzc、Wzf、Bzf进行参数更新。每间隔NV个训练回合数,利用验证数据集XValidate对深度神经网络进行一次验证,并自动保存对于验证集数据集XValidate误差最小的网络参数作为当前网络参数。如果验证数据集误差不再下降或者训练次数达到了指定的次数NEpochs,则结束训练,进入步骤3-2)。
本实施例中,取NEpochs=200,NV=1,初始学习速率α=1e-3,当NEpochs=60回合时,学习速率变为α=2e-4。
3-2)训练结束以后,利用测试数据集XTest对训练结束的深度神经网络进行测试,评估出最优的深度神经网络参数。评估的标准为平均误差值p,计算公式为:
Figure GDA0002723226610000102
式中,NTest为测试数据集样本个数,
Figure GDA0002723226610000103
和zi分别表示目标时刻预测网络输出的第i个预测值和标签值(也即步态的预测值和标签值)。
如果评估的平均误差值p<3%,则结束评估,保存当前网络参数为深度神经网络的最优参数Wyc*、Byc*、Wyf*、Byf*、Wzc*、Bzc*、Wzf*、Bzf*,进入步骤4);如果评估的平均误差值p≥3%,则返回步骤3-1),重新训练深度神经网络。
4)利用训练完毕的深度神经网络进行人体步态预测,具体步骤包括:
4-1)选取一个新的测试者,重复步骤1-1),穿戴步态预测装置。
4-2)任意选择1种行走环境下(如瓷砖地、水泥地、柏油地、沙土地、草地)1种人体步态行为(如平地慢走、平地快走、上下楼梯、上下斜坡、左右转弯),其中上下楼梯只在瓷砖地行走环境下采集,上下斜坡只在柏油地行走环境下采集。重复步骤1-3),测试者穿戴步态预测装置实时采集该环境步态组合下的原始数据样本,包括由惯性传感器采集得到的7组3维加速度、3维角速度、3维角度、3维磁场共84维数据,由压力传感器采集的12维足底压力数据和由声音传感器采集的2维行走声音数据。各传感器的采样频率为20-100Hz,单次采样的所有数据排列组成1×98的1个原始数据样本
Figure GDA0002723226610000111
Figure GDA0002723226610000112
为原始数据样本
Figure GDA0002723226610000113
中的第k维原始数据,k=1,2,...,98,排列顺序分别为21维加速度、21维角速度、21维角度、21维磁场、12维压力、2维声音,共98维。将此时的采样时刻记为新的t1时刻到t2时刻。
4-3)重复步骤1-4),对多模态数据
Figure GDA0002723226610000114
进行预处理,得到预处理完毕的数据样本记为
Figure GDA0002723226610000115
本实施例中,选择瓷砖地行走环境的平地慢走,各传感器的采样频率为20Hz。
4-4)将
Figure GDA0002723226610000116
对应采样时刻的前7个采样时刻的数据样本及
Figure GDA0002723226610000117
组成新的t1时刻到t2时刻的深度神经网络输入数据,将该输入数据输入到步骤3)训练好的深度神经网络中,网络实时输出测试者第t5时刻的步态预测结果
Figure GDA0002723226610000118
Figure GDA0002723226610000119
为步态预测结果数据
Figure GDA00027232266100001110
中的第k维原始数据,k=1,2,…,98,对应为21维加速度、21维角速度、21维角度、21维磁场、12维压力、2维声音的预测数据。
本发明的一种基于多模态深度学习的人体步态预测方法,输出的步态预测结果可以直接传输给外骨骼机器人或其它系统,用于步态的闭环控制使用。
以上所述,仅为本发明中的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉该技术的人在本发明所揭露的技术范围内,可理解想到的变换或替换,都应涵盖在本发明的包含范围之内,因此,本发明的保护范围应该以权利要求书的保护范围为准。

Claims (1)

1.一种基于多模态深度学习的人体步态预测方法,其特征在于,包括以下步骤:
1)利用步态预测装置采集多模态数据并进行预处理,建立数据样本集,然后将数据样本集划分为训练数据集、验证数据集和测试数据集;具体步骤如下:
1-1)测试者穿戴由7个惯性传感器、12个压力传感器、2个声音传感器组成的步态预测装置;其中,7个惯性传感器分别安装在测试者的腰背、左右大腿、左右小腿和左右脚背共7个位置,用于采集人体下肢不同部位的3维加速度、3维角速度、3维角度、3维磁场数据;12个压力传感器采用鞋垫方式进行布局,左右脚底各1个鞋垫,每个鞋垫包含6个压力传感器数据采集点,用于采集12个数据点的足底压力数据;声音传感器穿戴在脚背上,左右脚背各1个,用于采集人体行走的足底声音;
1-2)令测试者穿戴步态预测装置在5种行走环境下分别进行5种人体步态行为,所述行走环境包括:瓷砖地、水泥地、柏油地、沙土地、草地,所述步态行为包括:平地慢走、平地快走、上下楼梯、上下斜坡、左右转弯;其中上下楼梯只在瓷砖地行走环境下进行,上下斜坡只在柏油地行走环境下进行,共得到17种环境步态组合;其中,单个环境步态组合的时长为10-60分钟;
1-3)在每种环境步态组合下,分别获取由惯性传感器采集得到的7组3维加速度、3维角速度、3维角度、3维磁场共84维数据,由压力传感器采集的12维足底压力数据和由声音传感器采集的2维行走声音数据,各传感器的采样频率为20-100Hz,单个采样时刻的所有数据组成1×98的原始数据样本,
Figure FDA0002723226600000011
Figure FDA0002723226600000012
Figure FDA0002723226600000013
为第i种环境步态组合下的第j个原始数据样本
Figure FDA0002723226600000014
中的第k维原始数据,k=1,2,...,98,其中98维数据的排列顺序依次为21维加速度、21维角速度、21维角度、21维磁场、12维压力、2维声音;单个环境步态组合采样得到的所有原始数据样本
Figure FDA0002723226600000015
构成的集合为
Figure FDA0002723226600000016
17种环境步态组合对应的所有
Figure FDA0002723226600000017
形成原始数据样本集合
Figure FDA0002723226600000018
XRaw的数据样本总大小为N;
1-4)对XRaw中的所有原始数据样本进行滤波、归一化预处理;滤波方法选择卡尔曼滤波方法,单个原始数据样本
Figure FDA0002723226600000019
中的每一维数据
Figure FDA00027232266000000110
的归一化方法如下:
Figure FDA00027232266000000111
式中:
Figure FDA00027232266000000112
为第i种步态环境组合下的第j个原始数据样本的第k维原始数据归一化后的数据,
Figure FDA00027232266000000113
为第i种步态环境组合下的第j个原始数据样本的第k维原始数据,
Figure FDA00027232266000000114
为所有第k维原始数据的最大值,
Figure FDA00027232266000000115
为所有第k维原始数据的最小值,
Figure FDA00027232266000000116
表示所有第k维原始数据的均值;
对所有原始数据样本预处理完毕后,得到数据样本集XNorm
1-5)将XNorm按设定比例分别划分为训练数据集XTrain、验证数据集XValidate和测试数据集XTest;其中,训练数据集XTrain的比例不低于75%,验证数据集的比例不低于5%,测试数据集的比例不低于5%;
2)构建基于时间卷积网络的深度神经网络;具体步骤如下:
2-1)确定深度神经网络结构;
采用时间卷积网络构建深度神经网络,所述深度神经网络分为过渡时刻预测网络和目标时刻预测网络两部分;
令时间0<t1<t2<t3<t4<t5,在数据样本集XNorm中,选取t1时刻到t2时刻的数据样本作为深度神经网络的输入数据x(t1)…x(t2),t3时刻到t4时刻的数据样本创建为过渡时刻样本标签y(t3)…y(t4),t5时刻的数据样本创建为目标时刻样本标签z(t5);
所述过渡时刻预测网络的输入数据为t1时刻到t2时刻的数据样本x(t1)…x(t2),输出预测数据为t3时刻到t4时刻的数据样本预测值
Figure FDA0002723226600000021
目标时刻预测网络将x(t1)…x(t2)的全部或部分数据x′(t1)…x′(t2)和
Figure FDA0002723226600000022
同时作为输入,输出预测数据为t5时刻的预测值
Figure FDA0002723226600000023
令t2=t1+7Tsample,t3=t2+Tsample,t4=t3+Tsample,t5=t4+Tsample,Tsample为数据采样间隔,即过渡时刻预测网络输入8个采样时刻数据序列x(t1)…x(t2),预测输出2个采样时刻的数据
Figure FDA0002723226600000024
目标时刻预测网络输入8个采样时刻数据序列x′(t1)…x′(t2)和2个采样时刻的过渡时刻预测数据
Figure FDA0002723226600000025
预测输出1个采样时刻的数据
Figure FDA0002723226600000026
2-2)确定深度神经网络的损失函数;
深度神经网络的损失函数L为:
Figure FDA0002723226600000027
式中,Ly和Lz分别表示过渡时刻预测网络和目标时刻预测网络的损失函数,
Figure FDA0002723226600000028
和y分别表示过渡时刻预测网络输出的预测值和标签值,
Figure FDA0002723226600000029
和z分别表示目标时刻预测网络输出的预测值和标签值,wy和wz分别为Ly和Lz权系数,Ly和Lz选择L1损失函数或L2损失函数中的任意一种:
Figure FDA00027232266000000210
Figure FDA00027232266000000211
式中,NB表示批处理样本数,取值范围为{32,64,128,256},
Figure FDA0002723226600000031
为网络输出的预测值,u为网络输出的标签值,j表示网络第j个输出值的编号;
2-3)确定深度神经网络的参数和结构超参数;
过渡时刻预测网络参数包含卷积层的权重Wyc和偏置Byc,全联接层的权重Wyf和偏置Byf
目标时刻预测网络参数包含卷积层的权重Wzc和偏置Bzc,全联接层的权重Wzf和偏置Bzf
深度神经网络的结构超参数,包括Block数、通道数、节点数、卷积核长度、空洞系数、Dropout系数;
其中,Block数的取值范围为[5,10]范围的整数,通道数的取值为[30,200]范围的整数,节点数的取值为[50,500]内的整数,卷积核长度的取值为3或5,空洞系数的取值为1或2,Dropout的取值范围为[0,1];
3)训练步骤2)构建的深度神经网络,得到训练完毕的深度神经网络及对应的最优参数;具体步骤如下:
3-1)训练深度神经网络;
确定深度神经网络的训练参数,包括:训练回合数NEpochs和学习速率α;其中,将训练数据集的全部数据样本训练一轮为一个回合,训练回合数NEpochs的取值范围为NEpochs≥100、学习速率α取值范围为[0,1];
采用随机方法初始化深度神经网络的参数Wyc、Byc、Wyf、Byf、Wzc、Bzc、Wzf、Bzf,利用训练数据集XTrain对深度神经网络参数进行训练,并采用标准的随机梯度下降方法对Wyc、Byc、Wyf、Byf、Wzc、Bzc、Wzf、Bzf进行参数更新;每间隔NV个训练回合数,利用验证数据集XValidate对深度神经网络进行一次验证,并自动保存对于验证集数据集XValidate误差最小的网络参数作为当前网络参数;
如果验证数据集误差不再下降或者训练次数达到了指定的次数NEpochs,则结束训练,进入步骤3-2);
3-2)利用测试数据集XTest对训练结束的深度神经网络进行测试,评估最优的深度神经网络参数;
评估的标准为平均误差值p,计算表达式为:
Figure FDA0002723226600000032
式中,NTest为测试数据集样本个数,
Figure FDA0002723226600000033
和zi分别表示目标时刻预测网络输出的第i个预测值和标签值;
如果评估的平均误差值p<3%,则结束评估,保存当前网络参数为深度神经网络的最优参数Wyc*、Byc*、Wyf*、Byf*、Wzc*、Bzc*、Wzf*、Bzf*,进入步骤4);如果评估的平均误差值p≥3%,则返回步骤3-1),重新训练深度神经网络;
4)利用训练完毕的深度神经网络进行人体步态预测;具体步骤如下:
4-1)选取一个新的测试者,重复步骤1-1),穿戴步态预测装置;
4-2)从步骤1-2)的5种行走环境中任意选择1种行走环境,并从步骤1-2)的5种人体步态行为中任意选取1种人体步态行为,其中上下楼梯只在瓷砖地行走环境下采集,上下斜坡只在柏油地行走环境下采集,重复步骤1-3),测试者穿戴步态预测装置实时采集该环境步态组合下的原始数据样本,单次采样的所有数据排列组成1×98的1个原始数据样本
Figure FDA0002723226600000041
Figure FDA0002723226600000042
为原始数据样本
Figure FDA0002723226600000043
中的第k维原始数据,k=1,2,...,98;
4-3)重复步骤1-4),对
Figure FDA0002723226600000044
进行预处理,得到预处理完毕的数据样本记为
Figure FDA0002723226600000045
4-4)将
Figure FDA0002723226600000046
对应采样时刻的前7个采样时刻的数据样本及
Figure FDA0002723226600000047
组成新的t1时刻到t2时刻的深度神经网络输入数据,将该输入数据输入到步骤3)训练好的深度神经网络中,网络实时输出测试者第t5时刻的步态预测结果
Figure FDA0002723226600000048
Figure FDA0002723226600000049
为步态预测结果数据
Figure FDA00027232266000000410
中的第k维原始数据,k=1,2,...,98。
CN201910463800.XA 2019-05-30 2019-05-30 一种基于多模态深度学习的人体步态预测方法 Active CN110232412B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910463800.XA CN110232412B (zh) 2019-05-30 2019-05-30 一种基于多模态深度学习的人体步态预测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910463800.XA CN110232412B (zh) 2019-05-30 2019-05-30 一种基于多模态深度学习的人体步态预测方法

Publications (2)

Publication Number Publication Date
CN110232412A CN110232412A (zh) 2019-09-13
CN110232412B true CN110232412B (zh) 2020-12-11

Family

ID=67858239

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910463800.XA Active CN110232412B (zh) 2019-05-30 2019-05-30 一种基于多模态深度学习的人体步态预测方法

Country Status (1)

Country Link
CN (1) CN110232412B (zh)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110889450B (zh) * 2019-11-27 2023-08-11 腾讯科技(深圳)有限公司 超参数调优、模型构建方法和装置
CN112257911B (zh) * 2020-10-13 2024-03-26 杭州电子科技大学 基于并行时空注意力机制的tcn多元时间序列预测方法
CN112666939B (zh) * 2020-12-09 2021-09-10 深圳先进技术研究院 一种基于深度强化学习的机器人路径规划算法
CN113274039B (zh) * 2021-05-19 2022-06-07 福州市第二医院(福建省福州中西医结合医院、福州市职业病医院) 一种基于表面肌电信号和运动信号的预测分类方法和装置
CN113408585A (zh) * 2021-05-21 2021-09-17 上海师范大学 一种基于人工智能的智能印章移动检测方法
CN113894779B (zh) * 2021-09-10 2023-10-17 人工智能与数字经济广东省实验室(广州) 一种应用于机器人交互的多模态数据处理方法
CN115157247A (zh) * 2022-07-07 2022-10-11 燕山大学 一种具有平衡辅助功能的下肢外骨骼康复机器人控制方法

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9378455B2 (en) * 2012-05-10 2016-06-28 Yan M. Yufik Systems and methods for a computer understanding multi modal data streams
US11422546B2 (en) * 2014-12-19 2022-08-23 Raytheon Technologies Corporation Multi-modal sensor data fusion for perception systems
CN107423725A (zh) * 2017-08-11 2017-12-01 深圳市唯特视科技有限公司 一种基于混合时间卷积和循环网络的视频动作分割方法
CN108742637B (zh) * 2018-05-31 2021-02-12 北京辰安科技股份有限公司 基于步态识别装置的身体状态检测方法和检测系统
CN108805087B (zh) * 2018-06-14 2021-06-15 南京云思创智信息科技有限公司 基于多模态情绪识别系统的时序语义融合关联判断子系统
CN109460707A (zh) * 2018-10-08 2019-03-12 华南理工大学 一种基于深度神经网络的多模态动作识别方法
CN109770912A (zh) * 2019-01-23 2019-05-21 复旦大学 一种基于深度卷积神经网络的步态异常分类方法

Also Published As

Publication number Publication date
CN110232412A (zh) 2019-09-13

Similar Documents

Publication Publication Date Title
CN110232412B (zh) 一种基于多模态深度学习的人体步态预测方法
CN110236550B (zh) 一种基于多模态深度学习的人体步态预测装置
CN110334573B (zh) 一种基于密集连接卷积神经网络的人体运动状态判别方法
CN110309861B (zh) 一种基于生成对抗网络的多模态人类活动识别方法
CN107544904B (zh) 一种基于深度cg-lstm神经网络的软件可靠性预测方法
CN108621159A (zh) 一种基于深度学习的机器人动力学建模方法
CN109740742A (zh) 一种基于lstm神经网络的目标跟踪方法
CN109979161B (zh) 一种基于卷积循环神经网络的人体跌倒检测方法
CN110401978B (zh) 基于神经网络和粒子滤波多源融合的室内定位方法
CN110223785A (zh) 一种基于深度学习的传染病传播网络重构方法
CN110659677A (zh) 一种基于可移动传感器组合设备的人体跌倒检测方法
Martinez-Hernandez et al. Recognition of walking activity and prediction of gait periods with a CNN and first-order MC strategy
CN113012811B (zh) 一种结合深度卷积网络和图神经网络的中医证候诊断和健康评价方法
CN111950437A (zh) 基于深度学习模型的步态识别方法、装置和计算机设备
CN111531537B (zh) 基于多传感器的机械臂控制方法
CN111382699A (zh) 基于粒子群优化lstm算法的动态手势识别方法
CN110096976A (zh) 基于稀疏迁移网络的人体行为微多普勒分类方法
Rai et al. Mode-free control of prosthetic lower limbs
Wang et al. A2dio: Attention-driven deep inertial odometry for pedestrian localization based on 6d imu
CN113642432A (zh) 基于协方差矩阵变换的卷积神经网络用于人体姿态识别方法
CN110705599B (zh) 一种基于在线迁移学习的人体动作识别方法
CN112998697B (zh) 一种基于骨架数据的跌倒伤害程度预测方法、系统及终端
CN112906673A (zh) 一种基于注意力机制的下肢运动意图预测方法
CN116502066A (zh) 一种基于bp神经网络的外骨骼摆动周期预测系统及方法
CN115147768A (zh) 一种跌倒风险评估方法及系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant