CN111096830A - 一种基于LightGBM的外骨骼步态预测方法 - Google Patents

一种基于LightGBM的外骨骼步态预测方法 Download PDF

Info

Publication number
CN111096830A
CN111096830A CN201911384974.3A CN201911384974A CN111096830A CN 111096830 A CN111096830 A CN 111096830A CN 201911384974 A CN201911384974 A CN 201911384974A CN 111096830 A CN111096830 A CN 111096830A
Authority
CN
China
Prior art keywords
lower limb
flexion
prediction
hip joint
extension angle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201911384974.3A
Other languages
English (en)
Other versions
CN111096830B (zh
Inventor
孔万增
王伟富
宋国明
王雪岩
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hangzhou Dianzi University
Original Assignee
Hangzhou Dianzi University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hangzhou Dianzi University filed Critical Hangzhou Dianzi University
Priority to CN201911384974.3A priority Critical patent/CN111096830B/zh
Publication of CN111096830A publication Critical patent/CN111096830A/zh
Application granted granted Critical
Publication of CN111096830B publication Critical patent/CN111096830B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61FFILTERS IMPLANTABLE INTO BLOOD VESSELS; PROSTHESES; DEVICES PROVIDING PATENCY TO, OR PREVENTING COLLAPSING OF, TUBULAR STRUCTURES OF THE BODY, e.g. STENTS; ORTHOPAEDIC, NURSING OR CONTRACEPTIVE DEVICES; FOMENTATION; TREATMENT OR PROTECTION OF EYES OR EARS; BANDAGES, DRESSINGS OR ABSORBENT PADS; FIRST-AID KITS
    • A61F2/00Filters implantable into blood vessels; Prostheses, i.e. artificial substitutes or replacements for parts of the body; Appliances for connecting them with the body; Devices providing patency to, or preventing collapsing of, tubular structures of the body, e.g. stents
    • A61F2/50Prostheses not implantable in the body
    • A61F2/60Artificial legs or feet or parts thereof
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/112Gait analysis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61FFILTERS IMPLANTABLE INTO BLOOD VESSELS; PROSTHESES; DEVICES PROVIDING PATENCY TO, OR PREVENTING COLLAPSING OF, TUBULAR STRUCTURES OF THE BODY, e.g. STENTS; ORTHOPAEDIC, NURSING OR CONTRACEPTIVE DEVICES; FOMENTATION; TREATMENT OR PROTECTION OF EYES OR EARS; BANDAGES, DRESSINGS OR ABSORBENT PADS; FIRST-AID KITS
    • A61F2/00Filters implantable into blood vessels; Prostheses, i.e. artificial substitutes or replacements for parts of the body; Appliances for connecting them with the body; Devices providing patency to, or preventing collapsing of, tubular structures of the body, e.g. stents
    • A61F2/50Prostheses not implantable in the body
    • A61F2/68Operating or control means
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61HPHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
    • A61H3/00Appliances for aiding patients or disabled persons to walk about
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/30Noise filtering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/23Recognition of whole body movements, e.g. for sport training
    • G06V40/25Recognition of walking or running movements, e.g. gait recognition
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61FFILTERS IMPLANTABLE INTO BLOOD VESSELS; PROSTHESES; DEVICES PROVIDING PATENCY TO, OR PREVENTING COLLAPSING OF, TUBULAR STRUCTURES OF THE BODY, e.g. STENTS; ORTHOPAEDIC, NURSING OR CONTRACEPTIVE DEVICES; FOMENTATION; TREATMENT OR PROTECTION OF EYES OR EARS; BANDAGES, DRESSINGS OR ABSORBENT PADS; FIRST-AID KITS
    • A61F2/00Filters implantable into blood vessels; Prostheses, i.e. artificial substitutes or replacements for parts of the body; Appliances for connecting them with the body; Devices providing patency to, or preventing collapsing of, tubular structures of the body, e.g. stents
    • A61F2/50Prostheses not implantable in the body
    • A61F2/68Operating or control means
    • A61F2/70Operating or control means electrical
    • A61F2002/704Operating or control means electrical computer-controlled, e.g. robotic control

Abstract

本发明公开一种基于LightGBM的外骨骼步态预测方法。本发明通过人体运动学分析,提取下肢关节的加速度数据做离线分析,进而解算出关节控制目标轨迹,最后控制系统通过该轨迹进行运动控制,实现下肢外骨骼的人体步态运动。本发明提出一种全新的下肢运动步态轨迹预测方法,能够应用于下肢外骨骼控制中,创新性的对LightGBM实现并联结构输入,并对下肢关节的连续目标值的步态轨迹预测,预测方法具有较强的精确度,减少了训练时间。

Description

一种基于LightGBM的外骨骼步态预测方法
技术领域
本发明属于下肢外骨骼人机协同运动控制领域,涉及一种基于LightGBM(LightGradient Boosting Machine,提升机器算法)的运动步态轨迹预测方法。
背景技术
下肢外骨骼机器人是穿戴在用户下肢外部的一种典型的人机一体化系统,综合了检测,控制,信息融合等机器人呢技术,将用户的智力与机器人的“体力”结合在一起,提供动力以辅助用户的运动。民用领域方面,外骨骼机器人可以帮助老年人正常行动。医疗领域方面,外骨骼机器人在辅助残疾人正常生活的同时,也大大减轻了医务人员的工作压力。军事领域方面,外骨骼机器人可以提高战场的救援效率,帮助更多的受伤人员,由于外骨骼机器人在各领域发挥巨大的作用,使得其发展前景十分广阔。
目前有两种系统输入来预测外骨骼机器人的步态轨迹,一是通过感知型传感器测量脑电信号(EEG)或者肌电信号(EMG)等人体生物信号作为外骨骼控制系统的输入,尽管生物信号超前于人体运动,能够解决运动滞后的问题,但EEG和EMG信号不稳定,容易受到静电、汗液等的干扰。二是利用角度/角速度、力/力矩等物理型传感器,实时采集人体运动学或动力学数据作为外骨骼控制系统的输入。对于步态轨迹预测问题,传统的方法包括支持向量机(SVM)、卡尔曼滤波等,传统方法计算量过大,内存占用大,容易产生过拟合,对于步态轨迹的连续目标值预测仍需要进一步改进。
故需要提出一种能够提高步态轨迹的连续目标值预测精准度、提高轨迹平滑性、减少计算量的下肢外骨骼步态预测方法。
发明内容
本发明针对现有技术的不足,提供一种基于改进的LightGBM的步态轨迹预测方法,通过人体运动学分析,提取下肢关节的加速度数据做离线分析,进而解算出关节控制目标轨迹,最后控制系统通过该轨迹进行运动控制,实现下肢外骨骼的人体步态运动。
为实现上述目的,本发明的技术方案具体内容如下:
一种基于LightGBM的外骨骼步态预测方法,其特征在于该方法包括如下步骤:
步骤(1)、数据采集阶段
将5个IMU传感器分别设置在使用者的腰部、左大腿、左小腿、右大腿、右小腿;实时获取5个IMU传感器的x、y轴向加速度值;
步骤(2)、数据分析与消噪平滑处理
根据步骤(1)5个IMU传感器的x、y轴向加速度值,构建一个由10×k加速度分量组成的矩阵,定义为:
R=[V1,V2,…,Vi,…,V10]T,T表示矩阵的转置
其中
Figure BDA0002343336420000021
表示第i个加速度分量在t时刻加速度值,K为数据采样点的总数量;
对Vi做移动平均滤波消噪处理,设
Figure BDA0002343336420000022
的滤波值为
Figure BDA0002343336420000023
则:
Figure BDA0002343336420000024
其中L为移动平均滤波处理时所取的原加速度值个数,且L为奇数,M=(L-1)/2;
根据公式(2.1),最终得到Vi全部t(t=1,2,…,K)时刻的消噪数据:
Figure BDA0002343336420000025
步骤(3)、获取步态数据中的实时屈伸角
根据步骤(2)处理后的消噪数据,以左下肢为例,某一时刻t左下肢髋关节屈伸角角度
Figure BDA0002343336420000026
和膝关节的屈伸角角度
Figure BDA0002343336420000027
分别由公式(3.1)以及(3.2)得到:
Figure BDA0002343336420000028
Figure BDA0002343336420000029
其中ax1,ay1分别为步骤2处理后时刻t左大腿IMU传感器的加速度分量,ax2,ax2分别为步骤2处理后时刻t左小腿IMU传感器的加速度分量;
最终获得所有K个时刻的左下肢髋关节与膝关节屈伸角度向量α与β
Figure BDA0002343336420000031
Figure BDA0002343336420000032
同理获得右下肢髋关节与膝关节屈伸角度向量;
步骤(4)、改进的LightGBM方法的连续目标值实时预测
以左下肢髋关节屈伸角α为例:
4.1预测模型训练
通过步骤3获得的左下肢髋关节屈伸角度向量数据为训练集,训练左下肢髋关节屈伸角的预测模型;
首先利用滑动窗口从α中提取角度值构建左下肢髋关节屈伸角矩阵Aα左,作为训练预测模型的特征矩阵,见公式4.1;
Figure BDA0002343336420000033
其中w为滑动窗口的窗宽,N为滑动窗口数目,以预测长度pLen作为滑动窗口的步长,pLen>1;为保证更好地构建目标矩阵,需满足K-[(N-1)×pLen+w]≥pLen,即保证α最后有足够的角度值构建pLen个预测长度的预测值;
然后根据预测长度与α中相对于当前滑动窗口的未来时刻屈伸角角度值,构建矩阵Dα左,作为训练预测模型的预测目标值矩阵,见公式4.2;
Figure BDA0002343336420000041
其中
Figure BDA0002343336420000042
为左下肢髋关节屈伸角对应未来第i个时刻的预测值向量;
根据公式(4.1)与(4.2)构建左下肢膝关节的特征矩阵代入到公式(4.3),得到pLen个预测模型:
Figure BDA0002343336420000043
其中T()为LightGBM训练函数,
Figure BDA0002343336420000044
为左下肢髋关节屈伸角训练后对应未来第i个时刻的预测模型(函数);
4.2预测模型并联预测
左下肢髋关节当前最新滑动窗口内的特征向量为
Figure BDA0002343336420000045
通过将pLen个训练好的预测模型以并联结构相连,实现未来pLen个时刻的左下肢髋关节屈伸角预测:
Figure BDA0002343336420000046
其中,
Figure BDA0002343336420000047
为未来第i个时刻的左下肢髋关节屈伸角预测值;
由式(4.4)可得左下肢髋关节屈伸角预测向量P
Figure BDA0002343336420000051
同理得到左下肢膝关节、右下肢髋关节和膝关节的屈伸角并联预测模型;
步骤(5)、根据步骤4预测向量以实现步态预测轨迹。
本发明的有益效果是:
本发明提出一种全新的下肢运动步态轨迹预测方法,能够应用于下肢外骨骼控制中,创新性的对LightGBM实现并联结构输入,并对下肢关节的连续目标值的步态轨迹预测,预测方法具有较强的精确度,减少了训练时间。
附图说明
图1是四个原始数据与消噪数据对比的曲线图;其中(a)左小腿加速度x;(b)左小腿加速度y;(c)左大腿加速度x;(d)左大腿加速度y;
图2是人体下肢结构模型图;
图3是卡尔曼滤波、XGboost和LightGBM三种方法的对比图,其中(a)为RMSE,(a)为SC,(c)训练时间;
图4(a)(b)分别是左下肢髋关节和膝关节的验证结果对比。
具体实施方式
为使本发明的目的、技术方案和要点更加清楚,下面将结合附图对本发明实施方式作进一步地详细描述。
一种基于LightGBM的外骨骼步态预测方法,包括以下步骤:
1.数据采集阶段
将5个IMU传感器分别设置在使用者的腰部、左大腿、左小腿、右大腿、右小腿;根据人体下肢结构可简化出如图2的下肢模型图,5个黑点代表5个IMU传感器位置,每个IMU传感器提供了人体下肢行走过程中每条腿对应二维平面上的加速度分量,髋关节以逆时针为正方向,膝关节以顺时针为正方向,实时获取5个IMU传感器的x、y轴向加速度值。
采集设备为5个IMU传感器,分别放置右小腿,右大腿,左小腿,左大腿,以及腰部,采样率为100Hz,受试者以步速2km/h直线步行。
2.数据分析与消噪平滑处理
根据步骤(1)5个IMU传感器的x、y轴向加速度值,构建一个由10×k加速度分量组成的矩阵,定义为:
R=[V1,V2,…,Vi,…,V10]T,T表示矩阵的转置
其中
Figure BDA0002343336420000061
表示第i个加速度分量在t时刻加速度值,K为数据采样点的总数量;
对Vi做移动平均滤波消噪处理,设
Figure BDA0002343336420000062
的滤波值为
Figure BDA0002343336420000063
则:
Figure BDA0002343336420000064
其中L为移动平均滤波处理时所取的原加速度值个数,且L为奇数,M=(L-1)/2;
根据公式(2.1),最终得到Vi全部t(t=1,2,…,K)时刻的消噪数据:
Figure BDA0002343336420000065
实际运算过程中,若按照公式(1)计算
Figure BDA0002343336420000066
则每个时刻需要进行N次求和运算,时间复杂度较高。一般地,移动平均滤波器可以通过递归算法实现。
将部分加速度分量数据应用MAF算法,绘制了四个原始数据与消噪数据对比的曲线图,如图1所示。
3.步态数据的实时关节角度计算
根据步骤(2)处理后的消噪数据,以左下肢为例,某一时刻t左下肢髋关节屈伸角角度
Figure BDA0002343336420000067
和膝关节的屈伸角角度
Figure BDA0002343336420000068
分别由公式(3.1)以及(3.2)得到:
Figure BDA0002343336420000069
Figure BDA00023433364200000610
其中ax1,ay1分别为步骤2处理后时刻t左大腿IMU传感器的加速度分量,ax2,ax2分别为步骤2处理后时刻t左小腿IMU传感器的加速度分量;
最终获得所有K个时刻的左下肢髋关节与膝关节屈伸角度向量α与β
Figure BDA00023433364200000611
Figure BDA00023433364200000612
同理获得右下肢髋关节与膝关节屈伸角度向量:
Figure BDA0002343336420000071
Figure BDA0002343336420000072
其中ax3,ay3分别为步骤2处理后时刻t右大腿IMU传感器的加速度分量,ax4,ax4分别为步骤2处理后时刻t右小腿IMU传感器的加速度分量;
最终获得所有K个时刻的左下肢髋关节与膝关节屈伸角度向量α与β
Figure BDA0002343336420000073
Figure BDA0002343336420000074
4.改进的LightGBM方法的连续目标值实时预测
外骨骼控制系统的控制信号输入直接影响外骨骼运动的流畅度,故控制信号的输入频率越高,单次输入的信号值越连续,外骨骼的执行机构就越能使其运动流程自然。基于该原理,当利用已知的LightGBM算法对步态做预测时,其单次只能预测一个关节角度变换,此时由于预测算法计算预测结果需要时间以及控制信号到执行机构的延时问题,会导致外骨骼执行机构的停顿。现有LightGBM预测模型无法满足实际外骨骼实时预测功能,故需对基于LightGBM的步态预测算法做相关改进以更适用外骨骼的运行。
4.1预测模型训练
通过步骤3获得的左下肢髋关节屈伸角度向量数据为训练集,训练左下肢髋关节屈伸角的预测模型;
首先利用滑动窗口从α中提取角度值构建左下肢髋关节屈伸角矩阵Aα左,作为训练预测模型的特征矩阵,见公式4.1;
Figure BDA0002343336420000075
其中w为滑动窗口的窗宽,N为滑动窗口数目,以预测长度pLen作为滑动窗口的步长,pLen>1;为保证更好地构建目标矩阵,需满足K-[(N-1)×pLen+w]≥pLen,即保证α最后有足够的角度值构建pLen个预测长度的预测值;
然后根据预测长度与α中相对于当前滑动窗口的未来时刻屈伸角角度值,构建矩阵Dα左,作为训练预测模型的预测目标值矩阵,见公式4.2;
Figure BDA0002343336420000081
其中
Figure BDA0002343336420000082
为左下肢髋关节屈伸角对应未来第i个时刻的预测值向量;
根据公式(4.1)与(4.2)构建左下肢膝关节的特征矩阵代入到公式(4.3),得到pLen个预测模型:
Figure BDA0002343336420000083
其中T()为LightGBM训练函数,
Figure BDA0002343336420000084
为左下肢髋关节屈伸角训练后对应未来第i个时刻的预测模型(函数);
4.2预测模型并联预测
左下肢髋关节当前最新滑动窗口内的特征向量为
Figure BDA0002343336420000085
通过将pLen个训练好的预测模型以并联结构相连,实现未来pLen个时刻的左下肢髋关节屈伸角预测:
Figure BDA0002343336420000091
其中,
Figure BDA0002343336420000092
为未来第i个时刻的左下肢髋关节屈伸角预测值;
由式(4.4)可得左下肢髋关节屈伸角预测向量P
Figure BDA0002343336420000093
4.3按照步骤4.1-4.2同理右下肢髋关节屈伸角并联预测模型构建如下:
模型的输入:
Figure BDA0002343336420000094
模型的输出:
Figure BDA0002343336420000095
由右下肢髋关节的特征矩阵Αα右、Dα右,类比公式(4.3),得到pLen个预测模型:
Figure BDA0002343336420000096
右下肢髋关节当前最新滑动窗口内的特征向量为
Figure BDA0002343336420000097
通过将pLen个训练好的预测模型以并联结构相连,实现未来pLen个时刻的右下肢髋关节屈伸角预测:
Figure BDA0002343336420000101
其中,
Figure BDA0002343336420000102
为未来第i个时刻的右下肢髋关节屈伸角预测值;
由式(4.5)可得右下肢髋关节屈伸角预测向量P
Figure BDA0002343336420000103
同理左下肢膝关节屈伸角并联预测模型构建如下:
模型的输入:
Figure BDA0002343336420000104
模型的输出:
Figure BDA0002343336420000105
由左下肢膝关节的特征矩阵Αβ左、Dβ左,类比公式(4.3),得到pLen个预测模型:
Figure BDA0002343336420000106
左下肢膝关节当前最新滑动窗口内的特征向量为
Figure BDA0002343336420000107
通过将pLen个训练好的预测模型以并联结构相连,实现未来pLen个时刻的左下肢膝关节屈伸角预测:
Figure BDA0002343336420000111
其中,
Figure BDA0002343336420000112
为未来第i个时刻的左下肢膝关节屈伸角预测值;
由式(4.6)可得左下肢膝关节屈伸角预测向量Q
Figure BDA0002343336420000113
同理右下肢膝关节屈伸角并联预测模型构建如下:
模型的输入:
Figure BDA0002343336420000114
模型的输出:
Figure BDA0002343336420000115
由右下肢膝关节的特征矩阵Αβ右、Dβ右,类比公式(4.3),得到pLen个预测模型:
Figure BDA0002343336420000116
右下肢膝关节当前最新滑动窗口内的特征向量为
Figure BDA0002343336420000117
通过将pLen个训练好的预测模型以并联结构相连,实现未来pLen个时刻的右下肢膝关节屈伸角预测:
Figure BDA0002343336420000121
其中,
Figure BDA0002343336420000122
为未来第i个时刻的右下肢膝关节屈伸角预测值;
由式(4.7)可得右下肢膝关节屈伸角预测向量Q
Figure BDA0002343336420000123
步态数据应用机器学习算法时数据集构造的滑动窗口每次滑动的步长为1,为了实现对目标值的连续预测,设定预测步长必须大于1。
图3为三种算法之间的对比直方图。相对于基于Gradient Boosting的XGBoost与LightGBM算法,卡尔曼滤波的步态预测RMSE更高,但是SC更低,说明卡尔曼滤波预测精度低,但是预测结果更加平滑,且卡尔曼滤波预测算法无需训练;在基于Gradient Boosting的两种XGBoost与LightGBM中,预测结果的RMSE总体大概相同,但是LightGBM的预测结果的SC小于XGBoost,且LightGBM的训练时间明显小于相同训练集大小的XGBoost的训练时间。由此可知在实际运用过程中,LightGBM可以更快地训练出预测效果好的预测模型。
本发明预测模型验证如图4所示。
步骤(5)、执行机构执行预测结果
根据步骤4获取左右下肢髋关节屈伸角和膝关节屈伸角预测向量,获取预测轨迹;左右下肢外骨骼执行机构根据屈伸角预测轨迹通过现有技术转换为对应控制信号,进而控制对应关节处电机运行,以实现外肢步态行走。

Claims (1)

1.一种基于LightGBM的外骨骼步态预测方法,其特征在于该方法包括如下步骤:
步骤(1)、数据采集阶段
将5个IMU传感器分别设置在使用者的腰部、左大腿、左小腿、右大腿、右小腿;实时获取5个IMU传感器的x、y轴向加速度值;
步骤(2)、数据分析与消噪平滑处理
根据步骤(1)5个IMU传感器的x、y轴向加速度值,构建一个由10×k加速度分量组成的矩阵,定义为:
R=[V1,V2,…,Vi,…,V10]T,T表示矩阵的转置
其中
Figure FDA0002343336410000011
Figure FDA0002343336410000012
表示第i个加速度分量在t时刻加速度值,K为数据采样点的总数量;
对Vi做移动平均滤波消噪处理,设
Figure FDA0002343336410000013
的滤波值为
Figure FDA0002343336410000014
则:
Figure FDA0002343336410000015
其中L为移动平均滤波处理时所取的原加速度值个数,且L为奇数,M=(L-1)/2;
根据公式(2.1),最终得到Vi全部t(t=1,2,…,K)时刻的消噪数据:
Figure FDA0002343336410000016
步骤(3)、获取步态数据中的实时屈伸角
根据步骤(2)处理后的消噪数据,以左下肢为例,某一时刻t左下肢髋关节屈伸角角度
Figure FDA0002343336410000019
和膝关节的屈伸角角度
Figure FDA00023433364100000110
分别由公式(3.1)以及(3.2)得到:
Figure FDA0002343336410000017
Figure FDA0002343336410000018
其中ax1,ay1分别为步骤2处理后时刻t左大腿IMU传感器的加速度分量,ax2,ax2分别为步骤2处理后时刻t左小腿IMU传感器的加速度分量;
最终获得所有K个时刻的左下肢髋关节与膝关节屈伸角度向量α与β
Figure FDA0002343336410000022
Figure FDA0002343336410000023
同理获得右下肢髋关节与膝关节屈伸角度向量;
步骤(4)、改进的LightGBM方法的连续目标值实时预测
以左下肢髋关节屈伸角α为例:
4.1预测模型训练
通过步骤3获得的左下肢髋关节屈伸角度向量数据为训练集,训练左下肢髋关节屈伸角的预测模型;
首先利用滑动窗口从α中提取角度值构建左下肢髋关节屈伸角矩阵Aα左,作为训练预测模型的特征矩阵,见公式4.1;
Figure FDA0002343336410000021
其中w为滑动窗口的窗宽,N为滑动窗口数目,以预测长度pLen作为滑动窗口的步长,pLen>1;为保证更好地构建目标矩阵,需满足K-[(N-1)×pLen+w]≥pLen,即保证α最后有足够的角度值构建pLen个预测长度的预测值;
然后根据预测长度与α中相对于当前滑动窗口的未来时刻屈伸角角度值,构建矩阵Dα左,作为训练预测模型的预测目标值矩阵,见公式4.2;
Figure FDA0002343336410000031
其中
Figure FDA0002343336410000034
为左下肢髋关节屈伸角对应未来第i个时刻的预测值向量;
根据公式(4.1)与(4.2)构建左下肢膝关节的特征矩阵代入到公式(4.3),得到pLen个预测模型:
Figure FDA0002343336410000032
其中T()为LightGBM训练函数,
Figure FDA0002343336410000035
为左下肢髋关节屈伸角训练后对应未来第i个时刻的预测模型(函数);
4.2预测模型并联预测
左下肢髋关节当前最新滑动窗口内的特征向量为
Figure FDA0002343336410000036
通过将pLen个训练好的预测模型以并联结构相连,实现未来pLen个时刻的左下肢髋关节屈伸角预测:
Figure FDA0002343336410000033
其中,
Figure FDA0002343336410000037
为未来第i个时刻的左下肢髋关节屈伸角预测值;
由式(4.4)可得左下肢髋关节屈伸角预测向量P
Figure FDA0002343336410000041
同理得到左下肢膝关节、右下肢髋关节和膝关节的屈伸角并联预测模型;
步骤(5)、根据步骤4预测向量以实现步态预测轨迹。
CN201911384974.3A 2019-12-28 2019-12-28 一种基于LightGBM的外骨骼步态预测方法 Active CN111096830B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201911384974.3A CN111096830B (zh) 2019-12-28 2019-12-28 一种基于LightGBM的外骨骼步态预测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201911384974.3A CN111096830B (zh) 2019-12-28 2019-12-28 一种基于LightGBM的外骨骼步态预测方法

Publications (2)

Publication Number Publication Date
CN111096830A true CN111096830A (zh) 2020-05-05
CN111096830B CN111096830B (zh) 2021-11-30

Family

ID=70424063

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201911384974.3A Active CN111096830B (zh) 2019-12-28 2019-12-28 一种基于LightGBM的外骨骼步态预测方法

Country Status (1)

Country Link
CN (1) CN111096830B (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112114665A (zh) * 2020-08-23 2020-12-22 西北工业大学 一种基于多模态融合的手部追踪方法
CN112535474A (zh) * 2020-11-11 2021-03-23 西安交通大学 一种基于相似规律搜索的下肢运动关节角度实时预测方法
CN113829339A (zh) * 2021-08-02 2021-12-24 上海大学 基于长短时记忆网络的外骨骼运动协同方法

Citations (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5007938A (en) * 1989-07-08 1991-04-16 Ipos Gmbh & Co. Kg Artificial foot for a leg prosthesis
US20040167638A1 (en) * 2002-11-01 2004-08-26 Caspers Carl A. Pressure/temperature monitoring device for prosthetics
US20060276393A1 (en) * 2005-01-13 2006-12-07 Sirtris Pharmaceuticals, Inc. Novel compositions for preventing and treating neurodegenerative and blood coagulation disorders
CN101036601A (zh) * 2007-04-24 2007-09-19 杭州电子科技大学 二自由度肌电假手实时控制装置及控制方法
US20080091087A1 (en) * 2006-07-12 2008-04-17 Neuhauser Alan R Methods and systems for compliance confirmation and incentives
CN101579238A (zh) * 2009-06-15 2009-11-18 吴健康 人体运动捕获三维再现系统及其方法
US20110125291A1 (en) * 2006-12-08 2011-05-26 Hanger Orthopedic Group Inc. Prosthetic device and connecting system using a vacuum
US20110213466A1 (en) * 2009-08-27 2011-09-01 The Foundry Llc Method and Apparatus for Force Redistribution in Articular Joints
CN103637840A (zh) * 2005-08-23 2014-03-19 史密夫和内修有限公司 遥测矫形植入物
EP2825134A1 (en) * 2012-03-14 2015-01-21 Vanderbilt University System and method for providing biomechanically suitable running gait in powered lower limb devices
US20150148423A1 (en) * 2012-04-26 2015-05-28 Sentient Lifesciences, Inc. Use of n-acetylcysteine amide in the treatment of disease and injury
US20150313728A1 (en) * 2008-04-30 2015-11-05 Rizzoli Ortopedia S.P.A. Automatic prosthesis for above-knee amputees
CN109464193A (zh) * 2018-12-27 2019-03-15 北京爱康宜诚医疗器材有限公司 数据预测方法、装置及系统
US20190117415A1 (en) * 2008-09-04 2019-04-25 Bionx Medical Technologies, Inc. Hybrid terrain-adaptive lower-extremity systems

Patent Citations (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5007938A (en) * 1989-07-08 1991-04-16 Ipos Gmbh & Co. Kg Artificial foot for a leg prosthesis
US20040167638A1 (en) * 2002-11-01 2004-08-26 Caspers Carl A. Pressure/temperature monitoring device for prosthetics
US20060276393A1 (en) * 2005-01-13 2006-12-07 Sirtris Pharmaceuticals, Inc. Novel compositions for preventing and treating neurodegenerative and blood coagulation disorders
CN103637840A (zh) * 2005-08-23 2014-03-19 史密夫和内修有限公司 遥测矫形植入物
US20080091087A1 (en) * 2006-07-12 2008-04-17 Neuhauser Alan R Methods and systems for compliance confirmation and incentives
US20110125291A1 (en) * 2006-12-08 2011-05-26 Hanger Orthopedic Group Inc. Prosthetic device and connecting system using a vacuum
CN101036601A (zh) * 2007-04-24 2007-09-19 杭州电子科技大学 二自由度肌电假手实时控制装置及控制方法
US20150313728A1 (en) * 2008-04-30 2015-11-05 Rizzoli Ortopedia S.P.A. Automatic prosthesis for above-knee amputees
US20190117415A1 (en) * 2008-09-04 2019-04-25 Bionx Medical Technologies, Inc. Hybrid terrain-adaptive lower-extremity systems
CN101579238A (zh) * 2009-06-15 2009-11-18 吴健康 人体运动捕获三维再现系统及其方法
US20110213466A1 (en) * 2009-08-27 2011-09-01 The Foundry Llc Method and Apparatus for Force Redistribution in Articular Joints
CN102639082A (zh) * 2009-08-27 2012-08-15 科特拉有限公司 在关节中对力进行重新分布的方法和设备
EP2825134A1 (en) * 2012-03-14 2015-01-21 Vanderbilt University System and method for providing biomechanically suitable running gait in powered lower limb devices
US20150148423A1 (en) * 2012-04-26 2015-05-28 Sentient Lifesciences, Inc. Use of n-acetylcysteine amide in the treatment of disease and injury
CN109464193A (zh) * 2018-12-27 2019-03-15 北京爱康宜诚医疗器材有限公司 数据预测方法、装置及系统

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
N. SHIOZAWA: "Virtual walkway system and prediction of gait mode transition for the control of the gait simulator", 《THE 26TH ANNUAL INTERNATIONAL CONFERENCE OF THE IEEE ENGINEERING IN MEDICINE AND BIOLOGY SOCIETY》 *
YUHANG YE: "Optimal Feature Selection for EMG-Based Finger Force Estimation Using LightGBM Model", 《2019 28TH IEEE INTERNATIONAL CONFERENCE ON ROBOT AND HUMAN INTERACTIVE COMMUNICATION (RO-MAN)》 *
宋国明: "下肢外骨骼步态感知预测与控制方法研究与应用", 《中国优秀硕士学位论文全文库》 *

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112114665A (zh) * 2020-08-23 2020-12-22 西北工业大学 一种基于多模态融合的手部追踪方法
CN112114665B (zh) * 2020-08-23 2023-04-11 西北工业大学 一种基于多模态融合的手部追踪方法
CN112535474A (zh) * 2020-11-11 2021-03-23 西安交通大学 一种基于相似规律搜索的下肢运动关节角度实时预测方法
CN113829339A (zh) * 2021-08-02 2021-12-24 上海大学 基于长短时记忆网络的外骨骼运动协同方法
CN113829339B (zh) * 2021-08-02 2023-09-15 上海大学 基于长短时记忆网络的外骨骼运动协同方法

Also Published As

Publication number Publication date
CN111096830B (zh) 2021-11-30

Similar Documents

Publication Publication Date Title
CN111096830B (zh) 一种基于LightGBM的外骨骼步态预测方法
CN110755070B (zh) 基于多传感器融合的下肢运动位姿快速预测系统及方法
Kiguchi et al. An exoskeletal robot for human elbow motion support-sensor fusion, adaptation, and control
CN109199783B (zh) 一种利用sEMG来控制踝关节康复设备刚度的控制方法
CN110125909B (zh) 一种多信息融合人体外骨骼机器人控制保护系统
CN111531537B (zh) 基于多传感器的机械臂控制方法
Williams et al. Recurrent convolutional neural networks as an approach to position-aware myoelectric prosthesis control
Xi et al. Simultaneous and continuous estimation of joint angles based on surface electromyography state-space model
Liu et al. sEMG-based continuous estimation of knee joint angle using deep learning with convolutional neural network
CN111506189A (zh) 面向人体复杂运动的运动模式预测及切换控制方法
Cimolato et al. Hybrid machine learning-neuromusculoskeletal modeling for control of lower limb prosthetics
Jiang et al. Bio-robotics research for non-invasive myoelectric neural interfaces for upper-limb prosthetic control: a 10-year perspective review
Xiong et al. Continuous human gait tracking using sEMG signals
Sun et al. Deep augmentation for electrode shift compensation in transient high-density sEMG: towards application in neurorobotics
CN113616193A (zh) 一种基于自适应cpg参数辨识的节律协同特征刻画方法
Song et al. Continuous online prediction of lower limb joints angles based on sEMG signals by deep learning approach
Zhang et al. Research on pattern recognition of lower limb motion based on convolutional neural network
Johan et al. Preliminary design of an Intention-based sEMG-controlled 3 DOF upper limb exoskeleton for assisted therapy in activities of daily life in patients with hemiparesis
CN109885159B (zh) 基于正向动力学与希尔模型的状态空间肌电模型构建方法
Zhang et al. Combined influence of classifiers, window lengths and number of channels on EMG pattern recognition for upper limb movement classification
Elbagoury et al. A hybrid real-time EMG intelligent rehabilitation robot motions control based on Kalman Filter, support vector machines and particle swarm optimization
Bhardwaj et al. Electromyography in physical rehabilitation: a review
CN114851171A (zh) 下肢外骨骼康复机器人步态轨迹跟踪控制方法
Zhang et al. Gait Prediction and Assist Control of Lower Limb Exoskeleton Based on Inertia Measurement Unit
Yu et al. Finger joint angle estimation based on sEMG signals by Attention-MLP

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant