CN112949676A - 一种柔性下肢助力外骨骼机器人的自适应运动模式识别方法 - Google Patents
一种柔性下肢助力外骨骼机器人的自适应运动模式识别方法 Download PDFInfo
- Publication number
- CN112949676A CN112949676A CN202011587646.6A CN202011587646A CN112949676A CN 112949676 A CN112949676 A CN 112949676A CN 202011587646 A CN202011587646 A CN 202011587646A CN 112949676 A CN112949676 A CN 112949676A
- Authority
- CN
- China
- Prior art keywords
- motion
- imu
- shank
- neural network
- minimum value
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/253—Fusion techniques of extracted features
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/103—Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
- A61B5/11—Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
- A61B5/1121—Determining geometric values, e.g. centre of rotation or angular range of movement
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/103—Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
- A61B5/11—Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
- A61B5/1123—Discriminating type of movement, e.g. walking or running
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/103—Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
- A61B5/11—Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
- A61B5/1126—Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb using a particular sensing technique
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/68—Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
- A61B5/6801—Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient specially adapted to be attached to or worn on the body surface
- A61B5/6802—Sensor mounted on worn items
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/72—Signal processing specially adapted for physiological signals or for diagnostic purposes
- A61B5/7235—Details of waveform analysis
- A61B5/7264—Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems
- A61B5/7267—Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems involving training the classification device
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Artificial Intelligence (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Pathology (AREA)
- Surgery (AREA)
- Veterinary Medicine (AREA)
- Public Health (AREA)
- Evolutionary Computation (AREA)
- Heart & Thoracic Surgery (AREA)
- Medical Informatics (AREA)
- Animal Behavior & Ethology (AREA)
- General Engineering & Computer Science (AREA)
- Physiology (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Dentistry (AREA)
- Mathematical Physics (AREA)
- Fuzzy Systems (AREA)
- Geometry (AREA)
- Psychiatry (AREA)
- Signal Processing (AREA)
- Computational Linguistics (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Rehabilitation Tools (AREA)
Abstract
本发明公开了一种柔性下肢助力外骨骼机器人的自适应运动模式识别方法,包括以下步骤:1)获取大量各种运动模式下对应的摆动态的各传感器数据,作为人体的运动信息;2)根据运动信息提取运动特征,选取小腿IMU的极小值时刻对应的运动特征信息;3)将运动特征信息归一化后输入到BP神经网络中进行训练,输出结果是各运动模式的识别概率,识别概率大者为最终的运动模式识别结果;4)获取小腿IMU的极小值时刻对应的特征向量;5)使用已经训练好的神经网络模型进行运动模式识别;6)使用有限状态转移算法对BP神经网络的识别结果进行修正。本发明通过区分运动模式的曲线信息位置,依据该位置的特征信息进行运动模式识别,提高了运动模式识别的准确性。
Description
技术领域
本发明涉及人体运动模式识别技术,尤其涉及一种柔性下肢助力外骨骼机器人的自适应运动模式识别方法。
背景技术
柔性外骨骼机器人是一种穿在人身上辅助穿戴者运动的特殊机器人,可以辅助穿戴者的日常行动,被广泛应用于负重助力领域。
柔性下肢助力外骨骼依据人体的运动信息来产生下肢外骨骼的助力信号,从而对穿戴者的下肢运动进行助力。由于外骨骼的控制时机与助力大小决定了助力效果以及穿戴者的舒适度,而外骨骼的控制以人体的运动模式为依据,因此,快速准确地识别出人体的运动模式是很有必要的,同时也是研究的热点之一。目前传统方法对柔性助力外骨骼机器人的运动模式的识别主要包括以下几种:
1)基于足底压力分布检测的外骨骼步态划分及控制。其原理是人体在平地行走过程中,通过检测脚底压力的分布及变化趋势,来判断此时人体所处的步态周期相位,从而识别出人体的运动状态。该方法适合于平地行走的状态,而难以适应其他复杂地形下的运动状态。
2)基于肌电信号的运动意图识别。通过在人体下肢肌肉特殊部位粘贴肌电信号传感器,测量对应肌肉的激活程度,从而估计人体下肢意图。该方法的优点是:在肢体开始运动之前,人体肌肉处于激活状态,肌电传感器可以提前检测到肌肉信号,以到达快速响应的目的。其缺点是:肌电信号传感器受不同人、皮肤表面的出汗发热、各种外界噪声等多种因素影响,难以准确识别人体的运动意图。
发明内容
本发明要解决的技术问题在于针对现有技术中的缺陷,提供一种柔性下肢助力外骨骼机器人的自适应运动模式识别方法。
本发明解决其技术问题所采用的技术方案是:一种柔性下肢助力外骨骼机器人的自适应运动模式识别方法,包括以下步骤:
1)获取大量各种运动模式下对应的摆动态的各传感器数据,作为人体的运动信息;所述传感器为设置在人体后背、大腿和小腿部位的IMU惯性传感器;
2)根据运动信息提取运动特征,所述运动特征信息包括大腿IMU、小腿IMU、膝关节角度、髋关节角度、当前摆动态中的小腿IMU的极大值与极小值之差和当前摆动态中的大腿IMU的极大值与极小值之差;
选取小腿IMU的极小值时刻对应的运动特征信息;
3)将运动特征信息归一化后输入到BP神经网络中进行训练,输出结果是各运动模式的识别概率,识别概率大者为最终的运动模式识别结果;当训练识别率达到预期要求,保存此时的神经网络模型;
4)获取小腿IMU的极小值时刻对应的大腿IMU、小腿IMU、膝关节角度、髋关节角度值,并提取当前摆动态中的小腿IMU的极大值与极小值之差和当前摆动态中的大腿IMU的极大值与极小值之差,将这些特征数据融合成特征向量;
5)使用已经训练好的神经网络模型进行运动模式识别;
6)使用有限状态转移算法对BP神经网络的识别结果进行修正;即:通过有限状态转移图,限制状态转移的方向以及转移条件,对异常的状态转移进行纠错。
按上述方案,所述步骤1)还包括对数据的一致性处理,处理过程如下:先去除异常跳变点,再取站立态的20至50个采样点数据计算左、右的大腿IMU、小腿IMU、膝关节角度、髋关节角度的初始值,利用这些初始值来修正对应的采集数据,使得每一次穿戴设备,站立态的数据经过修正后与初始状态相同。
按上述方案,所述神经网络的结构及其参数设定为:
所述神经网络包括输入层、隐藏层和输出层;其中,输入层的神经节点个数依据输入样本格式设置为10,隐藏层的神经节点个数可以在10至30范围中取,输出层为分类个数4,即站立、平地行走、上楼、下楼四种;损失函数选择交叉熵函数,梯度下降函数选择Adam函数,隐藏层激活函数选择Relu函数,输出层选择SoftMax函数。
按上述方案,所述步骤2)中,小腿IMU的极小值时刻通过实时差分寻峰算法获得,具体如下:
2.1)将摆动态的小腿IMU曲线进行差分处理;
2.2)使用均值滤波消除突变点;
2.3)记录满足极值点特征条件的点的位置时刻;
2.4)重复上述步骤将所有摆动态的小腿IMU峰值时刻全部实时获取。
本发明产生的有益效果是:
1、本发明通过快速定位能区分人体运动模式的曲线信息位置,依据该位置的特征信息,使用神经网络算法进行人体运动模式识别,提高了运动模式识别的准确性,各运动模式下的平均识别率达到95%。
2、本发明方法既可以适应在复杂地形中的各种运动模式,也避免了“曲线模板匹配法”的计算量大、曲线模板数量繁多的问题,提高了运动模式识别的实时性,这为柔性助力外骨骼的助力提供了有力保障。
附图说明
下面将结合附图及实施例对本发明作进一步说明,附图中:
图1是本发明实施例的方法流程图;
图2是本发明实施例中采用的外骨骼机器人的传感器放置示意图;
图3是本发明实施例中的寻找峰值示意图;
图4是本发明实施例中的寻峰算法的结果图;
图5是本发明实施例采用的神经网络结构图;
图6是本发明实施例中的人体运动模式识别结果图;
图7是本发明实施例中的有限状态转移图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅用以解释本发明,并不用于限定本发明。
如图1所示,一种柔性下肢助力外骨骼机器人的自适应运动模式识别方法,包括以下步骤:
1)获取大量各种运动模式下对应的摆动态的各传感器数据,作为人体的运动信息;所述传感器为设置在人体后背、大腿和小腿部位的IMU惯性传感器;所述采集数据包括不同人、不同运动模式的各传感器数据;
如图2所示,柔性助力外骨骼机器人的主要传感器是IMU(惯性测量单元),分别置于外骨骼机器人的左右小腿、大腿的正前方以及穿戴者的背部。通过大小腿IMU的曲线变化特征与运动模式的关系分析,可以准确判断人体的运动模式。本发明仅通过上述传感器的数据分析,来实现自适应识别人体运动模式,提高柔性助力外骨骼机器人的助力效率。
对采集的原始数据进行预处理,去除异常跳变点,同时取站立态的20~50个采样点数据计算左右的大腿IMU、小腿IMU、膝关节角度以及髋关节角度的初始修正值。然后利用这些初始值修正对应的采集数据,使得每一次穿戴设备,都使得站立态的数据经过修正后达到与初始状态相同的目的。
2)根据运动信息提取运动特征,所述运动特征信息包括大腿IMU、小腿IMU、膝关节角度、髋关节角度、当前摆动态中的小腿IMU的极大值与极小值之差和当前摆动态中的大腿IMU的极大值与极小值之差;
选取小腿IMU的极小值时刻对应的运动特征信息;
3)如图3所示,通过实时差分寻峰算法可以寻找摆动态的小腿IMU的波形峰值。主要步骤如下:
(a)将摆动态的小腿IMU曲线进行差分处理;
(b)使用均值滤波消除突变点;
(c)记录满足极值点特征条件的点的位置时刻;
(d)重复上述a,b,c步骤即可将所有摆动态的小腿IMU峰值时刻全部实时获取。其处理后的结果如图4所示。曲线为小腿IMU曲线,圆圈是通过实时寻峰算法获取的小腿IMU的极小值的时刻。
4)将小腿IMU的极小值时刻对应的左、右小腿IMU、大腿IMU、膝关节角度、髋关节角度、当前摆动态中的小腿IMU的极大值与极小值之差以及当前摆动态中的大腿IMU的极大值与极小值之差组成一个特征向量,作为BP神经网络的训练样本。
5)利用已采集的离线数据可以生成大量训练样本,通过三层BP神经网络训练后,可以得到运动模式识别率较高的神经网络模型。
6)图5所示,神经网络的结构及其参数设定为:
①输入层的神经节点个数依据输入样本格式设置为10。
②隐藏层1的神经节点个数可以在10~30范围中取。
③输出层为分类个数4,即站立、平地行走、上楼、下楼四种。
④损失函数选择交叉熵函数。
⑤梯度下降函数选择Adam函数,该函数可以自适应学习率,达到较快的梯度下降,实现交叉熵函数快速收敛。
⑥隐藏层激活函数选择Relu函数。
⑦输出层选择SoftMax函数,依据输出概率值大者为正确的分类结果。
⑧训练次数5000次。
7)将4)中生成的特征向量输入到训练完成的BP神经网络中进行识别。如图6所示,离散的圆圈即为预测值与目标值不相同,BP神经网络的识别效果如表1所示。如图7所示,为了进一步提高人体运动模式识别结果的准确率,对BP神经网络的输出结果采用有限状态转移算法进行纠错,纠错后最终识别率接近100%。
8)重复上述2),3),4),7)步骤,即可实时输出不同人的不同运动模式的识别结果。通过大量数据测试,本发明方法的识别率见表1。
表1不同运动模式下的BP神经网络的识别率
站立 | 平地行走 | 上楼梯 | 下楼梯 | |
识别率 | 100% | 98% | 94% | 96% |
应当理解的是,对本领域普通技术人员来说,可以根据上述说明加以改进或变换,而所有这些改进和变换都应属于本发明所附权利要求的保护范围。
Claims (4)
1.一种柔性下肢助力外骨骼机器人的自适应运动模式识别方法,其特征在于,包括以下步骤:
1)获取大量各种运动模式下对应的摆动态的各传感器数据,作为人体的运动信息;所述传感器为设置在人体后背、大腿和小腿部位的IMU惯性传感器;
2)根据运动信息提取运动特征,所述运动特征信息包括大腿IMU、小腿IMU、膝关节角度、髋关节角度、当前摆动态中的小腿IMU的极大值与极小值之差和当前摆动态中的大腿IMU的极大值与极小值之差;
选取小腿IMU的极小值时刻对应的运动特征信息;
3)将运动特征信息归一化后输入到BP神经网络中进行训练,输出结果是各运动模式的识别概率,识别概率大者为最终的运动模式识别结果;当训练识别率达到预期要求,保存此时的神经网络模型;
4)获取小腿IMU的极小值时刻对应的大腿IMU、小腿IMU、膝关节角度、髋关节角度值,并提取当前摆动态中的小腿IMU的极大值与极小值之差和当前摆动态中的大腿IMU的极大值与极小值之差,将这些特征数据融合成特征向量;
5)使用已经训练好的神经网络模型进行运动模式识别;
6)使用有限状态转移算法对BP神经网络的识别结果进行修正;即:通过有限状态转移图,限制状态转移的方向以及转移条件,对异常的状态转移进行纠错。
2.根据权利要求1所述的柔性下肢助力外骨骼机器人的自适应运动模式识别方法,其特征在于,所述步骤1)还包括对数据的一致性处理,处理过程如下:先去除异常跳变点,再取站立态的20至50个采样点数据计算左、右的大腿IMU、小腿IMU、膝关节角度、髋关节角度的初始值,利用这些初始值来修正对应的采集数据,使得每一次穿戴设备,站立态的数据经过修正后与初始状态相同。
3.根据权利要求1所述的柔性下肢助力外骨骼机器人的自适应运动模式识别方法,其特征在于,所述步骤3)中神经网络的结构及其参数设定为:
所述神经网络包括输入层、隐藏层和输出层;其中,输入层的神经节点个数依据输入样本格式设置为10,隐藏层的神经节点个数可以在10至30范围中取,输出层为分类个数4,即站立、平地行走、上楼、下楼四种;损失函数选择交叉熵函数,梯度下降函数选择Adam函数,隐藏层激活函数选择Relu函数,输出层选择SoftMax函数。
4.根据权利要求1所述的柔性下肢助力外骨骼机器人的自适应运动模式识别方法,其特征在于,所述步骤2)中,小腿IMU的极小值时刻通过实时差分寻峰算法获得,具体如下:
2.1)将摆动态的小腿IMU曲线进行差分处理;
2.2)使用均值滤波消除突变点;
2.3)记录满足极值点特征条件的点的位置时刻;
2.4)重复上述步骤将所有摆动态的小腿IMU峰值时刻全部实时获取。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011587646.6A CN112949676B (zh) | 2020-12-29 | 2020-12-29 | 一种柔性下肢助力外骨骼机器人的自适应运动模式识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011587646.6A CN112949676B (zh) | 2020-12-29 | 2020-12-29 | 一种柔性下肢助力外骨骼机器人的自适应运动模式识别方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112949676A true CN112949676A (zh) | 2021-06-11 |
CN112949676B CN112949676B (zh) | 2022-07-08 |
Family
ID=76234944
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011587646.6A Active CN112949676B (zh) | 2020-12-29 | 2020-12-29 | 一种柔性下肢助力外骨骼机器人的自适应运动模式识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112949676B (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113516063A (zh) * | 2021-06-29 | 2021-10-19 | 北京精密机电控制设备研究所 | 一种基于K-Means及步态周期相似性的运动模式识别方法 |
CN114663775A (zh) * | 2022-05-26 | 2022-06-24 | 河北工业大学 | 一种用于外骨骼机器人使役环境中楼梯识别方法 |
CN116738325A (zh) * | 2023-08-16 | 2023-09-12 | 湖北工业大学 | 基于DenseNet-LSTM网络的下肢外骨骼运动模式识别方法及系统 |
Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20100324699A1 (en) * | 2005-03-31 | 2010-12-23 | Massachusetts Institute Of Technology | Model-Based Neuromechanical Controller for a Robotic Leg |
US20130079929A1 (en) * | 2011-09-28 | 2013-03-28 | Samsung Electronics Co., Ltd. | Robot and control method thereof |
US20160095538A1 (en) * | 2014-10-07 | 2016-04-07 | Samsung Electronics Co., Ltd. | Method and apparatus for recognizing gait motion |
US20160331560A1 (en) * | 2015-05-11 | 2016-11-17 | The Hong Kong Polytechnic University | Interactive Exoskeleton Robotic Knee System |
CN106466220A (zh) * | 2015-08-17 | 2017-03-01 | 三星电子株式会社 | 运动辅助设备及控制运动辅助设备的方法 |
WO2018081986A1 (zh) * | 2016-11-03 | 2018-05-11 | 浙江大学 | 一种可穿戴式设备及用于该设备的实时步长测量方法 |
CN110141239A (zh) * | 2019-05-30 | 2019-08-20 | 东北大学 | 一种用于下肢外骨骼的运动意图识别及装置方法 |
CN110522458A (zh) * | 2019-10-15 | 2019-12-03 | 北京理工大学 | 一种适用于膝关节外骨骼的步态实时识别方法 |
CN111469117A (zh) * | 2020-04-14 | 2020-07-31 | 武汉理工大学 | 一种刚柔耦合有源外骨骼的人体运动模式检测方法 |
CN111639762A (zh) * | 2020-05-22 | 2020-09-08 | 河北工业大学 | 一种基于自组织神经网络的下肢假肢步态识别方法 |
CN111898487A (zh) * | 2020-07-15 | 2020-11-06 | 贵州航天控制技术有限公司 | 一种柔性外骨骼系统的人体运动模式实时识别方法 |
CN112004511A (zh) * | 2018-02-17 | 2020-11-27 | 哈佛学院院长及董事 | 用于预防肌肉骨骼损伤和增强性能的可穿戴设备 |
-
2020
- 2020-12-29 CN CN202011587646.6A patent/CN112949676B/zh active Active
Patent Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20100324699A1 (en) * | 2005-03-31 | 2010-12-23 | Massachusetts Institute Of Technology | Model-Based Neuromechanical Controller for a Robotic Leg |
US20130079929A1 (en) * | 2011-09-28 | 2013-03-28 | Samsung Electronics Co., Ltd. | Robot and control method thereof |
US20160095538A1 (en) * | 2014-10-07 | 2016-04-07 | Samsung Electronics Co., Ltd. | Method and apparatus for recognizing gait motion |
US20160331560A1 (en) * | 2015-05-11 | 2016-11-17 | The Hong Kong Polytechnic University | Interactive Exoskeleton Robotic Knee System |
CN106466220A (zh) * | 2015-08-17 | 2017-03-01 | 三星电子株式会社 | 运动辅助设备及控制运动辅助设备的方法 |
WO2018081986A1 (zh) * | 2016-11-03 | 2018-05-11 | 浙江大学 | 一种可穿戴式设备及用于该设备的实时步长测量方法 |
CN112004511A (zh) * | 2018-02-17 | 2020-11-27 | 哈佛学院院长及董事 | 用于预防肌肉骨骼损伤和增强性能的可穿戴设备 |
CN110141239A (zh) * | 2019-05-30 | 2019-08-20 | 东北大学 | 一种用于下肢外骨骼的运动意图识别及装置方法 |
CN110522458A (zh) * | 2019-10-15 | 2019-12-03 | 北京理工大学 | 一种适用于膝关节外骨骼的步态实时识别方法 |
CN111469117A (zh) * | 2020-04-14 | 2020-07-31 | 武汉理工大学 | 一种刚柔耦合有源外骨骼的人体运动模式检测方法 |
CN111639762A (zh) * | 2020-05-22 | 2020-09-08 | 河北工业大学 | 一种基于自组织神经网络的下肢假肢步态识别方法 |
CN111898487A (zh) * | 2020-07-15 | 2020-11-06 | 贵州航天控制技术有限公司 | 一种柔性外骨骼系统的人体运动模式实时识别方法 |
Non-Patent Citations (3)
Title |
---|
LUKA PETERNEL等: "Adaptive control of exoskeleton robots for periodic assistive behaviours based on EMG feedback minimization", 《PLOS ONE》 * |
MICHAEL MISTRY等: "Arm movement experiments with joint space force fields using an exoskeleton robot", 《2005 IEEE 9TH INTERNATIONAL CONFERENCE ON REHABILITATION ROBOTICS》 * |
李石磊: "下肢外骨骼机器人步态规划与控制方法研究", 《中国优秀博硕士学位论文全文数据库(硕士)信息科技辑》 * |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113516063A (zh) * | 2021-06-29 | 2021-10-19 | 北京精密机电控制设备研究所 | 一种基于K-Means及步态周期相似性的运动模式识别方法 |
CN114663775A (zh) * | 2022-05-26 | 2022-06-24 | 河北工业大学 | 一种用于外骨骼机器人使役环境中楼梯识别方法 |
CN114663775B (zh) * | 2022-05-26 | 2022-08-12 | 河北工业大学 | 一种用于外骨骼机器人使役环境中楼梯识别方法 |
CN116738325A (zh) * | 2023-08-16 | 2023-09-12 | 湖北工业大学 | 基于DenseNet-LSTM网络的下肢外骨骼运动模式识别方法及系统 |
Also Published As
Publication number | Publication date |
---|---|
CN112949676B (zh) | 2022-07-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112949676B (zh) | 一种柔性下肢助力外骨骼机器人的自适应运动模式识别方法 | |
CN110141239B (zh) | 一种用于下肢外骨骼的运动意图识别及装置方法 | |
CN110537922B (zh) | 基于深度学习的人体行走过程下肢运动识别方法及系统 | |
Ding et al. | Continuous estimation of human multi-joint angles from sEMG using a state-space model | |
CN112754468A (zh) | 一种基于多源信号的人体下肢运动检测及识别方法 | |
CN106308809A (zh) | 大腿残肢者的步态识别方法 | |
Zhang et al. | Lower limb motion intention recognition based on sEMG fusion features | |
CN104091177A (zh) | 一种基于确定学习理论的异常步态检测方法 | |
CN111506189B (zh) | 面向人体复杂运动的运动模式预测及切换控制方法 | |
CN102764167B (zh) | 基于相关系数的肌电假肢控制源导联优化方法 | |
CN114897012A (zh) | 一种基于生机接口的智能假肢手臂控制方法 | |
Sun et al. | Continuous estimation of human knee joint angles by fusing kinematic and myoelectric signals | |
Rai et al. | Mode-free control of prosthetic lower limbs | |
CN111531537A (zh) | 基于多传感器的机械臂控制方法 | |
Hu et al. | A novel fusion strategy for locomotion activity recognition based on multimodal signals | |
Zheng et al. | A GMM-DTW-based locomotion mode recognition method in lower limb exoskeleton | |
Zhang et al. | A real-time gait phase recognition method based on multi-information fusion | |
CN111950460B (zh) | 一种自适应肌力的卒中患者手部康复训练动作识别方法 | |
KR101829356B1 (ko) | Gpes 라이브러리와 ismf를 이용한 emg신호 기반 보행단계 인식 방법 | |
CN112487902A (zh) | 面向外骨骼的基于tcn-hmm的步态相位分类方法 | |
Zhang et al. | Single-Channel sEMG-Based Estimation of Knee Joint Angle Using a Decomposition Algorithm With a State-Space Model | |
Wei et al. | Gait Phase Detection Based on LSTM-CRF for Stair Ambulation | |
Zhen et al. | Human Motion Mode Recognition Based on Multi-parameter Fusion of Wearable Inertial Module Unit and Flexible Pressure Sensor. | |
KR102350593B1 (ko) | 딥러닝 앙상블을 이용한 멀티모달 센서 기반의 보행 패턴 분류를 위한 장치 및 방법 | |
Zheng et al. | Adaptive Locomotion Transition Recognition With Wearable Sensors for Lower Limb Robotic Prosthesis |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |