CN116115217B - 一种基于深度网络的人体下肢步态相位估计方法 - Google Patents
一种基于深度网络的人体下肢步态相位估计方法 Download PDFInfo
- Publication number
- CN116115217B CN116115217B CN202310039836.1A CN202310039836A CN116115217B CN 116115217 B CN116115217 B CN 116115217B CN 202310039836 A CN202310039836 A CN 202310039836A CN 116115217 B CN116115217 B CN 116115217B
- Authority
- CN
- China
- Prior art keywords
- neural network
- deep neural
- gait
- human
- angle
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000005021 gait Effects 0.000 title claims abstract description 55
- 210000003141 lower extremity Anatomy 0.000 title claims abstract description 27
- 238000000034 method Methods 0.000 title claims abstract description 13
- 230000033001 locomotion Effects 0.000 claims abstract description 22
- 238000013528 artificial neural network Methods 0.000 claims abstract description 14
- 238000012549 training Methods 0.000 claims abstract description 14
- 230000001133 acceleration Effects 0.000 claims abstract description 10
- 238000005259 measurement Methods 0.000 claims abstract description 10
- 238000012360 testing method Methods 0.000 claims abstract description 6
- 210000002414 leg Anatomy 0.000 claims description 16
- 238000003062 neural network model Methods 0.000 claims description 14
- 210000004394 hip joint Anatomy 0.000 claims description 12
- 210000003127 knee Anatomy 0.000 claims description 12
- 210000001872 metatarsal bone Anatomy 0.000 claims description 10
- 210000002683 foot Anatomy 0.000 claims description 9
- 210000001503 joint Anatomy 0.000 claims description 7
- 210000000629 knee joint Anatomy 0.000 claims description 6
- 238000013507 mapping Methods 0.000 claims description 5
- 230000008569 process Effects 0.000 claims description 4
- 230000004913 activation Effects 0.000 claims description 3
- 230000008878 coupling Effects 0.000 abstract description 15
- 238000010168 coupling process Methods 0.000 abstract description 15
- 238000005859 coupling reaction Methods 0.000 abstract description 15
- 230000006870 function Effects 0.000 description 7
- 210000001624 hip Anatomy 0.000 description 7
- 230000001808 coupling effect Effects 0.000 description 4
- 230000000737 periodic effect Effects 0.000 description 4
- 238000013461 design Methods 0.000 description 3
- 238000010586 diagram Methods 0.000 description 3
- 238000002474 experimental method Methods 0.000 description 3
- 230000003993 interaction Effects 0.000 description 3
- 230000001174 ascending effect Effects 0.000 description 2
- 230000001149 cognitive effect Effects 0.000 description 2
- 239000000463 material Substances 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 229910000838 Al alloy Inorganic materials 0.000 description 1
- 229920000049 Carbon (fiber) Polymers 0.000 description 1
- 239000004677 Nylon Substances 0.000 description 1
- 229910001069 Ti alloy Inorganic materials 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 210000000577 adipose tissue Anatomy 0.000 description 1
- 210000003423 ankle Anatomy 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 239000004917 carbon fiber Substances 0.000 description 1
- 230000019771 cognition Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000011217 control strategy Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000001771 impaired effect Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000003340 mental effect Effects 0.000 description 1
- VNWKTOKETHGBQD-UHFFFAOYSA-N methane Chemical compound C VNWKTOKETHGBQD-UHFFFAOYSA-N 0.000 description 1
- 230000003183 myoelectrical effect Effects 0.000 description 1
- 229920001778 nylon Polymers 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 230000010399 physical interaction Effects 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 210000001364 upper extremity Anatomy 0.000 description 1
- 210000000689 upper leg Anatomy 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
- 230000002747 voluntary effect Effects 0.000 description 1
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/103—Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
- A61B5/11—Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
- A61B5/112—Gait analysis
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/103—Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
- A61B5/1036—Measuring load distribution, e.g. podologic studies
- A61B5/1038—Measuring plantar pressure during gait
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/72—Signal processing specially adapted for physiological signals or for diagnostic purposes
- A61B5/7235—Details of waveform analysis
- A61B5/7264—Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems
- A61B5/7267—Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems involving training the classification device
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T90/00—Enabling technologies or technologies with a potential or indirect contribution to GHG emissions mitigation
Landscapes
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Biophysics (AREA)
- General Health & Medical Sciences (AREA)
- Veterinary Medicine (AREA)
- Public Health (AREA)
- Animal Behavior & Ethology (AREA)
- Surgery (AREA)
- Molecular Biology (AREA)
- Medical Informatics (AREA)
- Artificial Intelligence (AREA)
- Pathology (AREA)
- Biomedical Technology (AREA)
- Heart & Thoracic Surgery (AREA)
- Physiology (AREA)
- Dentistry (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Evolutionary Computation (AREA)
- Signal Processing (AREA)
- Psychiatry (AREA)
- Mathematical Physics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Fuzzy Systems (AREA)
- Rehabilitation Tools (AREA)
Abstract
本发明公开一种基于深度网络的人体下肢步态相位估计方法,应用于外骨骼机器人领域,针对现有技术无法体现不同步态相位下人体的运动状态与人机耦合特性所存在得较大差异的问题;本发明通过惯性测量单元和足底力测量鞋采集不同体型下的健康人体在不同步频下的步态运动下的下肢双腿双关节实时角度、角速度和角加速度信息以及足底力信息,构建训练与测试数据集;根据所构建的数据集对深度神经网络进行训练,从而根据训练完成的深度神经网络实时估计当前人机耦合系统的步态相位。
Description
技术领域
本发明属于外骨骼机器人领域,特别涉及一种下肢外骨骼步态相位划分技术。
背景技术
下肢外骨骼作为一种典型的可穿戴机器人,其作为一种特殊的机器人将人体强大的感知决策能力和机器人高负载、高强度和强动力等优势进行了有机互补。下肢外骨骼一般通过操作员穿戴为人机耦合系统来帮助行走障碍患者进行自主行走或增强人体力量以完成高强度任务。一般下肢外骨骼通过绑带等连接结构与人体下肢的相应位置进行捆绑连接,且外骨骼会跟随人体的实时运动意图或根据特定的控制目标进行运动。在机械结构部分多采用髋膝踝或髋膝结构,材料多为铝合金、碳纤维、钛合金等轻质量和高强度材料。作动单元多采用液压伺服系统、伺服电机等。而传感器系统则包含人机耦合力传感器、足底力传感器、关节编码器,甚至人体下肢肌电传感器和脑电传感器。下肢外骨骼需要通过分析人机耦合作用来实时感知人体当前运动意图与人机耦合特性,其中人体耦合作用一般分为物理人机耦合作用(physical human-robot interaction,pHRI)与认知人机耦合作用(cognitive human-robot interaction,cHRI)两类,分别是指人体与外骨骼通过物理交互和精神认知以及动作意向层面的耦合交互。此外,相较于上肢与部位外骨骼,下肢外骨骼的主要是任务是人机耦合步态任务,而步态具有较强的规律、协调和周期性,故人体的步态信息往往被用来作为下肢外骨骼的控制策略的设计依据。
当前的步态划分算法多进行步态阶段划分,如双足站立、左腿摆动右腿站立、右腿摆动左腿站立等,但在相同步态阶段内的不同相位下人机特性仍存在明显差异。
发明内容
为解决上述技术问题,本发明提出一种基于深度网络的人体下肢步态相位估计方法,考虑到步态的周期性和不同步态相位下人体的运动状态与人机耦合特性均存在较大差异,通过实时测量的人体下肢双腿髋膝双关节运动状态和足底力信息来估计人体实时步态相位,并根据不同步态相位下的人体运动特性和实时的步态相位估计结果来设计相应的控制算法架构与参数。
本发明采用的技术方案为:一种基于深度网络的人体下肢步态相位估计方法,包括:
S1、通过惯性测量单元和足底力测量鞋采集不同体型的健康人体在不同步频步态运动下的下肢双腿双关节实时角度、角速度和角加速度信息以及足底力信息,从而构建训练与测试数据集;
S2、将步态相位0%-100%等比例映射至角度区间(0-2π),计算相应的正弦值与余弦值;
S3、构建深度神经网络;包括输入层、隐藏层、输出层;
S4、根据步骤S2计算的正弦值与余弦值设计深度神经网络模型的损失函数,并使用步骤S1的训练数据集进行深度神经网络训练;
S5、将人体下肢双腿双关节角度、角速度以及足底力输入训练完成的深度神经网络模型中,得到人体当前步态相位的估计值。
步骤S1所述双关节具体为髋关节和膝关节。
本发明的有益效果:本发明设计了一种基于深度神经网络的人体步态估计方法,采用惯性测量单元和足底力传感器来采集在不同体型健康成年人在不同步频下完成不同类型的周期性步态运动(步行、跑步、上下楼梯等)的下肢双腿髋膝双关节运动状态和足底力信息,并根据某个特定的步态事件(如左脚触地、右脚触地、左脚离地和右脚离地等)作为相位起点(0%)进行步态划分。此外,设计深度神经网络模型结构并采用所采集处理的数据集进行训练。区别于传统的步态划分方法中的阶段式划分,相位划分可以更加精确地估计实时步态相位,从而根据特定的人机耦合特性等先验信息来更加准确地设定相应的控制器结构与控制参数,从而有效提高人机耦合协同行走运动中外骨骼用户的穿戴舒适度并减缓人机耦合阻抗。
附图说明
图1本发明的深度神经网络模型结构示意图。
图2为本发明的方法流程图。
图3本发明涉及的足底力检测鞋示意图。
具体实施方式
为便于本领域技术人员理解本发明的技术内容,下面结合附图对本发明内容进一步阐释。
本实施例中以如图2所示的下肢外骨骼系统框图为例进行说明,本发明具体包括以下内容:
1、为了保证训练的深度神经网络模型的估计性能,数据采集实验的对象为不同体型(身高、体重、腿长、体脂率等)的健康成年人,测试的步态类型包括平地步行、慢跑、上下阶梯等传统步态运动项目,此外还包括骑自行车、轮滑等特殊步态运动项目,在各个步态项目中采用不同步频来进行多次实验。
实验过程中,采用IMU(Inertial Measurement Unit,惯性测量单元)和足底力测试鞋来分别测量人体下肢双腿髋膝双关节运动状态信息(关节角度、关节角速度和关节角速度等)和足底力信息。
为了准确测量在人体行走过程中的人体下肢双腿双关节运动状态信息,通过将5个IMU传感器分别采用具有松紧性的尼龙绑带固定在人体的腰部后侧,左右腿的大腿臂前侧和下腿臂前侧。传感器的型号为395695A-Y86,其在俯仰角的测量精度为0.5度,采样率为200Hz,通信速率为1MB/s。为了保证各个IMU的时间一致性,将其统一挂在同一条CAN总线上,并通过硬件控制器(STM32F407)来实时计算并记录姿态信息。
如附图3所示,为了准确地感知人体的步态相位信息并分析人体在行走过程中人体足底的受力分布情况,足底力测试鞋分别在脚掌的第一跖骨、第四跖骨和足跟部位(S1、S2、S3)来安装足底压力传感器Model-1021来测量相应位置的足底压力分布信息,其中传感器的测量量程均为500N,综合测量精度为0.5%。根据步态运动中的特定步态事件(如左脚触地等)作为一个完整步态的起始与终止点将步态数据等比划分为0%-100%。将上述数据处理整合为人体步态相位划分数据集,其中按照6:1的比例划分训练集与测试集。
2、根据附图1所示,根据深度神经网络的万能逼近原理,采用深度神经网络模型来根据人体实时步态信息来估计当前的步态相位。首先,根据模型场景构建出深度神经网络结构,包括输入层、隐藏层、输出层,其中输入层的输入向量X∈R18包含18维输入,分别为左腿髋关节角度qh,l、左腿髋关节角速度左腿髋关节角加速度右腿髋关节角度qh,r、右腿髋关节角速度右腿髋关节角加速度左腿膝关节角度qk,l、左腿膝关节角速度左腿膝关节角加速度右腿膝关节角度qk,r、右腿膝关节角速度右腿膝关节角加速度左脚第一跖骨处足底压力FS1,l、左脚第四跖骨处足底压力FS2,l、左脚足跟处足底压力FS3,l、右脚第一跖骨处足底压力FS1,r、右脚第四跖骨处足底压力FS2,r、右脚足跟处足底压力FS3,r,即
根据附图1所示,深度神经网络模型设置1个隐藏层,隐藏层节点数设置为200个节点,其中每个隐藏节点的值yj根据下式计算
其中ωi,j表示输入向量X的第i个元素与第j个隐藏节点之间的连接增益,bj表示第j个隐藏节点偏置,φ表示隐藏节点的激活函数,其采用Sigmoid函数,即
深度神经网络模型的输出层包括两个节点,输出向量被表示为σ=[σ1,σ2]T,其根据下式计算
j=1和2,
其中,表示第i个隐藏节点与第j个输出节点之间的连接增益,表示第j个隐藏节点偏置,输出层不采用激活函数。
3、考虑到人体的行走、跑步、登梯等典型步态运动都是存在特定周期的周期性运动,即在当前的步态状态与相应的步态周期后的步态状态相同。因此为了不打破人体运动步态的周期特性,即针对于任意的步态相位α%,存在式P(α%)=P(α%+100%)=P(α%-100%)成立,其中P(x%)表示在相位x%的人体下肢双腿双关节角度、角速度等运动状态。类比角度的正余弦函数的周期性,即sin(θ)=sin(θ+2π),cos(θ)=cos(θ+2π)。因此,将步态相位α%等比映射至角度区间(0,2π]得到相应等效角度β,即β=α×2π/100。
根据设计的深度神经网络模型结构,相应的训练惩罚函数被设计为:
即希望深度神经网络模型输出σ1和σ2与实际的等效角度β所对应的正弦值sin(β)与余弦值cos(β)成等比例关系,因此在设计训练惩罚函数时采用和来保证角度的正余弦值的约束特性。
在实际模型部署过程中,对应的步态相位等效角度β根据下式计算得出
根据步态相位α%和相应的等效角度β之间的映射关系,因此根据下式将β转换为相应的步态相位α%,即
α=β×100/2π。
深度神经网络模型的训练结束条件设定为当前模型在验证集上的效果达到要求或训练的轮次达到设定的训练上限。
4.在实际的下肢外骨骼人机耦合协同运动任务中,可以采用训练好的深度神经网络模型实时估计当前人机耦合系统的步态相位。根据已知的人体在不同步态相位下的人体运动特征以及人机耦合特征来实时调整下肢外骨骼的控制算法结构与控制参数,从而有效提高人机耦合协同行走运动中外骨骼用户的穿戴舒适度并减缓人机耦合阻抗。
本领域的普通技术人员将会意识到,这里所述的实施例是为了帮助读者理解本发明的原理,应被理解为本发明的保护范围并不局限于这样的特别陈述和实施例。对于本领域的技术人员来说,本发明可以有各种更改和变化。凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的权利要求范围之内。
Claims (1)
1.一种基于深度网络的人体下肢步态相位估计方法,其特征在于,包括:
S1、通过惯性测量单元和足底力测量鞋采集不同体型的健康人体在不同步频步态运动下的下肢双腿双关节实时角度、角速度和角加速度信息以及足底力信息,从而构建训练与测试数据集;
S2、将步态相位0%-100%等比例映射至角度区间(0-2π),计算相应的正弦值与余弦值;
S3、构建深度神经网络;包括输入层、隐藏层、输出层;
深度神经网络输入层的输入向量表示为:
其中,qh,l为左腿髋关节角度,为左腿髋关节角速度,为左腿髋关节角加速度,qh,r为右腿髋关节角度,为右腿髋关节角速度,为右腿髋关节角加速度,qk,l为左腿膝关节角度,为左腿膝关节角速度,为左腿膝关节角加速度,qk,r为右腿膝关节角度,为右腿膝关节角速度,为右腿膝关节角加速度,FS1,l为左脚第一跖骨处足底压力,FS2,l为左脚第四跖骨处足底压力,FS3,l为左脚足跟处足底压力,FS1,r为右脚第一跖骨处足底压力,FS2,r为右脚第四跖骨处足底压力,FS3,r为右脚足跟处足底压力;
深度神经网络隐藏层包括200个隐藏节点,隐藏节点的值yj根据下式计算
其中ωi,j表示输入向量X的第i个元素与第j个隐藏节点之间的连接增益,bj表示第j个隐藏节点偏置,φ表示隐藏节点的激活函数,φ采用Sigmoid函数;
深度神经网络输出层包括两个节点,输出向量表示为σ=[σ1,σ2]T,σ1,σ2根据下式计算:
其中,表示第i个隐藏节点与第j个输出节点之间的连接增益,表示第j个隐藏节点偏置;
S4、根据步骤S2计算的正弦值与余弦值设计深度神经网络模型的损失函数,并使用步骤S1的训练数据集进行深度神经网络训练;
深度神经网络训练过程中的惩罚函数设计为:
其中,β为将步态相位0%-100%等比例映射至角度区间(0-2π)的等效角度;β根据下式计算得出
根据下式将β转换为相应的步态相位α%,即
α=β×100/2π;
S5、将人体下肢双腿双关节角度、角速度以及足底力输入训练完成的深度神经网络模型中,得到人体当前步态相位的估计值。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310039836.1A CN116115217B (zh) | 2023-01-13 | 2023-01-13 | 一种基于深度网络的人体下肢步态相位估计方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310039836.1A CN116115217B (zh) | 2023-01-13 | 2023-01-13 | 一种基于深度网络的人体下肢步态相位估计方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN116115217A CN116115217A (zh) | 2023-05-16 |
CN116115217B true CN116115217B (zh) | 2024-09-13 |
Family
ID=86311207
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310039836.1A Active CN116115217B (zh) | 2023-01-13 | 2023-01-13 | 一种基于深度网络的人体下肢步态相位估计方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116115217B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117643469B (zh) * | 2024-01-29 | 2024-04-30 | 常熟理工学院 | 一种下肢步态识别装置与方法、下肢外骨骼系统 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113910206A (zh) * | 2021-12-15 | 2022-01-11 | 深圳市迈步机器人科技有限公司 | 结合多传感器外骨骼助力系统及其检测助力方法 |
CN115105057A (zh) * | 2022-05-23 | 2022-09-27 | 中国科学院深圳先进技术研究院 | 一种用于横向行走的步态相位划分与识别方法及系统 |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP2758140A1 (en) * | 2011-09-20 | 2014-07-30 | Brian Francis Mooney | Apparatus and method for analysing a golf swing |
DE102012107117A1 (de) * | 2012-08-02 | 2014-02-06 | Georg-August-Universität Göttingen Stiftung Öffentlichen Rechts | Orthesensteuerung |
US20170225033A1 (en) * | 2015-06-23 | 2017-08-10 | Ipcomm Llc | Method and Apparatus for Analysis of Gait and to Provide Haptic and Visual Corrective Feedback |
US20230066952A1 (en) * | 2020-01-15 | 2023-03-02 | North Carolina State University | Systems and methods for reinforcement learning control of a powered prosthesis |
CN115337009A (zh) * | 2022-08-23 | 2022-11-15 | 电子科技大学 | 一种基于全连接和循环神经网络的步态识别和预测方法 |
-
2023
- 2023-01-13 CN CN202310039836.1A patent/CN116115217B/zh active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113910206A (zh) * | 2021-12-15 | 2022-01-11 | 深圳市迈步机器人科技有限公司 | 结合多传感器外骨骼助力系统及其检测助力方法 |
CN115105057A (zh) * | 2022-05-23 | 2022-09-27 | 中国科学院深圳先进技术研究院 | 一种用于横向行走的步态相位划分与识别方法及系统 |
Also Published As
Publication number | Publication date |
---|---|
CN116115217A (zh) | 2023-05-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Huo et al. | Fast gait mode detection and assistive torque control of an exoskeletal robotic orthosis for walking assistance | |
Zheng et al. | Gait phase estimation based on noncontact capacitive sensing and adaptive oscillators | |
Kiguchi et al. | An exoskeletal robot for human elbow motion support-sensor fusion, adaptation, and control | |
CN105796286B (zh) | 使用气囊传感器的下肢外骨骼机器人控制方法 | |
Wei et al. | Synergy-based control of assistive lower-limb exoskeletons by skill transfer | |
Huang et al. | Modeling and stiffness-based continuous torque control of lightweight quasi-direct-drive knee exoskeletons for versatile walking assistance | |
Holgate et al. | Control algorithms for ankle robots: A reflection on the state-of-the-art and presentation of two novel algorithms | |
Kang et al. | Electromyography (EMG) signal contributions in speed and slope estimation using robotic exoskeletons | |
Chen et al. | Development and hybrid control of an electrically actuated lower limb exoskeleton for motion assistance | |
CN113043248B (zh) | 基于多源传感器的搬运装配全身外骨骼系统及控制方法 | |
Zhao et al. | Template model inspired leg force feedback based control can assist human walking | |
Ma et al. | A review on human-exoskeleton coordination towards lower limb robotic exoskeleton systems | |
Jung et al. | Walking intent detection algorithm for paraplegic patients using a robotic exoskeleton walking assistant with crutches | |
Camardella et al. | Gait phases blended control for enhancing transparency on lower-limb exoskeletons | |
Gong et al. | BPNN-based real-time recognition of locomotion modes for an active pelvis orthosis with different assistive strategies | |
Liang et al. | Synergy-based knee angle estimation using kinematics of thigh | |
Yan et al. | A novel adaptive oscillators-based control for a powered multi-joint lower-limb orthosis | |
CN116115217B (zh) | 一种基于深度网络的人体下肢步态相位估计方法 | |
Ding et al. | Control of walking assist exoskeleton with time-delay based on the prediction of plantar force | |
Li et al. | Real-time gait event detection for a lower extremity exoskeleton robot by infrared distance sensors | |
Park et al. | Performance estimation of the lower limb exoskeleton for plantarflexion using surface electromyography (sEMG) signals | |
Biao et al. | Design and control of a flexible exoskeleton to generate a natural full gait for lower-limb rehabilitation | |
Yang et al. | Current developments of robotic hip exoskeleton toward sensing, decision, and actuation: A review | |
Hu et al. | A novel control method of a soft exosuit with plantar pressure sensors | |
Fleischer et al. | Embedded control system for a powered leg exoskeleton |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |