CN116584961A - 人体下肢运动意图识别及外骨骼机器人角度预测控制方法 - Google Patents
人体下肢运动意图识别及外骨骼机器人角度预测控制方法 Download PDFInfo
- Publication number
- CN116584961A CN116584961A CN202310581478.7A CN202310581478A CN116584961A CN 116584961 A CN116584961 A CN 116584961A CN 202310581478 A CN202310581478 A CN 202310581478A CN 116584961 A CN116584961 A CN 116584961A
- Authority
- CN
- China
- Prior art keywords
- neural network
- signals
- exoskeleton robot
- joint
- movement intention
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 210000003141 lower extremity Anatomy 0.000 title claims abstract description 76
- 238000000034 method Methods 0.000 title claims abstract description 51
- 238000013528 artificial neural network Methods 0.000 claims abstract description 71
- 230000009471 action Effects 0.000 claims abstract description 52
- 239000012634 fragment Substances 0.000 claims abstract description 24
- 230000009467 reduction Effects 0.000 claims abstract description 16
- 238000001914 filtration Methods 0.000 claims abstract description 8
- 238000007781 pre-processing Methods 0.000 claims abstract description 6
- 238000012549 training Methods 0.000 claims description 40
- 238000012360 testing method Methods 0.000 claims description 24
- 238000010606 normalization Methods 0.000 claims description 20
- 238000012545 processing Methods 0.000 claims description 16
- 210000004394 hip joint Anatomy 0.000 claims description 14
- 210000000629 knee joint Anatomy 0.000 claims description 14
- 230000001174 ascending effect Effects 0.000 claims description 12
- 210000001624 hip Anatomy 0.000 claims description 11
- 210000003127 knee Anatomy 0.000 claims description 11
- 230000003183 myoelectrical effect Effects 0.000 claims description 9
- 230000009466 transformation Effects 0.000 claims description 9
- 238000005259 measurement Methods 0.000 claims description 6
- 210000003314 quadriceps muscle Anatomy 0.000 claims description 5
- 210000003205 muscle Anatomy 0.000 claims description 3
- 238000011160 research Methods 0.000 description 5
- 210000002414 leg Anatomy 0.000 description 4
- 230000004075 alteration Effects 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 238000006467 substitution reaction Methods 0.000 description 2
- 230000006399 behavior Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000002567 electromyography Methods 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 210000001503 joint Anatomy 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/24—Detecting, measuring or recording bioelectric or biomagnetic signals of the body or parts thereof
- A61B5/316—Modalities, i.e. specific diagnostic methods
- A61B5/389—Electromyography [EMG]
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/103—Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
- A61B5/11—Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
- A61B5/1118—Determining activity level
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/103—Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
- A61B5/11—Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
- A61B5/1123—Discriminating type of movement, e.g. walking or running
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/24—Detecting, measuring or recording bioelectric or biomagnetic signals of the body or parts thereof
- A61B5/316—Modalities, i.e. specific diagnostic methods
- A61B5/389—Electromyography [EMG]
- A61B5/397—Analysis of electromyograms
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/72—Signal processing specially adapted for physiological signals or for diagnostic purposes
- A61B5/7203—Signal processing specially adapted for physiological signals or for diagnostic purposes for noise prevention, reduction or removal
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/72—Signal processing specially adapted for physiological signals or for diagnostic purposes
- A61B5/7235—Details of waveform analysis
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/72—Signal processing specially adapted for physiological signals or for diagnostic purposes
- A61B5/7235—Details of waveform analysis
- A61B5/725—Details of waveform analysis using specific filters therefor, e.g. Kalman or adaptive filters
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/72—Signal processing specially adapted for physiological signals or for diagnostic purposes
- A61B5/7235—Details of waveform analysis
- A61B5/7253—Details of waveform analysis characterised by using transforms
- A61B5/7257—Details of waveform analysis characterised by using transforms using Fourier transforms
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61H—PHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
- A61H1/00—Apparatus for passive exercising; Vibrating apparatus; Chiropractic devices, e.g. body impacting devices, external devices for briefly extending or aligning unbroken bones
- A61H1/02—Stretching or bending or torsioning apparatus for exercising
- A61H1/0237—Stretching or bending or torsioning apparatus for exercising for the lower limbs
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61H—PHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
- A61H2201/00—Characteristics of apparatus not provided for in the preceding codes
- A61H2201/16—Physical interface with patient
- A61H2201/1657—Movement of interface, i.e. force application means
- A61H2201/1659—Free spatial automatic movement of interface within a working area, e.g. Robot
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61H—PHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
- A61H2205/00—Devices for specific parts of the body
- A61H2205/10—Leg
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61H—PHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
- A61H2230/00—Measuring physical parameters of the user
- A61H2230/08—Other bio-electrical signals
- A61H2230/085—Other bio-electrical signals used as a control parameter for the apparatus
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61H—PHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
- A61H2230/00—Measuring physical parameters of the user
- A61H2230/62—Posture
- A61H2230/625—Posture used as a control parameter for the apparatus
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02P—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
- Y02P90/00—Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
- Y02P90/02—Total factory control, e.g. smart factories, flexible manufacturing systems [FMS] or integrated manufacturing systems [IMS]
Landscapes
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Engineering & Computer Science (AREA)
- Animal Behavior & Ethology (AREA)
- Veterinary Medicine (AREA)
- Public Health (AREA)
- General Health & Medical Sciences (AREA)
- Physics & Mathematics (AREA)
- Heart & Thoracic Surgery (AREA)
- Surgery (AREA)
- Medical Informatics (AREA)
- Biomedical Technology (AREA)
- Pathology (AREA)
- Biophysics (AREA)
- Molecular Biology (AREA)
- Physiology (AREA)
- Signal Processing (AREA)
- Psychiatry (AREA)
- Artificial Intelligence (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Dentistry (AREA)
- Mathematical Physics (AREA)
- Epidemiology (AREA)
- Pain & Pain Management (AREA)
- Physical Education & Sports Medicine (AREA)
- Rehabilitation Therapy (AREA)
- Manipulator (AREA)
Abstract
人体下肢运动意图识别及外骨骼机器人角度预测控制方法,包括以下步骤:1)采集人体表面肌电信号,同时将关节角度值转换为关节信号进行记录;2)对采集到的信号进行预处理;3)对预处理后的信号进行降噪滤波;4)对降噪后的肌电信号进行截取,得到肌电信号中的动作片段,并提取动作片段的特征值;5)将动作片段转化为频域信号,对动作片段进行频域分析,获得动作片段的中值频率;6)以提取到的特征值作为衡量精确度的指标,利用BP神经网络构建回归模型,并通过回归模型进行下肢运动意图的识别;7)构建NARX神经网络,进行关节角度的预测。本发明使得外骨骼机器人能够同步实现对人体下肢运动意图,以及下肢关节角度的估计与预测。
Description
技术领域
本发明涉及人体外骨骼控制技术领域,具体涉及人体下肢运动意图识别及外骨骼机器人角度预测控制方法。
背景技术
现有研究人员对于肌电信号的研究和对下肢动作分类提出了许多新方法,例如利用微分式表面肌电信号(Surface electromyography,sEMG)实时特征提取算法分析肌电信号;利用双阻容有源陷波电路对肌电信号进行放大滤波等;利用信号的融合来估计力矩大小进而反映人体运动状态;利用七个关节的外骨骼机器人来辅助人体运动。现有下肢康复机器人的研究在一定程度上能够实现基于人体下肢运动意图识别实现康复机构的简单控制,但外骨骼机器人由于其工作方式为附着人体,因此外骨骼机器人的本体需要与穿戴者本身高度协同配合,而现有研究大多致力于外骨骼硬件的优化,所以如何有效的对下肢动作分类是获得准确的人体下肢运动意图的首要问题。sEMG信号内部蕴含大量的生物信息,通过对这些信息的分析与处理,可以对人体行为做出预测,故基于表面肌电信号研究下肢运动分类对康复机器人的发展有着不可或缺的意义。
外骨骼机器人需要与穿戴者本身高度协同配合,现有下肢康复机器人在一定程度上能够实现基于人体下肢运动意图的识别,实现康复机构的简单控制,但现有研究大多致力于外骨骼硬件的优化,对于如何有效的对下肢动作分类并获得准确的人体下肢运动意图方面的研究还有待深入。
发明内容
本发明针对现有的人体下肢外骨骼机器人不能有效地将人体下肢运动意图识别和角度预测结合起来辅助人体下肢运动的问题。提出了一种人体下肢运动意图识别及外骨骼机器人角度预测控制方法。
为实现本发明目的而采用的技术方案是这样的,人体下肢运动意图识别及外骨骼机器人角度预测控制方法,包括以下步骤:
1)采集人体表面肌电信号,同时将关节角度计采集的关节角度值转换为关节信号进行记录。
2)利用巴特沃斯带通滤波器对采集到的肌电信号和关节信号进行预处理,得到预处理后的肌电信号和关节信号。
3)利用离散小波变换对预处理后的肌电信号和关节信号进行降噪滤波,得到降噪后的肌电信号和关节信号。
4)利用滑动窗口法对降噪后的肌电信号进行截取,得到肌电信号中的动作片段,并提取动作片段的特征值。
5)通过快速傅里叶变换将截取的动作片段转化为频域信号,对截取的动作片段进行频域分析,获得动作片段的中值频率。
6)以提取到的特征值和中值频率作为衡量精确度的指标,利用BP神经网络构建回归模型,并通过回归模型进行下肢运动意图的识别。
7)构建NARX神经网络,,利用NARX神经网络预测当前下肢运动意图对应的外骨骼机器人关节角度。
进一步,所述人体表面肌电信号的采集部位包括股直肌、股内侧肌、股二头肌、胫骨前肌、外侧腓肠肌、比目鱼肌。
进一步,所述关节角度包括髋关节角度和膝关节角度。
进一步,所述下肢的运动意图包括上楼梯,上坡,平地行走,下楼梯,下坡。
进一步,当运动意图为平地行走时,对应的膝关节角度范围为-1.3°至71.55°,髋关节角度范围为-3°至13.18°。
当运动意图为上楼梯时,对应的膝关节角度范围为-92.52°至1.98°,髋关节角度范围为-0.36°到19.57°。
当运动意图为上坡时,对应的膝关节角度范围为-60.34°至13.59°,髋关节角度范围为-1.08°为14.17°。
当运动意图为下楼梯时,对应的膝关节角度范围为-93.015°至0.09°,髋关节角度范围为-1.35°至18.49°。
当运动意图为下坡时,对应的膝关节角度范围为-63°至1.125°,髋关节角度范围为-2.57°至17.01°。
进一步,所述利用滑动窗口法对降噪后的肌电信号进行截取,得到肌电信号中的动作片段的步骤包括:
4.1)设置截取阈值、滑窗宽度及步进值。
4.2)确定动作片段的始端位置。
4.3)确定动作片段的终端位置。
4.4)通过动作片段的始端位置和终端位置,截取到肌电信号中的动作片段。
进一步,所述动作片段的特征值包括:平均绝对值,均方根,标准差和过零点。
进一步,所述以提取到的特征值和中值频率作为衡量精确度的指标,利用BP神经网络构建回归模型的步骤包括:
6.1)导入存放下肢的运动意图及对应的特征值和中值频率的数据集。
6.2)将数据集划分为训练集和测试集。
6.3)对训练集和测试集进行归一化处理,得到归一化处理后的训练集和测试集。
6.4)初始化相关参数,并构建BP神经网络。
6.5)通过归一化处理后的训练集对BP神经网络进行训练,确定最佳隐含层数,得到回归模型。
6.6)通过归一化处理后的测试集对最佳隐含层的回归模型进行测试,并对测试结果进行反归一化和指标误差分析,若指标误差大于预设误差阈值,则返回步骤6.1),若指标误差小于等于预设误差阈值,则结束训练,输出回归模型。
进一步,通过归一化处理后的训练集对BP神经网络进行训练,确定最佳隐含层数的步骤包括:
6.5.1)计算第a次迭代的隐含层数,即:
式中,hiddennum为隐含层节点数。m为输入层节点数。n为输出层节点数。a初始值为1。a为整数。
6.5.2)以hiddennum作为当前BP神经网络的隐含层数量,利用归一化处理后的训练集对BP神经网络进行训练,并计算BP神经网络的均方误差。
6.5.3)判断a小于k是否成立,k为层数最大阈值。若是,则令a=a+1,并返回步骤6.5.1)。若否,则进入步骤6.5.4)。
6.5.4)以均方误差最小时对应的hiddennum作为BP神经网络的隐含层数量。
进一步,所述NARX神经网络如下所示:
y(t)=f{u(t-Du),…,u(t-1),u(t),y(t-Dy),…,y(t-1)} (2)
式中,u(t)、y(t)分别是NARX神经网络在t时刻的输入、输出。Du为输入时延的最大阶数。Dy为输出时延的最大阶数。u(t-Du),…,u(t-1)为相对于t时刻的历史输入。y(t-Dy),…,y(t-1)}为相对于t时刻的历史输出。f(·)为NARX神经网络拟合得到的非线性函数。
本发明的技术效果是毋庸置疑的,本发明使得外骨骼机器人能够同步实现对人体下肢运动意图,以及下肢关节角度的估计与预测,两者的结合作为双重保障保证系统响应具有更高的精度,使外骨骼机器人准确识别穿戴者的运动意图,实现人机高度协同配合。
本发明将人体下肢运动意图识别及关节角度预测相结合,使外骨骼机器人能够更加准确高效地协助人体下肢运动,且运动自然贴合人体。
附图说明
图1为人体下肢运动意图识别及外骨骼机器人角度预测控制方法的流程图;
图2为搭建BP神经网络流程图;
图3为NARX神经网络结构模型示意图。
具体实施方式
下面结合实施例对本发明作进一步说明,但不应该理解为本发明上述主题范围仅限于下述实施例。在不脱离本发明上述技术思想的情况下,根据本领域普通技术知识和惯用手段,做出各种替换和变更,均应包括在本发明的保护范围内。
实施例1:
参见图1至图3,人体下肢运动意图识别及外骨骼机器人角度预测控制方法,包括以下步骤:
1)采集人体表面肌电信号,同时将关节角度计采集的关节角度值转换为关节信号进行记录。
2)利用巴特沃斯带通滤波器对采集到的肌电信号和关节信号进行预处理,得到预处理后的肌电信号和关节信号。
3)利用离散小波变换对预处理后的肌电信号和关节信号进行降噪滤波,得到降噪后的肌电信号和关节信号。
4)利用滑动窗口法对降噪后的肌电信号进行截取,得到肌电信号中的动作片段,并提取动作片段的特征值。
5)通过快速傅里叶变换将截取的动作片段转化为频域信号,对截取的动作片段进行频域分析,获得动作片段的中值频率。
6)以提取到的特征值和中值频率作为衡量精确度的指标,利用BP神经网络构建回归模型,并通过回归模型进行下肢运动意图的识别。
7)构建NARX神经网络,,利用NARX神经网络预测当前下肢运动意图对应的外骨骼机器人关节角度。
实施例2:
人体下肢运动意图识别及外骨骼机器人角度预测控制方法,主要步骤见实施例1,进一步,所述人体表面肌电信号的采集部位包括股直肌、股内侧肌、股二头肌、胫骨前肌、外侧腓肠肌、比目鱼肌。
实施例3:
人体下肢运动意图识别及外骨骼机器人角度预测控制方法,主要步骤见实施例1或2任一项,进一步,所述关节角度包括髋关节角度和膝关节角度。
实施例4:
人体下肢运动意图识别及外骨骼机器人角度预测控制方法,主要步骤见实施例3,进一步,所述下肢的运动意图包括上楼梯,上坡,平地行走,下楼梯,下坡。
实施例5:
人体下肢运动意图识别及外骨骼机器人角度预测控制方法,主要步骤见实施例4,进一步,当运动意图为平地行走时,对应的膝关节角度范围为-1.3°至71.55°,髋关节角度范围为-3°至13.18°。
当运动意图为上楼梯时,对应的膝关节角度范围为-92.52°至1.98°,髋关节角度范围为-0.36°到19.57°。
当运动意图为上坡时,对应的膝关节角度范围为-60.34°至13.59°,髋关节角度范围为-1.08°为14.17°。
当运动意图为下楼梯时,对应的膝关节角度范围为-93.015°至0.09°,髋关节角度范围为-1.35°至18.49°。
当运动意图为下坡时,对应的膝关节角度范围为-63°至1.125°,髋关节角度范围为-2.57°至17.01°。
实施例6:
人体下肢运动意图识别及外骨骼机器人角度预测控制方法,主要步骤见实施例1至5任一项,进一步,所述利用滑动窗口法对降噪后的肌电信号进行截取,得到肌电信号中的动作片段的步骤包括:
4.1)设置截取阈值、滑窗宽度及步进值。
4.2)确定动作片段的始端位置。
4.3)确定动作片段的终端位置。
4.4)通过动作片段的始端位置和终端位置,截取到肌电信号中的动作片段。
实施例7:
人体下肢运动意图识别及外骨骼机器人角度预测控制方法,主要步骤见实施例1至6任一项,进一步,所述动作片段的特征值包括:平均绝对值,均方根,标准差和过零点。
实施例8:
人体下肢运动意图识别及外骨骼机器人角度预测控制方法,主要步骤见实施例1至7任一项,进一步,所述以提取到的特征值和中值频率作为衡量精确度的指标,利用BP神经网络构建回归模型的步骤包括:
6.1)导入存放下肢的运动意图及对应的特征值和中值频率的数据集。
6.2)将数据集划分为训练集和测试集。
6.3)对训练集和测试集进行归一化处理,得到归一化处理后的训练集和测试集。
6.4)初始化相关参数,并构建BP神经网络。
6.5)通过归一化处理后的训练集对BP神经网络进行训练,确定最佳隐含层数,得到回归模型。
6.6)通过归一化处理后的测试集对最佳隐含层的回归模型进行测试,并对测试结果进行反归一化和指标误差分析,若指标误差大于预设误差阈值,则返回步骤6.1),若指标误差小于等于预设误差阈值,则结束训练,输出回归模型。
实施例9:
人体下肢运动意图识别及外骨骼机器人角度预测控制方法,主要步骤见实施例8,进一步,进一步,通过归一化处理后的训练集对BP神经网络进行训练,确定最佳隐含层数的步骤包括:
6.5.1)计算第a次迭代的隐含层数,即:
式中,hiddennum为隐含层节点数。m为输入层节点数。n为输出层节点数。a初始值为1。a为整数。
6.5.2)以hiddennum作为当前BP神经网络的隐含层数量,利用归一化处理后的训练集对BP神经网络进行训练,并计算BP神经网络的均方误差。
6.5.3)判断a小于k是否成立,k为层数最大阈值。若是,则令a=a+1,并返回步骤6.5.1)。若否,则进入步骤6.5.4)。
6.5.4)以均方误差最小时对应的hiddennum作为BP神经网络的隐含层数量。
实施例10:
人体下肢运动意图识别及外骨骼机器人角度预测控制方法,主要步骤见实施例1至9任一项,进一步,所述NARX神经网络如下所示:
y(t)=f{u(t-Du),…,u(t-1),u(t),y(t-Dy),…,y(t-1)} (2)
式中,u(t)、y(t)分别是NARX神经网络在t时刻的输入、输出。Du为输入时延的最大阶数。Dy为输出时延的最大阶数。u(t-Du),…,u(t-1)为相对于t时刻的历史输入。y(t-Dy),…,y(t-1)}为相对于t时刻的历史输出。f(·)为NARX神经网络拟合得到的非线性函数。
实施例11:
参见图1至图3,人体下肢运动意图识别及外骨骼机器人角度预测控制方法,包括以下步骤:
1)通过Biometrics Ltd无线肌电信号采集设备采集人体表面肌电信号,同时将关节角度计采集的关节角度值转换为关节信号进行记录。
2)利用巴特沃斯带通滤波器对采集到的肌电信号和关节信号进行预处理,得到预处理后的肌电信号和关节信号。
3)利用离散小波变换对预处理后的肌电信号和关节信号进行降噪滤波,得到降噪后的肌电信号和关节信号。
4)利用滑动窗口法对降噪后的肌电信号进行截取,得到肌电信号中的动作片段,并提取动作片段的特征值。
5)通过快速傅里叶变换将截取的动作片段转化为频域信号,对截取的动作片段进行频域分析,获得动作片段的中值频率。
6)以提取到的特征值和中值频率作为衡量精确度的指标,利用BP神经网络构建回归模型,并通过回归模型进行下肢运动意图的识别。
7)构建NARX神经网络,,利用NARX神经网络预测当前下肢运动意图对应的外骨骼机器人关节角度。
使用者穿戴外骨骼机器人,外骨骼机器人辅助使用者进行上楼梯,上坡,平地行走,下楼梯,下坡的运动。
实施例12:
人体下肢运动意图识别及外骨骼机器人角度预测控制方法,主要步骤见实施例11,进一步,所述人体表面肌电信号的采集部位包括股直肌、股内侧肌、股二头肌、胫骨前肌、外侧腓肠肌、比目鱼肌。
实施例13:
人体下肢运动意图识别及外骨骼机器人角度预测控制方法,主要步骤见实施例11或12任一项,进一步,所述关节角度包括左右腿的髋关节角度和膝关节角度。
实施例14:
人体下肢运动意图识别及外骨骼机器人角度预测控制方法,主要步骤见实施例13,进一步,所述下肢的运动意图包括上楼梯,上坡,平地行走,下楼梯,下坡。
实施例15:
人体下肢运动意图识别及外骨骼机器人角度预测控制方法,主要步骤见实施例14,进一步,当运动意图为平地行走时,对应的膝关节角度范围为-1.3°至71.55°,髋关节角度范围为-3°至13.18°。
当运动意图为上楼梯时,对应的膝关节角度范围为-92.52°至1.98°,髋关节角度范围为-0.36°到19.57°。
当运动意图为上坡时,对应的膝关节角度范围为-60.34°至13.59°,髋关节角度范围为-1.08°为14.17°。
当运动意图为下楼梯时,对应的膝关节角度范围为-93.015°至0.09°,髋关节角度范围为-1.35°至18.49°。
当运动意图为下坡时,对应的膝关节角度范围为-63°至1.125°,髋关节角度范围为-2.57°至17.01°。
实施例16:
人体下肢运动意图识别及外骨骼机器人角度预测控制方法,主要步骤见实施例11至15任一项,进一步,所述利用滑动窗口法对降噪后的肌电信号进行截取,得到肌电信号中的动作片段的步骤包括:
4.1)设置截取阈值、滑窗宽度及步进值。
4.2)确定动作片段的始端位置。
4.3)确定动作片段的终端位置。
4.4)通过动作片段的始端位置和终端位置,截取到肌电信号中的动作片段。
实施例17:
人体下肢运动意图识别及外骨骼机器人角度预测控制方法,主要步骤见实施例11至16任一项,进一步,所述动作片段的特征值包括:平均绝对值,均方根,标准差和过零点。
实施例18:
人体下肢运动意图识别及外骨骼机器人角度预测控制方法,主要步骤见实施例11至17任一项,进一步,所述以提取到的特征值和中值频率作为衡量精确度的指标,利用BP神经网络构建回归模型的步骤包括:
6.1)导入存放下肢的运动意图及对应的特征值和中值频率的数据集。
6.2)将数据集划分为训练集和测试集。
6.3)对训练集和测试集进行归一化处理,得到归一化处理后的训练集和测试集。
6.4)初始化相关参数,并构建BP神经网络。
6.5)通过归一化处理后的训练集对BP神经网络进行训练,确定最佳隐含层数,得到回归模型。
6.6)通过归一化处理后的测试集对最佳隐含层的回归模型进行测试,并对测试结果进行反归一化和指标误差分析,若指标误差大于预设误差阈值,则返回步骤6.1),若指标误差小于等于预设误差阈值,则结束训练,输出回归模型。
实施例19:
人体下肢运动意图识别及外骨骼机器人角度预测控制方法,主要步骤见实施例18,进一步,通过归一化处理后的训练集确定最佳隐含层数,并构建最佳隐含层的BP神经网络的步骤包括:
6.5.1)计算第a次迭代的隐含层数,即:
式中,hiddennum为隐含层节点数。m为输入层节点数。n为输出层节点数。a初始值为1。a为整数。
6.5.2)以hiddennum作为当前BP神经网络的隐含层数量,利用归一化处理后的训练集对BP神经网络进行训练,并计算BP神经网络的均方误差。
6.5.3)判断a小于k是否成立,k为层数最大阈值,k=10。若是,则令a=a+1,并返回步骤6.5.1)。若否,则进入步骤6.5.4)。
6.5.4)以均方误差最小时对应的hiddennum作为BP神经网络的隐含层数量。
实施例20:
人体下肢运动意图识别及外骨骼机器人角度预测控制方法,主要步骤见实施例11至19任一项,进一步,NARX神经网络(Based on the nonlinear autoregressive withexogeneous inputs neural network基于带外源输入的非线性自回归神经网络)是一种用于描述非线性离散系统的模型。所述NARX神经网络如下所示:
y(t)=f{u(t-Du),…,u(t-1),u(t),y(t-Dy),…,y(t-1)} (2)
式中,u(t)、y(t)分别是NARX神经网络在t时刻的输入、输出。Du为输入时延的最大阶数。Dy为输出时延的最大阶数。u(t-Du),…,u(t-1)为相对于t时刻的历史输入。y(t-Dy),…,y(t-1)}为相对于t时刻的历史输出。f(·)为NARX神经网络拟合得到的非线性函数。
实施例21:
参见图1至图3,人体下肢运动意图识别及外骨骼机器人角度预测控制方法,工作原理如下:
本实施例对左腿和右腿的股直肌、股内侧肌、股二头肌、胫骨前肌、外侧腓肠肌、比目鱼肌各6块肌肉进行肌电信号的提取,同时也将左右腿髋关节、膝关节角度值转换为信号进行记录。利用巴特沃斯带通滤波器对提取到的信号进行预处理,之后再利用离散小波变换对信号进行了进一步的降噪滤波。用滑动窗口法实现对处理好的肌电信号的时域分析,提取平均绝对值,均方根,标准差和过零点这四个特征,通过快速傅里叶变换将时域信号转化为频域信号,对处理过的肌电信号进行频域分析,获得信号的中值频率。利用BP神经网络构建回归模型,以上述提取到的特征作为衡量精确度指标,实现下肢运动意图识别和关节角度预测。
实施例22:
参见图1至图3,人体下肢运动意图识别及外骨骼机器人角度预测控制方法,主要内容如下:
表面肌电信号预处理和特征值提取
预处理:利用巴特沃斯滤波和小波降噪对原始肌电信号进行处理。
本项目采用滑窗法提取人体表面肌电信号的特征值,通过设置合理的滑窗宽度及步进值,设置合适的阈值来截取肌电信号中的动作片段,从而提取运动片段的特征值。
2.利用BP神经网络进行人体运动意图识别
本项目运动意图包括如下5个动作:上楼梯,上坡,平地行走,下楼梯,下坡。搭建BP神经网络流程图如图2。
其中求解最佳隐含层数,根据输入节点数和输出节点数计算隐含层节点的范围。隐含层节点的范围下面公式计算得出,m代表输入层节点数,n代表输出层节点数,a的取值范围为1~10之间的整数,根据公式(1)求出10个可选择的隐含层节点数,依次对BP网络设置这10个隐含层节点并通过计算训练集均方误差MSE的方式,最终得出误差最小所对应的隐含层节点,即为最佳隐含层节点。
3.角度预测NARX神经网络
NARX神经网络(Based on the nonlinear autoregressive with exogeneousinputs neural network基于带外源输入的非线性自回归神经网络)是一种用于描述非线性离散系统的模型。表示为:
y(t)=f{u(t-Du),…,u(t-1),u(t),y(t-Dy),…,y(t-1)}
式中:u(t),y(t)分别是该网络在t时刻的输入和输出;Du为输入时延的最大阶数;Dy为输出时延的最大阶数;故u(t-Du),…,u(t-1)为相对于t时刻的历史输入;y(t-Dy),…,y(t-1)为相对于t时刻的历史输出;f为网络拟合得到的非线性函数。
NARX神经网络结构模型如图3所示。
Claims (10)
1.人体下肢运动意图识别及外骨骼机器人角度预测控制方法,其特征在于,包括以下步骤:
1)采集人体表面肌电信号,同时将关节角度计采集的关节角度值转换为关节信号进行记录;
2)利用巴特沃斯带通滤波器对采集到的肌电信号和关节信号进行预处理,得到预处理后的肌电信号和关节信号。
3)利用离散小波变换对预处理后的肌电信号和关节信号进行降噪滤波,得到降噪后的肌电信号和关节信号;
4)利用滑动窗口法对降噪后的肌电信号进行截取,得到肌电信号中的动作片段,并提取动作片段的特征值;
5)通过快速傅里叶变换将截取的动作片段转化为频域信号,对截取的动作片段进行频域分析,获得动作片段的中值频率。
6)以提取到的特征值和中值频率作为衡量精确度的指标,利用BP神经网络构建回归模型,并通过回归模型进行下肢运动意图的识别;
7)构建NARX神经网络,,利用NARX神经网络预测当前下肢运动意图对应的外骨骼机器人关节角度。
2.根据权利要求1所述的人体下肢运动意图识别及外骨骼机器人角度预测控制方法,其特征在于,所述人体表面肌电信号的采集部位包括股直肌、股内侧肌、股二头肌、胫骨前肌、外侧腓肠肌、比目鱼肌。
3.根据权利要求1所述的人体下肢运动意图识别及外骨骼机器人角度预测控制方法,其特征在于,所述关节角度包括髋关节角度和膝关节角度。
4.根据权利要求3所述的人体下肢运动意图识别及外骨骼机器人角度预测控制方法,其特征在于,所述下肢的运动意图包括上楼梯,上坡,平地行走,下楼梯,下坡。
5.根据权利要求4所述的人体下肢运动意图识别及外骨骼机器人角度预测控制方法,其特征在于,当运动意图为平地行走时,对应的膝关节角度范围为-1.3°至71.55°,髋关节角度范围为-3°至13.18°;
当运动意图为上楼梯时,对应的膝关节角度范围为-92.52°至1.98°,髋关节角度范围为-0.36°到19.57°;
当运动意图为上坡时,对应的膝关节角度范围为-60.34°至13.59°,髋关节角度范围为-1.08°为14.17°;
当运动意图为下楼梯时,对应的膝关节角度范围为-93.015°至0.09°,髋关节角度范围为-1.35°至18.49°;
当运动意图为下坡时,对应的膝关节角度范围为-63°至1.125°,髋关节角度范围为-2.57°至17.01°。
6.根据权利要求1所述的人体下肢运动意图识别及外骨骼机器人角度预测控制方法,其特征在于,所述利用滑动窗口法对降噪后的肌电信号进行截取,得到肌电信号中的动作片段的步骤包括:
4.1)设置截取阈值、滑窗宽度及步进值;
4.2)确定动作片段的始端位置;
4.3)确定动作片段的终端位置;
4.4)通过动作片段的始端位置和终端位置,截取到肌电信号中的动作片段。
7.根据权利要求1所述的人体下肢运动意图识别及外骨骼机器人角度预测控制方法,其特征在于,所述动作片段的特征值包括:平均绝对值,均方根,标准差和过零点。
8.根据权利要求1所述的人体下肢运动意图识别及外骨骼机器人角度预测控制方法,其特征在于,所述以提取到的特征值和中值频率作为衡量精确度的指标,利用BP神经网络构建回归模型的步骤包括:
6.1)导入存放下肢的运动意图及对应的特征值和中值频率的数据集;
6.2)将数据集划分为训练集和测试集;
6.3)对训练集和测试集进行归一化处理,得到归一化处理后的训练集和测试集;
6.4)初始化相关参数,并构建BP神经网络;
6.5)通过归一化处理后的训练集对BP神经网络进行训练,确定最佳隐含层数,得到回归模型;
6.6)通过归一化处理后的测试集对最佳隐含层的回归模型进行测试,并对测试结果进行反归一化和指标误差分析,若指标误差大于预设误差阈值,则返回步骤6.1),若指标误差小于等于预设误差阈值,则结束训练,输出回归模型。
9.根据权利要求8所述的人体下肢运动意图识别及外骨骼机器人角度预测控制方法,其特征在于,通过归一化处理后的训练集对BP神经网络进行训练,确定最佳隐含层数的步骤包括:
6.5.1)计算第a次迭代的隐含层数,即:
式中,hiddennum为隐含层节点数;m为输入层节点数;n为输出层节点数;a初始值为1;a为整数;
6.5.2)以hiddennum作为当前BP神经网络的隐含层数量,利用归一化处理后的训练集对BP神经网络进行训练,并计算BP神经网络的均方误差;
6.5.3)判断a小于k是否成立,k为层数最大阈值;若是,则令a=a+1,并返回步骤6.5.1);若否,则进入步骤6.5.4);
6.5.4)以均方误差最小时对应的hiddennum作为BP神经网络的隐含层数量。
10.根据权利要求1所述的人体下肢运动意图识别及外骨骼机器人角度预测控制方法,其特征在于,所述NARX神经网络如下所示:
y(t)=f{u(t-Du),…,u(t-1),u(t),y(t-Dy),…,y(t-1(2)式中,u(t)、y(t)分别是NARX神经网络在t时刻的输入、输出;Du为输入时延的最大阶数;Dy为输出时延的最大阶数;u(tDu),…,u(t-1)为相对于t时刻的历史输入;y(t-Dy),…,y(t-1为相对于t时刻的历史输出;f·为NARX神经网络拟合得到的非线性函数。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310581478.7A CN116584961A (zh) | 2023-05-23 | 2023-05-23 | 人体下肢运动意图识别及外骨骼机器人角度预测控制方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310581478.7A CN116584961A (zh) | 2023-05-23 | 2023-05-23 | 人体下肢运动意图识别及外骨骼机器人角度预测控制方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN116584961A true CN116584961A (zh) | 2023-08-15 |
Family
ID=87595229
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310581478.7A Pending CN116584961A (zh) | 2023-05-23 | 2023-05-23 | 人体下肢运动意图识别及外骨骼机器人角度预测控制方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116584961A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN118245850A (zh) * | 2024-05-27 | 2024-06-25 | 长春工业大学 | 一种非理想条件下的人体下肢运动意图识别方法与系统 |
-
2023
- 2023-05-23 CN CN202310581478.7A patent/CN116584961A/zh active Pending
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN118245850A (zh) * | 2024-05-27 | 2024-06-25 | 长春工业大学 | 一种非理想条件下的人体下肢运动意图识别方法与系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113589920B (zh) | 手势识别方法、人机交互方法、装置、设备及存储介质 | |
CN104107042A (zh) | 基于粒子群优化-支持向量机的肌电信号步态识别方法 | |
CN110363152B (zh) | 一种基于表面肌电信号的下肢假肢路况识别方法 | |
CN116584961A (zh) | 人体下肢运动意图识别及外骨骼机器人角度预测控制方法 | |
CN109498370B (zh) | 基于肌电小波关联维的下肢关节角度预测方法 | |
CN102930284A (zh) | 基于经验模态分解和分形的表面肌电信号模式识别方法 | |
WO2015006235A1 (en) | Powered prosthetic devices using emg-based locomotion state classifier | |
CN109394472A (zh) | 一种基于神经网络分类器的康复机器人运动意图识别方法 | |
Ibrahimy et al. | Design and performance analysis of artificial neural network for hand motion detection from EMG signals | |
CN113283373A (zh) | 一种用于增强深度相机检测肢体运动参数的方法 | |
CN102764167A (zh) | 基于相关系数的肌电假肢控制源导联优化方法 | |
Ling et al. | Real-time knee joint angle estimation based on surface electromyograph and back propagation neural network | |
CN103617411A (zh) | 基于复杂度和分维数及分形长度的肌电信号识别方法 | |
CN117621051A (zh) | 基于人体多模态信息的主动式人机协作方法 | |
CN112487902A (zh) | 面向外骨骼的基于tcn-hmm的步态相位分类方法 | |
Heydarzadeh et al. | Emg spectral analysis for prosthetic finger control | |
CN111242100A (zh) | 一种基于gst和vl-mobpnn的动作识别方法 | |
CN105769186A (zh) | 基于复杂网络的肌电信号采集位置选取方法 | |
CN109522810B (zh) | 一种基于社区投票机制的肌电假肢手手势识别方法 | |
Valentini et al. | Processing of semg signals for online motion of a single robot joint through gmm modelization | |
Chen et al. | Use of the discriminant Fourier-derived cepstrum with feature-level post-processing for surface electromyographic signal classification | |
Hui-Bin et al. | Characterizations on Knee Movement Estimation from Surface EMG Using Composited Approaches | |
Al-Assaf et al. | Surface myoelectric signal classification for prostheses control | |
CN114722870A (zh) | 一种基于gra-ics-svr模型和mmg信号的肌力估计方法 | |
CN111476295A (zh) | 一种基于gs-lssvm的多通道生理信号体感姿势识别方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |