CN116584961A - 人体下肢运动意图识别及外骨骼机器人角度预测控制方法 - Google Patents

人体下肢运动意图识别及外骨骼机器人角度预测控制方法 Download PDF

Info

Publication number
CN116584961A
CN116584961A CN202310581478.7A CN202310581478A CN116584961A CN 116584961 A CN116584961 A CN 116584961A CN 202310581478 A CN202310581478 A CN 202310581478A CN 116584961 A CN116584961 A CN 116584961A
Authority
CN
China
Prior art keywords
neural network
signals
exoskeleton robot
joint
movement intention
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202310581478.7A
Other languages
English (en)
Inventor
石欣
叶祥庆
朱天昊
李小康
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Chongqing University
Original Assignee
Chongqing University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Chongqing University filed Critical Chongqing University
Priority to CN202310581478.7A priority Critical patent/CN116584961A/zh
Publication of CN116584961A publication Critical patent/CN116584961A/zh
Pending legal-status Critical Current

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/24Detecting, measuring or recording bioelectric or biomagnetic signals of the body or parts thereof
    • A61B5/316Modalities, i.e. specific diagnostic methods
    • A61B5/389Electromyography [EMG]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1118Determining activity level
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1123Discriminating type of movement, e.g. walking or running
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/24Detecting, measuring or recording bioelectric or biomagnetic signals of the body or parts thereof
    • A61B5/316Modalities, i.e. specific diagnostic methods
    • A61B5/389Electromyography [EMG]
    • A61B5/397Analysis of electromyograms
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7203Signal processing specially adapted for physiological signals or for diagnostic purposes for noise prevention, reduction or removal
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7235Details of waveform analysis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7235Details of waveform analysis
    • A61B5/725Details of waveform analysis using specific filters therefor, e.g. Kalman or adaptive filters
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7235Details of waveform analysis
    • A61B5/7253Details of waveform analysis characterised by using transforms
    • A61B5/7257Details of waveform analysis characterised by using transforms using Fourier transforms
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61HPHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
    • A61H1/00Apparatus for passive exercising; Vibrating apparatus; Chiropractic devices, e.g. body impacting devices, external devices for briefly extending or aligning unbroken bones
    • A61H1/02Stretching or bending or torsioning apparatus for exercising
    • A61H1/0237Stretching or bending or torsioning apparatus for exercising for the lower limbs
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61HPHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
    • A61H2201/00Characteristics of apparatus not provided for in the preceding codes
    • A61H2201/16Physical interface with patient
    • A61H2201/1657Movement of interface, i.e. force application means
    • A61H2201/1659Free spatial automatic movement of interface within a working area, e.g. Robot
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61HPHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
    • A61H2205/00Devices for specific parts of the body
    • A61H2205/10Leg
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61HPHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
    • A61H2230/00Measuring physical parameters of the user
    • A61H2230/08Other bio-electrical signals
    • A61H2230/085Other bio-electrical signals used as a control parameter for the apparatus
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61HPHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
    • A61H2230/00Measuring physical parameters of the user
    • A61H2230/62Posture
    • A61H2230/625Posture used as a control parameter for the apparatus
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02PCLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
    • Y02P90/00Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
    • Y02P90/02Total factory control, e.g. smart factories, flexible manufacturing systems [FMS] or integrated manufacturing systems [IMS]

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Animal Behavior & Ethology (AREA)
  • Veterinary Medicine (AREA)
  • Public Health (AREA)
  • General Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Surgery (AREA)
  • Medical Informatics (AREA)
  • Biomedical Technology (AREA)
  • Pathology (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Physiology (AREA)
  • Signal Processing (AREA)
  • Psychiatry (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Dentistry (AREA)
  • Mathematical Physics (AREA)
  • Epidemiology (AREA)
  • Pain & Pain Management (AREA)
  • Physical Education & Sports Medicine (AREA)
  • Rehabilitation Therapy (AREA)
  • Manipulator (AREA)

Abstract

人体下肢运动意图识别及外骨骼机器人角度预测控制方法,包括以下步骤:1)采集人体表面肌电信号,同时将关节角度值转换为关节信号进行记录;2)对采集到的信号进行预处理;3)对预处理后的信号进行降噪滤波;4)对降噪后的肌电信号进行截取,得到肌电信号中的动作片段,并提取动作片段的特征值;5)将动作片段转化为频域信号,对动作片段进行频域分析,获得动作片段的中值频率;6)以提取到的特征值作为衡量精确度的指标,利用BP神经网络构建回归模型,并通过回归模型进行下肢运动意图的识别;7)构建NARX神经网络,进行关节角度的预测。本发明使得外骨骼机器人能够同步实现对人体下肢运动意图,以及下肢关节角度的估计与预测。

Description

人体下肢运动意图识别及外骨骼机器人角度预测控制方法
技术领域
本发明涉及人体外骨骼控制技术领域,具体涉及人体下肢运动意图识别及外骨骼机器人角度预测控制方法。
背景技术
现有研究人员对于肌电信号的研究和对下肢动作分类提出了许多新方法,例如利用微分式表面肌电信号(Surface electromyography,sEMG)实时特征提取算法分析肌电信号;利用双阻容有源陷波电路对肌电信号进行放大滤波等;利用信号的融合来估计力矩大小进而反映人体运动状态;利用七个关节的外骨骼机器人来辅助人体运动。现有下肢康复机器人的研究在一定程度上能够实现基于人体下肢运动意图识别实现康复机构的简单控制,但外骨骼机器人由于其工作方式为附着人体,因此外骨骼机器人的本体需要与穿戴者本身高度协同配合,而现有研究大多致力于外骨骼硬件的优化,所以如何有效的对下肢动作分类是获得准确的人体下肢运动意图的首要问题。sEMG信号内部蕴含大量的生物信息,通过对这些信息的分析与处理,可以对人体行为做出预测,故基于表面肌电信号研究下肢运动分类对康复机器人的发展有着不可或缺的意义。
外骨骼机器人需要与穿戴者本身高度协同配合,现有下肢康复机器人在一定程度上能够实现基于人体下肢运动意图的识别,实现康复机构的简单控制,但现有研究大多致力于外骨骼硬件的优化,对于如何有效的对下肢动作分类并获得准确的人体下肢运动意图方面的研究还有待深入。
发明内容
本发明针对现有的人体下肢外骨骼机器人不能有效地将人体下肢运动意图识别和角度预测结合起来辅助人体下肢运动的问题。提出了一种人体下肢运动意图识别及外骨骼机器人角度预测控制方法。
为实现本发明目的而采用的技术方案是这样的,人体下肢运动意图识别及外骨骼机器人角度预测控制方法,包括以下步骤:
1)采集人体表面肌电信号,同时将关节角度计采集的关节角度值转换为关节信号进行记录。
2)利用巴特沃斯带通滤波器对采集到的肌电信号和关节信号进行预处理,得到预处理后的肌电信号和关节信号。
3)利用离散小波变换对预处理后的肌电信号和关节信号进行降噪滤波,得到降噪后的肌电信号和关节信号。
4)利用滑动窗口法对降噪后的肌电信号进行截取,得到肌电信号中的动作片段,并提取动作片段的特征值。
5)通过快速傅里叶变换将截取的动作片段转化为频域信号,对截取的动作片段进行频域分析,获得动作片段的中值频率。
6)以提取到的特征值和中值频率作为衡量精确度的指标,利用BP神经网络构建回归模型,并通过回归模型进行下肢运动意图的识别。
7)构建NARX神经网络,,利用NARX神经网络预测当前下肢运动意图对应的外骨骼机器人关节角度。
进一步,所述人体表面肌电信号的采集部位包括股直肌、股内侧肌、股二头肌、胫骨前肌、外侧腓肠肌、比目鱼肌。
进一步,所述关节角度包括髋关节角度和膝关节角度。
进一步,所述下肢的运动意图包括上楼梯,上坡,平地行走,下楼梯,下坡。
进一步,当运动意图为平地行走时,对应的膝关节角度范围为-1.3°至71.55°,髋关节角度范围为-3°至13.18°。
当运动意图为上楼梯时,对应的膝关节角度范围为-92.52°至1.98°,髋关节角度范围为-0.36°到19.57°。
当运动意图为上坡时,对应的膝关节角度范围为-60.34°至13.59°,髋关节角度范围为-1.08°为14.17°。
当运动意图为下楼梯时,对应的膝关节角度范围为-93.015°至0.09°,髋关节角度范围为-1.35°至18.49°。
当运动意图为下坡时,对应的膝关节角度范围为-63°至1.125°,髋关节角度范围为-2.57°至17.01°。
进一步,所述利用滑动窗口法对降噪后的肌电信号进行截取,得到肌电信号中的动作片段的步骤包括:
4.1)设置截取阈值、滑窗宽度及步进值。
4.2)确定动作片段的始端位置。
4.3)确定动作片段的终端位置。
4.4)通过动作片段的始端位置和终端位置,截取到肌电信号中的动作片段。
进一步,所述动作片段的特征值包括:平均绝对值,均方根,标准差和过零点。
进一步,所述以提取到的特征值和中值频率作为衡量精确度的指标,利用BP神经网络构建回归模型的步骤包括:
6.1)导入存放下肢的运动意图及对应的特征值和中值频率的数据集。
6.2)将数据集划分为训练集和测试集。
6.3)对训练集和测试集进行归一化处理,得到归一化处理后的训练集和测试集。
6.4)初始化相关参数,并构建BP神经网络。
6.5)通过归一化处理后的训练集对BP神经网络进行训练,确定最佳隐含层数,得到回归模型。
6.6)通过归一化处理后的测试集对最佳隐含层的回归模型进行测试,并对测试结果进行反归一化和指标误差分析,若指标误差大于预设误差阈值,则返回步骤6.1),若指标误差小于等于预设误差阈值,则结束训练,输出回归模型。
进一步,通过归一化处理后的训练集对BP神经网络进行训练,确定最佳隐含层数的步骤包括:
6.5.1)计算第a次迭代的隐含层数,即:
式中,hiddennum为隐含层节点数。m为输入层节点数。n为输出层节点数。a初始值为1。a为整数。
6.5.2)以hiddennum作为当前BP神经网络的隐含层数量,利用归一化处理后的训练集对BP神经网络进行训练,并计算BP神经网络的均方误差。
6.5.3)判断a小于k是否成立,k为层数最大阈值。若是,则令a=a+1,并返回步骤6.5.1)。若否,则进入步骤6.5.4)。
6.5.4)以均方误差最小时对应的hiddennum作为BP神经网络的隐含层数量。
进一步,所述NARX神经网络如下所示:
y(t)=f{u(t-Du),…,u(t-1),u(t),y(t-Dy),…,y(t-1)} (2)
式中,u(t)、y(t)分别是NARX神经网络在t时刻的输入、输出。Du为输入时延的最大阶数。Dy为输出时延的最大阶数。u(t-Du),…,u(t-1)为相对于t时刻的历史输入。y(t-Dy),…,y(t-1)}为相对于t时刻的历史输出。f(·)为NARX神经网络拟合得到的非线性函数。
本发明的技术效果是毋庸置疑的,本发明使得外骨骼机器人能够同步实现对人体下肢运动意图,以及下肢关节角度的估计与预测,两者的结合作为双重保障保证系统响应具有更高的精度,使外骨骼机器人准确识别穿戴者的运动意图,实现人机高度协同配合。
本发明将人体下肢运动意图识别及关节角度预测相结合,使外骨骼机器人能够更加准确高效地协助人体下肢运动,且运动自然贴合人体。
附图说明
图1为人体下肢运动意图识别及外骨骼机器人角度预测控制方法的流程图;
图2为搭建BP神经网络流程图;
图3为NARX神经网络结构模型示意图。
具体实施方式
下面结合实施例对本发明作进一步说明,但不应该理解为本发明上述主题范围仅限于下述实施例。在不脱离本发明上述技术思想的情况下,根据本领域普通技术知识和惯用手段,做出各种替换和变更,均应包括在本发明的保护范围内。
实施例1:
参见图1至图3,人体下肢运动意图识别及外骨骼机器人角度预测控制方法,包括以下步骤:
1)采集人体表面肌电信号,同时将关节角度计采集的关节角度值转换为关节信号进行记录。
2)利用巴特沃斯带通滤波器对采集到的肌电信号和关节信号进行预处理,得到预处理后的肌电信号和关节信号。
3)利用离散小波变换对预处理后的肌电信号和关节信号进行降噪滤波,得到降噪后的肌电信号和关节信号。
4)利用滑动窗口法对降噪后的肌电信号进行截取,得到肌电信号中的动作片段,并提取动作片段的特征值。
5)通过快速傅里叶变换将截取的动作片段转化为频域信号,对截取的动作片段进行频域分析,获得动作片段的中值频率。
6)以提取到的特征值和中值频率作为衡量精确度的指标,利用BP神经网络构建回归模型,并通过回归模型进行下肢运动意图的识别。
7)构建NARX神经网络,,利用NARX神经网络预测当前下肢运动意图对应的外骨骼机器人关节角度。
实施例2:
人体下肢运动意图识别及外骨骼机器人角度预测控制方法,主要步骤见实施例1,进一步,所述人体表面肌电信号的采集部位包括股直肌、股内侧肌、股二头肌、胫骨前肌、外侧腓肠肌、比目鱼肌。
实施例3:
人体下肢运动意图识别及外骨骼机器人角度预测控制方法,主要步骤见实施例1或2任一项,进一步,所述关节角度包括髋关节角度和膝关节角度。
实施例4:
人体下肢运动意图识别及外骨骼机器人角度预测控制方法,主要步骤见实施例3,进一步,所述下肢的运动意图包括上楼梯,上坡,平地行走,下楼梯,下坡。
实施例5:
人体下肢运动意图识别及外骨骼机器人角度预测控制方法,主要步骤见实施例4,进一步,当运动意图为平地行走时,对应的膝关节角度范围为-1.3°至71.55°,髋关节角度范围为-3°至13.18°。
当运动意图为上楼梯时,对应的膝关节角度范围为-92.52°至1.98°,髋关节角度范围为-0.36°到19.57°。
当运动意图为上坡时,对应的膝关节角度范围为-60.34°至13.59°,髋关节角度范围为-1.08°为14.17°。
当运动意图为下楼梯时,对应的膝关节角度范围为-93.015°至0.09°,髋关节角度范围为-1.35°至18.49°。
当运动意图为下坡时,对应的膝关节角度范围为-63°至1.125°,髋关节角度范围为-2.57°至17.01°。
实施例6:
人体下肢运动意图识别及外骨骼机器人角度预测控制方法,主要步骤见实施例1至5任一项,进一步,所述利用滑动窗口法对降噪后的肌电信号进行截取,得到肌电信号中的动作片段的步骤包括:
4.1)设置截取阈值、滑窗宽度及步进值。
4.2)确定动作片段的始端位置。
4.3)确定动作片段的终端位置。
4.4)通过动作片段的始端位置和终端位置,截取到肌电信号中的动作片段。
实施例7:
人体下肢运动意图识别及外骨骼机器人角度预测控制方法,主要步骤见实施例1至6任一项,进一步,所述动作片段的特征值包括:平均绝对值,均方根,标准差和过零点。
实施例8:
人体下肢运动意图识别及外骨骼机器人角度预测控制方法,主要步骤见实施例1至7任一项,进一步,所述以提取到的特征值和中值频率作为衡量精确度的指标,利用BP神经网络构建回归模型的步骤包括:
6.1)导入存放下肢的运动意图及对应的特征值和中值频率的数据集。
6.2)将数据集划分为训练集和测试集。
6.3)对训练集和测试集进行归一化处理,得到归一化处理后的训练集和测试集。
6.4)初始化相关参数,并构建BP神经网络。
6.5)通过归一化处理后的训练集对BP神经网络进行训练,确定最佳隐含层数,得到回归模型。
6.6)通过归一化处理后的测试集对最佳隐含层的回归模型进行测试,并对测试结果进行反归一化和指标误差分析,若指标误差大于预设误差阈值,则返回步骤6.1),若指标误差小于等于预设误差阈值,则结束训练,输出回归模型。
实施例9:
人体下肢运动意图识别及外骨骼机器人角度预测控制方法,主要步骤见实施例8,进一步,进一步,通过归一化处理后的训练集对BP神经网络进行训练,确定最佳隐含层数的步骤包括:
6.5.1)计算第a次迭代的隐含层数,即:
式中,hiddennum为隐含层节点数。m为输入层节点数。n为输出层节点数。a初始值为1。a为整数。
6.5.2)以hiddennum作为当前BP神经网络的隐含层数量,利用归一化处理后的训练集对BP神经网络进行训练,并计算BP神经网络的均方误差。
6.5.3)判断a小于k是否成立,k为层数最大阈值。若是,则令a=a+1,并返回步骤6.5.1)。若否,则进入步骤6.5.4)。
6.5.4)以均方误差最小时对应的hiddennum作为BP神经网络的隐含层数量。
实施例10:
人体下肢运动意图识别及外骨骼机器人角度预测控制方法,主要步骤见实施例1至9任一项,进一步,所述NARX神经网络如下所示:
y(t)=f{u(t-Du),…,u(t-1),u(t),y(t-Dy),…,y(t-1)} (2)
式中,u(t)、y(t)分别是NARX神经网络在t时刻的输入、输出。Du为输入时延的最大阶数。Dy为输出时延的最大阶数。u(t-Du),…,u(t-1)为相对于t时刻的历史输入。y(t-Dy),…,y(t-1)}为相对于t时刻的历史输出。f(·)为NARX神经网络拟合得到的非线性函数。
实施例11:
参见图1至图3,人体下肢运动意图识别及外骨骼机器人角度预测控制方法,包括以下步骤:
1)通过Biometrics Ltd无线肌电信号采集设备采集人体表面肌电信号,同时将关节角度计采集的关节角度值转换为关节信号进行记录。
2)利用巴特沃斯带通滤波器对采集到的肌电信号和关节信号进行预处理,得到预处理后的肌电信号和关节信号。
3)利用离散小波变换对预处理后的肌电信号和关节信号进行降噪滤波,得到降噪后的肌电信号和关节信号。
4)利用滑动窗口法对降噪后的肌电信号进行截取,得到肌电信号中的动作片段,并提取动作片段的特征值。
5)通过快速傅里叶变换将截取的动作片段转化为频域信号,对截取的动作片段进行频域分析,获得动作片段的中值频率。
6)以提取到的特征值和中值频率作为衡量精确度的指标,利用BP神经网络构建回归模型,并通过回归模型进行下肢运动意图的识别。
7)构建NARX神经网络,,利用NARX神经网络预测当前下肢运动意图对应的外骨骼机器人关节角度。
使用者穿戴外骨骼机器人,外骨骼机器人辅助使用者进行上楼梯,上坡,平地行走,下楼梯,下坡的运动。
实施例12:
人体下肢运动意图识别及外骨骼机器人角度预测控制方法,主要步骤见实施例11,进一步,所述人体表面肌电信号的采集部位包括股直肌、股内侧肌、股二头肌、胫骨前肌、外侧腓肠肌、比目鱼肌。
实施例13:
人体下肢运动意图识别及外骨骼机器人角度预测控制方法,主要步骤见实施例11或12任一项,进一步,所述关节角度包括左右腿的髋关节角度和膝关节角度。
实施例14:
人体下肢运动意图识别及外骨骼机器人角度预测控制方法,主要步骤见实施例13,进一步,所述下肢的运动意图包括上楼梯,上坡,平地行走,下楼梯,下坡。
实施例15:
人体下肢运动意图识别及外骨骼机器人角度预测控制方法,主要步骤见实施例14,进一步,当运动意图为平地行走时,对应的膝关节角度范围为-1.3°至71.55°,髋关节角度范围为-3°至13.18°。
当运动意图为上楼梯时,对应的膝关节角度范围为-92.52°至1.98°,髋关节角度范围为-0.36°到19.57°。
当运动意图为上坡时,对应的膝关节角度范围为-60.34°至13.59°,髋关节角度范围为-1.08°为14.17°。
当运动意图为下楼梯时,对应的膝关节角度范围为-93.015°至0.09°,髋关节角度范围为-1.35°至18.49°。
当运动意图为下坡时,对应的膝关节角度范围为-63°至1.125°,髋关节角度范围为-2.57°至17.01°。
实施例16:
人体下肢运动意图识别及外骨骼机器人角度预测控制方法,主要步骤见实施例11至15任一项,进一步,所述利用滑动窗口法对降噪后的肌电信号进行截取,得到肌电信号中的动作片段的步骤包括:
4.1)设置截取阈值、滑窗宽度及步进值。
4.2)确定动作片段的始端位置。
4.3)确定动作片段的终端位置。
4.4)通过动作片段的始端位置和终端位置,截取到肌电信号中的动作片段。
实施例17:
人体下肢运动意图识别及外骨骼机器人角度预测控制方法,主要步骤见实施例11至16任一项,进一步,所述动作片段的特征值包括:平均绝对值,均方根,标准差和过零点。
实施例18:
人体下肢运动意图识别及外骨骼机器人角度预测控制方法,主要步骤见实施例11至17任一项,进一步,所述以提取到的特征值和中值频率作为衡量精确度的指标,利用BP神经网络构建回归模型的步骤包括:
6.1)导入存放下肢的运动意图及对应的特征值和中值频率的数据集。
6.2)将数据集划分为训练集和测试集。
6.3)对训练集和测试集进行归一化处理,得到归一化处理后的训练集和测试集。
6.4)初始化相关参数,并构建BP神经网络。
6.5)通过归一化处理后的训练集对BP神经网络进行训练,确定最佳隐含层数,得到回归模型。
6.6)通过归一化处理后的测试集对最佳隐含层的回归模型进行测试,并对测试结果进行反归一化和指标误差分析,若指标误差大于预设误差阈值,则返回步骤6.1),若指标误差小于等于预设误差阈值,则结束训练,输出回归模型。
实施例19:
人体下肢运动意图识别及外骨骼机器人角度预测控制方法,主要步骤见实施例18,进一步,通过归一化处理后的训练集确定最佳隐含层数,并构建最佳隐含层的BP神经网络的步骤包括:
6.5.1)计算第a次迭代的隐含层数,即:
式中,hiddennum为隐含层节点数。m为输入层节点数。n为输出层节点数。a初始值为1。a为整数。
6.5.2)以hiddennum作为当前BP神经网络的隐含层数量,利用归一化处理后的训练集对BP神经网络进行训练,并计算BP神经网络的均方误差。
6.5.3)判断a小于k是否成立,k为层数最大阈值,k=10。若是,则令a=a+1,并返回步骤6.5.1)。若否,则进入步骤6.5.4)。
6.5.4)以均方误差最小时对应的hiddennum作为BP神经网络的隐含层数量。
实施例20:
人体下肢运动意图识别及外骨骼机器人角度预测控制方法,主要步骤见实施例11至19任一项,进一步,NARX神经网络(Based on the nonlinear autoregressive withexogeneous inputs neural network基于带外源输入的非线性自回归神经网络)是一种用于描述非线性离散系统的模型。所述NARX神经网络如下所示:
y(t)=f{u(t-Du),…,u(t-1),u(t),y(t-Dy),…,y(t-1)} (2)
式中,u(t)、y(t)分别是NARX神经网络在t时刻的输入、输出。Du为输入时延的最大阶数。Dy为输出时延的最大阶数。u(t-Du),…,u(t-1)为相对于t时刻的历史输入。y(t-Dy),…,y(t-1)}为相对于t时刻的历史输出。f(·)为NARX神经网络拟合得到的非线性函数。
实施例21:
参见图1至图3,人体下肢运动意图识别及外骨骼机器人角度预测控制方法,工作原理如下:
本实施例对左腿和右腿的股直肌、股内侧肌、股二头肌、胫骨前肌、外侧腓肠肌、比目鱼肌各6块肌肉进行肌电信号的提取,同时也将左右腿髋关节、膝关节角度值转换为信号进行记录。利用巴特沃斯带通滤波器对提取到的信号进行预处理,之后再利用离散小波变换对信号进行了进一步的降噪滤波。用滑动窗口法实现对处理好的肌电信号的时域分析,提取平均绝对值,均方根,标准差和过零点这四个特征,通过快速傅里叶变换将时域信号转化为频域信号,对处理过的肌电信号进行频域分析,获得信号的中值频率。利用BP神经网络构建回归模型,以上述提取到的特征作为衡量精确度指标,实现下肢运动意图识别和关节角度预测。
实施例22:
参见图1至图3,人体下肢运动意图识别及外骨骼机器人角度预测控制方法,主要内容如下:
表面肌电信号预处理和特征值提取
预处理:利用巴特沃斯滤波和小波降噪对原始肌电信号进行处理。
本项目采用滑窗法提取人体表面肌电信号的特征值,通过设置合理的滑窗宽度及步进值,设置合适的阈值来截取肌电信号中的动作片段,从而提取运动片段的特征值。
2.利用BP神经网络进行人体运动意图识别
本项目运动意图包括如下5个动作:上楼梯,上坡,平地行走,下楼梯,下坡。搭建BP神经网络流程图如图2。
其中求解最佳隐含层数,根据输入节点数和输出节点数计算隐含层节点的范围。隐含层节点的范围下面公式计算得出,m代表输入层节点数,n代表输出层节点数,a的取值范围为1~10之间的整数,根据公式(1)求出10个可选择的隐含层节点数,依次对BP网络设置这10个隐含层节点并通过计算训练集均方误差MSE的方式,最终得出误差最小所对应的隐含层节点,即为最佳隐含层节点。
3.角度预测NARX神经网络
NARX神经网络(Based on the nonlinear autoregressive with exogeneousinputs neural network基于带外源输入的非线性自回归神经网络)是一种用于描述非线性离散系统的模型。表示为:
y(t)=f{u(t-Du),…,u(t-1),u(t),y(t-Dy),…,y(t-1)}
式中:u(t),y(t)分别是该网络在t时刻的输入和输出;Du为输入时延的最大阶数;Dy为输出时延的最大阶数;故u(t-Du),…,u(t-1)为相对于t时刻的历史输入;y(t-Dy),…,y(t-1)为相对于t时刻的历史输出;f为网络拟合得到的非线性函数。
NARX神经网络结构模型如图3所示。

Claims (10)

1.人体下肢运动意图识别及外骨骼机器人角度预测控制方法,其特征在于,包括以下步骤:
1)采集人体表面肌电信号,同时将关节角度计采集的关节角度值转换为关节信号进行记录;
2)利用巴特沃斯带通滤波器对采集到的肌电信号和关节信号进行预处理,得到预处理后的肌电信号和关节信号。
3)利用离散小波变换对预处理后的肌电信号和关节信号进行降噪滤波,得到降噪后的肌电信号和关节信号;
4)利用滑动窗口法对降噪后的肌电信号进行截取,得到肌电信号中的动作片段,并提取动作片段的特征值;
5)通过快速傅里叶变换将截取的动作片段转化为频域信号,对截取的动作片段进行频域分析,获得动作片段的中值频率。
6)以提取到的特征值和中值频率作为衡量精确度的指标,利用BP神经网络构建回归模型,并通过回归模型进行下肢运动意图的识别;
7)构建NARX神经网络,,利用NARX神经网络预测当前下肢运动意图对应的外骨骼机器人关节角度。
2.根据权利要求1所述的人体下肢运动意图识别及外骨骼机器人角度预测控制方法,其特征在于,所述人体表面肌电信号的采集部位包括股直肌、股内侧肌、股二头肌、胫骨前肌、外侧腓肠肌、比目鱼肌。
3.根据权利要求1所述的人体下肢运动意图识别及外骨骼机器人角度预测控制方法,其特征在于,所述关节角度包括髋关节角度和膝关节角度。
4.根据权利要求3所述的人体下肢运动意图识别及外骨骼机器人角度预测控制方法,其特征在于,所述下肢的运动意图包括上楼梯,上坡,平地行走,下楼梯,下坡。
5.根据权利要求4所述的人体下肢运动意图识别及外骨骼机器人角度预测控制方法,其特征在于,当运动意图为平地行走时,对应的膝关节角度范围为-1.3°至71.55°,髋关节角度范围为-3°至13.18°;
当运动意图为上楼梯时,对应的膝关节角度范围为-92.52°至1.98°,髋关节角度范围为-0.36°到19.57°;
当运动意图为上坡时,对应的膝关节角度范围为-60.34°至13.59°,髋关节角度范围为-1.08°为14.17°;
当运动意图为下楼梯时,对应的膝关节角度范围为-93.015°至0.09°,髋关节角度范围为-1.35°至18.49°;
当运动意图为下坡时,对应的膝关节角度范围为-63°至1.125°,髋关节角度范围为-2.57°至17.01°。
6.根据权利要求1所述的人体下肢运动意图识别及外骨骼机器人角度预测控制方法,其特征在于,所述利用滑动窗口法对降噪后的肌电信号进行截取,得到肌电信号中的动作片段的步骤包括:
4.1)设置截取阈值、滑窗宽度及步进值;
4.2)确定动作片段的始端位置;
4.3)确定动作片段的终端位置;
4.4)通过动作片段的始端位置和终端位置,截取到肌电信号中的动作片段。
7.根据权利要求1所述的人体下肢运动意图识别及外骨骼机器人角度预测控制方法,其特征在于,所述动作片段的特征值包括:平均绝对值,均方根,标准差和过零点。
8.根据权利要求1所述的人体下肢运动意图识别及外骨骼机器人角度预测控制方法,其特征在于,所述以提取到的特征值和中值频率作为衡量精确度的指标,利用BP神经网络构建回归模型的步骤包括:
6.1)导入存放下肢的运动意图及对应的特征值和中值频率的数据集;
6.2)将数据集划分为训练集和测试集;
6.3)对训练集和测试集进行归一化处理,得到归一化处理后的训练集和测试集;
6.4)初始化相关参数,并构建BP神经网络;
6.5)通过归一化处理后的训练集对BP神经网络进行训练,确定最佳隐含层数,得到回归模型;
6.6)通过归一化处理后的测试集对最佳隐含层的回归模型进行测试,并对测试结果进行反归一化和指标误差分析,若指标误差大于预设误差阈值,则返回步骤6.1),若指标误差小于等于预设误差阈值,则结束训练,输出回归模型。
9.根据权利要求8所述的人体下肢运动意图识别及外骨骼机器人角度预测控制方法,其特征在于,通过归一化处理后的训练集对BP神经网络进行训练,确定最佳隐含层数的步骤包括:
6.5.1)计算第a次迭代的隐含层数,即:
式中,hiddennum为隐含层节点数;m为输入层节点数;n为输出层节点数;a初始值为1;a为整数;
6.5.2)以hiddennum作为当前BP神经网络的隐含层数量,利用归一化处理后的训练集对BP神经网络进行训练,并计算BP神经网络的均方误差;
6.5.3)判断a小于k是否成立,k为层数最大阈值;若是,则令a=a+1,并返回步骤6.5.1);若否,则进入步骤6.5.4);
6.5.4)以均方误差最小时对应的hiddennum作为BP神经网络的隐含层数量。
10.根据权利要求1所述的人体下肢运动意图识别及外骨骼机器人角度预测控制方法,其特征在于,所述NARX神经网络如下所示:
y(t)=f{u(t-Du),…,u(t-1),u(t),y(t-Dy),…,y(t-1(2)式中,u(t)、y(t)分别是NARX神经网络在t时刻的输入、输出;Du为输入时延的最大阶数;Dy为输出时延的最大阶数;u(tDu),…,u(t-1)为相对于t时刻的历史输入;y(t-Dy),…,y(t-1为相对于t时刻的历史输出;f·为NARX神经网络拟合得到的非线性函数。
CN202310581478.7A 2023-05-23 2023-05-23 人体下肢运动意图识别及外骨骼机器人角度预测控制方法 Pending CN116584961A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202310581478.7A CN116584961A (zh) 2023-05-23 2023-05-23 人体下肢运动意图识别及外骨骼机器人角度预测控制方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202310581478.7A CN116584961A (zh) 2023-05-23 2023-05-23 人体下肢运动意图识别及外骨骼机器人角度预测控制方法

Publications (1)

Publication Number Publication Date
CN116584961A true CN116584961A (zh) 2023-08-15

Family

ID=87595229

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202310581478.7A Pending CN116584961A (zh) 2023-05-23 2023-05-23 人体下肢运动意图识别及外骨骼机器人角度预测控制方法

Country Status (1)

Country Link
CN (1) CN116584961A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN118245850A (zh) * 2024-05-27 2024-06-25 长春工业大学 一种非理想条件下的人体下肢运动意图识别方法与系统

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN118245850A (zh) * 2024-05-27 2024-06-25 长春工业大学 一种非理想条件下的人体下肢运动意图识别方法与系统

Similar Documents

Publication Publication Date Title
CN113589920B (zh) 手势识别方法、人机交互方法、装置、设备及存储介质
CN104107042A (zh) 基于粒子群优化-支持向量机的肌电信号步态识别方法
CN110363152B (zh) 一种基于表面肌电信号的下肢假肢路况识别方法
CN116584961A (zh) 人体下肢运动意图识别及外骨骼机器人角度预测控制方法
CN109498370B (zh) 基于肌电小波关联维的下肢关节角度预测方法
CN102930284A (zh) 基于经验模态分解和分形的表面肌电信号模式识别方法
WO2015006235A1 (en) Powered prosthetic devices using emg-based locomotion state classifier
CN109394472A (zh) 一种基于神经网络分类器的康复机器人运动意图识别方法
Ibrahimy et al. Design and performance analysis of artificial neural network for hand motion detection from EMG signals
CN113283373A (zh) 一种用于增强深度相机检测肢体运动参数的方法
CN102764167A (zh) 基于相关系数的肌电假肢控制源导联优化方法
Ling et al. Real-time knee joint angle estimation based on surface electromyograph and back propagation neural network
CN103617411A (zh) 基于复杂度和分维数及分形长度的肌电信号识别方法
CN117621051A (zh) 基于人体多模态信息的主动式人机协作方法
CN112487902A (zh) 面向外骨骼的基于tcn-hmm的步态相位分类方法
Heydarzadeh et al. Emg spectral analysis for prosthetic finger control
CN111242100A (zh) 一种基于gst和vl-mobpnn的动作识别方法
CN105769186A (zh) 基于复杂网络的肌电信号采集位置选取方法
CN109522810B (zh) 一种基于社区投票机制的肌电假肢手手势识别方法
Valentini et al. Processing of semg signals for online motion of a single robot joint through gmm modelization
Chen et al. Use of the discriminant Fourier-derived cepstrum with feature-level post-processing for surface electromyographic signal classification
Hui-Bin et al. Characterizations on Knee Movement Estimation from Surface EMG Using Composited Approaches
Al-Assaf et al. Surface myoelectric signal classification for prostheses control
CN114722870A (zh) 一种基于gra-ics-svr模型和mmg信号的肌力估计方法
CN111476295A (zh) 一种基于gs-lssvm的多通道生理信号体感姿势识别方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination