CN113011458A - 负载机动型外骨骼人体运动意图识别方法及外骨骼系统 - Google Patents

负载机动型外骨骼人体运动意图识别方法及外骨骼系统 Download PDF

Info

Publication number
CN113011458A
CN113011458A CN202110188446.1A CN202110188446A CN113011458A CN 113011458 A CN113011458 A CN 113011458A CN 202110188446 A CN202110188446 A CN 202110188446A CN 113011458 A CN113011458 A CN 113011458A
Authority
CN
China
Prior art keywords
fuzzy
knee joint
low
exoskeleton
human body
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202110188446.1A
Other languages
English (en)
Other versions
CN113011458B (zh
Inventor
屈盛官
尹鹏
杨靓
曲希帅
曾德政
姜笑天
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
South China University of Technology SCUT
Original Assignee
South China University of Technology SCUT
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by South China University of Technology SCUT filed Critical South China University of Technology SCUT
Priority to CN202110188446.1A priority Critical patent/CN113011458B/zh
Publication of CN113011458A publication Critical patent/CN113011458A/zh
Application granted granted Critical
Publication of CN113011458B publication Critical patent/CN113011458B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1116Determining posture transitions
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1121Determining geometric values, e.g. centre of rotation or angular range of movement
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1123Discriminating type of movement, e.g. walking or running
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/68Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
    • A61B5/6801Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient specially adapted to be attached to or worn on the body surface
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61HPHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
    • A61H1/00Apparatus for passive exercising; Vibrating apparatus; Chiropractic devices, e.g. body impacting devices, external devices for briefly extending or aligning unbroken bones
    • A61H1/02Stretching or bending or torsioning apparatus for exercising
    • A61H1/0237Stretching or bending or torsioning apparatus for exercising for the lower limbs
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/0006Exoskeletons, i.e. resembling a human figure
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/04Inference or reasoning models
    • G06N5/048Fuzzy inferencing
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61HPHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
    • A61H2201/00Characteristics of apparatus not provided for in the preceding codes
    • A61H2201/16Physical interface with patient
    • A61H2201/1602Physical interface with patient kind of interface, e.g. head rest, knee support or lumbar support
    • A61H2201/164Feet or leg, e.g. pedal
    • A61H2201/1642Holding means therefor
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61HPHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
    • A61H2201/00Characteristics of apparatus not provided for in the preceding codes
    • A61H2201/16Physical interface with patient
    • A61H2201/1602Physical interface with patient kind of interface, e.g. head rest, knee support or lumbar support
    • A61H2201/165Wearable interfaces
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61HPHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
    • A61H2201/00Characteristics of apparatus not provided for in the preceding codes
    • A61H2201/50Control means thereof
    • A61H2201/5058Sensors or detectors
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61HPHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
    • A61H2201/00Characteristics of apparatus not provided for in the preceding codes
    • A61H2201/50Control means thereof
    • A61H2201/5058Sensors or detectors
    • A61H2201/5064Position sensors
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61HPHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
    • A61H2201/00Characteristics of apparatus not provided for in the preceding codes
    • A61H2201/50Control means thereof
    • A61H2201/5058Sensors or detectors
    • A61H2201/5069Angle sensors
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61HPHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
    • A61H2201/00Characteristics of apparatus not provided for in the preceding codes
    • A61H2201/50Control means thereof
    • A61H2201/5058Sensors or detectors
    • A61H2201/5071Pressure sensors
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61HPHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
    • A61H2205/00Devices for specific parts of the body
    • A61H2205/10Leg

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Veterinary Medicine (AREA)
  • Public Health (AREA)
  • General Health & Medical Sciences (AREA)
  • Animal Behavior & Ethology (AREA)
  • Biophysics (AREA)
  • Pathology (AREA)
  • Surgery (AREA)
  • Molecular Biology (AREA)
  • Theoretical Computer Science (AREA)
  • Medical Informatics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Biomedical Technology (AREA)
  • Dentistry (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Physiology (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Fuzzy Systems (AREA)
  • Mathematical Physics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Computing Systems (AREA)
  • Computational Linguistics (AREA)
  • Geometry (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Automation & Control Theory (AREA)
  • Epidemiology (AREA)
  • Pain & Pain Management (AREA)
  • Physical Education & Sports Medicine (AREA)
  • Rehabilitation Therapy (AREA)
  • Robotics (AREA)

Abstract

本发明公开了一种负载机动型外骨骼人体运动意图识别方法及外骨骼系统,方法包括先通过外骨骼的传感系统获取足部GCF信号、IMU信号;然后通过信号特征的周期性判定,将坐姿与站立归为非周期性活动,将跑步、走路与上下楼梯归为周期性活动;再对于非周期活动,根据IMU信号计算两腿膝关节角度,根据坐姿的两腿膝关节角度大于站立的两腿膝关节角度来区分坐姿与站立;对于周期性活动,根据足部GCF信号判断双脚是否均有支撑来区分跑步与其他活动,然后采用模糊推理系统,根据足部GCF信号中脚跟撞击或脚趾撞击时刻的膝关节角度来识别出走路、上楼梯或者下楼梯的行走状态。本发明能够平滑连续地识别人体运动意图。

Description

负载机动型外骨骼人体运动意图识别方法及外骨骼系统
技术领域
本发明涉及外骨骼人体运动意图识别技术领域,特别涉及一种负载机动型外骨骼人体运动意图识别方法及外骨骼系统。
背景技术
负载机动性外骨骼是一套由机械系统、传感系统、动力系统、控制系统等组成的高科技智能化装备,穿戴者既是外骨骼的操作对象,也是使用对象,外骨骼系统可用于实现运动意图感知,认知决策、动力驱动和动力执行,能与穿戴者协调运动、增强穿戴者体能、减轻和预防穿戴者损伤等。在外骨骼系统的实际使用中,为了避免传感器错位与穿戴者不适,人体的运动信息不是通过安装在人体上的传感器直接测量的,相反,整个传感系统被嵌入到外骨骼结构中,以获取外骨骼的运动信息,然后根据外骨骼到人体模型的运动映射,得到穿戴者的运动数据。
在实现运动映射上,通常是采用机器学习算法如SVM、KNN、决策树或随机森林搜索等进行分析处理。然而,这些传统的机器学习算法均是从原始数据中计算出特征并使用这些特征来训练系统。这些算法的前提是将步态阶段作为离散事件处理,而实际的人体运动阶段不能被离散区分,因此为充分利用传感器获取的信息,需要一种平滑连续的检测方法,并且在快速变化的运动过程中,平滑连续的检测也有助于算法的平稳过渡。
发明内容
本发明的第一目的在于克服现有技术的缺点与不足,提供一种负载机动型外骨骼人体运动意图识别方法,该方法可以平滑连续地识别人体运动意图。
本发明的第二目的在于提供一种负载机动型外骨骼系统。
本发明的第一目的通过下述技术方案实现:
一种负载机动型外骨骼人体运动意图识别方法,所述方法采用智能模糊推理算法识别人体运动意图,包括如下步骤:
S1、通过外骨骼的传感系统获取足部GCF信号、IMU信号;
S2、通过信号特征的周期性判定,将坐姿与站立分为一类,该类为非周期性活动,将跑步、走路与上下楼梯分为另一类,该类为周期性活动;
S3、对于非周期活动,根据IMU信号计算两腿膝关节角度,根据坐姿的两腿膝关节角度大于站立的两腿膝关节角度来区分坐姿与站立;
对于周期性活动,根据足部GCF信号判断双脚是否均有支撑来区分跑步与其他活动,然后采用模糊推理系统,根据足部GCF信号中脚跟撞击或脚趾撞击时刻的膝关节角度来识别出走路、上楼梯或者下楼梯的行走状态。
优选的,在步骤S2中,根据脚趾、脚掌与足跟这3个感知点的GCF信息,将非周期性活动与周期性活动进行分类,在处于坐姿和站立状态时,3个感知点的地面接触力不会发生显著变化,也不会发生脚跟撞击或脚趾撞击情况。
优选的,在步骤S3中,模糊推理系统分为独立的左、右模糊推理系统,左、右脚跟撞击和左、右脚趾撞击事件均采用这两个模糊推理系统进行模糊推理。
更进一步的,模糊推理系统的模糊推理过程如下:
S31、以已知人体活动状态的足部GCF信号和IMU信号作为输入,基于隶属度函数对输入进行模糊化,建立模糊数据库;
S32、对于每个模糊推理系统,建立模糊规则库;
S33、对于步骤S1获取的足部GCF信号和IMU信号,先利用模糊数据库的模糊逻辑进行初步判断人体活动类型,在无法直接确定的情况下再利用模糊规则库的模糊规则执行推理,求得模糊规则的输出,即推理出人体活动类型;
S34、将两个系统的模糊规则输出结果结合在一起,形成一个单一的模糊集,然后对该模糊集进行反模糊化以求得一个具体数值,以便外骨骼系统根据该数值辅助人体活动。
更进一步的,模糊数据库如下:
周期性 脚趾压力 脚掌压力 足跟压力 膝关节角度 隶属度
u<sub>坐姿</sub>→1
u<sub>站立</sub>→1
u<sub>步行</sub>→1
u<sub>步行</sub>→0.5
u<sub>上楼梯</sub>→1
u<sub>上楼梯</sub>→0.5
u<sub>下楼梯</sub>→1
u<sub>下楼梯</sub>→0.5
其中,隶属度表示膝关节角度与人体实际活动状态的从属状态,用于判断属于某一种人体实际活动状态的可能性,隶属度为1表示膝关节角度完全属于某一种人体实际活动状态。
更进一步的,采用高斯隶属度函数处理膝关节角度特征,高斯隶属度函数为:
Figure BDA0002944082070000031
式中,uA(x)是模糊隶属度,x是膝关节角度,模糊子集A是人体活动状态,包括坐姿、站立、步行、上楼梯、下楼梯;σi是隶属度函数的分布,ci为隶属度函数的中心;
然后使隶属度函数重叠,则ci定义如下:
Figure BDA0002944082070000032
式中,xi是位于xmin~xmax之间的膝关节角度,xmin是膝关节角度最小值,xmax是膝关节角度最大值;c是要素的数量;
其中,如果发生左腿脚跟撞击或脚趾撞击,则为左腿膝关节角度定义高和低两个要素,右腿膝关节角度定义为低、中、高三个要素;如果发生右腿脚跟撞击或脚趾撞击,则为右腿膝关节角度定义高和低两个要素,左腿膝关节角度定义为低、中、高三个要素。
更进一步的,在步骤S32中,左、右模糊推理系统的模糊规则库如下:
Figure BDA0002944082070000041
其中,L1代表当前时刻下左膝关节角度,R1代表当前时刻下右膝关节角度,推理系统输出的是相应的某项人体活动的确定度。
更进一步的,在步骤S34中,采用max法对两个系统的模糊规则输出结果进行聚集,采用面积重心法进行反模糊化,面积重心法计算公式如下:
Figure BDA0002944082070000042
式中,y是模糊规则输出结果;
Figure BDA0002944082070000043
是公式输出值;s是由一时间段中各步态时刻的隶属度所构成的模糊集,μB是模糊曲线,由模糊集中的多个隶属度所连成。
本发明的第二目的通过下述技术方案实现:
一种负载机动型外骨骼系统,所述负载机动型外骨骼系统通过本发明第一目的所述的负载机动型外骨骼人体运动意图识别方法实现人体运动意图识别。
本发明相对于现有技术具有如下的优点及效果:
(1)本发明负载机动型外骨骼人体运动意图识别方法有别于传统的机器学习方法,提出一种基于力(地面接触力)与运动信号(膝关节屈伸角度)融合的智能模糊推理算法实现对人体基本活动的识别分类,可实现平滑连续地识别人体运动意图,识别结果的可靠性和准确度更高。
(2)本发明所设计的智能模糊推理算法先对人体6种基本活动进行了初始分类,并准确区分了坐姿、站立与跑步活动,随后采用模糊推理系统对剩下的活动进行分类,分类过程从传感器提取的特征作为输入,而模糊输出结果为活动类型(步行、上楼梯、下楼梯),可见,算法非常简单,有利于提高意图识别效率和节约计算资源。
(3)本发明左右HS或TS事件均采用两个独立的模糊推理系统,可以避免相互干扰,提高识别准确度。两个模糊推理系统的结果都被用作分类活动识别,因此可以更准确地识别人体活动。
附图说明
图1是本发明负载机动型外骨骼人体运动意图识别方法的流程图。
图2是模糊推理系统的原理图。
图3是负载机动型外骨骼系统的示意图。
图4是仿生腿的示意图。
图5是传感系统、控制系统和上位机的连接示意图。
标号说明:
负载机动型外骨骼系统100,仿生躯干1,仿生腿2,仿生脚3,仿生髋关节21,仿生大腿22,仿生膝关节23,仿生小腿24,仿生踝关节25,液压站4,油源41,电源5,髋关节液压缸6,膝关节液压缸7,控制系统8。
具体实施方式
下面结合实施例及附图对本发明作进一步详细的描述,但本发明的实施方式不限于此。
实施例
本实施例公开了一种负载机动型外骨骼人体运动意图识别方法,该方法可应用在负载机动型外骨骼系统中,使得外骨骼系统系统可以实现平滑连续的人体运动意图识别。
方法采用智能模糊推理算法识别人体运动意图,如图1所示,包括如下步骤:
S1、通过外骨骼的传感系统获取足部GCF信号、IMU信号。足部GCF信号即地面接触力,也可称为脚底压力信号。
S2、通过信号特征的周期性判定,将坐姿与站立分为一类,该类为非周期性活动,将跑步、走路与上下楼梯分为另一类,该类为周期性活动。
具体来说,根据脚趾、脚掌与足跟这3个感知点的GCF信息,将非周期性活动与周期性活动进行分类,在处于坐姿和站立状态时,3个感知点的地面接触力不会发生显著变化,也不会发生脚跟撞击(HS)或脚趾撞击(TS)情况;如果发生HS或TS,则该活动可以是跑步、步行、上楼梯、下楼梯这四个活动之一。
S3、对于非周期活动,根据IMU信号计算两腿膝关节角度,根据两腿膝关节角度来区分坐姿与站立,如果角度小则表示当前人体处于站立状态,角度大则表示当前人体处于坐姿状态。划分角度大小的阀值可根据实际确定。
对于周期性活动,由于跑步过程中,双脚在某些时刻不接触地面,因此可以先根据足部GCF信号判断双脚是否均有支撑来区分跑步与其他活动,然后采用模糊推理系统,根据足部GCF信号中脚跟撞击或脚趾撞击时刻的膝关节角度来识别出走路、上楼梯或者下楼梯的行走状态。
对于步行与上下楼梯状态,膝关节在HS或TS时刻表现出不同的屈伸程度。在上楼梯过程中,HS时的膝关节角度与下楼梯或步行活动相比,膝关节的屈曲角度更大。下楼梯过程与之相反,TS时的膝关节表现出更大的伸展角度。通常,在下楼梯过程会观察到TS,对于步行活动,HS时膝关节的角度较小且在未撞击的时候角度为中等大小。
其中,模糊推理系统(也可称为推理机)分为独立的左、右模糊推理系统,左、右脚跟撞击和左、右脚趾撞击事件均采用这两个模糊推理系统进行模糊推理。
图2为模糊推理系统的原理图,模糊推理系统的模糊推理过程如下:
S31、以已知人体活动状态的足部GCF信号和IMU信号作为输入,基于隶属度函数对输入进行模糊化,建立模糊数据库。这里,模糊推理的模糊逻辑具体是对模糊现象或事件进行处理,以达到消除模糊的目的。先给定论域U上的一个模糊子集A,则对于任意x∈U,都确定一个隶属度函数uA,称uA为x对A的隶属度,且uA∈[0,1]。数据集结合隶属度函数之后,数据集的每个数据都有对应的一个隶属度,从而可以得到由隶属度构成的模糊集合。模糊推理取消了二值之间非此即彼的对立,用隶属度表示二值间的从属状态,即x可以“部分地属于”集合A。隶属度函数uA值越大,则x隶属于A的程度就越高。
本实施例A为人体活动状态(坐姿、站立、步行、上楼梯、下楼梯),x是膝关节角度特征。选择高斯隶属度函数处理膝关节角度特征,高斯隶属度函数为:
Figure BDA0002944082070000071
式中,uA(x)是模糊隶属度,σi是隶属度函数的分布,ci为隶属度函数的中心;
然后使隶属度函数重叠,则ci定义如下:
Figure BDA0002944082070000072
式中,xi是位于xmin~xmax之间的膝关节角度,xmin是膝关节角度最小值,xmax是膝关节角度最大值;c是要素的数量。
其中,如果发生左腿脚跟撞击或脚趾撞击,则为左腿膝关节角度定义高和低两个要素,右腿膝关节角度定义为低、中、高三个要素;如果发生右腿脚跟撞击或脚趾撞击,则为右腿膝关节角度定义高和低两个要素,左腿膝关节角度定义为低、中、高三个要素。
划分脚趾、脚掌与足跟的GCF信息、膝关节角度的高、中、低程度的阀值可通过机器学习已知人体实际活动状态的足部GCF信号和IMU信号来确定。
最终,建立的模糊数据库如表1所示:
表1
周期性 脚趾压力 脚掌压力 足跟压力 膝关节角度 隶属度
u<sub>坐姿</sub>→1
u<sub>站立</sub>→1
u<sub>步行</sub>→1
u<sub>步行</sub>→0.5
u<sub>上楼梯</sub>→1
u<sub>上楼梯</sub>→0.5
u<sub>下楼梯</sub>→1
u<sub>下楼梯</sub>→0.5
模糊数据库的阀值可以区分出感知点压力及膝关节角度的高、中、低程度,并且,隶属度可以表示膝关节角度与人体实际活动状态的从属状态,来判断属于某一种人体实际活动状态的可能性。当某一阶段的隶属度接近于1时,则表示该阶段的膝关节角度完全地属于某一种人体实际活动状态;如果两相邻阶段的隶属度同时约为0.5,则表示膝关节角度可能处于两阶段之间的过渡阶段。因此,利用上述模糊数据库可反映人体活动的渐变性。
S32、对于每个模糊推理系统,建立模糊规则库。
模糊规则用于将模糊的输入映射到输出。根据模糊规则执行推理类似于查表,由于模糊化了,输入变量的值较小的变化不会导致输出变量值的瞬间跳变,如此有利于意图识别的平稳性。这里,在模糊推理系统的每条腿HS或TS事件中,定义了三个规则,对于每个规则,使用与两个要素相对应的两个输入(图2中的输入1、输入2)来映射一个输出。左、右模糊推理系统的模糊规则库如表2所示:
表2
Figure BDA0002944082070000081
其中,L1代表当前时刻下左膝关节角度,R1代表当前时刻下右膝关节角度,均作为推理系统的输入。推理系统的输出是根据左、右膝关节角度计算出的符合表2中的一行所对应的某项人体活动的确定度。这里,划分关节角度高、中、低程度的阀值,输出的确定度可利用已知人体实际活动状态的IMU信号进行机器学习来确定。
S33、对于步骤S1获取的足部GCF信号和IMU信号,先利用模糊数据库的模糊逻辑进行初步判断人体活动类型,在无法直接确定的情况下再利用模糊规则库的模糊规则执行推理,求得模糊规则的输出,即推理出人体活动类型;
在模糊逻辑下,人的步态循环被分析为一组完整的步态时刻,先利用模糊数据库判断各时刻的脚趾、脚掌与足跟的GCF信息、膝关节角度的高/中/低,同时根据膝关节角度计算隶属度。当表1中有符合的某一行且隶属度接近1,则可以直接确定当前人体活动为该行所对应的人体活动。如果利用表1无法确定当前人体活动,如出现隶属度趋向于0.5的情况,则需要利用模糊规则库,结合两条腿的GCF信息和膝关节角度做进一步的推理。
例如,通过模糊数据库的阀值判断T时刻下左腿的脚趾发生撞击,脚趾GCF信息为高,脚掌GCF信息为低,足跟GCF信息为低、膝关节角度为低,假设uA(x)接近1,则判断T时刻所对应的人体姿态为下楼梯。假设uA(x)为0.5左右,说明T时刻所对应的人体姿态是下楼梯的概率约为0.5,根据表1还是无法直接确定人体活动,此时则还需要利用T时刻右腿的膝关节角度,利用模糊规则库的阀值先评估各条腿的膝关节角度高/中/低程度,再查询表2,找出符合的一行,该行所对应的人体活动即为当前人体活动,模糊规则库也相应输出一个确定度。
S34、由于经过模糊规则库推理之后的输出一般是逻辑值,不能直接供外骨骼系统使用,因此需要进行反模糊化的操作,这里,是将两个系统的模糊规则输出结果结合在一起,形成一个单一的模糊集,然后对该模糊集进行反模糊化以求得一个具体数值,以便外骨骼系统可以根据该数值辅助人体活动。
在本实施例中,具体是先采用max法对两个系统的模糊规则输出结果进行聚集,即从一时间段内各时刻下的模糊规则输出选取出最大值,然后采用面积重心法进行反模糊化,根据计算结果和模糊规则库,确定出当前的人体活动。
面积重心法的计算公式如下:
Figure BDA0002944082070000091
式中,y是模糊规则输出结果;
Figure BDA0002944082070000092
是公式输出值;s是由一时间段中各步态时刻的隶属度所构成的模糊集,μB是模糊曲线,由模糊集中的多个隶属度所连成。当然,在其他实施例中也可以用其他去模糊方法实现反模糊,例如最大平均法、高度法等。
例如,假设当前人体是处于上楼梯活动状态,脚趾、脚掌与足跟这3个感知点在这段时间内连续有足部GCF信息,且出现显著变化,也有发生脚跟撞击或脚趾撞击事件。因此,负载机动型外骨骼可以先以此判定是周期性活动,排除坐姿和站立状态;然后根据感知点是属于非间歇性地有足部GCF信息来排除跑步活动;
接着通过模糊数据库对这段时间内各个时刻的人体活动进行初步判断,例如第一时刻下左腿弯曲,左脚趾和左脚掌撞击,左脚跟没有撞击,右腿没有弯曲,通过表1的模糊逻辑得知,第一时刻下左脚趾GCF信息属于低的程度,左脚掌GCF信息属于低的程度,左足跟GCF信息属于高的程度,左膝关节角度属于高的程度,根据左膝关节角度计算出来的隶属度趋向于0.5,则再通过表2左腿模糊推理系统的规则来判断,得知左膝关节角度高、右膝关节角度低,因此判定第一时刻为上楼梯状态。
第二时刻右腿弯曲,右脚趾和右脚掌撞击,由表1得知第二时刻下,右脚趾GCF信息属于高的程度,右脚掌GCF信息属于高的程度,右足跟GCF信息属于低的程度,右膝关节角度属于高的程度,计算出来的隶属度接近0.5,此时无法直接确定是上楼梯状态,因此还需要利用两条腿的膝关节角度关系来判断:根据右腿模糊推理系统的规则确定当前两条腿的膝关节角度高/中/低程度,得知左膝关节角度低、右膝关节角度高,找出相符的一行规则,最终推理出,当前人体属于上楼梯状态。第三时刻、第四时刻……第N个时刻的活动状态以此类推进行识别,哪条腿发生脚跟/脚趾撞击事件,就采用该条腿对应的模糊推理系统。
最后,对于含有N个时刻的整一时段,根据N个时刻的隶属度和模糊规则输出结果,通过采用面积重心法进行反模糊化,求得具体数值,使得外骨骼系统可以根据该具体数值来控制仿生腿按照人体运动意图发生动作。
可见,本实施例方法可对坐姿、站立、步行、上楼梯、下楼梯这多类人体活动状态进行识别,通过模糊推理可以对整个人体运动过程进行判断,取代现有技术中离散地对各时刻进行判断,因此能够更准确和平滑地识别人体活动。
负载机动型外骨骼系统100可穿戴在人身上,其包括机械系统、液压执行机构、传感系统和控制系统。传感系统用于实现运动意图感知,控制系统作为整个外骨骼系统的控制中心,用于实现认知决策,液压执行机构用于实现动力驱动,机械系统用于实现动力执行,做出相关动作。
其中,如图3和图4所示,机械系统包括依次连接的仿生躯干1、仿生腿2和仿生脚3,仿生腿2由仿生髋关节21、仿生大腿22、仿生膝关节23、仿生小腿24、仿生踝关节25构成。仿生脚可采用安装有脚底压力传感器的智能鞋。
仿生髋关节具有3个髋关节自由度,分别为1个主动自由度和2个被动自由度,其中,1个主动自由度是指髋关节前屈/后伸,2个被动自由度是指髋关节内旋/外旋、髋关节外摆/内收。仿生膝关节具有1个膝关节自由度,该膝关节自由度为主动自由度,是指膝关节屈曲/伸展,仿生踝关节具有3个踝关节自由度,均为被动自由度,分别是指踝关节趾屈/背伸、踝关节内旋/外旋、踝关节外展/内收。
液压执行机构包括液压站4、电源5、髋关节液压缸6和膝关节液压缸7,液压站和电源、控制系统均设置在仿生躯干背部,液压站包括电机、液压泵、油源41和液压阀。电源连接液压阀、电机和液压泵,用于供电。油源一端通过液压管连接液压泵,电机驱动液压泵来抽取油源中的油液。油源另一端通过液压管连接液压阀,液压阀再通过液压管分别连接髋关节液压缸和膝关节液压缸,从而形成完整封闭的油液回路。
控制系统8连接液压阀,并通过控制液压阀的阀电压来控制液压阀的开度,进而控制髋关节液压缸和膝关节液压缸运动过程中的流量,流量可影响膝关节液压缸和髋关节液压缸的伸展和收缩运动。电机可连接至控制系统,由控制系统来控制其工作状态。
髋关节液压缸设置在仿生髋关节处并连接仿生躯干和仿生髋关节,髋关节液压缸用于驱动仿生髋关节的旋转运动。膝关节液压缸设置在仿生膝关节处并连接仿生大腿和仿生小腿,膝关节液压缸用于驱动仿生膝关节的旋转运动。
传感系统包括脚底压力传感器和IMU传感器,控制系统连接脚底压力传感器和位置传感器,脚底压力传感器可用于实时检测足部GCF信号,以便控制系统计算脚趾、脚掌与足跟这三个感知点的压力。IMU传感器数量可为四个,分别安装在左、右仿生大腿和左、右仿生小腿上,用于检测仿生大腿和仿生小腿的速度、加速度和角速度,以便控制系统计算膝关节角度。
在本实施例中,脚底压力传感器可采用薄膜压力传感器,IMU传感器可选用ADIS16475 IMU传感器,该IMU内置一个三轴陀螺仪和一个三轴加速度计。
如图5所示,控制系统主要为微处理器,控制系统连接并控制电机和液压阀、传感系统。微处理器可以是低功耗高性能的ATmega16U2-AU微处理器,可对输入的传感数据进行信号收集、滤波和模数转化。微处理器的输出数据可以采用RS232串口即时传输到远端的上位机进行显示,具有传输误差小、延迟时间短、结果相对稳定的特点。
上述实施例为本发明较佳的实施方式,但本发明的实施方式并不受上述实施例的限制,其他的任何未背离本发明的精神实质与原理下所作的改变、修饰、替代、组合、简化,均应为等效的置换方式,都包含在本发明的保护范围之内。

Claims (9)

1.一种负载机动型外骨骼人体运动意图识别方法,其特征在于,所述方法采用智能模糊推理算法识别人体运动意图,包括如下步骤:
S1、通过外骨骼的传感系统获取足部GCF信号、IMU信号;
S2、通过信号特征的周期性判定,将坐姿与站立分为一类,该类为非周期性活动,将跑步、走路与上下楼梯分为另一类,该类为周期性活动;
S3、对于非周期活动,根据IMU信号计算两腿膝关节角度,根据坐姿的两腿膝关节角度大于站立的两腿膝关节角度来区分坐姿与站立;
对于周期性活动,根据足部GCF信号判断双脚是否均有支撑来区分跑步与其他活动,然后采用模糊推理系统,根据足部GCF信号中脚跟撞击或脚趾撞击时刻的膝关节角度来识别出走路、上楼梯或者下楼梯的行走状态。
2.根据权利要求1所述的负载机动型外骨骼人体运动意图识别方法,其特征在于,在步骤S2中,根据脚趾、脚掌与足跟这3个感知点的GCF信息,将非周期性活动与周期性活动进行分类,在处于坐姿和站立状态时,3个感知点的地面接触力不会发生显著变化,也不会发生脚跟撞击或脚趾撞击情况。
3.根据权利要求1所述的负载机动型外骨骼人体运动意图识别方法,其特征在于,在步骤S3中,模糊推理系统分为独立的左、右模糊推理系统,左、右脚跟撞击和左、右脚趾撞击事件均采用这两个模糊推理系统进行模糊推理。
4.根据权利要求3所述的负载机动型外骨骼人体运动意图识别方法,其特征在于,模糊推理系统的模糊推理过程如下:
S31、以已知人体活动状态的足部GCF信号和IMU信号作为输入,基于隶属度函数对输入进行模糊化,建立模糊数据库;
S32、对于每个模糊推理系统,建立模糊规则库;
S33、对于步骤S1获取的足部GCF信号和IMU信号,先利用模糊数据库的模糊逻辑进行初步判断人体活动类型,在无法直接确定的情况下再利用模糊规则库的模糊规则执行推理,求得模糊规则的输出,即推理出人体活动类型;
S34、将两个系统的模糊规则输出结果结合在一起,形成一个单一的模糊集,然后对该模糊集进行反模糊化以求得一个具体数值,以便外骨骼系统根据该数值辅助人体活动。
5.根据权利要求4所述的负载机动型外骨骼人体运动意图识别方法,其特征在于,模糊数据库如下:
周期性 脚趾压力 脚掌压力 足跟压力 膝关节角度 隶属度 u<sub>坐姿</sub>→1 u<sub>站立</sub>→1 u<sub>步行</sub>→1 u<sub>步行</sub>→0.5 u<sub>上楼梯</sub>→1 u<sub>上楼梯</sub>→0.5 u<sub>下楼梯</sub>→1 u<sub>下楼梯</sub>→0.5
其中,隶属度表示膝关节角度与人体实际活动状态的从属状态,用于判断属于某一种人体实际活动状态的可能性,隶属度为1表示膝关节角度完全属于某一种人体实际活动状态。
6.根据权利要求5所述的负载机动型外骨骼人体运动意图识别方法,其特征在于,采用高斯隶属度函数处理膝关节角度特征,高斯隶属度函数为:
Figure FDA0002944082060000021
式中,uA(x)是模糊隶属度,x是膝关节角度,模糊子集A是人体活动状态,包括坐姿、站立、步行、上楼梯、下楼梯;σi是隶属度函数的分布,ci为隶属度函数的中心;
然后使隶属度函数重叠,则ci定义如下:
Figure FDA0002944082060000022
式中,xi是位于xmin~xmax之间的膝关节角度,xmin是膝关节角度最小值,xmax是膝关节角度最大值;c是要素的数量;
其中,如果发生左腿脚跟撞击或脚趾撞击,则为左腿膝关节角度定义高和低两个要素,右腿膝关节角度定义为低、中、高三个要素;如果发生右腿脚跟撞击或脚趾撞击,则为右腿膝关节角度定义高和低两个要素,左腿膝关节角度定义为低、中、高三个要素。
7.根据权利要求4所述的负载机动型外骨骼人体运动意图识别方法,其特征在于,在步骤S32中,左、右模糊推理系统的模糊规则库如下:
Figure FDA0002944082060000031
其中,L1代表当前时刻下左膝关节角度,R1代表当前时刻下右膝关节角度,推理系统输出的是相应的某项人体活动的确定度。
8.根据权利要求4所述的负载机动型外骨骼人体运动意图识别方法,其特征在于,在步骤S34中,采用max法对两个系统的模糊规则输出结果进行聚集,采用面积重心法进行反模糊化,面积重心法计算公式如下:
Figure FDA0002944082060000032
式中,y是模糊规则输出结果;
Figure FDA0002944082060000033
是公式输出值;s是由一时间段中各步态时刻的隶属度所构成的模糊集,μB是模糊曲线,由模糊集中的多个隶属度所连成。
9.一种负载机动型外骨骼系统,其特征在于,所述负载机动型外骨骼系统通过权利要求1至8中任一项所述的负载机动型外骨骼人体运动意图识别方法实现人体运动意图识别。
CN202110188446.1A 2021-02-19 2021-02-19 负载机动型外骨骼人体运动意图识别方法及外骨骼系统 Active CN113011458B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110188446.1A CN113011458B (zh) 2021-02-19 2021-02-19 负载机动型外骨骼人体运动意图识别方法及外骨骼系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110188446.1A CN113011458B (zh) 2021-02-19 2021-02-19 负载机动型外骨骼人体运动意图识别方法及外骨骼系统

Publications (2)

Publication Number Publication Date
CN113011458A true CN113011458A (zh) 2021-06-22
CN113011458B CN113011458B (zh) 2022-12-16

Family

ID=76402874

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110188446.1A Active CN113011458B (zh) 2021-02-19 2021-02-19 负载机动型外骨骼人体运动意图识别方法及外骨骼系统

Country Status (1)

Country Link
CN (1) CN113011458B (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114041783A (zh) * 2021-11-11 2022-02-15 吉林大学 一种基于经验规则结合机器学习的下肢运动意图识别方法
CN115167234A (zh) * 2022-07-29 2022-10-11 哈尔滨工业大学 仿人足脚板双足机器人的多传感器信息融合步态识别方法
CN116227606A (zh) * 2023-05-05 2023-06-06 中南大学 一种关节角度预测方法、终端设备及介质
CN117959146A (zh) * 2024-04-02 2024-05-03 江西求是高等研究院 一种六自由度的上肢康复机器人控制方法及系统

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2384863A2 (en) * 2010-01-21 2011-11-09 Institutul de Mecanica Solidelor al Academiei Romane Method and device for dynamic control of a walking robot
US20150362330A1 (en) * 2013-02-01 2015-12-17 Trusted Positioning Inc. Method and System for Varying Step Length Estimation Using Nonlinear System Identification
CN108836342A (zh) * 2018-04-19 2018-11-20 北京理工大学 一种基于惯性传感器的无特征人体运动识别方法
US20190307583A1 (en) * 2016-11-08 2019-10-10 Massachusetts Institute Of Technology Kinetic Sensing, Signal Generation, Feature Extraction, And Pattern Recognition For Control Of Autonomous Wearable Leg Devices
CN110543922A (zh) * 2019-10-15 2019-12-06 北京理工大学 一种基于膝关节外骨骼的实时行走模式识别方法
CN110603021A (zh) * 2017-02-03 2019-12-20 漫游机械人技术公司 用于用户意图识别的系统和方法
CN110742712A (zh) * 2019-11-05 2020-02-04 哈工大机器人湖州国际创新研究院 基于源端融合的假肢运动意图识别方法及其装置
CN111123945A (zh) * 2019-12-30 2020-05-08 同济大学 一种基于混合控制的双足机器人步态轨迹生成方法及应用

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2384863A2 (en) * 2010-01-21 2011-11-09 Institutul de Mecanica Solidelor al Academiei Romane Method and device for dynamic control of a walking robot
US20150362330A1 (en) * 2013-02-01 2015-12-17 Trusted Positioning Inc. Method and System for Varying Step Length Estimation Using Nonlinear System Identification
US20190307583A1 (en) * 2016-11-08 2019-10-10 Massachusetts Institute Of Technology Kinetic Sensing, Signal Generation, Feature Extraction, And Pattern Recognition For Control Of Autonomous Wearable Leg Devices
CN110603021A (zh) * 2017-02-03 2019-12-20 漫游机械人技术公司 用于用户意图识别的系统和方法
CN108836342A (zh) * 2018-04-19 2018-11-20 北京理工大学 一种基于惯性传感器的无特征人体运动识别方法
CN110543922A (zh) * 2019-10-15 2019-12-06 北京理工大学 一种基于膝关节外骨骼的实时行走模式识别方法
CN110742712A (zh) * 2019-11-05 2020-02-04 哈工大机器人湖州国际创新研究院 基于源端融合的假肢运动意图识别方法及其装置
CN111123945A (zh) * 2019-12-30 2020-05-08 同济大学 一种基于混合控制的双足机器人步态轨迹生成方法及应用

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
ZHENG ZHAO等: "A Wearable Body Motion Capture System and Its Application in Assistive Exoskeleton Control", 《2020 15TH IEEE CONFERENCE ON INDUSTRIAL ELECTRONICS AND APPLICATIONS (ICIEA)》 *
姜笑天: "面向重物搬运的气动腰部助力外骨骼", 《中国优秀博硕士学位论文全文数据库(硕士)信息科技辑》 *
张新浩: "基于Android 多传感采集系统的下肢动作识别研究", 《万方中国学位论文全文数据库》 *
彩虹的微笑: "下肢康复运动辅助外骨骼机器人的人机信息监测与运动状态识别系统研发", 《HTTPS://WWW.DOC88.COM/P-18361830957179.HTML》 *

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114041783A (zh) * 2021-11-11 2022-02-15 吉林大学 一种基于经验规则结合机器学习的下肢运动意图识别方法
CN114041783B (zh) * 2021-11-11 2024-04-26 吉林大学 一种基于经验规则结合机器学习的下肢运动意图识别方法
CN115167234A (zh) * 2022-07-29 2022-10-11 哈尔滨工业大学 仿人足脚板双足机器人的多传感器信息融合步态识别方法
CN116227606A (zh) * 2023-05-05 2023-06-06 中南大学 一种关节角度预测方法、终端设备及介质
CN116227606B (zh) * 2023-05-05 2023-08-15 中南大学 一种关节角度预测方法、终端设备及介质
CN117959146A (zh) * 2024-04-02 2024-05-03 江西求是高等研究院 一种六自由度的上肢康复机器人控制方法及系统

Also Published As

Publication number Publication date
CN113011458B (zh) 2022-12-16

Similar Documents

Publication Publication Date Title
CN113011458B (zh) 负载机动型外骨骼人体运动意图识别方法及外骨骼系统
CN110169850B (zh) 被动型液压膝关节假肢的控制方法
Huo et al. Fast gait mode detection and assistive torque control of an exoskeletal robotic orthosis for walking assistance
Martinez-Hernandez et al. Simultaneous Bayesian recognition of locomotion and gait phases with wearable sensors
Novak et al. Automated detection of gait initiation and termination using wearable sensors
Parri et al. Real-time hybrid locomotion mode recognition for lower limb wearable robots
CN106308809B (zh) 大腿残肢者的步态识别方法
Farrell et al. A method to determine the optimal features for control of a powered lower-limb prostheses
Khodabandelou et al. A fuzzy convolutional attention-based GRU network for human activity recognition
CN113043248B (zh) 基于多源传感器的搬运装配全身外骨骼系统及控制方法
Yang et al. Machine learning based adaptive gait phase estimation using inertial measurement sensors
Kang et al. Subject-independent continuous locomotion mode classification for robotic hip exoskeleton applications
Liu et al. A muscle synergy-inspired method of detecting human movement intentions based on wearable sensor fusion
Gong et al. BPNN-based real-time recognition of locomotion modes for an active pelvis orthosis with different assistive strategies
Zhang et al. Gait phase recognition of lower limb exoskeleton system based on the integrated network model
CN110543922A (zh) 一种基于膝关节外骨骼的实时行走模式识别方法
Yu et al. Artificial neural network-based activities classification, gait phase estimation, and prediction
Zheng et al. A GMM-DTW-based locomotion mode recognition method in lower limb exoskeleton
CN114224326A (zh) 一种穿戴式步态相位和动作识别装置及方法
Vu et al. Comparison of machine learning and deep learning-based methods for locomotion mode recognition using a single inertial measurement unit
CN115167234B (zh) 仿人足脚板双足机器人的多传感器信息融合步态识别方法
Helmi et al. Human activity recognition using a fuzzy inference system
Farrell Pattern classification of terrain during amputee walking
CN115337009A (zh) 一种基于全连接和循环神经网络的步态识别和预测方法
CN113146611B (zh) 一种刚柔耦合外骨骼机器人运动模式识别方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant