CN113288736B - 一种步行训练机器人行走意图识别方法 - Google Patents
一种步行训练机器人行走意图识别方法 Download PDFInfo
- Publication number
- CN113288736B CN113288736B CN202110550427.9A CN202110550427A CN113288736B CN 113288736 B CN113288736 B CN 113288736B CN 202110550427 A CN202110550427 A CN 202110550427A CN 113288736 B CN113288736 B CN 113288736B
- Authority
- CN
- China
- Prior art keywords
- walking
- intention
- fuzzy
- pressure sensor
- pressure
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 49
- 238000012549 training Methods 0.000 title claims abstract description 26
- 230000003068 static effect Effects 0.000 claims abstract description 24
- 210000000245 forearm Anatomy 0.000 claims abstract description 19
- 238000005315 distribution function Methods 0.000 claims abstract description 8
- 230000007704 transition Effects 0.000 claims abstract description 5
- 238000012545 processing Methods 0.000 claims abstract description 4
- 230000006870 function Effects 0.000 claims description 35
- 239000013598 vector Substances 0.000 claims description 23
- 238000004364 calculation method Methods 0.000 claims description 9
- 230000000875 corresponding effect Effects 0.000 claims description 8
- 210000000707 wrist Anatomy 0.000 claims description 8
- 238000005259 measurement Methods 0.000 claims description 5
- NAWXUBYGYWOOIX-SFHVURJKSA-N (2s)-2-[[4-[2-(2,4-diaminoquinazolin-6-yl)ethyl]benzoyl]amino]-4-methylidenepentanedioic acid Chemical compound C1=CC2=NC(N)=NC(N)=C2C=C1CCC1=CC=C(C(=O)N[C@@H](CC(=C)C(O)=O)C(O)=O)C=C1 NAWXUBYGYWOOIX-SFHVURJKSA-N 0.000 claims description 3
- 230000002596 correlated effect Effects 0.000 claims description 3
- 238000007499 fusion processing Methods 0.000 claims description 3
- 230000006872 improvement Effects 0.000 claims description 3
- 238000005070 sampling Methods 0.000 claims description 3
- 230000008569 process Effects 0.000 description 16
- 238000010586 diagram Methods 0.000 description 15
- 238000002474 experimental method Methods 0.000 description 14
- 230000008859 change Effects 0.000 description 13
- 101150015547 SDL1 gene Proteins 0.000 description 10
- 230000000007 visual effect Effects 0.000 description 8
- 238000012795 verification Methods 0.000 description 7
- 238000012360 testing method Methods 0.000 description 6
- 230000006399 behavior Effects 0.000 description 5
- 210000002414 leg Anatomy 0.000 description 5
- 238000001514 detection method Methods 0.000 description 4
- 238000011160 research Methods 0.000 description 4
- 230000007547 defect Effects 0.000 description 3
- 230000005021 gait Effects 0.000 description 3
- 208000003443 Unconsciousness Diseases 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 210000003141 lower extremity Anatomy 0.000 description 2
- 206010063385 Intellectualisation Diseases 0.000 description 1
- 230000032683 aging Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 229910003460 diamond Inorganic materials 0.000 description 1
- 239000010432 diamond Substances 0.000 description 1
- 230000004064 dysfunction Effects 0.000 description 1
- 230000036541 health Effects 0.000 description 1
- 210000000629 knee joint Anatomy 0.000 description 1
- 238000012423 maintenance Methods 0.000 description 1
- 230000000737 periodic effect Effects 0.000 description 1
- 230000002980 postoperative effect Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61H—PHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
- A61H3/00—Appliances for aiding patients or disabled persons to walk about
- A61H3/04—Wheeled walking aids for patients or disabled persons
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61H—PHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
- A61H3/00—Appliances for aiding patients or disabled persons to walk about
- A61H3/04—Wheeled walking aids for patients or disabled persons
- A61H2003/046—Wheeled walking aids for patients or disabled persons with braking means
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61H—PHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
- A61H2201/00—Characteristics of apparatus not provided for in the preceding codes
- A61H2201/50—Control means thereof
- A61H2201/5007—Control means thereof computer controlled
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61H—PHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
- A61H2201/00—Characteristics of apparatus not provided for in the preceding codes
- A61H2201/50—Control means thereof
- A61H2201/5058—Sensors or detectors
- A61H2201/5071—Pressure sensors
Landscapes
- Health & Medical Sciences (AREA)
- Epidemiology (AREA)
- Pain & Pain Management (AREA)
- Physical Education & Sports Medicine (AREA)
- Rehabilitation Therapy (AREA)
- Life Sciences & Earth Sciences (AREA)
- Animal Behavior & Ethology (AREA)
- General Health & Medical Sciences (AREA)
- Public Health (AREA)
- Veterinary Medicine (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
- Rehabilitation Tools (AREA)
Abstract
本发明涉及一种步行训练机器人行走意图识别方法,用压力传感器采集用户借助WTR进行多方向步行训练时的多组前臂压力数据,并计算各方向压力数据的均值和标准差;基于均值和标准差对所测数据进行模糊化处理,建立方向意图识别模糊前件的隶属度函数和模糊规则;基于距离型模糊推理进行静态方向意图的预推理及判断;针对识别的静态方向意图引入置信系数并设置阈值,区分方向意图过渡阶段与身体摆动,实现动态方向意图识别;建立速度意图与行走频率之间的线性关系,并基于高斯分布函数将压力传感器测量的信息相融合,提供受试者SIT识别的最佳估计。本发明解决现有方法存在由于用户身体摇摆导致识别精度差,未考虑行走速度的行走意图判断不准确问题。
Description
技术领域
本发明涉及步行训练机器人(Walking Training Robot,WTR)技术领域,具体涉及一种WTR行走意图识别方法。
背景技术
随着老龄化社会的到来,老年人口迅速增加;另外,残疾人数量不断增加,医院和家庭对智能康复设备的需求越来越大,因此世界各国都十分重视康复医疗机器人的研究工作。由于步行对于人的生活质量及健康维持十分重要,因此WTR成为医疗康复机器人中一个重要方面,在下肢功能障碍患者的日常起居与下肢术后康复过程中,WTR可以极大减轻患者与理疗师的负担,提高训练效果与持续时间而被广泛应用。
在WTR执行被动训练任务时,为提高便利性及实现智能化,如何准确识别患者运动方向意图成为重要研究内容,现有的通过手柄操纵、语言交互、姿势识别及生物电信号交互等方法,但存在可操作性及便利性差、信号不确定性大、系统稳定性低、行走意图判断不准确的情况,甚至发生患者跌倒、移动平台拖拽患者等危险情况。
发明内容
本发明要解决的技术问题在于:针对现有技术存在的不足之处,本发明提出一种考虑步行速度的动态WTR行走意图识别方法,其目的在于解决现有方法存在由于用户身体摇摆导致识别精度差,及未考虑行走速度的行走意图判断不准确问题。
技术方案:
一种步行训练机器人行走意图识别方法,该方法步骤如下:
(1)、用压力传感器采集用户借助WTR进行多方向步行训练时的多组前臂压力数据,并计算各方向压力数据的均值和标准差;
(2)、基于步骤(1)的均值和标准差对所测数据进行模糊化处理,建立方向意图识别模糊前件的隶属度函数和模糊规则;
(3)、基于距离型模糊推理进行静态方向意图的预推理及判断;
(4)、针对步骤(3)识别的静态方向意图引入置信系数并设置阈值,区分方向意图过渡阶段与身体摆动,实现动态方向意图识别;
(5)、建立速度意图与行走频率之间的线性关系,并基于高斯分布函数将压力传感器测量的信息相融合,提供受试者SIT识别的最佳估计。
进一步的,步骤(1)中前臂压力数据是采集的人上臂压力数据,由安装在臂支撑板下的6个压力传感器检测用户朝8个方向行走时,左右前臂的腕部、肘部、及腕部和肘部中间部位对臂支撑板的压力,并求出多次测量数据的均值和标准差。
进一步的,用户借助WTR进行多方向步行训练,设用户为原点,用户站在机器人中的朝向定为90°,8个基本方向向量定义为:B1=|1|∠0°,B2=|1|∠45°,B3=|1|∠90°,B4=|1|∠135°,B5=|1|∠180°,B6=|1|∠225°,B7=|1|∠270°,B8=|1|∠315°。进一步的,步骤(2)中方向意图识别的模糊规则为:
Rulei:If x1=Ai1,x2=Ai2,x3=Ai3,x4=Ai4,x5=Ai5,x6=Ai6,thenβ=Bi (1)
式中,i是从1到8的整数,共8条模糊规则;x1到x6指模糊规则的前件,分别由6个压力传感器的测量值构成,其隶属度函数A1到A6为标准的三角型,中间位置为传感器测量值的均值,宽度为传感器测量值标准差的2倍,高度为标准值1;β为模糊推理的后件,由单值B表示其隶属度函数,一共包含8个方向。
进一步的,步骤(2)中距离型模糊推理中,第i个规则Aij的第j个先行三角型模糊集和事实模糊单例Aj之间的距离dij计算公式为:
第i个模糊规则的前因和事实Aj之间的距离di计算公式为:
式(2)、(3)中,i是从1到8的整数,j是从1到6的整数;Aij表示公式(1)中所示第i个模糊规则的第j个先行隶属度函数;Aj为事实的单值隶属度函数,表示第j个压力传感器测得的当前值。
进一步的,步骤(4)中引入置信系数进行改进,以识别动态DIT,步骤如下:(4-1)、首先定义每个方向意图向量由两部分组成,包括角度向量与其对应的置信系数,每个角度的置信系数γi可以用公式(4)计算:
式中,n为常数8,di是由步骤(3)的公式(3)求得距离,i、j是从1到8的整数,γi的范围是0到1,当压力数据完全符合某个模糊规则i时,γi是1;
(4-2)、方向意图向量β计算公式为:
其中,n为常数8,γi为置信系数,γi从0变化到1,Bi表示步骤(1)所定义的8个基本方向角;
(4-3)、基于置信系数γ来判断识别是否受到潜意识身体摆动的影响。进一步的,速度意图的结果vi可以表示为:
vi=W-wi (6)
式中,wi是PVS的正峰宽;W表示为建立一个与SIT正相关的特征。进一步的,步骤(5)中压力传感器不同测量值的信息相互融合,以提供受试者SIT识别的最佳估计,信息融合过程如下:
1)、首先对6个压力传感器进行判断,基于压力传感器的传感器信号功率E作为标准判断每个压力传感器是否是当前速度识别的关键因素;设置采样时间T内,第i个传感器的能量功率Ei为:
式中,fi(t)为第i个压力传感器在设定周期T内的实时测量值;
2)、基于各传感器能量占6个压力传感器能量之和的比例计算出各个压力传感器的估计权重,表示为:
式中,Ei是第i个传感器信号能量,6个压力传感器的总能量表示为∑E,ξi表示为第i个传感器对SIT的估计权重。
进一步的,SIT识别的最终高斯概率分布函数表示为:
式中,r表示高斯概率密度函数的自变量,μi=vi表示高斯概率密度函数的平均值,由公式(6)所得第i个压力传感器的速度估计值;σi=ξi表示高斯概率密度函数的标准差ξi,指由公式(8)所得第i个压力传感器的估计权重,公式(10)求的6个高斯概率密度函数乘积所得的新均值μ即为SIT识别结果v。
优点及效果:
针对目前所存在的问题,为使WTR顺应人的行走意图辅助康复训练,避免行走过程中摔倒,本申请提出一种WTR行走意图识别方法,该方法主要基于WTR支撑平台的六个压力传感器,利用人借助WTR行走时身体无意识朝行走方向倾斜的习惯进行行走意图识别,无需特意操作且WTR可实现全方向步行训练。另外,使用者不用穿戴传感器且环境中无需设置传感器,对使用环境无特殊要求。具体而言,首先根据压力传感器提取的特征基于距离型模糊推理进行静态方向意图(Directional Intent,DIT)识别,然后通过对角度进行置信区间分析解决身体摇摆对DIT识别精度的影响,实现动态DIT识别。然后,提出一种基于高斯概率密度函数的方法,基于身体摇摆频率与行走速度的关系实现速度意图(Speed Intent,SIT)识别。用户的DIT识别和SIT识别也可以被高精度识别。最后,通过大量实验验证所提方法的有效性。
通过本发明的实施,一方面,通过对识别角度进行置信区间分析改进了已有基于距离型模糊推理方法的静态DIT识别解决不了身体摆动问题的缺点,实现动态DIT,提高DIT识别精度。另一方面,提出了SIT方法,使用户可以在没有额外负担的情况下主动控制WTR的运动,有效的避免了危险情况的发生。
附图说明
图1为本发明WTR机械结构和力传感器位置示意图;
图2为本发明WTR的坐标系示意图;
图3为本发明人向左行走意图识别方案示意图;
图4为本发明DIT为β=168.2°时各个角度雷达示意图;
图5为本发明人体行走过程中6个压力传感器检测数据示意图;
图6为本发明被试沿45°方向行走时静态DIT识别结果示意图;
图7为本发明被试沿45°方向行走时的置信系数示意图;
图8为本发明目标DIT在90°和135°之间改变时静态DIT识别结果示意图;
图9为本发明目标DIT在90°和135°之间改变时置信系数示意图;
图10为本发明PVS的峰宽特征示意图;
图11为本发明用于视觉反馈的用户界面示意图;
图12为本发明一种等步长DIT增值序列实验的静态DIT识别结果示意图;
图13为本发明一种随机DIT实验的静态DIT识别结果示意图;
图14为本发明两种实验静态DIT识别误差示意图;
图15为本发明动态步行过程中静态和动态DIT识别结果示意图;
图16为本发明动态步行过程中置信系数示意图;
图17为本发明进行SIT识别实验时6个压力传感器检测数据示意图;
图18为本发明SIT识别结果示意图;
图19为本发明模拟三种残疾水平示意图;
图20为本发明被试者A伤残等级设置为SDL1时路径跟踪结果示意图;
图21为本发明被试者A伤残等级设置为SDL2时路径跟踪结果示意图;
图22为本发明被试者A伤残等级设置为SDL3时路径跟踪结果示意图;
图23为本发明被试者B伤残等级设置为SDL1时路径跟踪结果示意图;
图24为本发明被试者B伤残等级设置为SDL2时路径跟踪结果示意图;
图25为本发明被试者B伤残等级设置为SDL3时路径跟踪结果示意图;
图26为本发明被试者A伤残等级设置为SDL1时穿越减速区时PVS示意图;
图27为本发明被试者A伤残等级设置为SDL1时穿越减速区时SIT识别结果示意图;
图28为本发明被试者B伤残等级设置为SDL1时穿越减速区时PVS示意图;
图29为本发明被试者B伤残等级设置为SDL1时穿越减速区时SIT识别结果示意图;
图中标注:1、支撑平台,11、臂支撑板,12、连接板,2、支腿,3、全向轮,4、控制面板,5、压力传感器。
具体实施方式
以下结合说明书附图更详细的说明本发明。
本课题组前期的研究成果已实现静态步行DIT识别,基于距离型模糊推理方法利用使用者的前臂对机器人的压力进行方向意图判断,未考虑使用者行走过程中的身体摇摆问题即步行方向的动态问题,显著影响方向意图识别准确率,导致用户行走过程中仍存在摔倒的潜在危险。另一方面,尚未考虑用户的步行速度,而步行速度在步行训练的准确实施中也十分重要,对实现机器人的智能化训练具有重要的理论意义和实用价值。因此,本发明首先对识别得静态方向意图进行置信区间分析,通过对该置信区间设置阈值来区别识别得角度是由有效方向意图改变还是身体摆动所引起,从而解决身体摇摆对静态识别精度的影响,实现动态方向意图识别。然后基于行走速度和人体摇摆频率之间的关系,并且基于高斯分布函数将压力传感器测量的信息相融合,考虑个体及行为差异的情况下进行速度意图计算,实现速度意图的最佳识别。
本发明在前期WTR行走意图识别研究的基础上,进行了改进,主要在以前的静态步行DIT识别的基础上进行置信区间分析,解决使用者行走过程中的身体摇摆问题即步行方向的动态问题,实现动态方向意图识别。另一方面,尚未考虑用户的步行速度,而步行速度在步行训练的准确实施中也十分重要,因此,本发明基于行走速度和人体摇摆频率之间的关系,并且基于高斯分布函数将压力传感器测量的信息相融合,考虑个体及行为差异的情况下进行速度意图计算,实现速度意图的最佳识别。
如图1所示,WTR包括支撑平台1、支腿2、全向轮3、控制面板4和压力传感器5,支腿2下方设置有全向轮3便于WTR灵活移动,支腿2上方设置有支撑平台1,支持平台1由两侧的臂支撑板11和中间的连接板12组成,连接板12上设置有控制面板4,臂支撑板11上均设置有6个压力传感器5,压力传感器5控制面板4线连接。6个压力传感器5分别安装在左右臂支撑板11上各3个,左右臂的压力传感器5并排安装,每个压力传感器5都间隔相同的距离,确保可以检测到用户左右前臂相同的部位。当用户支撑在臂支撑板11上进行8个方向步行训练时,安装在WTR臂支撑板11下的6个压力传感器5检测左右前臂的腕部、肘部、及两者中间部位对机器人臂支撑板11的压力。
一种步行训练机器人(WTR)行走意图识别方法,该步骤如下:
(1)、用压力传感器采集用户借助WTR进行多方向步行训练时的多组前臂压力数据,并计算各方向压力数据的均值和标准差;
压力传感器5分别标记为S_LB(左前臂肘部)、S_LM(左前臂中部)、S_LF(左前臂腕部)、S_RB(右前臂肘部)、S_RM(右前臂中部)、S_RF(右前臂腕部);
用户站在WTR内部进行步行训练时,为了识别用户的行走方向意图,将人行走的方向平均分为8个扇形区域,每个扇形区域代表一个方向,每个方向都有一个向量βi,因此,方向意图向量β是β1到β8的向量和。设人为原点,用户站在机器人中的朝向定为90°,逆时针旋转得到8个基本方向。8个基本方向向量分别表示为Β1=|1|∠0°,B2=|1|∠45°,B3=|1|∠90°,B4=|1|∠135°,B5=|1|∠180°,B6=|1|∠225°,B7=|1|∠270°,B8=|1|∠315°。6个压力传感器5采集用户使用WTR进行8个方向步行训练时左右前臂的腕部、肘部、及两者中间部位对WTR支撑板11的压力;
(2)、基于步骤(1)的均值和标准差对所测数据进行模糊化处理,建立方向意图识别模糊前件的隶属度函数和模糊规则;
基于步骤1中所得压力数据的均值和标准差构成模糊规则前件的隶属度函数,并建立方向意图识别的模糊规则,如式(1)所示:
Rulei:If x1=Ai1,x2=Ai2,x3=Ai3,x4=Ai4,x5=Ai5,x6=Ai6,thenβ=Bi (1)
式中,i是从1到8的整数,表示8条模糊规则。x1到x6指模糊规则的前件,分别由6个压力传感器5的测量值构成,其隶属度函数A1到A6为标准的三角型,中间位置为压力传感器5测量值的均值,宽度为压力传感器5测量值标准差的2倍,高度为标准值1;β为模糊推理的后件,由单值角度向量B表示其隶属度函数,一共包含8个方向;
(3)、基于距离型模糊推理进行静态方向意图的预推理及判断;
步骤(2)中模糊规则由于附近的模糊集很有可能没有交集,因此采用了距离型推理方法来解决这个问题。距离型模糊规则方法中,第i条模糊规则的第j个先行三角型模糊集Aij和事实模糊单值Aj之间的距离dij计算公式为:
式中,i是从0到8的整数,j是从0到6的整数,k是从1到2的整数;Aij表示公式(1)中所示第i个模糊规则的第j个先行隶属度函数;Aj为事实的单值隶属度函数,表示第j个压力传感器5测得的当前值。
则,第i个模糊规则的前因和第j个事实Aj之间的距离di计算公式为:
然后根据事实与各规则之间的距离大小构成权重,建立解模糊函数来推出该事实所对应的方向意图。
(4)、针对步骤(3)识别的静态方向意图引入置信系数并设置阈值,区分方向意图过渡阶段与身体摆动,实现动态方向意图识别;
引入置信系数进行改进,以识别动态DIT,具体步骤如下:
(4-1)、首先定义每个方向意图向量由两部分组成,包括角度向量B与其对应的置信系数γ。第i个角度向量Bi的置信系数γi可以用公式(4)计算:
式中,n为常数8,di是由步骤(3)的公式(3)求得距离,i、j是从1到8的整数,γi的范围是0到1,当压力数据完全符合某个模糊规则i时,γi是1。
(4-2)、方向意图向量β计算公式为:
然后,基于最接近识别角度β的一个角度的置信系数γ来判断识别是否受到潜意识身体摆动的影响。用户行走时由于身体摆动会引起识别得方向角度变化,其相应γ也随之变化,且变化值比较大,在某些时期其最小值甚至小于0.3。相反,当用户真正打算改变行走方向时,γ也会变化,但其最小值不会降低到0.7以下。因此本发明通过对角度的置信系数定义一个阈值δ,只有当γ高于δ时,当前识别的角度才被认为是有效的,否则系统应该继续原来的方向。通过调整δ值,可提高动态型DIT识别的准确性。(5)、建立速度意图与行走频率之间的线性关系,并基于高斯分布函数将压力传感器测量的信息相融合,提供受试者SIT识别的最佳估计。
根据步态特征分析人体行走时身体存在无意识周期性摆动,且摆动频率随个体行走速度的变化而变化。另外,基于多次实验测试观察知由人体摆动引起的压力传感器变化速度(Pressure Variation Speed,PVS)几乎不受个体特征的影响,因此可以基于PVS进行速度意图的识别。PVS峰值宽度是一种与行走频率密切相关的理想特征,因此可基于PVS峰值宽度进行速度意图的识别。用户行走时步态周期分为迈步相和支撑相,迈步相时手臂对机器人压力比较明显且规律,表现为PVS的正峰宽。而支撑相对机器人的压力往往属于无意识行为,呈负趋势。因此,可基于正峰宽执行SIT,PVS的正峰宽越大,SIT识别得速度越小。
SIT的结果vi可以表示为公式(6)所示:
vi=W-wi (6)
式中,wi是PVS的正峰宽;W表示为建立一个与SIT正相关的特征,vi表示估计得速度。
将6个传感器不同测量值的信息相互融合,以提供受试者SIT识别的最佳估计,信息融合过程如下:
1)、首先对6个压力传感器5进行判断,基于压力传感器5的传感器信号功率E作为标准判断每个压力传感器5是否是当前速度识别的关键因素。设置采样时间T内,第i个压力传感器5的能量功率Ei为:
fi(t)为第i个压力传感器5在设定周期T内的实时测量值。
2)、然后,基于各传感器能量占6个压力传感器5能量之和的比例计算出各个压力传感器5的估计权重,表示为:
式中,Ei是第i个传感器信号能量,6个压力传感器5的总能量表示为∑E,ξi表示为第i个压力传感器5对SIT的估计权重。
3)、通过高斯概率密度函数对SIT进行估计。首先建立每个压力传感器5的高斯函数pi如公式(9)所示:
式中,μi=vi,高斯概率密度函数的平均值是vi,指由公式(6)所得第i个压力传感器5的速度估计值;σi=ξi,高斯概率密度函数的标准差ξi,指由公式(8)所得第i个压力传感器5的估计权重。
基于两个高斯概率密度函数的乘积仍是一个高斯概率密度函数的特性进行多传感器高斯概率密度函数的叠加。因此,包含速度估计的最终高斯概率密度函数表示为公式(10)所示:
尤其基于其均值叠加特性,融合一个检测周期内6个传感器的数据后可获得SIT为v,为由公式(10)求得6个高斯概率密度函数乘积所得的新均值μ。
本发明通过对识别角度进行置信区间分析改进了已有基于距离型模糊推理方法的静态DIT识别解决不了身体摆动问题的缺点,实现动态DIT,提高DIT识别精度。另一方面,提出了SIT方法,使用户可以在没有额外负担的情况下主动控制WTR的运动,有效的避免了危险情况的发生。
下面结合附图对本发明做进一步详细说明:
本发明使用WTR作为实验平台、6个压力传感器5用于采集上臂压力数据,如图1所示,分别标记为S_LB、S_LM、S_LF、S_RB、S_RM、S_RF。对WTR建立坐标系如图2所示,DIT用β来描述,β表示右方向(沿x,轴)和DIT本身之间的角度。用户期望保持的行走速度被称为SIT,用ν表示,ν是WTR局部坐标系相对于全局坐标系的速度。图3是DIT识别流程,以用户向左行走意图为例,用户身体下意识向左倾斜,前臂支撑板11两端压力分布发生明显变化,压力传感器5的值也相应变化,再对置信系数设定合适的阈值排除身体摇摆的影响,确定识别角度使得WTR遵循用户向左行走的意图。
(a)静态DIT识别
为识别用户的行走DIT,将人行走的方向平均分为8个扇形区域如图4所示,每个扇形区域代表一个方向对应一个角度向量Bi。每个角度的扇形半径用其对应的置信系数γi表示,因此DIT向量β是由8个向量B1到B8的基于各自扇形半径(γi)的加权和,如图4彩色部分为DIT向量β=168.2°各角度扇形区域的权重。
(b)动态DIT识别
然而,在实际行走过程中,人体会下意识地左右摆动,因此,当朝某个固定方向意图行走时,压力传感器值仍会显示如图5所示的波动。这种身体摆动会显著影响DIT识别结果。例如,当要求受试者朝75°方向行走,其DIT识别结果如图6所示,识别方向角在50°和100°之间波动变化,最大误差至35°。因此,在获得DIT之后,下一个必不可少的步骤就是判断识别结果是否受潜意识身体摆动的影响。由多次测试实验得知,当识别得DIT变化是由身体摆动引起时,其置信系数γ也会随之明显变化,识别得DIT也会有变化,但是不是变化幅度不是很大。例如,如图7所示,当识别得DIT变化是由身体摆动引起时,其置信系数γ在某些时刻甚至小于0.3。相反地,当受试者真正改变行走方向时,例如朝90°和135°两个方向之间切换时,其DIT识别结果如图8所示。同时,其对应的置信系数γ如图9所示,虽然也会不断变化,但不会小于0.7。因此,当受试者处于身体摆动过程中时,γ往往较低,而被识别的方向接近DIT的真实值时,γ往往保持较高。因此,可通过对置信系数γ设置阈值δ,当γ大于δ时识别得DIT才有效,否则应持续原方向,提高动态DIT识别的准确性。
(c)SIT识别
由于身体摆动的频率随着使用者的行走速度而变化,由多次测试实验得行走时身体摆动频率与SIT呈线性相关关系。本发明认为压力传感器的PVS几乎不受个体特征的影响。峰宽是一种与行走频率密切相关的理想特征,标记为w1,w2,w3的三个峰的宽度如图10所示。用户行走时步态周期分为迈步相和支撑相,迈步相时手臂对机器人压力比较明显且规律,表现为PVS的正峰宽。而支撑相对机器人的压力往往属于无意识行为,呈负趋势。因此,可基于正峰宽执行SIT,正峰宽越大,SIT识别得速度越小。
(d)识别结果的验证
为了验证识别方法的准确性,将人的DIT与识别结果之间的偏差用εr表示,人的DIT和实施方向(意图方向和实际执行方向之间)之间的偏差用εb来表示。很显然εr受到εb的影响,因此,直接判断εr并不是评价DIT识别方法准确性的完美方式。人类向一个方向行走的过程可以分为两个阶段:在第一阶段,人们会基于经验和直觉走向目标方向,通常结果或多或少会与意图不同;在第二阶段,人会基于自身的视觉反馈对自身实际执行方向进行微调,最终以期望精度跟随方向意图。鉴于以上描述,受试者的视觉反馈对实验至关重要,其对目标行走方向与实际行走方向之间偏差的准确判断显著影响实验结果。然而由于人体视觉判断方面的能力存在明显个体差异和时间间隔差异,会给识别系统带来不可量化的不确定性干扰。因此,本发明设计一种模拟视觉反馈过程的虚拟视觉反馈界面,向受试者提供一个简单但直观的图形用户界面,减小视觉反馈不确定性带来的影响。如图11所示,该界面具有目标DIT的变化值和识别结果的偏差值εr,左侧为目标DIT变化值,右侧表示当前偏差估计值。在实验中,受试者被要求遵循界面左侧显示的目标方向意图变化来执行行走方向变化,并不断根据界面显示的偏差值调整执行方向行为,使其尽量为零。
(d-i)静态DIT识别验证
本发明进行了两种类型的定向DIT改变实验,图12表示标准的等步长DIT增值序列实验的识别结果,而图13是一种随机序列实验(更接近实际应用)的识别结果。实验结果显示,基于所提出的DIT识别方法,受试者能够精确地操作WTR并以可允许的精度跟踪给定的目标角度变化。而且只有当目标DIT变化较大时才会产生较大的识别偏差,且偏差仅受被试者响应速度的影响,与本发明所提方法的识别精度无关。如图14所示目标角度变化时,两种实验的识别误差均在±5°以内,完全满足日常对方向意图改变的操作精度要求。
(d-ii)动态DIT识别验证
当意图方向处于动态过渡过程,其基于静态DIT识别结果如图15实线所示。为了比较,同样的测试数据基于动态DIT识别方法,其中只有识别的角度β拥有高于选定的γ值时(本例中为0.5)如图16所示,其识别结果才被认为有效,因此动态识别结果如图15中虚线所示。因此基于动态DIT识别方法可以更有效地减小身体摇摆产生的影响,使识别DIT更加流畅,与方向改变过程匹配更好。
(d-iii)SIT识别验证
与行走方向相比,人们对行走速度的操控能力更差,在步行训练中很难保持某个特定速度行走,同时这也是也是无意义的。通常的速度控制模式是当用户感到需要调整速度时进行“减速”或“加速”。因此,SIT识别验证实验设定为,受试者被要求朝一个方向走,在经过标记区域时放慢速度,然后恢复速度,图17是6个传感器检测5的PVS数据。图17显示传感器检测5的总体趋势是相似的,且可以看出PVS数据和SIT之间强而清晰的相关性。速度识别结果如图18所示。
(d-iv)路径跟踪实验验证
行走意图识别的最终目的是允许在主动训练期间自由控制WTR的方向和速度,因此,提出路径跟踪的验证方法。为验证受试者的意图跟踪精度,在地面上标记了正方形和菱形两种预定路径,另外目标路径上深灰色段标注表示减速区,受试者穿过减速区时,行走速度应该降低。为了模拟下肢障碍者,本发明使用一种能够限制关节角度的膝关节支架,将支架绑在受试者的两腿上,通过设置不同的限制角度来模拟不同程度的残疾水平,如图19所示,实现了三个模拟残疾水平(Simulated Disability Level,SDL),标记为SDL1、SDL2和SDL3。招募两名受试者A和B参与了路径跟踪实验。所有的受试者都被要求尽可能准确地遵循目标路径和速度要求。受试者A完成了3次正方形路径跟踪试验,受试者B完成了3次菱形路径跟踪试验,两次试验的残疾等级都设置为SDL1、SDL2和SDL3。WTR的位置信息是通过室内定位设备获得,四个基站放置在实验区的四个角上,信号标记在WTR上,WTR的位置以50Hz的频率更新。图20为受试者A残疾等级设置为SDL1时跟踪正方形路径的结果,路径中未设置减速带。其中期望路径用实线表示,WTR行走的实际路径用点线表示,减速区域和开始/停止点被标记。图21为受试者A残疾等级设置为SDL2时跟踪正方形路径的结果,路径中设置减速带。其中期望路径用实线表示,WTR行走的实际路径用点线表示。图22为受试者A残疾等级设置为SDL3时跟踪正方形路径的结果,路径中未设置减速带。其中期望路径用实线表示,WTR行走的实际路径用点线表示。图23为受试者B残疾等级设置为SDL1时候的跟踪棱形路径的结果,路径设置减速带。其中期望路径用实线表示,WTR行走的实际路径用点线表示,减速区域和开始/停止点被标记。图24为受试者B残疾等级设置为SDL2时跟踪棱形路径的结果,路径未设置减速带。其中期望路径用实线表示,WTR行走的实际路径用点线表示。图25为受试者B残疾等级设置为SDL3时跟踪棱形路径的结果,路径未设置减速带。其中期望路径用实线表示,WTR行走的实际路径用点线表示。如图20到图25所示的路径跟踪结果得知,虽然由定位设备引起了系统噪声,但是参与者仍能够以可接受的精度跟踪路径。不同SDL的受试者结果中没有发现明显差异。因此,可以看到该系统能够在各种有行走障碍的用户的情况下稳定运行。
图26所示为受试者A残疾等级设置为SDL1时穿越减速区域过程的原始PVS数据图,图27所示为受试者A残疾等级设置为SDL1时穿越减速区域过程的SIT识别结果。图28所示为受试者B残疾等级设置为SDL1时穿越减速区域过程的原始PVS数据图,图29所示为受试者B残疾等级设置为SDL1时穿越减速区域过程的SIT识别结果。结果显示用户可以在没有额外负担的情况下主动控制WTR运动,WTR可以以高精度实现加速或减速运动。
Claims (1)
1.一种步行训练机器人行走意图识别方法,其特征在于:该方法步骤如下:
(1)、用压力传感器(5)采集用户借助WTR进行多方向步行训练时的多组前臂压力数据,并计算各方向压力数据的均值和标准差;
(2)、基于步骤(1)的均值和标准差对所测数据进行模糊化处理,建立方向意图识别模糊前件的隶属度函数和模糊规则;
(3)、基于距离型模糊推理进行静态方向意图的预推理及判断;
(4)、针对步骤(3)识别的静态方向意图引入置信系数并设置阈值,区分方向意图过渡阶段与身体摆动,实现动态方向意图识别;
(5)、建立速度意图与行走频率之间的线性关系,并基于高斯分布函数将压力传感器(5)测量的信息相融合,提供受试者SIT识别的最佳估计;
步骤(1)中前臂压力数据是采集的人上臂压力数据,由安装在臂支撑板(11)下的6个压力传感器(5)检测用户朝8个方向行走时,左右前臂的腕部、肘部、及腕部和肘部中间部位对臂支撑板(11)的压力,并求出多次测量数据的均值和标准差;
用户借助WTR进行多方向步行训练,设用户为原点,用户站在机器人中的朝向定为90°,8个基本方向向量定义为:B1=|1|∠0°,B2=|1|∠45°,B3=|1|∠90°,B4=|1|∠135°,B5=|1|∠180°,B6=|1|∠225°,B7=|1|∠270°,B8=|1|∠315°;
步骤(2)中方向意图识别的模糊规则为:
Rulei:If x1=Ai1,x2=Ai2,x3=Ai3,x4=Ai4,x5=Ai5,x6=Ai6,thenβ=Bi (1)
式中,i是从1到8的整数,共8条模糊规则;x1到x6指模糊规则的前件,分别由6个压力传感器(5)的测量值构成,其隶属度函数A1到A6为标准的三角型,中间位置为传感器测量值的均值,宽度为传感器测量值标准差的2倍,高度为标准值1;β为模糊推理的后件,由单值B表示其隶属度函数,一共包含8个方向;
步骤(3)中距离型模糊推理中,第i个规则Aij的第j个先行三角型模糊集和事实模糊单例Aj之间的距离dij计算公式为:
第i个模糊规则的前因和事实Aj之间的距离di计算公式为:
式(2)、(3)中,i是从1到8的整数,j是从1到6的整数;Aij表示公式(1)中所示第i个模糊规则的第j个先行隶属度函数;Aj为事实的单值隶属度函数,表示第j个压力传感器(5)测得的当前值;
步骤(4)中引入置信系数进行改进,以识别动态DIT,步骤如下:
(4-1)、首先定义每个方向意图向量由两部分组成,包括角度向量与其对应的置信系数,每个角度的置信系数γi可以用公式(4)计算:
式中,n为常数8,di是由步骤(3)的公式(3)求得距离,i、j是从1到8的整数,γi的范围是0到1,当压力数据完全符合某个模糊规则i时,γi是1;
(4-2)、方向意图向量β计算公式为:
其中,n为常数8,γi为置信系数,γi从0变化到1,Bi表示步骤(1)所定义的8个基本方向向量;
(4-3)、基于置信系数γ来判断识别是否受到潜意识身体摆动的影响;
速度意图的结果vi可以表示为:
vi=W-wi (6)
式中,wi是PVS的正峰宽;W表示为建立一个与SIT正相关的特征;
步骤(5)中压力传感器(5)不同测量值的信息相互融合,以提供受试者SIT识别的最佳估计,信息融合过程如下:
1)、首先对6个压力传感器(5)进行判断,基于压力传感器(5)的传感器信号功率E作为标准判断每个压力传感器(5)是否是当前速度识别的关键因素;设置采样时间T内,第i个传感器的能量功率Ei为:
式中,fi(t)为第i个压力传感器(5)在设定周期T内的实时测量值;
2)、基于各传感器能量占6个压力传感器(5)能量之和的比例计算出各个压力传感器(5)的估计权重,表示为:
式中,Ei是第i个传感器信号能量,6个压力传感器(5)的总能量表示为∑E,ξi表示为第i个传感器对SIT的估计权重;
SIT识别的最终高斯概率分布函数表示为:
式中,r表示高斯概率密度函数的自变量,μi=vi表示高斯概率密度函数的平均值,由公式(6)所得第i个压力传感器(5)的速度估计值;σi=ξi表示高斯概率密度函数的标准差ξi,指由公式(8)所得第i个压力传感器(5)的估计权重,公式(10)求的6个高斯概率密度函数乘积所得的新均值μ即为SIT识别结果v。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110550427.9A CN113288736B (zh) | 2021-05-20 | 2021-05-20 | 一种步行训练机器人行走意图识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110550427.9A CN113288736B (zh) | 2021-05-20 | 2021-05-20 | 一种步行训练机器人行走意图识别方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113288736A CN113288736A (zh) | 2021-08-24 |
CN113288736B true CN113288736B (zh) | 2023-04-28 |
Family
ID=77323045
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110550427.9A Active CN113288736B (zh) | 2021-05-20 | 2021-05-20 | 一种步行训练机器人行走意图识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113288736B (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114371695B (zh) * | 2021-12-02 | 2022-09-16 | 南方科技大学 | 落脚点位置确定方法、装置、设备及存储介质 |
CN117100564B (zh) * | 2023-10-25 | 2024-01-09 | 西南石油大学 | 一种可判断摔倒的助行支架及其摔倒判断方法 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013111118A (ja) * | 2011-11-25 | 2013-06-10 | Tomohito Takubo | 歩行補助装置 |
CN104523403A (zh) * | 2014-11-05 | 2015-04-22 | 陶宇虹 | 一种判断外骨骼助行机器人穿戴者下肢行动意图的方法 |
CN105527046A (zh) * | 2016-01-12 | 2016-04-27 | 沈阳工业大学 | 手臂支撑平台的接触力、压力检测装置及数据分析方法 |
CN108464915A (zh) * | 2017-02-23 | 2018-08-31 | 松下电器产业株式会社 | 行走辅助机器人以及行走辅助系统 |
CN108844533A (zh) * | 2018-04-24 | 2018-11-20 | 西安交通大学 | 一种基于多传感器融合和姿态解算的自由姿态pdr定位方法 |
CN110405736A (zh) * | 2019-08-07 | 2019-11-05 | 广东博智林机器人有限公司 | 助行控制方法及系统、外骨骼机器人和终端 |
CN112263440A (zh) * | 2020-11-17 | 2021-01-26 | 南京工程学院 | 一种柔性下肢外骨骼与助行器共融康复助力方法及装置 |
CN112274392A (zh) * | 2020-10-14 | 2021-01-29 | 沈阳工业大学 | 一种非接触主被动混合式的助行机器人及控制方法 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101680740B1 (ko) * | 2015-08-31 | 2016-11-30 | 한국과학기술연구원 | 발바닥 굴근 표면 근전도 신호 기반의 보행 속도 의도 인식 방법 및 하지 외골격 로봇의 보행 속도 제어 방법 |
-
2021
- 2021-05-20 CN CN202110550427.9A patent/CN113288736B/zh active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013111118A (ja) * | 2011-11-25 | 2013-06-10 | Tomohito Takubo | 歩行補助装置 |
CN104523403A (zh) * | 2014-11-05 | 2015-04-22 | 陶宇虹 | 一种判断外骨骼助行机器人穿戴者下肢行动意图的方法 |
CN105527046A (zh) * | 2016-01-12 | 2016-04-27 | 沈阳工业大学 | 手臂支撑平台的接触力、压力检测装置及数据分析方法 |
CN108464915A (zh) * | 2017-02-23 | 2018-08-31 | 松下电器产业株式会社 | 行走辅助机器人以及行走辅助系统 |
CN108844533A (zh) * | 2018-04-24 | 2018-11-20 | 西安交通大学 | 一种基于多传感器融合和姿态解算的自由姿态pdr定位方法 |
CN110405736A (zh) * | 2019-08-07 | 2019-11-05 | 广东博智林机器人有限公司 | 助行控制方法及系统、外骨骼机器人和终端 |
CN112274392A (zh) * | 2020-10-14 | 2021-01-29 | 沈阳工业大学 | 一种非接触主被动混合式的助行机器人及控制方法 |
CN112263440A (zh) * | 2020-11-17 | 2021-01-26 | 南京工程学院 | 一种柔性下肢外骨骼与助行器共融康复助力方法及装置 |
Non-Patent Citations (2)
Title |
---|
张涛.全方向康复步行训练机器人的运动意图识别方法研究.中国优秀硕士学位伦文全文数据库.2017,(8),17-39. * |
赵东辉等.基于规则进化模糊系统的步行方向意图识别.仪器仪表学报.2017,38(11),2616-2624. * |
Also Published As
Publication number | Publication date |
---|---|
CN113288736A (zh) | 2021-08-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113288736B (zh) | 一种步行训练机器人行走意图识别方法 | |
Bonnet et al. | Monitoring of hip and knee joint angles using a single inertial measurement unit during lower limb rehabilitation | |
Gao et al. | Abnormal gait recognition algorithm based on LSTM-CNN fusion network | |
US9754158B2 (en) | Training device | |
Schmitz et al. | Accuracy and repeatability of joint angles measured using a single camera markerless motion capture system | |
Galna et al. | Accuracy of the Microsoft Kinect sensor for measuring movement in people with Parkinson's disease | |
Thirunarayan et al. | Comparison of three methods for estimating vertical displacement of center of mass during level walking in patients | |
CN105832343B (zh) | 多维视觉手功能康复定量评估系统和评估方法 | |
CN109953761A (zh) | 一种下肢康复机器人感知系统及运动意图推理方法 | |
Bachynskyi et al. | Is motion capture-based biomechanical simulation valid for hci studies? study and implications | |
CN108634960B (zh) | 一种用于外骨骼穿戴者的步态在线检测方法 | |
CN108338791A (zh) | 失稳运动数据的检测装置及检测方法 | |
Joukov et al. | Online tracking of the lower body joint angles using IMUs for gait rehabilitation | |
Bonnet et al. | Fast determination of the planar body segment inertial parameters using affordable sensors | |
Zhao et al. | Walking assist robot: A novel non-contact abnormal gait recognition approach based on extended set membership filter | |
Abid et al. | Walking gait step length asymmetry induced by handheld device | |
Wang et al. | A new directional-intent recognition method for walking training using an omnidirectional robot | |
Zhang et al. | Back lift versus leg lift: an index and visualization of dynamic lifting strategies | |
Foroutannia et al. | Adaptive fuzzy impedance control of exoskeleton robots with electromyography-based convolutional neural networks for human intended trajectory estimation | |
Takeda et al. | State estimation using the CoG candidates for sit-to-stand support system user | |
Iwasaki et al. | Gait stability index built by kinematic information consistent with the margin of stability along the mediolateral direction | |
Takeda et al. | Human cog estimation for assistive robots using a small number of sensors | |
Fazeli et al. | A virtual environment for hand motion analysis | |
CN208591046U (zh) | 失稳运动数据的检测装置 | |
CN115607899A (zh) | 一种基于虚拟现实的脑卒中肢体康复训练系统及方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |