CN104523403B - 一种判断外骨骼助行机器人穿戴者下肢行动意图的方法 - Google Patents
一种判断外骨骼助行机器人穿戴者下肢行动意图的方法 Download PDFInfo
- Publication number
- CN104523403B CN104523403B CN201410615605.1A CN201410615605A CN104523403B CN 104523403 B CN104523403 B CN 104523403B CN 201410615605 A CN201410615605 A CN 201410615605A CN 104523403 B CN104523403 B CN 104523403B
- Authority
- CN
- China
- Prior art keywords
- wearer
- robot
- intended
- lower limb
- movement
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Landscapes
- Rehabilitation Tools (AREA)
Abstract
本发明提出一种判断外骨骼助行机器人穿戴者下肢行动意图的方法。针对目前外骨骼机器人所采用的跟随人体动作控制方式,或手动操作方式的不足,利用穿戴者上身肩部无意识动作和习惯性注视动作判断其下身运动意图。可以用于控制带有自动平衡功能的外骨骼机器人,帮助穿戴者完成迈步,转向,越障,起坐等常见下肢运动。无需穿戴者下肢先于机器人采取实际的动作,避免了在人机相互作用力上消耗额外的体力。也不需要穿戴者学习专门的外骨骼机器人操作技能,适合弱体力的老年人使用,减轻了其学习外骨骼机器人使用技巧的负担。
Description
技术领域
本发明涉及到可穿戴式下肢外骨骼机器人,具体来说是一种判断外骨骼助行机器人穿戴者下肢行动意图的方法。
背景技术
人类总是无法避免衰老,体力衰老和脑力衰老过程速度不同但相互影响。对于很多老年人,体力特别是下肢衰老后,活动范围受到限制,较少社交活动,生活环境封闭,反过来加速了脑部衰老进程,形成一种恶性循环。随着人口老龄化的程度地加深,年轻劳动力负担社会生产的责任只会越来越重,老年人人均获得的护理服务量极有可能呈现逐步减少的趋势。利用技术手段增加老年人自身的活动能力不失为一种解决办法。常见协助老年人扩大活动范围的装置,如电动轮椅,并不能完全适合楼梯,台阶一类城市生活环境。相应地,可穿戴式助行机器人似乎比轮椅更适合用来帮助老年人行走。
随着技术进步,能用于制造外骨骼机器人的各种关键部件已经变得价格低廉。低功耗高性能的计算机已经普遍装备于智能手机一类的便携式设备中,能产生上百公斤力的小尺寸液压装置在自动化领域中广泛运用。各种压力传感器,角度传感器和陀螺仪等部件已经是成熟的产品。单从成本上来说,助行机器人完全是普通家庭可以轻松负担的。另外,机器人自动平衡技术也在不断进步,穿戴助行机器人就如同坐轮椅一样地简单。比如申请号为CN201310184590的专利请求就提出了一种老年人防摔倒外骨骼助行机器人的控制方法。
但是,到目前为止,外骨骼机器人还只见于军事领域和科技领域的相关报道,很难看到这类产品出现在生活中,帮助老年人解决活动范围受限的痛苦。这是由于目前的外骨骼机器人还缺少一种简便可靠的,识别穿戴者下肢运动意图的方法。
外骨骼机器人必须先要识别出穿戴者的行动意图,然后才能帮助穿戴者实现行动意图。问题在于行动意图是从人意识产生通过神经系统传递到肌肉,整个过程都在人体内部完成。如果不在人体内植入探测器,那就只能在人体外部通过各种间接的方法来测量。申请号为CN201210355661的专利请求提到了一种脑电帽,通过贴在脑外的若干干电极检查大脑兴奋点来判断外骨骼机器人穿戴者的行动意图。不过并没有提到大脑兴奋点是如何具体反映人的运动想法的,其实就目前的科技水平而言,可以直接检测人脑思想的方法还不存在。
其余判断外骨骼机器人穿戴者行动意图的非植入式方法大致可分为两类:跟随人体动作,或者手动操作。这两种方法各有其缺陷,不适合用于以帮助老年人行走为目的外骨骼助行机器人。
跟随人体动作,就是先检测出人体实际的动作,然后外骨骼机器人再对人体运动进行补偿和增强。使用这种方法,穿戴者的运动先要在一定程度上受到外骨骼或传感器的阻碍,然后才能获得外骨骼机器人的助力,这势必增加不必要的体力消耗。例如申请号CN200810214409的专利请求,提出了一种外骨骼系统的力控制方法,通过足底传感器和关节角度传感器实现对人体运动的准确跟踪获取人体运动意图,其效果是减小了人机作用力。而申请号为CN200980118437专利请求,通过某种外骨骼机器人的动作,减少穿戴者氧气损耗,其技术背景中也提到了准被动式外骨骼机器人对穿戴者造成的额外负担。总的来说,通过跟随人体动作来判断穿戴者运动意图的外骨骼机器人,比较适合用于帮助体力正常的穿戴者获取超越人类肌肉极限的力量,比如美国洛克希德.马丁公司的“浩克”,可以帮助穿戴着它的士兵背负91公斤的物资同时保持16公里的步行时速。但这种方法不适合帮助弱体力者维持正常运动。
手动操作,就是穿戴者有意识地操作某种输入设备,将行动意图明确地告诉外骨骼机器人的操作方法。比如直接操作控制面板上的按钮,操纵杆等,例如申请号CN201180018302专利请求所提及的外骨骼机器人带有两个操作手柄。也可能是其它样式的控制装置,例如例如申请号CN201110350834和CN201410160962专利请求所分别提及的外骨骼机器人均利用拐杖来控制。手动操作也可包括其它和穿戴者意图实施的动作无直接关联的手势或姿势,例如申请号CN201180044355专利请求除了拐杖的控制方法,还涉及了一种利用上身和头部动作控制外骨骼机器人下身运动的方法,其实施例中提到利用预定义的上身动作来标示穿戴者运动意图,例如上下拍打上臂三次可以触发外骨骼机器人的“行走模式”,头部前倾表示向前,头部右倾表示右转。总之,手动操作不会让外骨骼机器人对穿戴者的运动意图产生误解,也不会消耗过多的体力,甚至下身运动能力损伤的残疾人也可以使用。比如新西兰雷克斯公司的上市产品Rewalk,该外骨骼机器人是用手柄控制的。不过各种手动操作方法均需要学习相应的操作技能,才能享受到外骨骼机器人带来的便利。考虑到老年人学习新事物能力不能和其年轻的时候相比,存在学习困难,遗忘和混淆操作动作等问题,所以对他们来说,这种方法也不是很适用。
发明内容
本发明针对手动操作的外骨骼助行机器人存在需要额外学习操作技能的不便,提出了一种利用穿戴者上身无意识动作和习惯性动作判断其下肢运动意图的方法。人在长期生活中养成的动作习惯,是不需要额外学习的,而且也包含着丰富的信息。一般人完成下肢行走和起坐动作时,小脑为了维持人体平衡,会带来一系列上身习无意识动作。比如摆动手臂,调节上身重心。还有一些长期养成的习惯,比如注视目标,从坐下起身时双手撑膝盖。因此充分利用上身无意识动作和习惯动作,综合考虑当前姿势,就可以准确地判断下身的行动意图。既不需要下肢产生各种实际的运动同机器人较劲,也不存在学习困难的问题。解决了手动操作方式不直观的问题,适合老年人使用。再考虑到人的双肩中心位置就是脊柱,脊柱支撑着人上身重量,同时手臂也是连接在双肩上的,所以考察手臂摆动情况以及上身重心变化情况通过双肩位置就可以推断出来。因此本发明提出的方法是利用穿戴者肩部,注视方向,以及手撑膝盖等上身无意识习惯动作来判断其下肢行动意图,用于控制带有自动平衡功能的穿戴式下肢外骨骼助行机器人。
对于下肢外骨骼助行机器人来说,主要用途就是帮助穿戴者在各种地形上行走。而无论多么复杂的行走动作,比如速度调节,转向,越障,分解到单个迈步动作,也不过是出哪一只腿,落脚点在什么位置,动作快慢等可以具体量化的问题。所以对穿戴者行走动作意图的判断,就是一次次单独的对其迈步意图进行判断。
为了定量描述落脚点的位置,必须选取一个参考坐标系。如图1所示意,这里选取的是人正常站立时左右方向1为X轴前后方向2为Y轴,中心线3为Z轴,中心线和地面的交点为原点。
一,迈步意图的判断
如图2所示意,人在站立时即将迈步,双腿分为迈步腿6和站立腿7。为了保持平衡,上身会向站立腿方向移动。同时会产生甩手动作,习惯动作是迈步腿一侧的手臂向后运动,站立腿一侧的手向前运动,这导致迈步腿一侧的肩部5向后运动,站立腿一侧的肩膀4向前运动。所以站立情况下下穿戴者迈步意图的肩部姿态判断条件为:
当双肩位置中心向人体一侧偏移,且位于该侧的肩部位置相对在前,另一侧肩部位置相对在后时,即可判断出站立时人的迈步意图,并可以判断出双肩偏向身体一侧的腿为站立腿,另一侧为迈步腿。双肩的前后位置之差应当超过一定的阈值Ystep才能视为有效。
另外当人打算开始行走时习惯看向前方某个位置,若只打算迈出一步时习惯注视着迈步腿的落脚点8,所以需要考察人注视方向和地面的交点到当前站立位置的注视距离10,用L来表示。L的值应当由人身高Huser和注视倾角11来计算,若用A表示注视倾角,L计算公式为:
(1)
因为人不应该埋头行走,特别是几步路的短距离范围内,意图走得越远,就应该看得越远。所以当L小于一定阈值长度Lstop时,机器人仍然保持站立。所以迈步意图的注视方向判断条件为:
当L大于Lstop但小于连续行走需要的阈值长度Lwalk时,机器人只向前迈出一步然后停止重新站立,当L大于连续行走需要的阈值长度Lwalk时,机器人迈步并连续行走。
若机器人连续行走时的步距为Lstep,如图3中的15所示意,那么Lstop取值小于Lstep,Lwalk取值应当大于Lstep;当从站立姿态只迈出一步时,落脚点就是注视点,其位置X, Y可由L和注视方向角11来计算,若用Ad表示注视方向角,X和Y的计算公式为:
(2)
当连续行走时时,落脚点在前方,位置同站立时双足间距Dfoot有关:
迈左脚 (3)
迈右脚 (4)
上下位置Z大多数时候为0,表示落脚点位于地面上。这就判断出了站立时迈步的落脚点意图。
最后,为了避免人体站立时上身随机运动偶然触发机器人对迈步意图的判断,除了应当满足触发迈步意图判断的姿态条件,还应当在相应姿态上保持一定阈值时间,可以选取接近正常速度机器人完成迈出一步所需要的时间Tstep,这样符合从站立状态开始连续行走时双肩前后运动的节奏,穿戴者对机器人熟悉后很容易把握。阈值时间不能太长以避免不好的人机体验,不应超过2倍Tstep,避免穿戴者觉得机器人反映迟钝。
人在连续向前行走时,双腿是交替迈步的,落脚点位置要考虑穿戴者是否需要转向。人在转向时,上身会先朝向意图转向的方向转动, 在完成转向动作的整个过程中保持注视往转向方向。所以,穿戴者转向意图的肩部和注视姿态判断条件为:
穿戴者持续注视一个固定方向且双肩连线朝相同方向转动角度超过阈值角度Aturn时即可判断出其转向意图,并可以确定注视方向角Ad就是转向的目的方向。Aturn的取值应当大于正常行走时双臂习惯性摆动带来的双肩转动角度Aswin。如图3所示意,转向需要通过迈出两步来完成,先迈出意图转向那一侧的腿,比如向左转向需要先迈左腿。具体值和静止站立时机器人双足距离14有关,用Dfoot表示。先迈腿落脚点12位置X,Y可由下列公式计算:
(5)
然后再迈出另一条腿13,其位置X,Y可由下列公式计算:
(6)
人在连续向前行走时,加速时习惯身体前倾,注视向更远的地方,加快手臂摆动速度。减速时身体停止前倾并减慢双臂摆动速度。但是使用助行机器人体验介于乘坐某种交通工具和完全自主行走之间,所以机器人对人的加减速意图的判定既要考虑人行走的习惯,也要考虑其乘坐交通工具时的习惯。当穿戴者注视距离L大于Lacc时,机器人才考虑穿戴者可能存在加速意图。Lacc取值应当不小于Lwalk。当穿戴者注视距离L大于Lacc时,双肩中心位置前倾可以明确地表达穿戴者的加速意图。前倾幅度增大表明穿戴者意图加速,幅度减小表明穿戴者意图减速。若让速度变化正比于倾斜角度的变化,同时考虑到双肩前移距离不会超过Ypitch,迈步时间T计算公式为:
(7)
Ypitch是站立时穿戴者双肩前倾破坏机器人站立平衡的最小距离,Lupperbody是肩部到机器人中心的高度,这两个参数将在后面继续说明。
当穿戴者注视距离L大于Lacc时,且当穿戴者双臂摆动频率和机器人当前迈步频率吻合时,才考虑双肩前后摆动频率变化对速度的影响,双肩摆动频率增加,表明穿戴者意图加速,频率降低表明穿戴者意图减速。此时直接使用本次双肩摆动时间作为下次迈步时间.
当穿戴者注视距离L小于Lacc时,机器人机器人可以借此判断出穿戴者关注附近事物,减速行走的意图,当穿戴者注视距离L小于Lstop时,机器人可以借此判断出穿戴者关注眼前事物,停止行走的意图,机器人停止行走,转为站立。
任何情况下,穿戴者身体后倾都明确表明前方有危险或者想停下一个失控的交通工具,这符合人乘坐交通工具的习惯动作,机器人可以借此判断出穿戴者紧急停止的意图。
越障时落脚点不一定在地平面上,如图4所示意。所以关键在于知道落脚点的高度16,这里用Hfootstep表示。当人行走时发现前方障碍物,并意图越障时,会习惯性地注视着越过障碍物时落脚点的位置。一般体力较弱的人总是习惯先停留在障碍物前,作好蓄力准备后再迈步跨越。
所以机器人判断穿戴者的越障意图分为两个阶段,先获得障碍物的位置和高度,假如抵达障碍物跟前穿戴者继续前进就可以判断出穿戴者具有越障意图。
假如人先后在和两个时间间隔20和21上处于两个不同的位置,其行走距离17用Ldistance表示。注视倾角18和19分别用A1和A2来表示,那么Hfootstep可以计算出来:
(8)
高度可以高于当前地面也可以低于当前地面,对应着上下台阶的情况。随着穿戴者接近障碍物,注视角度会越来越低,这同时符合速度调节意图的判断方法,障碍物与穿戴者距离小于Lstop时,机器人会理解成穿戴者有停止意图,然后停止在距离障碍物大约一步之远的地方。穿戴者必须站里在障碍物前再次坐处迈步习惯动作,机器人就可以判断出穿戴者意图跨越高度为Hfootstep的障碍。该方法同样适合于登楼梯,只要在越障后,穿戴者仍只打算迈出一步,可以继续使用Hfootstep作为抬腿高度,即可实现连续登楼梯的动作。
二,起蹲意图的判断
一般坐下时,人会身体前倾并注视足部附近,起身时,同样身体前倾,特别是体力较弱者习惯用手撑膝盖。所以当机器人处于站立姿态时,检测到双肩位置同时向前移动,并且移动距离接近破坏机器人站立平衡距离Ypitch,且目视距离小于触发迈步需要的距离Lstop,即可判断穿戴者有蹲下意图。此时机器人应当采取蹲下的动作来保持平衡,否机器人只实施站立平衡动作。
当机器人处于坐下姿态时,若检测到使用双肩同时向前移动,超过了保持省力坐姿的位置Ysit,且双手支撑在膝盖上。然后穿戴者保持这种姿态超过一定的阈值时间Tstand,即可判断出穿戴者起身的意图。一般按照起身习惯,身体前倾是为了起身过程中保持平衡,所以Ysit取值应当是人在采取坐姿时大腿的水平长度。Tstand时间长度的选取应当接近机器人完成起身动作的时间,以便于穿戴者把握操作节奏。
这样,利用本发明的方法,通过穿戴者双肩无意识运动和习惯性的注视动作,就可以判断其下肢运动意图。然后用于控制下肢外骨骼机器人的运动。
附图说明
图1为参考坐标系,其中1为X轴,2为Y轴,3为Z轴。
图2为迈步时人肩部位置和注视方向示意图,4为支撑腿一侧肩部,5为迈步腿一侧肩部,6为迈步腿,7为支撑腿,8为落脚点,9为注视倾角,10为迈步距离,11为注视方向角。
图3是转向时双腿落脚点变化示意图,12是第一次迈步腿,13是第二次迈步腿,14是站立时双脚间距,15是外骨骼机器人正常行走的迈步距离。
图4是越障是落脚点高度计算方法的示意图,16为障碍物高度,17是行走距离,18,19分别代表行走期间先后位置上的注视倾角,20,21分别代表行走期间人的先后位置。
图5是具体实施方式中采用的下肢外骨骼机器人,22是用于探测注视方向的装置,23是用于探测肩部位置的装置,24是用于探测手施加在膝盖上压力的装置。
图6是穿戴者意图迈步时上身姿态的示意图。
图7是穿戴者意图紧急停止时上身姿态的示意图。
图8是穿戴者意图转向时上身姿态的示意图。
图9是穿戴者意图起身时上身姿态的示意图。
图10是具体实施方式中穿戴者迈步意图判断算法流程图。
图11是具体实施方式中计算越障高度和注视方向角的流程图。
图12是具体实施方式中穿戴者起坐意图判断算法流程图。
具体实施方式
本发明是一种向外骨骼机器人传递穿戴者运动意图的方法,为了让表述更加清晰,需要首先描述一下本实施例中所使用的外骨骼机器人。如图5所示的下肢助行外骨骼机器人,采用液压作为动力,每个液压缸都行程传感器。其鞋底装有压力传感器,主要外骨骼部件上装有重力感应传感器。外骨骼机器人附属配件为一个带有陀螺仪和面部摄像头的帽子22,可以测量穿戴者的注视方祥。穿戴者高度为170厘米,该外骨骼机器大腿部件长度为40厘米,有两个肩部支撑件23,可以测量肩部位置。肩部支撑件长度为30厘米,相距35厘米。鞋尖距离站立中心的前后距离15厘米,站立时双足间距30厘米,正常行走速度为每小时4公里,最快每小时6公里。正常行走时的迈步距离为50厘米。每个膝盖上都有一个压力感应器24。
该外骨骼机器人的控制计算机系统底层已经完成自动平衡得功能,能够依据各个传感器的状态,控制动力机构采取相应的动作在各种地形上维持穿戴者平衡站立,无需穿戴者下肢采取任何动作。其留给上层应用软件的C语言编程接口有:
获取注视倾角,单位为0.01弧度, 以及水平方向上的转动角速度,单位为0.01弧度/100毫秒:
void glaze_at( int *angle, int *palstance );
获取左肩和右肩相对于机器人站立中心的左右位置,前后位置,单位为厘米:
void shoulder_pos( int *x_right, int *y_right, int *x_left, int *y_left);
获取左肩和右肩摆动周期,若底层控制系统判断摆动和行走吻合,返回摆动周期,否则返回0值。单位为百分之一毫秒:
int shoulder_swin( void );
获取机器人启动后的总行走里程,单位为厘米:
unsigned long centimetre_age( void );
获取压力感应器上的压力值,单位为克:
void pressure_on_kneels( int *press_r, int *press_l );
迈步命令,其参数包括表示迈步腿的整数, 只能在RIGH和LEFT之中选择一个,期望完成动作的时间间隔,单位毫秒,及落脚点相对于当前站立中心的左右移动位置,前后移动位置和上下移动位置,单位为厘米:
void take_one_step( enum your_legs witch_leg, int time, int x, int y,int z );
姿态调整命令,以一个表示姿态的整数参数,如POS_SQUAT表示蹲姿,POS_SIT表示坐姿,POS_STAND表示站姿,POS_WALK_LEFT表示正在行走正在迈出左腿,POS_WALK_RIGHT表示正在行走正在迈出右腿,并且POS_WALK_LEFT和POS_WALK_RIGHT经过掩码MASK_LEG运算后均等于POS_WALK,CONTINUE表示维持当前姿态,该命令会返回当前的姿态状态:
enum posture change_posture( enum posture new_posture );
接下来讨论如何在上述机器人上应用本发明提到的方法,使机器人获取穿戴者的下肢行动意图。由于外骨骼机器人控制系统底层负责完成自动平衡,并且留出了给上层软件的编程接口,所以剩下的工作就是应用本发明提到的各种方法,完成上层控制软件的设计。
判断方法中提到的各种代数值均需要事先确定。依据机器人步距为50cm,所以Lstep为50cm;指定定Lstop为30cm,小于Lstep,该值的选取依赖于使用经验;指定Lwalk为100cm,因为机器人行走至少需要走出两步。Tstep指定为450毫秒,因为机器人正常步行迈步一次需要450毫秒, 同理Tmin指定为300毫秒。有研究表明,60~80岁之间的老年人,对声光刺激的选择反映平均时间大于700毫秒,而年轻人为450毫秒。而人与人之间安全距离为120厘米,按照老年人反映时间的延长新的安全距离大约为370厘米,依据此经验指定Lacc为370厘米。双肩起步前后位置差阈值Ystep被指定为10厘米,这取决于使用经验,双肩转向阈值Aturn为52百分之一弧度,接近30度,因为一般人步行时双肩摆动Aswin很难超过30度,而30度对于近距离转向来说,也不是一个特别大的角度,这个值得选取同样依赖于经验。依据机器人鞋尖距离站立中心15厘米,直接指定Ypitch为15厘米,因为双肩前倾超过鞋尖时,已经接近让机器人向前跌倒需要的力矩。依据穿戴者身高为170厘米,指定Huser为170厘米。依据机器人站立时双足间距30厘米,指定Dfoot为30厘米。依据肩部支撑杆长度为30厘米,指定Lupperbody为30厘米。依据机器人大腿长度为40厘米,指定Ysit为40厘米。机器人起身动作大概需要2000毫秒,所以指定Tstand为2000毫秒。
本实施例中,外骨骼机器人通过双肩位置以及注视距离判断穿戴者迈步意图,图6是穿戴者通过上身姿态触发迈步意图的示意图。迈步意图的判断算法为:首取得先机器人当前的姿态,依据其处于站立状态还是行走状态分别用不同的处理方法
若其处于站立姿态,取得注视方向和地面的夹角A,双肩位置Xr,Yr,Xl,Yl。依据公式(1)得到注视距离表达式 L=170*atan(A),依据迈步意图双肩姿态判断条件,逻辑表达式可写为: ((1-2*( Xr+Xl <0))*(Yr-Yl)) > 10,表示肩部满足出腿的位置条件,且Xr+Xl大于0时出左腿,小于0时出右腿。依据迈步意图的注视方祥判断条件,判断走一步的逻辑表达式为L>30&&L<100,判断续行走的逻辑表达式为L>100大。接下来开始判断时间条件,休眠等待100毫秒重新从取得双肩位置和注视角度开始判断,采用这种方式一是考虑到100毫秒是大多数计算机系统工作节拍的整数倍,同时也考虑到一般人很难在100毫秒内迅速改变动作,这样可以尽量减少计算机判断穿戴者意图的运算负担,不影响其维持平衡的工作。另外最好的情况是控制系统等待100毫秒开始读取注视方向何双肩位置时,穿戴者恰好做出该动作,最坏的情况是穿戴者在读取刚结束时做出该动作,在连续4次均判断通过后,穿戴者实际上动作持续了400毫秒或500毫秒,统计平均为450毫秒,这恰好是机器人正常步行时迈出一步的时间。此时再依据注视距离是否大于Lwalk,判断穿戴者是仅打算迈出一步还是打算开始行走。分别计算落脚点的位置,当迈一步依据公式(2)得到落脚点表达式。X= L*sin(A_dir) ,Y= L*cos(A_dir),Z=H_footstep。若只迈出一步,有可能是在进行越障,但落脚点的高度H_footstep不能由本次运算得出,实际上落脚点的高度必须依靠越障迈步的方法,在另一个线程中并行计算,然后以全局变量的形式被本次运算直接读取。A_dir为注视方向角的变量,同样需要在另一个线程中,通过不停累加角速度的方式获得,计算H_footstep和A_dir的具体方法稍后描述。当开始行走时利用公式(3)和(4)得到落脚点位置表达式X= (1-2*( Xr+Xl <0))*15,Y=50,Z=0。
转向,加减速均体现在迈步参数中。本实施例中提到的机器人,向控制系统底层发出迈腿命令,必须等到目前正在进行的迈腿动作完成后才会执行。而机器人行走是双腿是交替迈出的,也就是说如果当前正在迈出左腿,上层控制软件只能向其发出迈出右腿的命令,才能保证行走动作的连贯性。但是转向动作习惯是先迈出转向侧的腿,所以具体对应的办法是:取得双肩位置Xr,Yr,Xl,Yl,若Yr,Yl均小于0,机器人立即紧急停止,如图7所示意。检查注视距离L,若小于L_stop机器人立即停止。反之,通过取得肩部摆动周期获得下一次迈腿的需要花费的时间,假如得到0值,则通过公式(7)得到计算表达式T=(450-150)/ asin((Yl+Yr)/60),计算出该值。接下来利(A_dir>0)*atan((Yr-Yl)/(Xr-Xl)) > 52判断,若逻辑该表达式结果为假,那么不需要转向,注视方向角A_dir清零,反之不修改A_dir。穿戴者利用上身动作触发机器人转向的意图如图8所示意。利用公式(5)得到计算出第一次迈腿落脚点位置X=sin(A_dir)*(50–30*tan(A_dir))+30/cos (A_dir),Y= 50–30t*sin( A_dir)。最后判断迈出腿,若当前正在迈出另一条腿,直接发出迈腿命令,反之,先发出停止命令,再发出迈腿命令,然后利用公式(6)计算第二次迈腿落脚点X =50* si n(A_dir),Y= 50* cos(A_dir),发出迈腿命令。因为是在行走过程中,所以两次迈腿落脚点Z=0。整个迈步意图的算法流程如图10所示意。
计算障碍物高度H_footstep的具体方法为,每间隔10毫秒循环取得注视倾角,和机器人行走里程。并将最近25次出现的值分别存放在A25[25]和L_cmage[25]数组中。计算(L_cmage[i]-L[cmage[i+9]]/(tan(A[i])-tan(A[i+9]), 连续计算i=0,1,2…15时的值,然后求和平均运算以减小误差,用身高减去该值即得到H_footstep。计算A_dir的具体方法就是不断取得注视角速度累加。计算H_footstep和A_dir的流程如图11所示意。
穿戴者利用上身动作触发机器人起坐的意图如图9所示意,外骨骼机器人通过双肩位置以及注视方向判断穿戴者起坐的意图的算法为:站立姿态下取得双肩位置,若双肩向前的距离均超过机器人鞋尖,休眠等待100毫秒重新判断,连续4次判断通过后判断穿戴者有下蹲意图。切换机器人为蹲姿,本实施例中下蹲的程度由机器人从最佳平衡效果的角度上自行考量,并非由上层控制软件控制。这也将导致加大双肩前倾增加下蹲程度,减小双肩前倾减小下蹲程度的效果。假如下蹲时穿戴者坐上了支撑物,机器人能够自动依据各个传感器的状态判断出这种情况并自动进入坐姿,然后穿戴者上身就可以自由活动。当从坐姿起身时,坐姿态下取得双肩位置,膝盖部压力杆的状态,若双肩向前的距离均超过阈值40厘米,且夹双膝上的压力推杆均受到推力时,休眠等待100毫秒重新判断,连续4次判断通过后判断穿戴者有起身意图,机器人设法从坐下状态站立起来。整个起坐意图判断流程如图12所示意。
最后值得说明的是,本实施例仅用于说明如何应用本发明提到的方法,不能理解为本发明的限制条件。仅改变外骨骼机器人的结构、用于获得穿戴者肩部位置,注视方向和膝盖压力的设备、软件代码的具体形式,不能视作对本发明提及方法的突破。
Claims (2)
1.一种利用外骨骼助行机器人穿戴者上身无意识动作和习惯性动作,判断其下肢行动意图的方法,该方法具备如下特征:用于控制带有自动平衡功能的外骨骼机器人,判断条件以双肩位置和注视方向为参数,利用穿戴者下肢迈步时肩部无意识地位置改变,以及习惯性注视倾角的范围,判断其下肢迈步时出腿时机、顺序以及落脚点位置;利用穿戴者下蹲时肩部无意识地位置改变,判断下肢作出下蹲动作的时机;利用穿戴者起身时肩部无意识地位置改变,以及手撑膝盖的习惯动作,判断下肢作出起身动作的时机;其中外骨骼助行机器人穿戴者迈步抬腿意图的判断条件为:当双肩位置中心向人体一侧偏移,且位于该侧的肩部位置相对在前,另一侧肩部位置相对在后时,即可判断出站立时人的迈步意图,并可以判断出双肩偏向身体一侧的腿为站立腿,另一侧为迈步腿;外骨骼助行机器人穿戴者转向意图的判断条件为:穿戴者持续注视一个固定方向且双肩连线朝相同方向转动角度超过阈值角度时即可判断出其转向意图,并可以确定注视方向角就是转向的目的方向;外骨骼助行机器人穿戴者改变速度意图的判断条件为:双肩中心位置前倾幅度增大表明穿戴者意图加速,幅度减小表明穿戴者意图减速,双肩摆动频率增加,表明穿戴者意图加速,频率降低表明穿戴者意图减速;外骨骼助行机器人穿戴者起坐意图的判断条件为:当机器人处于站立姿态时,双肩位置同时向前移动,并且移动距离接近破坏机器人站立平衡距离,表明穿戴者有蹲下意图,当机器人处于坐下姿态时,若检测到使用双肩同时向前移动,超过了保持省力坐姿的位置,且双手支撑在膝盖上,表明穿戴者有起身意图,以上所有对穿戴者下肢动作意图的判断,无需下肢做出任何相应的实际动作。
2.依据权力要求1所提及的一种利用外骨骼助行机器人穿戴者上身无意识动作和习惯性动作,判断其下肢行动意图的方法,用于控制具有穿戴式外骨骼功能的多功能设备的外骨骼功能模式。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201410615605.1A CN104523403B (zh) | 2014-11-05 | 2014-11-05 | 一种判断外骨骼助行机器人穿戴者下肢行动意图的方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201410615605.1A CN104523403B (zh) | 2014-11-05 | 2014-11-05 | 一种判断外骨骼助行机器人穿戴者下肢行动意图的方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN104523403A CN104523403A (zh) | 2015-04-22 |
CN104523403B true CN104523403B (zh) | 2019-06-18 |
Family
ID=52839168
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201410615605.1A Active CN104523403B (zh) | 2014-11-05 | 2014-11-05 | 一种判断外骨骼助行机器人穿戴者下肢行动意图的方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN104523403B (zh) |
Families Citing this family (25)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105292333A (zh) * | 2015-09-23 | 2016-02-03 | 深圳市优威埃科技有限公司 | 一种新型转向系统及其平衡车 |
CN105404302A (zh) * | 2015-12-03 | 2016-03-16 | 联想(北京)有限公司 | 一种移动装置及控制方法 |
CN105527046B (zh) * | 2016-01-12 | 2018-08-10 | 沈阳工业大学 | 手臂支撑平台的接触力、压力检测装置及数据分析方法 |
CN105919752B (zh) * | 2016-04-22 | 2018-06-19 | 刘峰 | 多功能全自动移乘机及其使用方法 |
CN106217353A (zh) * | 2016-08-17 | 2016-12-14 | 尖叫智能科技(上海)有限公司 | 基于多轴加速度传感器的外骨骼机器人步态控制方法 |
CN107252210B (zh) * | 2017-05-12 | 2020-01-14 | 武汉理工大学 | 一种自动控制的可穿戴座椅及使用方法 |
CN107468486B (zh) * | 2017-09-21 | 2023-09-22 | 臧大维 | 下肢类脑智能机械电子外骨骼及其综合控制系统 |
CN107753246B (zh) * | 2017-11-25 | 2020-06-23 | 包梓扬 | 防摔倒辅助装置 |
CN107837518B (zh) * | 2017-12-22 | 2023-09-26 | 王思喻 | 防顺拐训练装置 |
CN108014001B (zh) * | 2018-01-02 | 2020-03-17 | 北京理工大学 | 一种柔性助行外骨骼 |
CN108938325A (zh) * | 2018-06-12 | 2018-12-07 | 广州引航者信息科技有限公司 | 下肢体康复训练机器人 |
CN109288650A (zh) * | 2018-07-31 | 2019-02-01 | 电子科技大学 | 穿戴者可独立使用的移动式下肢运动训练和辅助智能装置 |
KR102603039B1 (ko) * | 2018-11-20 | 2023-11-16 | 현대자동차주식회사 | 4절 링크 구조를 포함한 착용식 의자 |
CN109498375B (zh) * | 2018-11-23 | 2020-12-25 | 电子科技大学 | 一种人体运动意图识别控制装置及控制方法 |
CN110237499B (zh) * | 2019-05-16 | 2020-12-11 | 北京空间飞行器总体设计部 | 一种人体下肢万向运动装置及其控制方法 |
TWI704910B (zh) * | 2019-06-26 | 2020-09-21 | 緯創資通股份有限公司 | 平衡輔助系統及穿戴式裝置 |
CN110721055B (zh) * | 2019-10-17 | 2021-11-02 | 深圳市迈步机器人科技有限公司 | 下肢助行外骨骼机器人的控制方法及外骨骼机器人 |
CN112022637B (zh) * | 2020-09-08 | 2022-05-20 | 河南科技大学第一附属医院 | 一种能辅助运动的理疗装置 |
CN113180643B (zh) * | 2021-04-25 | 2022-09-02 | 燕山大学 | 一种外骨骼助力检测装置及其评价方法 |
CN113288736B (zh) * | 2021-05-20 | 2023-04-28 | 沈阳工业大学 | 一种步行训练机器人行走意图识别方法 |
CN113547524B (zh) * | 2021-08-16 | 2022-04-22 | 长春工业大学 | 一种上肢外骨骼机器人的人机交互控制方法 |
CN114190926B (zh) * | 2021-11-29 | 2023-12-08 | 首都体育学院 | 基于可穿戴设备的运动状态监测系统及方法 |
CN114043461B (zh) * | 2021-12-02 | 2023-07-07 | 安徽三联机器人科技有限公司 | 一种髋关节外骨骼装置控制系统的控制方法 |
CN114298115B (zh) * | 2022-03-07 | 2022-05-24 | 南开大学 | 一种传感器交互运动意图获取方法及系统 |
CN117357314B (zh) * | 2023-12-08 | 2024-04-05 | 浙江强脑科技有限公司 | 坐下控制方法、装置、智能假腿、终端及存储介质 |
Citations (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102631276A (zh) * | 2011-12-31 | 2012-08-15 | 中国科学院深圳先进技术研究院 | 康复训练机器人中的交互方法及系统 |
CN102639085A (zh) * | 2009-08-31 | 2012-08-15 | Iwalk股份有限公司 | 使用下肢假体或矫形器来执行起立顺序 |
CN102821730A (zh) * | 2010-09-13 | 2012-12-12 | 松下电器产业株式会社 | 搭乘型移动体及搭乘型移动体的控制方法 |
CN103153356A (zh) * | 2010-09-17 | 2013-06-12 | 艾克索仿生技术公司 | 用于人体外骨骼的人机界面 |
WO2013086035A1 (en) * | 2011-12-05 | 2013-06-13 | Northeastern University | Orthopedic lower body exoskeleton for control of pelvic obliquity during gait over-ground |
CN103200909A (zh) * | 2010-09-27 | 2013-07-10 | 范德比尔特大学 | 行动辅助设备 |
CN103358311A (zh) * | 2012-04-01 | 2013-10-23 | 中国科学院深圳先进技术研究院 | 基于生物电信号解码的机器人操控方法及系统 |
CN103431976A (zh) * | 2013-07-19 | 2013-12-11 | 燕山大学 | 基于肌电信号反馈的下肢康复机器人系统及其控制方法 |
CN103677252A (zh) * | 2012-08-31 | 2014-03-26 | 欧姆龙株式会社 | 姿势识别装置、其控制方法、显示器 |
CN103876756A (zh) * | 2014-04-18 | 2014-06-25 | 南京工程学院 | 下肢助力外骨骼机器人步态模式识别方法及系统 |
CN103932868A (zh) * | 2014-04-21 | 2014-07-23 | 清华大学 | 一种截瘫助行动力外骨骼的控制方法 |
CN103984962A (zh) * | 2014-05-30 | 2014-08-13 | 河北工业大学 | 一种基于肌电信号的外骨骼行走模式识别方法 |
CN104027218A (zh) * | 2014-06-05 | 2014-09-10 | 电子科技大学 | 一种康复机器人控制系统和方法 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8096965B2 (en) * | 2008-10-13 | 2012-01-17 | Argo Medical Technologies Ltd. | Locomotion assisting device and method |
-
2014
- 2014-11-05 CN CN201410615605.1A patent/CN104523403B/zh active Active
Patent Citations (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102639085A (zh) * | 2009-08-31 | 2012-08-15 | Iwalk股份有限公司 | 使用下肢假体或矫形器来执行起立顺序 |
CN102821730A (zh) * | 2010-09-13 | 2012-12-12 | 松下电器产业株式会社 | 搭乘型移动体及搭乘型移动体的控制方法 |
CN103153356A (zh) * | 2010-09-17 | 2013-06-12 | 艾克索仿生技术公司 | 用于人体外骨骼的人机界面 |
CN103200909A (zh) * | 2010-09-27 | 2013-07-10 | 范德比尔特大学 | 行动辅助设备 |
WO2013086035A1 (en) * | 2011-12-05 | 2013-06-13 | Northeastern University | Orthopedic lower body exoskeleton for control of pelvic obliquity during gait over-ground |
CN102631276A (zh) * | 2011-12-31 | 2012-08-15 | 中国科学院深圳先进技术研究院 | 康复训练机器人中的交互方法及系统 |
CN103358311A (zh) * | 2012-04-01 | 2013-10-23 | 中国科学院深圳先进技术研究院 | 基于生物电信号解码的机器人操控方法及系统 |
CN103677252A (zh) * | 2012-08-31 | 2014-03-26 | 欧姆龙株式会社 | 姿势识别装置、其控制方法、显示器 |
CN103431976A (zh) * | 2013-07-19 | 2013-12-11 | 燕山大学 | 基于肌电信号反馈的下肢康复机器人系统及其控制方法 |
CN103876756A (zh) * | 2014-04-18 | 2014-06-25 | 南京工程学院 | 下肢助力外骨骼机器人步态模式识别方法及系统 |
CN103932868A (zh) * | 2014-04-21 | 2014-07-23 | 清华大学 | 一种截瘫助行动力外骨骼的控制方法 |
CN103984962A (zh) * | 2014-05-30 | 2014-08-13 | 河北工业大学 | 一种基于肌电信号的外骨骼行走模式识别方法 |
CN104027218A (zh) * | 2014-06-05 | 2014-09-10 | 电子科技大学 | 一种康复机器人控制系统和方法 |
Non-Patent Citations (3)
Title |
---|
Exoskeleton Robot Control based on Cane and Body Joint Synergies;Modar Hassan;《2012 IEEE/RSJ International Conference on Intelligent Robots and Systems》;20121007;第1609-1614页 |
下肢外骨骼机器人的现状与展望;周达岸;《中国康复理论与实践》;20131230;第19卷(第12期);第1132-1134页 |
偏瘫患者辅助行走下肢康复外骨骼系统开发研究;吴海杰;《硕士论文》;20140715;全文 |
Also Published As
Publication number | Publication date |
---|---|
CN104523403A (zh) | 2015-04-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN104523403B (zh) | 一种判断外骨骼助行机器人穿戴者下肢行动意图的方法 | |
EP2827809B1 (en) | Human machine interface for lower extremity orthotics | |
US9295604B2 (en) | Human machine interface for human exoskeleton | |
CN103153234B (zh) | 用于下肢矫形器的人机接口 | |
US10733866B2 (en) | Walker-assist device | |
US9526946B1 (en) | Enhanced system and method for vibrotactile guided therapy | |
Strausser et al. | The development and testing of a human machine interface for a mobile medical exoskeleton | |
Cifuentes et al. | Multimodal human–robot interaction for walker-assisted gait | |
US20180289579A1 (en) | Powered Walking Assistant and Associated Systems and Methods | |
JP2014509919A (ja) | 能動的ロボティック歩行訓練システム及び方法 | |
CA2828420A1 (en) | Gait training device and gait training system | |
CN108013999A (zh) | 用于控制平衡的方法和设备 | |
US20170352288A1 (en) | Method and system for physical training and rehabilitation | |
US20180020969A1 (en) | System and method for controlling the cyclic motion of a body segment of an individual | |
Guadarrama-Olvera et al. | Enhancing biped locomotion on unknown terrain using tactile feedback | |
KR101882083B1 (ko) | 다중 감각을 활용한 보행훈련 시스템 | |
US20200323727A1 (en) | Powered Walking Assistant and Associated Systems and Methods | |
Dune et al. | Can smart rollators be used for gait monitoring and fall prevention? | |
VIRK et al. | Exo-legs for elderly persons | |
JP2013208291A (ja) | 歩行支援装置、及び歩行支援プログラム | |
Choi et al. | A human-robot interface system for walkon suit: A powered exoskeleton for complete paraplegics | |
TWI781692B (zh) | 用於評估姿態控制能力的裝置及方法 | |
Jang et al. | Development of a walking assistive service robot for rehabilitation of elderly people | |
GHAROONI et al. | MODELLING AND SIMULATION OF SIT-TO-STAND IN HUMANOID DYNAMIC MODEL | |
JP2013048702A (ja) | 歩行支援装置、及び歩行支援プログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |