CN111611887B - 一种人机混合协调运动用户意图估计方法及系统 - Google Patents

一种人机混合协调运动用户意图估计方法及系统 Download PDF

Info

Publication number
CN111611887B
CN111611887B CN202010382306.3A CN202010382306A CN111611887B CN 111611887 B CN111611887 B CN 111611887B CN 202010382306 A CN202010382306 A CN 202010382306A CN 111611887 B CN111611887 B CN 111611887B
Authority
CN
China
Prior art keywords
user
speed
real
human
movement intention
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202010382306.3A
Other languages
English (en)
Other versions
CN111611887A (zh
Inventor
徐文霞
曹轩
于宝成
吴静
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Wuhan Institute of Technology
Original Assignee
Wuhan Institute of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Wuhan Institute of Technology filed Critical Wuhan Institute of Technology
Priority to CN202010382306.3A priority Critical patent/CN111611887B/zh
Publication of CN111611887A publication Critical patent/CN111611887A/zh
Priority to PCT/CN2021/078713 priority patent/WO2021223502A1/zh
Application granted granted Critical
Publication of CN111611887B publication Critical patent/CN111611887B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02PCLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
    • Y02P90/00Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
    • Y02P90/02Total factory control, e.g. smart factories, flexible manufacturing systems [FMS] or integrated manufacturing systems [IMS]

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Human Computer Interaction (AREA)
  • Rehabilitation Tools (AREA)

Abstract

本发明公开了一种人机混合系统协调运动用户意图估计方法,利用力传感器模组和激光测距仪分别获得用户上肢实时运动意图速度VH、用户下肢实时运动意图速度VL,设置人机混合系统柔顺度参数S,并利用模糊控制方法调节人机混合系统柔顺度参数S;对用户上肢实时运动意图速度VH、用户下肢实时运动意图速度VL和人机混合系统柔顺度参数S进行异质传感器融合,得到准确的用户运动意图速度VF;将准确的用户运动意图速度VF发送给辅助机器人,实现辅助机器人的柔顺运动。本发明可最大限度的实现柔顺的机器人运动控制,防止出现机器人和用户的不协调运动,避免发生用户不安全行。

Description

一种人机混合协调运动用户意图估计方法及系统
技术领域
本发明涉及智能机器人领域,尤其涉及一种人机混合协调运动用户意图估计方法及系统。
背景技术
我国人口老龄化的形势在不断地加剧,对于帮助老弱病残人士的服务需求也在不断增多。尤其是那些独居而且行动不便的老人和残障人士,他们失去独立自主生活的很大一部分原因是他们无法独立行走,所以研究能够帮助他们实现独立生活的智能助行机器人非常有意义。
现有的助行机器人系统中,很少考虑助行机器人系统中用户的上、下肢间的协调运动,相关研究也相对较少。一些科研院校和公司都在进行智能助行系统的相关研究,并取得了一定的成果。如华中科技大学研发的智能助行机器人,上海交通大学设计的智能助行系统等。由于智能助行机器人是一种和人密切接触的设备,所以对安全性的要求非常高。同时,智能助行机器人的服务对象是老年人或者残疾人,在使用过程中,可能会出现一些因为下肢运动能力减退产生的行走不协调的情况,从而导致跌倒等危险的发生。所以智能助行机器人在设计过程中应该考虑到用户的上下肢的协调运动,从而得到精确的用户运动意图,才能保障用户在使用助行机器人时的安全问题。
发明内容
本发明要解决的技术问题在于针对现有技术中的缺陷,提供一种人机混合协调运动用户意图估计方法及系统。
本发明解决其技术问题所采用的技术方案是:
提供一种人机混合系统协调运动用户意图估计方法,包括以下步骤:
S1、利用力传感器模组对人机混合系统中用户上肢的运动意图进行估计,获得用户上肢实时运动意图速度VH
S2、利用激光测距仪对人机混合系统中用户下肢的运动意图进行估计,获得用户下肢实时运动意图速度VL
S3、根据用户上肢实时运动意图速度VH和用户下肢实时运动意图速度VL,设置人机混合系统柔顺度参数S,并利用模糊控制方法调节人机混合系统柔顺度参数S;
S4、对用户上肢实时运动意图速度VH、用户下肢实时运动意图速度VL和人机混合系统柔顺度参数S进行异质传感器融合,得到准确的用户运动意图速度VF
S5、将准确的用户运动意图速度VF发送给辅助机器人,实现辅助机器人的柔顺运动。
接上述技术方案,步骤S1中利用力传感器模组对人机混合系统中用户上肢的运动意图进行估计是指:用户操作力传感器模组向意图运动方向移动,所述力传感器模组获得相应运动的前后方向上交互力Fx和左右方向上的交互力Fy,根据公式计算用户上肢实时运动意图速度VH=[vHx vHy v]T,所述公式为,
Figure BDA0002482618530000021
其中,Fx0和Fy0为前后方向上、左右方向上交互力的阈值,M0为旋转的交互力阈值,vHx、vHy、v,分别为上肢前后方向运动速度、上肢左右方向运动速度和上肢旋转角速度,kx、ky、kθ为比例系数。
接上述技术方案,步骤S2中激光测距仪对人机混合系统中用户下肢的运动意图进行估计,获得用户下肢实时运动意图速度VL的步骤包括:
S21、用户在使用机器人时,激光测距仪对用户双腿进行扫描,获得双腿的距离点阵,通过阈值范围分割获得双腿到激光测距仪的左腿距离点集和右腿距离点集;
S22、对步骤S21获得左腿距离点集和右腿距离点集进行圆弧拟合和解析几何运算,获得左、右腿对应拟合圆弧的半径RL、RR和位置圆心(xL,yL)、(xR,yR),并通过腿部半径阈值剔除干扰圆弧;
S23、利用多次腿部距离测量获得左、右腿的位置圆心,结合测量频率获得用户下肢实时运动意图速度VL=[vLx vLy v],其中vLx、vLy、v分别为下肢前后方向运动速度、下肢左右方向运动速度和下肢旋转角速度,下肢旋转角速度和上肢旋转角速度相同。
接上述技术方案,步骤S3中利用模糊控制方法调节人机混合系统柔顺度参数S的过程为:
S31、确定模糊控制器的输入input1为用户上肢实时运动意图速度VH,输入input2为用户下肢实时运动意图速度VL,输出output为人机混合系统柔顺度参数S;
S32、将用户上肢实时运动意图速度VH划分为七个模糊量,相邻模糊量的形状为三角形,论域为[-20,20];
S33、将用户下肢实时运动意图速度VL划分为七个模糊量,相邻模糊量的形状为三角形,论域为[-40,40];
S34、输出output为人机混合系统柔顺度参数S,设置为5个等级,分别为0.4、0.5、0.6、0.7和0.8;
S35、确定模糊控制器中的隶属度函数和模糊控制规则,调节人机混合系统柔顺度参数S。
接上述技术方案,步骤S4对用户上肢实时运动意图速度VH、用户下肢实时运动意图速度VL和人机混合系统柔顺度参数S进行异质传感器融合,得到准确的用户运动意图速度VF的具体步骤为:
S41、定义系统变量
Figure BDA0002482618530000031
Z=[vHx vHy vvLxvLy v]T,其中[vHx vHy v]T为准确的用户运动意图速度,
Figure BDA0002482618530000041
为准确的用户运动意图加速度,[vHx vHy v]T为用户上肢实时运动意图速度,[vLx vLy v]T为用户下肢实时运动意图速度;
S42、构建状态空间方程:
Figure BDA0002482618530000042
其中,Zi为当前状态变量,Xi为当前预测状态变量,Xi-1为前一预测状态变量,H测量系统参数矩阵,A为参数矩阵,ωi、vi为当前测量高斯白噪声;
S43、根据系统变量和状态空间方程,进行融合获得准确的用户运动意图VF=[vFxvFy v]T
接上述技术方案,所述系统参数矩阵H为:
Figure BDA0002482618530000043
其中,a是上肢表现出来的用于运动意图速度的置信度,b=1-a。
接上述技术方案,通过腿部半径阈值剔除干扰圆弧是指:设定腿部半径阈值的范围为3cm~10cm,如果获得左、右腿对应拟合圆弧的半径在此范围则为人腿。
提供一种人机混合系统协调运动用户意图估计系统,其特征在于,包括:
力传感器模组,用于人机混合系统中用户的上肢的运动意图进行估计,获得用户上肢实时运动意图速度VH
激光测距仪,用于人机混合系统中用户的下肢的运动意图进行估计,获得用户下肢实时运动意图速度VL
人机混合系统柔顺度参数调节模块,根据用户上肢实时运动意图速度VH和用户下肢实时运动意图速度VL,设置人机混合系统柔顺度参数S,并利用模糊控制方法调节人机混合系统柔顺度参数S;
异质传感器融合模块,对用户上肢实时运动意图速度VH、用户下肢实时运动意图速度VL和人机混合系统柔顺度参数S进行融合,得到准确的用户运动意图速度VF
接上述技术方案,所述激光测距仪的测距范围为0.2m~1.2m,检测角度为-45°~45°。
本发明产生的有益效果是:本发明提供的一种人机混合系统协调运动用户意图估计方法和体统,利用力传感器模组获得用户上肢实时运动意图速度VH,利用激光测距仪获得用户下肢实时运动意图速度VL,综合考虑到用户上、下肢的所表现出来的意图运动速度,在充分考虑柔顺度的情况下,得到精确的用户运动意图速度。本发明可最大限度的实现柔顺的机器人运动控制,防止出现机器人和用户的不协调运动,避免发生用户不安全行。
附图说明
下面将结合附图及实施例对本发明作进一步说明,附图中:
图1是本发明实施例的方法流程图;
图2是本发明实施例方法的圆弧拟合过程;
图3是本发明实施例方法的隶属度函数和模糊控制规则;
图4是本发明实施例的系统框图;
图5是本发明实施例的系统的力传感器模组;
图6是本发明实施例的激光测距仪。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅用以解释本发明,并不用于限定本发明。
如图1所示,本发明提供一种人机混合系统协调运动用户意图估计方法,包括以下步骤:
S1、利用力传感器模组1对人机混合系统中用户上肢的运动意图进行估计,获得用户上肢实时运动意图速度VH
S2、利用激光测距仪2对人机混合系统中用户下肢的运动意图进行估计,获得用户下肢实时运动意图速度VL
S3、根据用户上肢实时运动意图速度VH和用户下肢实时运动意图速度VL,设置人机混合系统柔顺度参数S,并利用模糊控制方法调节人机混合系统柔顺度参数S;
S4、对用户上肢实时运动意图速度VH、用户下肢实时运动意图速度VL和人机混合系统柔顺度参数S进行异质传感器融合,得到准确的用户运动意图速度VF
S5、将准确的用户运动意图速度VF发送给辅助机器人5,实现辅助机器人5的柔顺运动。
进一步地,步骤S1中利用力传感器模组对人机混合系统中用户上肢的运动意图进行估计是指:用户操作力传感器模组1向意图运动方向移动,力传感器模组1获得相应运动的前后方向上交互力Fx和左右方向上的交互力Fy,根据公式计算用户上肢实时运动意图速度VH=[vHx vHy v]T,公式为,
Figure BDA0002482618530000061
其中,Fx0和Fy0为前后方向上、左右方向上交互力的阈值,M0为旋转的交互力阈值,vHx、vHy、v,分别为上肢前后方向运动速度、上肢左右方向运动速度和上肢旋转角速度,kx、ky、kθ为比例系数。
进一步地,如图2所示,步骤S2中激光测距仪对人机混合系统中用户下肢的运动意图进行估计,获得用户下肢实时运动意图速度VL的步骤包括:
S21、用户在使用机器人时,激光测距仪对用户双腿进行扫描,获得双腿的距离点阵,通过阈值范围分割获得双腿到激光测距仪的左腿距离点集和右腿距离点集;
S22、对步骤S21获得左腿距离点集和右腿距离点集进行圆弧拟合和解析几何运算,获得左、右腿对应拟合圆弧的半径RL、RR和位置圆心(xL,yL)、(xR,yR),并通过腿部半径阈值剔除干扰圆弧;
S23、利用多次腿部距离测量获得左、右腿的位置圆心,结合测量频率获得用户下肢实时运动意图速度VL=[vLx vLy v],其中vLx、vLy、v分别为下肢前后方向运动速度、下肢左右方向运动速度和下肢旋转角速度,下肢旋转角速度和上肢旋转角速度相同。
进一步地,步骤S3中利用模糊控制方法调节人机混合系统柔顺度参数S的过程为:
S31、确定模糊控制器的输入input1为用户上肢实时运动意图速度VH,输入input2为用户下肢实时运动意图速度VL,输出output为人机混合系统柔顺度参数S;
S32、将用户上肢实时运动意图速度VH划分为NB、NM、NS、Z、PS、PM、PB七个模糊量,相邻模糊量的形状为三角形,论域为[-20,20];
S33、将用户下肢实时运动意图速度VL划分为NB、NM、NS、Z、PS、PM、PB七个模糊量,相邻模糊量的形状为三角形,论域为[-40,40];
S34、输出output为人机混合系统柔顺度参数S,设置为5个等级,分别为0.4、0.5、0.6、0.7和0.8;
S35、确定模糊控制器中的隶属度函数和模糊控制规则,如图3所示,调节人机混合系统柔顺度参数S。
采用模糊控制方法调节柔顺度参数S,实现助行机器人的柔顺控制。由于两种人体动作意图速度的节奏不同,在不同的行走过程中为两个人体动作意图速度分配不同的置信度,体现不同的柔顺性。例如,若S=0.4,则对上肢表现出来的运动意图速度VH的置信度为0.4,对下肢表现出来的运动意图速度VL的置信度为0.6;若S=0.8,则对上肢表现出来的运动意图速度VH的置信度为0.8,对下肢表现出来的运动意图速度VL的置信度为0.2。
根据模糊规则表,如表1所示,可以得到柔顺度参数S的值。
表1.模糊规则表
Figure BDA0002482618530000081
进一步地,步骤S4对用户上肢实时运动意图速度VH、用户下肢实时运动意图速度VL和人机混合系统柔顺度参数S进行异质传感器融合,得到准确的用户运动意图速度VF的具体步骤为:
S41、定义系统变量
Figure BDA0002482618530000082
Z=[vHx vHy v vLxvLy v]T,其中[vHx vHy v]T为准确的用户运动意图速度,
Figure BDA0002482618530000084
为准确的用户运动意图加速度,[vHx vHy v]T为用户上肢实时运动意图速度,[vLx vLy v]T为用户下肢实时运动意图速度;
S42、构建状态空间方程:
Figure BDA0002482618530000083
其中,Zi为当前状态变量,Xi为当前预测状态变量,Xi-1为前一预测状态变量,H测量系统参数矩阵,A为参数矩阵,ωi、vi为当前测量高斯白噪声;
S43、根据系统变量和状态空间方程,进行融合获得准确的用户运动意图VF=[vFxvFy v]T
进一步地,系统参数矩阵H为:
Figure BDA0002482618530000091
其中,a是上肢表现出来的用于运动意图速度的置信度,b=1-a。
进一步地,通过腿部半径阈值剔除干扰圆弧是指:设定腿部半径阈值的范围为3cm~10cm,如果获得左、右腿对应拟合圆弧的半径在此范围则为人腿。
如图4所示,提供一种人机混合系统协调运动用户意图估计系统,其特征在于,包括:
力传感器模组1,如图5所示,用于人机混合系统中用户的上肢的运动意图进行估计,获得用户上肢实时运动意图速度VH
激光测距仪2,如图6所示,用于人机混合系统中用户的下肢的运动意图进行估计,获得用户下肢实时运动意图速度VL
人机混合系统柔顺度参数调节模块3,根据用户上肢实时运动意图速度VH和用户下肢实时运动意图速度VL,设置人机混合系统柔顺度参数S,并利用模糊控制方法调节人机混合系统柔顺度参数S;
异质传感器融合模块4,对用户上肢实时运动意图速度VH、用户下肢实时运动意图速度VL和人机混合系统柔顺度参数S进行融合,得到准确的用户运动意图速度VF
辅助机器人5,根据准确的用户运动意图速度VF,实现柔顺运动。
接上述技术方案,激光测距仪2的测距范围为0.2m~1.2m,检测角度为-45°~45°。
应当理解的是,对本领域普通技术人员来说,可以根据上述说明加以改进或变换,而所有这些改进和变换都应属于本发明所附权利要求的保护范围。

Claims (8)

1.一种人机混合系统协调运动用户意图估计方法,其特征在于,包括以下步骤:
S1、利用力传感器模组对人机混合系统中用户上肢的运动意图进行估计,获得用户上肢实时运动意图速度VH
S2、利用激光测距仪对人机混合系统中用户下肢的运动意图进行估计,获得用户下肢实时运动意图速度VL
S3、根据用户上肢实时运动意图速度VH和用户下肢实时运动意图速度VL,设置人机混合系统柔顺度参数S,并利用模糊控制方法调节人机混合系统柔顺度参数S;
S4、对用户上肢实时运动意图速度VH、用户下肢实时运动意图速度VL和人机混合系统柔顺度参数S进行异质传感器融合,得到准确的用户运动意图速度VF
S5、将准确的用户运动意图速度VF发送给辅助机器人,实现辅助机器人的柔顺运动;
步骤S3中利用模糊控制方法调节人机混合系统柔顺度参数S的过程为:
S31、确定模糊控制器的输入input1为用户上肢实时运动意图速度VH,输入input2为用户下肢实时运动意图速度VL,输出output为人机混合系统柔顺度参数S;
S32、将用户上肢实时运动意图速度VH划分为七个模糊量,相邻模糊量的形状为三角形,论域为[-20,20];
S33、将用户下肢实时运动意图速度VL划分为七个模糊量,相邻模糊量的形状为三角形,论域为[-40,40];
S34、输出output为人机混合系统柔顺度参数S,设置为5个等级,分别为0.4、0.5、0.6、0.7和0.8;
S35、确定模糊控制器中的隶属度函数和模糊控制规则,调节人机混合系统柔顺度参数S。
2.根据权利要求1所述的用户意图估计方法,其特征在于,步骤S1中利用力传感器模组对人机混合系统中用户上肢的运动意图进行估计是指:用户操作力传感器模组向意图运动方向移动,所述力传感器模组获得相应运动的前后方向上交互力Fx和左右方向上的交互力Fy,根据公式计算用户上肢实时运动意图速度VH=[vHx vHy v]T,所述公式为,
Figure FDA0003771307230000021
其中,Fx0和Fy0为前后方向上、左右方向上交互力的阈值,M0为旋转的交互力阈值,vHx、vHy、v,分别为上肢前后方向运动速度、上肢左右方向运动速度和上肢旋转角速度,kx、ky、kθ为比例系数。
3.根据权利要求1所述的用户意图估计方法,其特征在于,步骤S2中激光测距仪对人机混合系统中用户下肢的运动意图进行估计,获得用户下肢实时运动意图速度VL的步骤包括:
S21、用户在使用机器人时,激光测距仪对用户双腿进行扫描,获得双腿的距离点阵,通过阈值范围分割获得双腿到激光测距仪的左腿距离点集和右腿距离点集;
S22、对步骤S21获得左腿距离点集和右腿距离点集进行圆弧拟合和解析几何运算,获得左、右腿对应拟合圆弧的半径RL、RR和位置圆心(xL,yL)、(xR,yR),并通过腿部半径阈值剔除干扰圆弧;
S23、利用多次腿部距离测量获得左、右腿的位置圆心,结合测量频率获得用户下肢实时运动意图速度VL=[vLx vLy v],其中vLx、vLy、v分别为下肢前后方向运动速度、下肢左右方向运动速度和下肢旋转角速度,下肢旋转角速度和上肢旋转角速度相同。
4.根据权利要求1所述的用户意图估计方法,其特征在于,步骤S4对用户上肢实时运动意图速度VH、用户下肢实时运动意图速度VL和人机混合系统柔顺度参数S进行异质传感器融合,得到准确的用户运动意图速度VF的具体步骤为:
S41、定义系统变量
Figure FDA0003771307230000031
Z=[vHx vHy v vLx vLy v]T,其中[vFx vFy v]T为准确的用户运动意图速度,
Figure FDA0003771307230000032
为准确的用户运动意图加速度,[vHx vHy v]T为用户上肢实时运动意图速度,[vLx vLy v]T为用户下肢实时运动意图速度;
S42、构建状态空间方程:
Figure FDA0003771307230000033
其中,Zi为当前状态变量,Xi为当前预测状态变量,Xi-1为前一预测状态变量,H为测量系统参数矩阵,A为参数矩阵,ωi、vi为当前测量高斯白噪声;
S43、根据系统变量和状态空间方程,进行融合获得准确的用户运动意图VF=[vFx vFyv]T
5.根据权利要求4所述的用户意图估计方法,其特征在于,所述测量系统参数矩阵为:
Figure FDA0003771307230000034
其中,a是上肢表现出来的用于运动意图速度的置信度,b=1-a。
6.根据权利要求3所述的用户意图估计方法,其特征在于,通过腿部半径阈值剔除干扰圆弧是指:设定腿部半径阈值的范围为3cm~10cm,如果获得左、右腿对应拟合圆弧的半径在此范围则为人腿。
7.一种人机混合系统协调运动用户意图估计系统,其特征在于,包括:
力传感器模组,用于人机混合系统中用户的上肢的运动意图进行估计,获得用户上肢实时运动意图速度VH
激光测距仪,用于人机混合系统中用户的下肢的运动意图进行估计,获得用户下肢实时运动意图速度VL
人机混合系统柔顺度参数调节模块,根据用户上肢实时运动意图速度VH和用户下肢实时运动意图速度VL,设置人机混合系统柔顺度参数S,并利用模糊控制方法调节人机混合系统柔顺度参数S;具体利用模糊控制方法调节人机混合系统柔顺度参数S的过程为:
确定模糊控制器的输入input1为用户上肢实时运动意图速度VH,输入input2为用户下肢实时运动意图速度VL,输出output为人机混合系统柔顺度参数S;
将用户上肢实时运动意图速度VH划分为七个模糊量,相邻模糊量的形状为三角形,论域为[-20,20];
将用户下肢实时运动意图速度VL划分为七个模糊量,相邻模糊量的形状为三角形,论域为[-40,40];
输出output为人机混合系统柔顺度参数S,设置为5个等级,分别为0.4、0.5、0.6、0.7和0.8;
确定模糊控制器中的隶属度函数和模糊控制规则,调节人机混合系统柔顺度参数S;
异质传感器融合模块,对用户上肢实时运动意图速度VH、用户下肢实时运动意图速度VL和人机混合系统柔顺度参数S进行融合,得到准确的用户运动意图速度VF
助行机器人,根据准确的用户运动意图速度VF,实现柔顺运动。
8.根据权利要求7所述的用户意图估计系统,其特征在于,所述激光测距仪的测距范围为0.2m~1.2m,检测角度为-45°~45°。
CN202010382306.3A 2020-05-08 2020-05-08 一种人机混合协调运动用户意图估计方法及系统 Active CN111611887B (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN202010382306.3A CN111611887B (zh) 2020-05-08 2020-05-08 一种人机混合协调运动用户意图估计方法及系统
PCT/CN2021/078713 WO2021223502A1 (zh) 2020-05-08 2021-03-02 一种人机混合协调运动用户意图估计方法及系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010382306.3A CN111611887B (zh) 2020-05-08 2020-05-08 一种人机混合协调运动用户意图估计方法及系统

Publications (2)

Publication Number Publication Date
CN111611887A CN111611887A (zh) 2020-09-01
CN111611887B true CN111611887B (zh) 2023-04-11

Family

ID=72199819

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010382306.3A Active CN111611887B (zh) 2020-05-08 2020-05-08 一种人机混合协调运动用户意图估计方法及系统

Country Status (2)

Country Link
CN (1) CN111611887B (zh)
WO (1) WO2021223502A1 (zh)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111611887B (zh) * 2020-05-08 2023-04-11 武汉工程大学 一种人机混合协调运动用户意图估计方法及系统
CN112230543A (zh) * 2020-10-29 2021-01-15 南京凌华微电子科技有限公司 一种人机协同辅助行走机器人的运动控制方法
CN112847398A (zh) * 2021-01-08 2021-05-28 北京工业大学 一种对助行安全异常自动采取保护方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105796286A (zh) * 2016-02-23 2016-07-27 东南大学 使用气囊传感器的下肢外骨骼机器人控制方法
CN109940584A (zh) * 2019-03-25 2019-06-28 杭州程天科技发展有限公司 一种外骨骼机器人及其检测人体运动意图的检测方法

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109662869B (zh) * 2019-01-21 2024-02-02 中国科学院沈阳自动化研究所 一种穿戴式柔性下肢助力机器人
CN111611887B (zh) * 2020-05-08 2023-04-11 武汉工程大学 一种人机混合协调运动用户意图估计方法及系统

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105796286A (zh) * 2016-02-23 2016-07-27 东南大学 使用气囊传感器的下肢外骨骼机器人控制方法
CN109940584A (zh) * 2019-03-25 2019-06-28 杭州程天科技发展有限公司 一种外骨骼机器人及其检测人体运动意图的检测方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
兼具柔顺与安全的助行机器人运动控制研究;徐文霞等;《自动化学报》;20161231;第42卷(第12期);第1859-1873页 *
助行机器人运动控制和安全监护策略研究;徐文霞;《中国博士学位论文全文数据库信息科技辑》;20170815(第10期);第20-21页,第80-86页 *

Also Published As

Publication number Publication date
WO2021223502A1 (zh) 2021-11-11
CN111611887A (zh) 2020-09-01

Similar Documents

Publication Publication Date Title
CN111611887B (zh) 一种人机混合协调运动用户意图估计方法及系统
Matsumotot et al. Development of intelligent wheelchair system with face and gaze based interface
JP4978722B2 (ja) 速度制御装置
Lee et al. JAIST Robotic Walker control based on a two-layered Kalman filter
Seki et al. Fuzzy control for electric power-assisted wheelchair driving on disturbance roads
CN107172359B (zh) 摄像头人脸跟踪系统及人脸跟踪方法
WO2020124623A1 (zh) 一种智能运动系统及方法
CN108762253B (zh) 一种应用于为人导航系统的人机队形控制方法
Herrera et al. Modeling and path-following control of a wheelchair in human-shared environments
Ahmad et al. Colour tracking technique by using pixy CMUcam5 for wheelchair luggage follower
Lee et al. Fuzzy wall-following control of a wheelchair
Vans et al. Vision based autonomous path tracking of a mobile robot using fuzzy logic
Hong et al. Vision-locomotion coordination control for a powered lower-limb prosthesis using fuzzy-based dynamic movement primitives
CN109948672A (zh) 一种轮椅控制方法及系统
Perez et al. Robotic wheelchair controlled through a vision-based interface
Liu et al. A novel economical embedded multi-mode intelligent control system for powered wheelchair
Ching et al. Touchless shared-control for wheelchair navigation
Seki et al. Velocity pattern generation for power assisted wheelchair based on jerk and acceleration limitation
Xu et al. 3D hand gesture tracking and recognition for controlling an intelligent wheelchair
Pequeño-Zurro et al. Proactive Control for Online Individual User Adaptation in a Welfare Robot Guidance Scenario: Toward Supporting Elderly People
Kundur et al. Active vision-based control schemes for autonomous navigation tasks
Zhang et al. An interactive control system for mobile robot based on cloud services
KR20030028351A (ko) 인공지능 기법을 이용한 조이스틱 및 음성인식용 전동휠체어
Aye et al. A deep neural network based human following robot with fuzzy control
Ahmed Sayemaldahar et al. An integrated smart wheelchair model: Iw smart wheelchair with embedded smart home, navigation and obstacle avoidance systems

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant