WO2021223502A1 - 一种人机混合协调运动用户意图估计方法及系统 - Google Patents

一种人机混合协调运动用户意图估计方法及系统 Download PDF

Info

Publication number
WO2021223502A1
WO2021223502A1 PCT/CN2021/078713 CN2021078713W WO2021223502A1 WO 2021223502 A1 WO2021223502 A1 WO 2021223502A1 CN 2021078713 W CN2021078713 W CN 2021078713W WO 2021223502 A1 WO2021223502 A1 WO 2021223502A1
Authority
WO
WIPO (PCT)
Prior art keywords
user
intention
velocity
real
hybrid system
Prior art date
Application number
PCT/CN2021/078713
Other languages
English (en)
French (fr)
Inventor
徐文霞
曹轩
于宝成
吴静
Original Assignee
武汉工程大学
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 武汉工程大学 filed Critical 武汉工程大学
Publication of WO2021223502A1 publication Critical patent/WO2021223502A1/zh

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02PCLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
    • Y02P90/00Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
    • Y02P90/02Total factory control, e.g. smart factories, flexible manufacturing systems [FMS] or integrated manufacturing systems [IMS]

Definitions

  • the invention relates to the field of intelligent robots, and in particular to a method and system for estimating user intentions in a human-machine hybrid coordinated motion.
  • the intelligent mobility assistance robot developed by Huazhong University of Science and Technology, and the intelligent mobility assistance system designed by Shanghai Jiaotong University. Because the intelligent mobility robot is a device that is in close contact with people, the requirements for safety are very high. At the same time, the service target of the intelligent mobility robot is the elderly or the disabled. During use, some uncoordinated walking may occur due to lower limb motor ability, which may lead to dangers such as falls. Therefore, the coordinated movement of the upper and lower limbs of the user should be considered in the design of the intelligent walking robot, so as to obtain the precise user's motion intention, so as to ensure the safety of the user when using the walking robot.
  • the technical problem to be solved by the present invention is to provide a method and system for estimating user intentions of a human-machine hybrid coordinated motion in view of the defects in the prior art.
  • a method for estimating user intentions in a coordinated motion of a human-machine hybrid system includes the following steps:
  • F x0 and F y0 are the thresholds of the interaction force in the front and rear direction and the left and right directions
  • M 0 is the threshold of the interaction force of rotation
  • v Hx , v Hy are the speed of the front and back movement of the upper limbs, and the left and right movement of the upper limbs.
  • Speed and upper limb rotation angular velocity, k x , k y , k ⁇ are proportional coefficients.
  • a laser range finder system human-machine hybrid motion estimation intended user lower limbs, the lower limbs user obtained in step L real-time moving velocity V is intended to include:
  • the laser rangefinder scans the user's legs to obtain the distance lattice of the legs, and obtains the left leg distance point set and the right leg distance point set of the legs to the laser rangefinder through the threshold range segmentation set;
  • step S22 Perform arc fitting and analytical geometric operations on the left leg distance point set and the right leg distance point set obtained in step S21, and obtain the radii R L , R R and the position center (x L , Y L ), (x R , y R ), and eliminate interference arcs through the leg radius threshold;
  • step S3 the process of using the fuzzy control method to adjust the compliance parameter S of the man-machine hybrid system in step S3 is:
  • Output is the compliance parameter S of the man-machine hybrid system, which is set to 5 levels, respectively 0.4, 0.5, 0.6, 0.7 and 0.8;
  • step S4 performs heterogeneous sensor fusion on the user's upper limb real-time movement intention velocity V H , the user's lower limb real-time movement intention velocity V L and the man-machine hybrid system compliance parameter S to obtain an accurate user movement intention velocity V F
  • the specific steps are:
  • Z i is the current state variable
  • X i is the current prediction state variables
  • X i - 1 is the previous predicted state variables
  • A is a parameter matrix
  • ⁇ i, v i is the current measured WGN ;
  • leg radius threshold means: setting the leg radius threshold in the range of 3 cm to 10 cm, and if the radius of the fitting arc obtained for the left and right legs is within this range, it is a human leg.
  • a human-machine hybrid system coordinated movement user intention estimation system which is characterized in that it includes:
  • the force sensor module is used to estimate the movement intention of the user's upper limbs in the human-machine hybrid system, and obtain the real-time movement intention velocity V H of the user's upper limbs;
  • Laser rangefinder used to estimate the user's lower limb movement intention in the human-machine hybrid system, and obtain the user's lower limb movement intention velocity V L in real time;
  • the compliance parameter adjustment module of the man-machine hybrid system sets the compliance parameter S of the man-machine hybrid system according to the user's upper limb real-time movement intention speed V H and the user's lower limb real-time movement intention speed V L, and uses the fuzzy control method to adjust the man-machine hybrid system compliance Degree parameter S;
  • the heterogeneous sensor fusion module fuses the user's upper limb real-time movement intention velocity V H , the user's lower limb real-time movement intention velocity V L and the man-machine hybrid system compliance parameter S to obtain accurate user movement intention velocity V F.
  • the range of the laser rangefinder is 0.2m to 1.2m, and the detection angle is -45° to 45°.
  • the beneficial effects produced by the present invention are: a human-machine hybrid system coordinated movement user intention estimation method and system provided by the present invention, the force sensor module is used to obtain the user's upper limb real-time movement intention velocity V H , and the laser rangefinder is used to obtain the user's lower limb
  • the real-time movement intention speed V L comprehensively considers the intention movement speed of the user's upper and lower limbs, and fully considers the flexibility of the user to obtain the precise movement intention speed of the user.
  • the invention can realize the compliant robot motion control to the greatest extent, prevent the uncoordinated motion of the robot and the user from occurring, and avoid the unsafe behavior of the user.
  • Fig. 1 is a flowchart of a method according to an embodiment of the present invention
  • Figure 2 is the arc fitting process of the method of the embodiment of the present invention.
  • Figure 3 is the membership function and fuzzy control rules of the method of the embodiment of the present invention.
  • Figure 4 is a system block diagram of an embodiment of the present invention.
  • Figure 5 is a force sensor module of the system of an embodiment of the present invention.
  • Fig. 6 is a laser rangefinder according to an embodiment of the present invention.
  • the present invention provides a method for estimating user intentions in a human-machine hybrid system coordinated movement, which includes the following steps:
  • step S1 using the force sensor module to estimate the movement intention of the user's upper limbs in the human-machine hybrid system means: the user operates the force sensor module 1 to move in the direction of the intended movement, and the force sensor module 1 obtains the front and back of the corresponding movement.
  • F x0 and F y0 are the thresholds of the interaction force in the front and rear direction and the left and right directions
  • M 0 is the threshold of the interaction force of rotation
  • v Hx , v Hy are the speed of the front and back movement of the upper limbs, and the left and right movement of the upper limbs.
  • Speed and upper limb rotation angular velocity, k x , k y , k ⁇ are proportional coefficients.
  • step S2 laser rangefinder mixing system human-machine user intended to lower limb motion estimate, L obtained in step intended user real-time moving velocity V lower limb comprising:
  • the laser rangefinder scans the user's legs to obtain the distance lattice of the legs, and obtains the left leg distance point set and the right leg distance point set of the legs to the laser rangefinder through the threshold range segmentation set;
  • step S22 Perform arc fitting and analytical geometric operations on the left leg distance point set and the right leg distance point set obtained in step S21, and obtain the radii R L , R R and the position center (x L , Y L ), (x R , y R ), and eliminate interference arcs through the leg radius threshold;
  • step S3 the process of using the fuzzy control method to adjust the compliance parameter S of the man-machine hybrid system in step S3 is:
  • Output is the compliance parameter S of the man-machine hybrid system, which is set to 5 levels, respectively 0.4, 0.5, 0.6, 0.7 and 0.8;
  • the value of the compliance parameter S can be obtained.
  • step S4 performs heterogeneous sensor fusion on the user's upper limb real-time movement intention velocity V H , the user's lower limb real-time movement intention velocity V L and the human-machine hybrid system compliance parameter S to obtain an accurate user movement intention velocity V F. for:
  • Z i is the current state variable
  • X i is the current prediction state variables
  • X i - 1 is the previous predicted state variables
  • A is a parameter matrix
  • ⁇ i, v i is the current measured WGN ;
  • system parameter matrix H is:
  • leg radius threshold means: setting the leg radius threshold in the range of 3 cm to 10 cm, and if the radius of the fitting arc obtained for the left and right legs is within this range, it is a human leg.
  • a human-machine hybrid system coordinated movement user intention estimation system which is characterized in that it includes:
  • the force sensor module 1 as shown in Fig. 5, is used to estimate the movement intention of the user's upper limbs in the human-machine hybrid system to obtain the real-time movement intention velocity V H of the user's upper limbs;
  • the laser rangefinder 2 as shown in Figure 6, is used to estimate the user's lower limb movement intention in a human-machine hybrid system to obtain the user's lower limb movement intention velocity V L in real time;
  • Man-machine hybrid system compliance parameter adjustment module 3 according to the user's upper limb real-time movement intention velocity V H and the user's lower limb real-time movement intention velocity V L , set the human-machine hybrid system compliance parameter S, and use the fuzzy control method to adjust the human-machine hybrid system Compliance parameter S;
  • the auxiliary robot 5 realizes a compliant motion according to the accurate user motion intention velocity V F.
  • the range of the laser rangefinder 2 is 0.2m-1.2m, and the detection angle is -45°-45°.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Data Mining & Analysis (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Human Computer Interaction (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Rehabilitation Tools (AREA)

Abstract

一种人机混合系统协调运动用户意图估计方法,利用力传感器模组和激光测距仪分别获得用户上肢实时运动意图速度V H、用户下肢实时运动意图速度V L,设置人机混合系统柔顺度参数S,并利用模糊控制方法调节人机混合系统柔顺度参数S;对用户上肢实时运动意图速度V H、用户下肢实时运动意图速度V L和人机混合系统柔顺度参数S进行异质传感器融合,得到准确的用户运动意图速度V F;将准确的用户运动意图速度V F发送给辅助机器人,实现辅助机器人的柔顺运动。本方法可最大限度的实现柔顺的机器人运动控制,防止出现机器人和用户的不协调运动,避免发生用户不安全行为。

Description

一种人机混合协调运动用户意图估计方法及系统 技术领域
本发明涉及智能机器人领域,尤其涉及一种人机混合协调运动用户意图估计方法及系统。
背景技术
我国人口老龄化的形势在不断地加剧,对于帮助老弱病残人士的服务需求也在不断增多。尤其是那些独居而且行动不便的老人和残障人士,他们失去独立自主生活的很大一部分原因是他们无法独立行走,所以研究能够帮助他们实现独立生活的智能助行机器人非常有意义。
现有的助行机器人系统中,很少考虑助行机器人系统中用户的上、下肢间的协调运动,相关研究也相对较少。一些科研院校和公司都在进行智能助行系统的相关研究,并取得了一定的成果。如华中科技大学研发的智能助行机器人,上海交通大学设计的智能助行系统等。由于智能助行机器人是一种和人密切接触的设备,所以对安全性的要求非常高。同时,智能助行机器人的服务对象是老年人或者残疾人,在使用过程中,可能会出现一些因为下肢运动能力减退产生的行走不协调的情况,从而导致跌倒等危险的发生。所以智能助行机器人在设计过程中应该考虑到用户的上下肢的协调运动,从而得到精确的用户运动意图,才能保障用户在使用助行机器人时的安全问题。
发明内容
本发明要解决的技术问题在于针对现有技术中的缺陷,提供一种人机混合协调运动用户意图估计方法及系统。
本发明解决其技术问题所采用的技术方案是:
提供一种人机混合系统协调运动用户意图估计方法,包括以下步骤:
S1、利用力传感器模组对人机混合系统中用户上肢的运动意图进行估计, 获得用户上肢实时运动意图速度V H
S2、利用激光测距仪对人机混合系统中用户下肢的运动意图进行估计,获得用户下肢实时运动意图速度V L
S3、根据用户上肢实时运动意图速度V H和用户下肢实时运动意图速度V L,设置人机混合系统柔顺度参数S,并利用模糊控制方法调节人机混合系统柔顺度参数S;
S4、对用户上肢实时运动意图速度V H、用户下肢实时运动意图速度V L和人机混合系统柔顺度参数S进行异质传感器融合,得到准确的用户运动意图速度V F
S5、将准确的用户运动意图速度V F发送给辅助机器人,实现辅助机器人的柔顺运动。
接上述技术方案,步骤S1中利用力传感器模组对人机混合系统中用户上肢的运动意图进行估计是指:用户操作力传感器模组向意图运动方向移动,所述力传感器模组获得相应运动的前后方向上交互力F x和左右方向上的交互力F y,根据公式计算用户上肢实时运动意图速度V H=[v Hx v Hy v ] T,所述公式为,
Figure PCTCN2021078713-appb-000001
其中,F x0和F y0为前后方向上、左右方向上交互力的阈值,M 0为旋转的交互力阈值,v Hx、v Hy、v ,分别为上肢前后方向运动速度、上肢左右方向运动速度和上肢旋转角速度,k x、k y、k θ为比例系数。
接上述技术方案,步骤S2中激光测距仪对人机混合系统中用户下肢的运动意图进行估计,获得用户下肢实时运动意图速度V L的步骤包括:
S21、用户在使用机器人时,激光测距仪对用户双腿进行扫描,获得双腿的距离点阵,通过阈值范围分割获得双腿到激光测距仪的左腿距离点集和右腿距离点集;
S22、对步骤S21获得左腿距离点集和右腿距离点集进行圆弧拟合和解析几何运算,获得左、右腿对应拟合圆弧的半径R L、R R和位置圆心(x L,y L)、(x R,y R),并通过腿部半径阈值剔除干扰圆弧;
S23、利用多次腿部距离测量获得左、右腿的位置圆心,结合测量频率获得用户下肢实时运动意图速度V L=[v Lx v Ly v ],其中v Lx、v Ly、v 分别为下肢前后方向运动速度、下肢左右方向运动速度和下肢旋转角速度,下肢旋转角速度和上肢旋转角速度相同。
接上述技术方案,步骤S3中利用模糊控制方法调节人机混合系统柔顺度参数S的过程为:
S31、确定模糊控制器的输入input1为用户上肢实时运动意图速度V H,输入input2为用户下肢实时运动意图速度V L,输出output为人机混合系统柔顺度参数S;
S32、将用户上肢实时运动意图速度V H划分为七个模糊量,相邻模糊量的形状为三角形,论域为[-20,20];
S33、将用户下肢实时运动意图速度V L划分为七个模糊量,相邻模糊量的形状为三角形,论域为[-40,40];
S34、输出output为人机混合系统柔顺度参数S,设置为5个等级,分别为0.4、0.5、0.6、0.7和0.8;
S35、确定模糊控制器中的隶属度函数和模糊控制规则,调节人机混合系统柔顺度参数S。
接上述技术方案,步骤S4对用户上肢实时运动意图速度V H、用户下肢实时运动意图速度V L和人机混合系统柔顺度参数S进行异质传感器融合,得到准确的用户运动意图速度V F的具体步骤为:
S41、定义系统变量
Figure PCTCN2021078713-appb-000002
Z=[v Hx v Hy v  v Lx v Ly v ] T,其中[v Hx v Hy v ] T为准确的用户运动意图速度,
Figure PCTCN2021078713-appb-000003
为准确的用户运动意图加速度,[v Hx v Hy v ] T为用户上肢实时运动意图速度,[v Lx v Ly v ] T为用户下肢实时运动意图速度;
S42、构建状态空间方程:
Figure PCTCN2021078713-appb-000004
其中,Z i为当前状态变量,X i为当前预测状态变量,X i- 1为前一预测状态变量,H测量系统参数矩阵,A为参数矩阵,ω i、v i为当前测量高斯白噪声;
S43、根据系统变量和状态空间方程,进行融合获得准确的用户运动意图V F=[v Fx v Fy v ] T
接上述技术方案,所述系统参数矩阵H为:
Figure PCTCN2021078713-appb-000005
其中,a是上肢表现出来的用于运动意图速度的置信度,b=1-a。
接上述技术方案,通过腿部半径阈值剔除干扰圆弧是指:设定腿部半径阈值的范围为3cm~10cm,如果获得左、右腿对应拟合圆弧的半径在此范围则为人腿。
提供一种人机混合系统协调运动用户意图估计系统,其特征在于,包括:
力传感器模组,用于人机混合系统中用户的上肢的运动意图进行估计,获得用户上肢实时运动意图速度V H
激光测距仪,用于人机混合系统中用户的下肢的运动意图进行估计,获得用户下肢实时运动意图速度V L
人机混合系统柔顺度参数调节模块,根据用户上肢实时运动意图速度V H和用户下肢实时运动意图速度V L,设置人机混合系统柔顺度参数S,并利用模糊控制方法调节人机混合系统柔顺度参数S;
异质传感器融合模块,对用户上肢实时运动意图速度V H、用户下肢实时 运动意图速度V L和人机混合系统柔顺度参数S进行融合,得到准确的用户运动意图速度V F
接上述技术方案,所述激光测距仪的测距范围为0.2m~1.2m,检测角度为-45°~45°。
本发明产生的有益效果是:本发明提供的一种人机混合系统协调运动用户意图估计方法和体统,利用力传感器模组获得用户上肢实时运动意图速度V H,利用激光测距仪获得用户下肢实时运动意图速度V L,综合考虑到用户上、下肢的所表现出来的意图运动速度,在充分考虑柔顺度的情况下,得到精确的用户运动意图速度。本发明可最大限度的实现柔顺的机器人运动控制,防止出现机器人和用户的不协调运动,避免发生用户不安全行。
附图说明
下面将结合附图及实施例对本发明作进一步说明,附图中:
图1是本发明实施例的方法流程图;
图2是本发明实施例方法的圆弧拟合过程;
图3是本发明实施例方法的隶属度函数和模糊控制规则;
图4是本发明实施例的系统框图;
图5是本发明实施例的系统的力传感器模组;
图6是本发明实施例的激光测距仪。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅用以解释本发明,并不用于限定本发明。
如图1所示,本发明提供一种人机混合系统协调运动用户意图估计方法,包括以下步骤:
S1、利用力传感器模组1对人机混合系统中用户上肢的运动意图进行估计,获得用户上肢实时运动意图速度V H
S2、利用激光测距仪2对人机混合系统中用户下肢的运动意图进行估计,获得用户下肢实时运动意图速度V L
S3、根据用户上肢实时运动意图速度V H和用户下肢实时运动意图速度V L,设置人机混合系统柔顺度参数S,并利用模糊控制方法调节人机混合系统柔顺度参数S;
S4、对用户上肢实时运动意图速度V H、用户下肢实时运动意图速度V L和人机混合系统柔顺度参数S进行异质传感器融合,得到准确的用户运动意图速度V H
S5、将准确的用户运动意图速度V H发送给辅助机器人5,实现辅助机器人5的柔顺运动。
进一步地,步骤S1中利用力传感器模组对人机混合系统中用户上肢的运动意图进行估计是指:用户操作力传感器模组1向意图运动方向移动,力传感器模组1获得相应运动的前后方向上交互力F x和左右方向上的交互力F y,根据公式计算用户上肢实时运动意图速度V H=[v Hx v Hy v ] T,公式为,
Figure PCTCN2021078713-appb-000006
其中,F x0和F y0为前后方向上、左右方向上交互力的阈值,M 0为旋转的交互力阈值,v Hx、v Hy、v ,分别为上肢前后方向运动速度、上肢左右方向运动速度和上肢旋转角速度,k x、k y、k θ为比例系数。
进一步地,如图2所示,步骤S2中激光测距仪对人机混合系统中用户下肢的运动意图进行估计,获得用户下肢实时运动意图速度V L的步骤包括:
S21、用户在使用机器人时,激光测距仪对用户双腿进行扫描,获得双腿的距离点阵,通过阈值范围分割获得双腿到激光测距仪的左腿距离点集和右腿距离点集;
S22、对步骤S21获得左腿距离点集和右腿距离点集进行圆弧拟合和解析 几何运算,获得左、右腿对应拟合圆弧的半径R L、R R和位置圆心(x L,y L)、(x R,y R),并通过腿部半径阈值剔除干扰圆弧;
S23、利用多次腿部距离测量获得左、右腿的位置圆心,结合测量频率获得用户下肢实时运动意图速度V L=[v Lx v Ly v ],其中v Lx、v Ly、v 分别为下肢前后方向运动速度、下肢左右方向运动速度和下肢旋转角速度,下肢旋转角速度和上肢旋转角速度相同。
进一步地,步骤S3中利用模糊控制方法调节人机混合系统柔顺度参数S的过程为:
S31、确定模糊控制器的输入input1为用户上肢实时运动意图速度V H,输入input2为用户下肢实时运动意图速度V L,输出output为人机混合系统柔顺度参数S;
S32、将用户上肢实时运动意图速度V H划分为NB、NM、NS、Z、PS、PM、PB七个模糊量,相邻模糊量的形状为三角形,论域为[-20,20];
S33、将用户下肢实时运动意图速度V L划分为NB、NM、NS、Z、PS、PM、PB七个模糊量,相邻模糊量的形状为三角形,论域为[-40,40];
S34、输出output为人机混合系统柔顺度参数S,设置为5个等级,分别为0.4、0.5、0.6、0.7和0.8;
S35、确定模糊控制器中的隶属度函数和模糊控制规则,如图3所示,调节人机混合系统柔顺度参数S。
采用模糊控制方法调节柔顺度参数S,实现助行机器人的柔顺控制。由于两种人体动作意图速度的节奏不同,在不同的行走过程中为两个人体动作意图速度分配不同的置信度,体现不同的柔顺性。例如,若S=0.4,则对上肢表现出来的运动意图速度V H的置信度为0.4,对下肢表现出来的运动意图速度V L的置信度为0.6;若S=0.8,则对上肢表现出来的运动意图速度V H的置信度为0.8,对下肢表现出来的运动意图速度V L的置信度为0.2。
根据模糊规则表,如表1所示,可以得到柔顺度参数S的值。
表1.模糊规则表
Figure PCTCN2021078713-appb-000007
进一步地,步骤S4对用户上肢实时运动意图速度V H、用户下肢实时运动意图速度V L和人机混合系统柔顺度参数S进行异质传感器融合,得到准确的用户运动意图速度V F的具体步骤为:
S41、定义系统变量
Figure PCTCN2021078713-appb-000008
Z=[v Hx v Hy v  v Lx v Ly v ] T,其中[v Hx v Hy v ] T为准确的用户运动意图速度,
Figure PCTCN2021078713-appb-000009
为准确的用户运动意图加速度,[v Hx v Hy v ] T为用户上肢实时运动意图速度,[v Lx v Ly v ] T为用户下肢实时运动意图速度;
S42、构建状态空间方程:
Figure PCTCN2021078713-appb-000010
其中,Z i为当前状态变量,X i为当前预测状态变量,X i- 1为前一预测状态变量,H测量系统参数矩阵,A为参数矩阵,ω i、v i为当前测量高斯白噪声;
S43、根据系统变量和状态空间方程,进行融合获得准确的用户运动意图V F=[v Fx v Fy v ] T
进一步地,系统参数矩阵H为:
Figure PCTCN2021078713-appb-000011
其中,a是上肢表现出来的用于运动意图速度的置信度,b=1-a。
进一步地,通过腿部半径阈值剔除干扰圆弧是指:设定腿部半径阈值的范围为3cm~10cm,如果获得左、右腿对应拟合圆弧的半径在此范围则为人腿。
如图4所示,提供一种人机混合系统协调运动用户意图估计系统,其特征在于,包括:
力传感器模组1,如图5所示,用于人机混合系统中用户的上肢的运动意图进行估计,获得用户上肢实时运动意图速度V H
激光测距仪2,如图6所示,用于人机混合系统中用户的下肢的运动意图进行估计,获得用户下肢实时运动意图速度V L
人机混合系统柔顺度参数调节模块3,根据用户上肢实时运动意图速度V H和用户下肢实时运动意图速度V L,设置人机混合系统柔顺度参数S,并利用模糊控制方法调节人机混合系统柔顺度参数S;
异质传感器融合模块4,对用户上肢实时运动意图速度V H、用户下肢实时运动意图速度V L和人机混合系统柔顺度参数S进行融合,得到准确的用户运动意图速度V F
辅助机器人5,根据准确的用户运动意图速度V F,实现柔顺运动。
接上述技术方案,激光测距仪2的测距范围为0.2m~1.2m,检测角度为-45°~45°。
应当理解的是,对本领域普通技术人员来说,可以根据上述说明加以改进或变换,而所有这些改进和变换都应属于本发明所附权利要求的保护范围。

Claims (9)

  1. 一种人机混合系统协调运动用户意图估计方法,其特征在于,包括以下步骤:
    S1、利用力传感器模组对人机混合系统中用户上肢的运动意图进行估计,获得用户上肢实时运动意图速度V H
    S2、利用激光测距仪对人机混合系统中用户下肢的运动意图进行估计,获得用户下肢实时运动意图速度V L
    S3、根据用户上肢实时运动意图速度V H和用户下肢实时运动意图速度V L,设置人机混合系统柔顺度参数S,并利用模糊控制方法调节人机混合系统柔顺度参数S;
    S4、对用户上肢实时运动意图速度V H、用户下肢实时运动意图速度V L和人机混合系统柔顺度参数S进行异质传感器融合,得到准确的用户运动意图速度V F
    S5、将准确的用户运动意图速度V F发送给辅助机器人,实现辅助机器人的柔顺运动。
  2. 根据权利要求1所述的用户意图估计方法,其特征在于,步骤S1中利用力传感器模组对人机混合系统中用户上肢的运动意图进行估计是指:用户操作力传感器模组向意图运动方向移动,所述力传感器模组获得相应运动的前后方向上交互力F x和左右方向上的交互力F y,根据公式计算用户上肢实时运动意图速度V H=[v Hx v Hy v ] T,所述公式为,
    Figure PCTCN2021078713-appb-100001
    其中,F x0和F y0为前后方向上、左右方向上交互力的阈值,M 0为旋转的 交互力阈值,v Hx、v Hy、v ,分别为上肢前后方向运动速度、上肢左右方向运动速度和上肢旋转角速度,k x、k y、k θ为比例系数。
  3. 根据权利要求1所述的用户意图估计方法,其特征在于,步骤S2中激光测距仪对人机混合系统中用户下肢的运动意图进行估计,获得用户下肢实时运动意图速度V L的步骤包括:
    S21、用户在使用机器人时,激光测距仪对用户双腿进行扫描,获得双腿的距离点阵,通过阈值范围分割获得双腿到激光测距仪的左腿距离点集和右腿距离点集;
    S22、对步骤S21获得左腿距离点集和右腿距离点集进行圆弧拟合和解析几何运算,获得左、右腿对应拟合圆弧的半径R L、R R和位置圆心(x L,y L)、(x R,y R),并通过腿部半径阈值剔除干扰圆弧;
    S23、利用多次腿部距离测量获得左、右腿的位置圆心,结合测量频率获得用户下肢实时运动意图速度V L=[v Lx v Ly v ],其中v Lx、v Ly、v 分别为下肢前后方向运动速度、下肢左右方向运动速度和下肢旋转角速度,下肢旋转角速度和上肢旋转角速度相同。
  4. 根据权利要求1所述的用户意图估计方法,其特征在于,步骤S3中利用模糊控制方法调节人机混合系统柔顺度参数S的过程为:
    S31、确定模糊控制器的输入input1为用户上肢实时运动意图速度V H,输入input2为用户下肢实时运动意图速度V L,输出output为人机混合系统柔顺度参数S;
    S32、将用户上肢实时运动意图速度V H划分为七个模糊量,相邻模糊量的形状为三角形,论域为[-20,20];
    S33、将用户下肢实时运动意图速度V L划分为七个模糊量,相邻模糊量的形状为三角形,论域为[-40,40];
    S34、输出output为人机混合系统柔顺度参数S,设置为5个等级,分别为0.4、0.5、0.6、0.7和0.8;
    S35、确定模糊控制器中的隶属度函数和模糊控制规则,调节人机混合系统柔顺度参数S。
  5. 根据权利要求1所述的用户意图估计方法,其特征在于,步骤S4对用户上肢实时运动意图速度V H、用户下肢实时运动意图速度V L和人机混合系统柔顺度参数S进行异质传感器融合,得到准确的用户运动意图速度V F的具体步骤为:
    S41、定义系统变量
    Figure PCTCN2021078713-appb-100002
    Z=[v Hx v Hy v  v Lx v Ly v ] T,其中[v Hx v Hy v ] T为准确的用户运动意图速度,
    Figure PCTCN2021078713-appb-100003
    为准确的用户运动意图加速度,[v Hx v Hy v ] T为用户上肢实时运动意图速度,[v Lx v Ly v ] T为用户下肢实时运动意图速度;
    S42、构建状态空间方程:
    Figure PCTCN2021078713-appb-100004
    其中,Z i为当前状态变量,X i为当前预测状态变量,X i-1为前一预测状态变量,H测量系统参数矩阵,A为参数矩阵,ω i、v i为当前测量高斯白噪声;
    S43、根据系统变量和状态空间方程,进行融合获得准确的用户运动意图V F=[v Fx v Fy v ] T
  6. 根据权利要求5所述的用户意图估计方法,其特征在于,所述系统参数矩阵H为:
    Figure PCTCN2021078713-appb-100005
    其中,a是上肢表现出来的用于运动意图速度的置信度,b=1-a。
  7. 根据权利要求3所述的用户意图估计方法,其特征在于,通过腿部半径阈值剔除干扰圆弧是指:设定腿部半径阈值的范围为3cm~10cm,如果获得左、右腿对应拟合圆弧的半径在此范围则为人腿。
  8. 一种人机混合系统协调运动用户意图估计系统,其特征在于,包括:
    力传感器模组,用于人机混合系统中用户的上肢的运动意图进行估计, 获得用户上肢实时运动意图速度V H
    激光测距仪,用于人机混合系统中用户的下肢的运动意图进行估计,获得用户下肢实时运动意图速度V L
    人机混合系统柔顺度参数调节模块,根据用户上肢实时运动意图速度V H和用户下肢实时运动意图速度V L,设置人机混合系统柔顺度参数S,并利用模糊控制方法调节人机混合系统柔顺度参数S;
    异质传感器融合模块,对用户上肢实时运动意图速度V H、用户下肢实时运动意图速度V L和人机混合系统柔顺度参数S进行融合,得到准确的用户运动意图速度V F
    助行机器人,根据准确的用户运动意图速度V F,实现柔顺运动。
  9. 根据权利要求8所述的用户意图估计系统,其特征在于,所述激光测距仪的测距范围为0.2m~1.2m,检测角度为-45°~45°。
PCT/CN2021/078713 2020-05-08 2021-03-02 一种人机混合协调运动用户意图估计方法及系统 WO2021223502A1 (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN202010382306.3A CN111611887B (zh) 2020-05-08 2020-05-08 一种人机混合协调运动用户意图估计方法及系统
CN202010382306.3 2020-05-08

Publications (1)

Publication Number Publication Date
WO2021223502A1 true WO2021223502A1 (zh) 2021-11-11

Family

ID=72199819

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/CN2021/078713 WO2021223502A1 (zh) 2020-05-08 2021-03-02 一种人机混合协调运动用户意图估计方法及系统

Country Status (2)

Country Link
CN (1) CN111611887B (zh)
WO (1) WO2021223502A1 (zh)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111611887B (zh) * 2020-05-08 2023-04-11 武汉工程大学 一种人机混合协调运动用户意图估计方法及系统
CN112230543A (zh) * 2020-10-29 2021-01-15 南京凌华微电子科技有限公司 一种人机协同辅助行走机器人的运动控制方法
CN112847398A (zh) * 2021-01-08 2021-05-28 北京工业大学 一种对助行安全异常自动采取保护方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109662869A (zh) * 2019-01-21 2019-04-23 中国科学院沈阳自动化研究所 一种穿戴式柔性下肢助力机器人
CN109940584A (zh) * 2019-03-25 2019-06-28 杭州程天科技发展有限公司 一种外骨骼机器人及其检测人体运动意图的检测方法
CN111611887A (zh) * 2020-05-08 2020-09-01 武汉工程大学 一种人机混合协调运动用户意图估计方法及系统

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105796286B (zh) * 2016-02-23 2018-04-06 东南大学 使用气囊传感器的下肢外骨骼机器人控制方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109662869A (zh) * 2019-01-21 2019-04-23 中国科学院沈阳自动化研究所 一种穿戴式柔性下肢助力机器人
CN109940584A (zh) * 2019-03-25 2019-06-28 杭州程天科技发展有限公司 一种外骨骼机器人及其检测人体运动意图的检测方法
CN111611887A (zh) * 2020-05-08 2020-09-01 武汉工程大学 一种人机混合协调运动用户意图估计方法及系统

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
XU WEN-XIA; HUANG JIAN; YAN QING-YANG; WANG YONG-JI; TAO CHUN-JING: "Research on Walking-aid Robot Motion Control with Both Compliance and Safety", ACTA AUTOMATICA SINICA, vol. 42, no. 12, 31 December 2016 (2016-12-31), CN, pages 1859 - 1873, XP009531613, ISSN: 0254-4156, DOI: 10.16383/j.aas.2016.c160163 *
XU, WENXIA: "The Research of Motion Control and Safety Custody Strategy for Walking-Aid Robot", DOCTORAL DISSERTATION, no. 8, 23 May 2016 (2016-05-23), CN, pages 1 - 133, XP009531611, ISSN: 1674-022X *

Also Published As

Publication number Publication date
CN111611887B (zh) 2023-04-11
CN111611887A (zh) 2020-09-01

Similar Documents

Publication Publication Date Title
WO2021223502A1 (zh) 一种人机混合协调运动用户意图估计方法及系统
US9119762B2 (en) Walking assist device, walking assist method, walking state estimating device and walking state estimating method
Jiménez et al. Assistive locomotion device with haptic feedback for guiding visually impaired people
KR20160066764A (ko) 차선 유지를 위한 차량 조향 제어 장치 및 방법
Seki et al. Fuzzy control for electric power-assisted wheelchair driving on disturbance roads
Herrera et al. Modeling and path-following control of a wheelchair in human-shared environments
Huang et al. Shared Navigational Control and User Intent Detection in an Intelligent Walker.
JP2017132406A (ja) 車両の制御装置及び車両の制御方法
Fontanelli et al. Unicycle steering by brakes: a passive guidance support for an assistive cart
WO2023284241A1 (zh) 康复机构的控制方法、康复机构的控制系统及康复设备
Yan et al. Model predictive control for human following rehabilitation robot
Bošnak et al. Embedded control system for smart walking assistance device
Perez et al. Robotic wheelchair controlled through a vision-based interface
WO2018223776A1 (zh) 机器人的控制方法、装置、系统和计算机可读存储介质
Ching et al. Touchless shared-control for wheelchair navigation
Andreetto et al. Path following for robotic rollators via simulated passivity
JPH01260509A (ja) 走行制御装置
Thuy et al. Vision Based autonomous path/line following of a mobile robot using a hybrid fuzzy pid controller
Ramesh et al. Type-1 and type-2 fuzzy logic speed controller based high performance direct torque and flux controlled induction motor drive
US11396314B2 (en) Motorized robotic walker guided by an image processing system for human walking assistance
Furuya et al. Wheelchair control based on a polynomial function approximating a user's gaze curve
van Workum et al. Smart wheelchair guidance using optical flow
CN112494281B (zh) 机器人控制装置、机器人、机器人控制方法及存储介质
Wang et al. Adaptive control method for a walking support machine considering center-of-gravity shifts and load changes
Baba et al. A prediction method considering object motion for humanoid robot with visual sensor

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21799532

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 21799532

Country of ref document: EP

Kind code of ref document: A1