WO2021223502A1 - 一种人机混合协调运动用户意图估计方法及系统 - Google Patents
一种人机混合协调运动用户意图估计方法及系统 Download PDFInfo
- Publication number
- WO2021223502A1 WO2021223502A1 PCT/CN2021/078713 CN2021078713W WO2021223502A1 WO 2021223502 A1 WO2021223502 A1 WO 2021223502A1 CN 2021078713 W CN2021078713 W CN 2021078713W WO 2021223502 A1 WO2021223502 A1 WO 2021223502A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- user
- intention
- velocity
- real
- hybrid system
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02P—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
- Y02P90/00—Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
- Y02P90/02—Total factory control, e.g. smart factories, flexible manufacturing systems [FMS] or integrated manufacturing systems [IMS]
Definitions
- the invention relates to the field of intelligent robots, and in particular to a method and system for estimating user intentions in a human-machine hybrid coordinated motion.
- the intelligent mobility assistance robot developed by Huazhong University of Science and Technology, and the intelligent mobility assistance system designed by Shanghai Jiaotong University. Because the intelligent mobility robot is a device that is in close contact with people, the requirements for safety are very high. At the same time, the service target of the intelligent mobility robot is the elderly or the disabled. During use, some uncoordinated walking may occur due to lower limb motor ability, which may lead to dangers such as falls. Therefore, the coordinated movement of the upper and lower limbs of the user should be considered in the design of the intelligent walking robot, so as to obtain the precise user's motion intention, so as to ensure the safety of the user when using the walking robot.
- the technical problem to be solved by the present invention is to provide a method and system for estimating user intentions of a human-machine hybrid coordinated motion in view of the defects in the prior art.
- a method for estimating user intentions in a coordinated motion of a human-machine hybrid system includes the following steps:
- F x0 and F y0 are the thresholds of the interaction force in the front and rear direction and the left and right directions
- M 0 is the threshold of the interaction force of rotation
- v Hx , v Hy are the speed of the front and back movement of the upper limbs, and the left and right movement of the upper limbs.
- Speed and upper limb rotation angular velocity, k x , k y , k ⁇ are proportional coefficients.
- a laser range finder system human-machine hybrid motion estimation intended user lower limbs, the lower limbs user obtained in step L real-time moving velocity V is intended to include:
- the laser rangefinder scans the user's legs to obtain the distance lattice of the legs, and obtains the left leg distance point set and the right leg distance point set of the legs to the laser rangefinder through the threshold range segmentation set;
- step S22 Perform arc fitting and analytical geometric operations on the left leg distance point set and the right leg distance point set obtained in step S21, and obtain the radii R L , R R and the position center (x L , Y L ), (x R , y R ), and eliminate interference arcs through the leg radius threshold;
- step S3 the process of using the fuzzy control method to adjust the compliance parameter S of the man-machine hybrid system in step S3 is:
- Output is the compliance parameter S of the man-machine hybrid system, which is set to 5 levels, respectively 0.4, 0.5, 0.6, 0.7 and 0.8;
- step S4 performs heterogeneous sensor fusion on the user's upper limb real-time movement intention velocity V H , the user's lower limb real-time movement intention velocity V L and the man-machine hybrid system compliance parameter S to obtain an accurate user movement intention velocity V F
- the specific steps are:
- Z i is the current state variable
- X i is the current prediction state variables
- X i - 1 is the previous predicted state variables
- A is a parameter matrix
- ⁇ i, v i is the current measured WGN ;
- leg radius threshold means: setting the leg radius threshold in the range of 3 cm to 10 cm, and if the radius of the fitting arc obtained for the left and right legs is within this range, it is a human leg.
- a human-machine hybrid system coordinated movement user intention estimation system which is characterized in that it includes:
- the force sensor module is used to estimate the movement intention of the user's upper limbs in the human-machine hybrid system, and obtain the real-time movement intention velocity V H of the user's upper limbs;
- Laser rangefinder used to estimate the user's lower limb movement intention in the human-machine hybrid system, and obtain the user's lower limb movement intention velocity V L in real time;
- the compliance parameter adjustment module of the man-machine hybrid system sets the compliance parameter S of the man-machine hybrid system according to the user's upper limb real-time movement intention speed V H and the user's lower limb real-time movement intention speed V L, and uses the fuzzy control method to adjust the man-machine hybrid system compliance Degree parameter S;
- the heterogeneous sensor fusion module fuses the user's upper limb real-time movement intention velocity V H , the user's lower limb real-time movement intention velocity V L and the man-machine hybrid system compliance parameter S to obtain accurate user movement intention velocity V F.
- the range of the laser rangefinder is 0.2m to 1.2m, and the detection angle is -45° to 45°.
- the beneficial effects produced by the present invention are: a human-machine hybrid system coordinated movement user intention estimation method and system provided by the present invention, the force sensor module is used to obtain the user's upper limb real-time movement intention velocity V H , and the laser rangefinder is used to obtain the user's lower limb
- the real-time movement intention speed V L comprehensively considers the intention movement speed of the user's upper and lower limbs, and fully considers the flexibility of the user to obtain the precise movement intention speed of the user.
- the invention can realize the compliant robot motion control to the greatest extent, prevent the uncoordinated motion of the robot and the user from occurring, and avoid the unsafe behavior of the user.
- Fig. 1 is a flowchart of a method according to an embodiment of the present invention
- Figure 2 is the arc fitting process of the method of the embodiment of the present invention.
- Figure 3 is the membership function and fuzzy control rules of the method of the embodiment of the present invention.
- Figure 4 is a system block diagram of an embodiment of the present invention.
- Figure 5 is a force sensor module of the system of an embodiment of the present invention.
- Fig. 6 is a laser rangefinder according to an embodiment of the present invention.
- the present invention provides a method for estimating user intentions in a human-machine hybrid system coordinated movement, which includes the following steps:
- step S1 using the force sensor module to estimate the movement intention of the user's upper limbs in the human-machine hybrid system means: the user operates the force sensor module 1 to move in the direction of the intended movement, and the force sensor module 1 obtains the front and back of the corresponding movement.
- F x0 and F y0 are the thresholds of the interaction force in the front and rear direction and the left and right directions
- M 0 is the threshold of the interaction force of rotation
- v Hx , v Hy are the speed of the front and back movement of the upper limbs, and the left and right movement of the upper limbs.
- Speed and upper limb rotation angular velocity, k x , k y , k ⁇ are proportional coefficients.
- step S2 laser rangefinder mixing system human-machine user intended to lower limb motion estimate, L obtained in step intended user real-time moving velocity V lower limb comprising:
- the laser rangefinder scans the user's legs to obtain the distance lattice of the legs, and obtains the left leg distance point set and the right leg distance point set of the legs to the laser rangefinder through the threshold range segmentation set;
- step S22 Perform arc fitting and analytical geometric operations on the left leg distance point set and the right leg distance point set obtained in step S21, and obtain the radii R L , R R and the position center (x L , Y L ), (x R , y R ), and eliminate interference arcs through the leg radius threshold;
- step S3 the process of using the fuzzy control method to adjust the compliance parameter S of the man-machine hybrid system in step S3 is:
- Output is the compliance parameter S of the man-machine hybrid system, which is set to 5 levels, respectively 0.4, 0.5, 0.6, 0.7 and 0.8;
- the value of the compliance parameter S can be obtained.
- step S4 performs heterogeneous sensor fusion on the user's upper limb real-time movement intention velocity V H , the user's lower limb real-time movement intention velocity V L and the human-machine hybrid system compliance parameter S to obtain an accurate user movement intention velocity V F. for:
- Z i is the current state variable
- X i is the current prediction state variables
- X i - 1 is the previous predicted state variables
- A is a parameter matrix
- ⁇ i, v i is the current measured WGN ;
- system parameter matrix H is:
- leg radius threshold means: setting the leg radius threshold in the range of 3 cm to 10 cm, and if the radius of the fitting arc obtained for the left and right legs is within this range, it is a human leg.
- a human-machine hybrid system coordinated movement user intention estimation system which is characterized in that it includes:
- the force sensor module 1 as shown in Fig. 5, is used to estimate the movement intention of the user's upper limbs in the human-machine hybrid system to obtain the real-time movement intention velocity V H of the user's upper limbs;
- the laser rangefinder 2 as shown in Figure 6, is used to estimate the user's lower limb movement intention in a human-machine hybrid system to obtain the user's lower limb movement intention velocity V L in real time;
- Man-machine hybrid system compliance parameter adjustment module 3 according to the user's upper limb real-time movement intention velocity V H and the user's lower limb real-time movement intention velocity V L , set the human-machine hybrid system compliance parameter S, and use the fuzzy control method to adjust the human-machine hybrid system Compliance parameter S;
- the auxiliary robot 5 realizes a compliant motion according to the accurate user motion intention velocity V F.
- the range of the laser rangefinder 2 is 0.2m-1.2m, and the detection angle is -45°-45°.
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Data Mining & Analysis (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Human Computer Interaction (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Rehabilitation Tools (AREA)
Abstract
一种人机混合系统协调运动用户意图估计方法,利用力传感器模组和激光测距仪分别获得用户上肢实时运动意图速度V H、用户下肢实时运动意图速度V L,设置人机混合系统柔顺度参数S,并利用模糊控制方法调节人机混合系统柔顺度参数S;对用户上肢实时运动意图速度V H、用户下肢实时运动意图速度V L和人机混合系统柔顺度参数S进行异质传感器融合,得到准确的用户运动意图速度V F;将准确的用户运动意图速度V F发送给辅助机器人,实现辅助机器人的柔顺运动。本方法可最大限度的实现柔顺的机器人运动控制,防止出现机器人和用户的不协调运动,避免发生用户不安全行为。
Description
本发明涉及智能机器人领域,尤其涉及一种人机混合协调运动用户意图估计方法及系统。
我国人口老龄化的形势在不断地加剧,对于帮助老弱病残人士的服务需求也在不断增多。尤其是那些独居而且行动不便的老人和残障人士,他们失去独立自主生活的很大一部分原因是他们无法独立行走,所以研究能够帮助他们实现独立生活的智能助行机器人非常有意义。
现有的助行机器人系统中,很少考虑助行机器人系统中用户的上、下肢间的协调运动,相关研究也相对较少。一些科研院校和公司都在进行智能助行系统的相关研究,并取得了一定的成果。如华中科技大学研发的智能助行机器人,上海交通大学设计的智能助行系统等。由于智能助行机器人是一种和人密切接触的设备,所以对安全性的要求非常高。同时,智能助行机器人的服务对象是老年人或者残疾人,在使用过程中,可能会出现一些因为下肢运动能力减退产生的行走不协调的情况,从而导致跌倒等危险的发生。所以智能助行机器人在设计过程中应该考虑到用户的上下肢的协调运动,从而得到精确的用户运动意图,才能保障用户在使用助行机器人时的安全问题。
发明内容
本发明要解决的技术问题在于针对现有技术中的缺陷,提供一种人机混合协调运动用户意图估计方法及系统。
本发明解决其技术问题所采用的技术方案是:
提供一种人机混合系统协调运动用户意图估计方法,包括以下步骤:
S1、利用力传感器模组对人机混合系统中用户上肢的运动意图进行估计, 获得用户上肢实时运动意图速度V
H;
S2、利用激光测距仪对人机混合系统中用户下肢的运动意图进行估计,获得用户下肢实时运动意图速度V
L;
S3、根据用户上肢实时运动意图速度V
H和用户下肢实时运动意图速度V
L,设置人机混合系统柔顺度参数S,并利用模糊控制方法调节人机混合系统柔顺度参数S;
S4、对用户上肢实时运动意图速度V
H、用户下肢实时运动意图速度V
L和人机混合系统柔顺度参数S进行异质传感器融合,得到准确的用户运动意图速度V
F;
S5、将准确的用户运动意图速度V
F发送给辅助机器人,实现辅助机器人的柔顺运动。
接上述技术方案,步骤S1中利用力传感器模组对人机混合系统中用户上肢的运动意图进行估计是指:用户操作力传感器模组向意图运动方向移动,所述力传感器模组获得相应运动的前后方向上交互力F
x和左右方向上的交互力F
y,根据公式计算用户上肢实时运动意图速度V
H=[v
Hx v
Hy v
Hθ]
T,所述公式为,
其中,F
x0和F
y0为前后方向上、左右方向上交互力的阈值,M
0为旋转的交互力阈值,v
Hx、v
Hy、v
Hθ,分别为上肢前后方向运动速度、上肢左右方向运动速度和上肢旋转角速度,k
x、k
y、k
θ为比例系数。
接上述技术方案,步骤S2中激光测距仪对人机混合系统中用户下肢的运动意图进行估计,获得用户下肢实时运动意图速度V
L的步骤包括:
S21、用户在使用机器人时,激光测距仪对用户双腿进行扫描,获得双腿的距离点阵,通过阈值范围分割获得双腿到激光测距仪的左腿距离点集和右腿距离点集;
S22、对步骤S21获得左腿距离点集和右腿距离点集进行圆弧拟合和解析几何运算,获得左、右腿对应拟合圆弧的半径R
L、R
R和位置圆心(x
L,y
L)、(x
R,y
R),并通过腿部半径阈值剔除干扰圆弧;
S23、利用多次腿部距离测量获得左、右腿的位置圆心,结合测量频率获得用户下肢实时运动意图速度V
L=[v
Lx v
Ly v
Lθ],其中v
Lx、v
Ly、v
Lθ分别为下肢前后方向运动速度、下肢左右方向运动速度和下肢旋转角速度,下肢旋转角速度和上肢旋转角速度相同。
接上述技术方案,步骤S3中利用模糊控制方法调节人机混合系统柔顺度参数S的过程为:
S31、确定模糊控制器的输入input1为用户上肢实时运动意图速度V
H,输入input2为用户下肢实时运动意图速度V
L,输出output为人机混合系统柔顺度参数S;
S32、将用户上肢实时运动意图速度V
H划分为七个模糊量,相邻模糊量的形状为三角形,论域为[-20,20];
S33、将用户下肢实时运动意图速度V
L划分为七个模糊量,相邻模糊量的形状为三角形,论域为[-40,40];
S34、输出output为人机混合系统柔顺度参数S,设置为5个等级,分别为0.4、0.5、0.6、0.7和0.8;
S35、确定模糊控制器中的隶属度函数和模糊控制规则,调节人机混合系统柔顺度参数S。
接上述技术方案,步骤S4对用户上肢实时运动意图速度V
H、用户下肢实时运动意图速度V
L和人机混合系统柔顺度参数S进行异质传感器融合,得到准确的用户运动意图速度V
F的具体步骤为:
S41、定义系统变量
Z=[v
Hx v
Hy v
Hθ v
Lx v
Ly v
Lθ]
T,其中[v
Hx v
Hy v
Hθ]
T为准确的用户运动意图速度,
为准确的用户运动意图加速度,[v
Hx v
Hy v
Hθ]
T为用户上肢实时运动意图速度,[v
Lx v
Ly v
Lθ]
T为用户下肢实时运动意图速度;
S42、构建状态空间方程:
其中,Z
i为当前状态变量,X
i为当前预测状态变量,X
i-
1为前一预测状态变量,H测量系统参数矩阵,A为参数矩阵,ω
i、v
i为当前测量高斯白噪声;
S43、根据系统变量和状态空间方程,进行融合获得准确的用户运动意图V
F=[v
Fx v
Fy v
Fθ]
T。
接上述技术方案,所述系统参数矩阵H为:
其中,a是上肢表现出来的用于运动意图速度的置信度,b=1-a。
接上述技术方案,通过腿部半径阈值剔除干扰圆弧是指:设定腿部半径阈值的范围为3cm~10cm,如果获得左、右腿对应拟合圆弧的半径在此范围则为人腿。
提供一种人机混合系统协调运动用户意图估计系统,其特征在于,包括:
力传感器模组,用于人机混合系统中用户的上肢的运动意图进行估计,获得用户上肢实时运动意图速度V
H;
激光测距仪,用于人机混合系统中用户的下肢的运动意图进行估计,获得用户下肢实时运动意图速度V
L;
人机混合系统柔顺度参数调节模块,根据用户上肢实时运动意图速度V
H和用户下肢实时运动意图速度V
L,设置人机混合系统柔顺度参数S,并利用模糊控制方法调节人机混合系统柔顺度参数S;
异质传感器融合模块,对用户上肢实时运动意图速度V
H、用户下肢实时 运动意图速度V
L和人机混合系统柔顺度参数S进行融合,得到准确的用户运动意图速度V
F。
接上述技术方案,所述激光测距仪的测距范围为0.2m~1.2m,检测角度为-45°~45°。
本发明产生的有益效果是:本发明提供的一种人机混合系统协调运动用户意图估计方法和体统,利用力传感器模组获得用户上肢实时运动意图速度V
H,利用激光测距仪获得用户下肢实时运动意图速度V
L,综合考虑到用户上、下肢的所表现出来的意图运动速度,在充分考虑柔顺度的情况下,得到精确的用户运动意图速度。本发明可最大限度的实现柔顺的机器人运动控制,防止出现机器人和用户的不协调运动,避免发生用户不安全行。
下面将结合附图及实施例对本发明作进一步说明,附图中:
图1是本发明实施例的方法流程图;
图2是本发明实施例方法的圆弧拟合过程;
图3是本发明实施例方法的隶属度函数和模糊控制规则;
图4是本发明实施例的系统框图;
图5是本发明实施例的系统的力传感器模组;
图6是本发明实施例的激光测距仪。
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅用以解释本发明,并不用于限定本发明。
如图1所示,本发明提供一种人机混合系统协调运动用户意图估计方法,包括以下步骤:
S1、利用力传感器模组1对人机混合系统中用户上肢的运动意图进行估计,获得用户上肢实时运动意图速度V
H;
S2、利用激光测距仪2对人机混合系统中用户下肢的运动意图进行估计,获得用户下肢实时运动意图速度V
L;
S3、根据用户上肢实时运动意图速度V
H和用户下肢实时运动意图速度V
L,设置人机混合系统柔顺度参数S,并利用模糊控制方法调节人机混合系统柔顺度参数S;
S4、对用户上肢实时运动意图速度V
H、用户下肢实时运动意图速度V
L和人机混合系统柔顺度参数S进行异质传感器融合,得到准确的用户运动意图速度V
H;
S5、将准确的用户运动意图速度V
H发送给辅助机器人5,实现辅助机器人5的柔顺运动。
进一步地,步骤S1中利用力传感器模组对人机混合系统中用户上肢的运动意图进行估计是指:用户操作力传感器模组1向意图运动方向移动,力传感器模组1获得相应运动的前后方向上交互力F
x和左右方向上的交互力F
y,根据公式计算用户上肢实时运动意图速度V
H=[v
Hx v
Hy v
Hθ]
T,公式为,
其中,F
x0和F
y0为前后方向上、左右方向上交互力的阈值,M
0为旋转的交互力阈值,v
Hx、v
Hy、v
Hθ,分别为上肢前后方向运动速度、上肢左右方向运动速度和上肢旋转角速度,k
x、k
y、k
θ为比例系数。
进一步地,如图2所示,步骤S2中激光测距仪对人机混合系统中用户下肢的运动意图进行估计,获得用户下肢实时运动意图速度V
L的步骤包括:
S21、用户在使用机器人时,激光测距仪对用户双腿进行扫描,获得双腿的距离点阵,通过阈值范围分割获得双腿到激光测距仪的左腿距离点集和右腿距离点集;
S22、对步骤S21获得左腿距离点集和右腿距离点集进行圆弧拟合和解析 几何运算,获得左、右腿对应拟合圆弧的半径R
L、R
R和位置圆心(x
L,y
L)、(x
R,y
R),并通过腿部半径阈值剔除干扰圆弧;
S23、利用多次腿部距离测量获得左、右腿的位置圆心,结合测量频率获得用户下肢实时运动意图速度V
L=[v
Lx v
Ly v
Lθ],其中v
Lx、v
Ly、v
Lθ分别为下肢前后方向运动速度、下肢左右方向运动速度和下肢旋转角速度,下肢旋转角速度和上肢旋转角速度相同。
进一步地,步骤S3中利用模糊控制方法调节人机混合系统柔顺度参数S的过程为:
S31、确定模糊控制器的输入input1为用户上肢实时运动意图速度V
H,输入input2为用户下肢实时运动意图速度V
L,输出output为人机混合系统柔顺度参数S;
S32、将用户上肢实时运动意图速度V
H划分为NB、NM、NS、Z、PS、PM、PB七个模糊量,相邻模糊量的形状为三角形,论域为[-20,20];
S33、将用户下肢实时运动意图速度V
L划分为NB、NM、NS、Z、PS、PM、PB七个模糊量,相邻模糊量的形状为三角形,论域为[-40,40];
S34、输出output为人机混合系统柔顺度参数S,设置为5个等级,分别为0.4、0.5、0.6、0.7和0.8;
S35、确定模糊控制器中的隶属度函数和模糊控制规则,如图3所示,调节人机混合系统柔顺度参数S。
采用模糊控制方法调节柔顺度参数S,实现助行机器人的柔顺控制。由于两种人体动作意图速度的节奏不同,在不同的行走过程中为两个人体动作意图速度分配不同的置信度,体现不同的柔顺性。例如,若S=0.4,则对上肢表现出来的运动意图速度V
H的置信度为0.4,对下肢表现出来的运动意图速度V
L的置信度为0.6;若S=0.8,则对上肢表现出来的运动意图速度V
H的置信度为0.8,对下肢表现出来的运动意图速度V
L的置信度为0.2。
根据模糊规则表,如表1所示,可以得到柔顺度参数S的值。
表1.模糊规则表
进一步地,步骤S4对用户上肢实时运动意图速度V
H、用户下肢实时运动意图速度V
L和人机混合系统柔顺度参数S进行异质传感器融合,得到准确的用户运动意图速度V
F的具体步骤为:
S41、定义系统变量
Z=[v
Hx v
Hy v
Hθ v
Lx v
Ly v
Lθ]
T,其中[v
Hx v
Hy v
Hθ]
T为准确的用户运动意图速度,
为准确的用户运动意图加速度,[v
Hx v
Hy v
Hθ]
T为用户上肢实时运动意图速度,[v
Lx v
Ly v
Lθ]
T为用户下肢实时运动意图速度;
S42、构建状态空间方程:
其中,Z
i为当前状态变量,X
i为当前预测状态变量,X
i-
1为前一预测状态变量,H测量系统参数矩阵,A为参数矩阵,ω
i、v
i为当前测量高斯白噪声;
S43、根据系统变量和状态空间方程,进行融合获得准确的用户运动意图V
F=[v
Fx v
Fy v
Fθ]
T。
进一步地,系统参数矩阵H为:
其中,a是上肢表现出来的用于运动意图速度的置信度,b=1-a。
进一步地,通过腿部半径阈值剔除干扰圆弧是指:设定腿部半径阈值的范围为3cm~10cm,如果获得左、右腿对应拟合圆弧的半径在此范围则为人腿。
如图4所示,提供一种人机混合系统协调运动用户意图估计系统,其特征在于,包括:
力传感器模组1,如图5所示,用于人机混合系统中用户的上肢的运动意图进行估计,获得用户上肢实时运动意图速度V
H;
激光测距仪2,如图6所示,用于人机混合系统中用户的下肢的运动意图进行估计,获得用户下肢实时运动意图速度V
L;
人机混合系统柔顺度参数调节模块3,根据用户上肢实时运动意图速度V
H和用户下肢实时运动意图速度V
L,设置人机混合系统柔顺度参数S,并利用模糊控制方法调节人机混合系统柔顺度参数S;
异质传感器融合模块4,对用户上肢实时运动意图速度V
H、用户下肢实时运动意图速度V
L和人机混合系统柔顺度参数S进行融合,得到准确的用户运动意图速度V
F;
辅助机器人5,根据准确的用户运动意图速度V
F,实现柔顺运动。
接上述技术方案,激光测距仪2的测距范围为0.2m~1.2m,检测角度为-45°~45°。
应当理解的是,对本领域普通技术人员来说,可以根据上述说明加以改进或变换,而所有这些改进和变换都应属于本发明所附权利要求的保护范围。
Claims (9)
- 一种人机混合系统协调运动用户意图估计方法,其特征在于,包括以下步骤:S1、利用力传感器模组对人机混合系统中用户上肢的运动意图进行估计,获得用户上肢实时运动意图速度V H;S2、利用激光测距仪对人机混合系统中用户下肢的运动意图进行估计,获得用户下肢实时运动意图速度V L;S3、根据用户上肢实时运动意图速度V H和用户下肢实时运动意图速度V L,设置人机混合系统柔顺度参数S,并利用模糊控制方法调节人机混合系统柔顺度参数S;S4、对用户上肢实时运动意图速度V H、用户下肢实时运动意图速度V L和人机混合系统柔顺度参数S进行异质传感器融合,得到准确的用户运动意图速度V F;S5、将准确的用户运动意图速度V F发送给辅助机器人,实现辅助机器人的柔顺运动。
- 根据权利要求1所述的用户意图估计方法,其特征在于,步骤S2中激光测距仪对人机混合系统中用户下肢的运动意图进行估计,获得用户下肢实时运动意图速度V L的步骤包括:S21、用户在使用机器人时,激光测距仪对用户双腿进行扫描,获得双腿的距离点阵,通过阈值范围分割获得双腿到激光测距仪的左腿距离点集和右腿距离点集;S22、对步骤S21获得左腿距离点集和右腿距离点集进行圆弧拟合和解析几何运算,获得左、右腿对应拟合圆弧的半径R L、R R和位置圆心(x L,y L)、(x R,y R),并通过腿部半径阈值剔除干扰圆弧;S23、利用多次腿部距离测量获得左、右腿的位置圆心,结合测量频率获得用户下肢实时运动意图速度V L=[v Lx v Ly v Lθ],其中v Lx、v Ly、v Lθ分别为下肢前后方向运动速度、下肢左右方向运动速度和下肢旋转角速度,下肢旋转角速度和上肢旋转角速度相同。
- 根据权利要求1所述的用户意图估计方法,其特征在于,步骤S3中利用模糊控制方法调节人机混合系统柔顺度参数S的过程为:S31、确定模糊控制器的输入input1为用户上肢实时运动意图速度V H,输入input2为用户下肢实时运动意图速度V L,输出output为人机混合系统柔顺度参数S;S32、将用户上肢实时运动意图速度V H划分为七个模糊量,相邻模糊量的形状为三角形,论域为[-20,20];S33、将用户下肢实时运动意图速度V L划分为七个模糊量,相邻模糊量的形状为三角形,论域为[-40,40];S34、输出output为人机混合系统柔顺度参数S,设置为5个等级,分别为0.4、0.5、0.6、0.7和0.8;S35、确定模糊控制器中的隶属度函数和模糊控制规则,调节人机混合系统柔顺度参数S。
- 根据权利要求1所述的用户意图估计方法,其特征在于,步骤S4对用户上肢实时运动意图速度V H、用户下肢实时运动意图速度V L和人机混合系统柔顺度参数S进行异质传感器融合,得到准确的用户运动意图速度V F的具体步骤为:S41、定义系统变量 Z=[v Hx v Hy v Hθ v Lx v Ly v Lθ] T,其中[v Hx v Hy v Hθ] T为准确的用户运动意图速度, 为准确的用户运动意图加速度,[v Hx v Hy v Hθ] T为用户上肢实时运动意图速度,[v Lx v Ly v Lθ] T为用户下肢实时运动意图速度;S42、构建状态空间方程:其中,Z i为当前状态变量,X i为当前预测状态变量,X i-1为前一预测状态变量,H测量系统参数矩阵,A为参数矩阵,ω i、v i为当前测量高斯白噪声;S43、根据系统变量和状态空间方程,进行融合获得准确的用户运动意图V F=[v Fx v Fy v Fθ] T。
- 根据权利要求3所述的用户意图估计方法,其特征在于,通过腿部半径阈值剔除干扰圆弧是指:设定腿部半径阈值的范围为3cm~10cm,如果获得左、右腿对应拟合圆弧的半径在此范围则为人腿。
- 一种人机混合系统协调运动用户意图估计系统,其特征在于,包括:力传感器模组,用于人机混合系统中用户的上肢的运动意图进行估计, 获得用户上肢实时运动意图速度V H;激光测距仪,用于人机混合系统中用户的下肢的运动意图进行估计,获得用户下肢实时运动意图速度V L;人机混合系统柔顺度参数调节模块,根据用户上肢实时运动意图速度V H和用户下肢实时运动意图速度V L,设置人机混合系统柔顺度参数S,并利用模糊控制方法调节人机混合系统柔顺度参数S;异质传感器融合模块,对用户上肢实时运动意图速度V H、用户下肢实时运动意图速度V L和人机混合系统柔顺度参数S进行融合,得到准确的用户运动意图速度V F;助行机器人,根据准确的用户运动意图速度V F,实现柔顺运动。
- 根据权利要求8所述的用户意图估计系统,其特征在于,所述激光测距仪的测距范围为0.2m~1.2m,检测角度为-45°~45°。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010382306.3A CN111611887B (zh) | 2020-05-08 | 2020-05-08 | 一种人机混合协调运动用户意图估计方法及系统 |
CN202010382306.3 | 2020-05-08 |
Publications (1)
Publication Number | Publication Date |
---|---|
WO2021223502A1 true WO2021223502A1 (zh) | 2021-11-11 |
Family
ID=72199819
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
PCT/CN2021/078713 WO2021223502A1 (zh) | 2020-05-08 | 2021-03-02 | 一种人机混合协调运动用户意图估计方法及系统 |
Country Status (2)
Country | Link |
---|---|
CN (1) | CN111611887B (zh) |
WO (1) | WO2021223502A1 (zh) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111611887B (zh) * | 2020-05-08 | 2023-04-11 | 武汉工程大学 | 一种人机混合协调运动用户意图估计方法及系统 |
CN112230543A (zh) * | 2020-10-29 | 2021-01-15 | 南京凌华微电子科技有限公司 | 一种人机协同辅助行走机器人的运动控制方法 |
CN112847398A (zh) * | 2021-01-08 | 2021-05-28 | 北京工业大学 | 一种对助行安全异常自动采取保护方法 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109662869A (zh) * | 2019-01-21 | 2019-04-23 | 中国科学院沈阳自动化研究所 | 一种穿戴式柔性下肢助力机器人 |
CN109940584A (zh) * | 2019-03-25 | 2019-06-28 | 杭州程天科技发展有限公司 | 一种外骨骼机器人及其检测人体运动意图的检测方法 |
CN111611887A (zh) * | 2020-05-08 | 2020-09-01 | 武汉工程大学 | 一种人机混合协调运动用户意图估计方法及系统 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105796286B (zh) * | 2016-02-23 | 2018-04-06 | 东南大学 | 使用气囊传感器的下肢外骨骼机器人控制方法 |
-
2020
- 2020-05-08 CN CN202010382306.3A patent/CN111611887B/zh active Active
-
2021
- 2021-03-02 WO PCT/CN2021/078713 patent/WO2021223502A1/zh active Application Filing
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109662869A (zh) * | 2019-01-21 | 2019-04-23 | 中国科学院沈阳自动化研究所 | 一种穿戴式柔性下肢助力机器人 |
CN109940584A (zh) * | 2019-03-25 | 2019-06-28 | 杭州程天科技发展有限公司 | 一种外骨骼机器人及其检测人体运动意图的检测方法 |
CN111611887A (zh) * | 2020-05-08 | 2020-09-01 | 武汉工程大学 | 一种人机混合协调运动用户意图估计方法及系统 |
Non-Patent Citations (2)
Title |
---|
XU WEN-XIA; HUANG JIAN; YAN QING-YANG; WANG YONG-JI; TAO CHUN-JING: "Research on Walking-aid Robot Motion Control with Both Compliance and Safety", ACTA AUTOMATICA SINICA, vol. 42, no. 12, 31 December 2016 (2016-12-31), CN, pages 1859 - 1873, XP009531613, ISSN: 0254-4156, DOI: 10.16383/j.aas.2016.c160163 * |
XU, WENXIA: "The Research of Motion Control and Safety Custody Strategy for Walking-Aid Robot", DOCTORAL DISSERTATION, no. 8, 23 May 2016 (2016-05-23), CN, pages 1 - 133, XP009531611, ISSN: 1674-022X * |
Also Published As
Publication number | Publication date |
---|---|
CN111611887B (zh) | 2023-04-11 |
CN111611887A (zh) | 2020-09-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2021223502A1 (zh) | 一种人机混合协调运动用户意图估计方法及系统 | |
US9119762B2 (en) | Walking assist device, walking assist method, walking state estimating device and walking state estimating method | |
Jiménez et al. | Assistive locomotion device with haptic feedback for guiding visually impaired people | |
KR20160066764A (ko) | 차선 유지를 위한 차량 조향 제어 장치 및 방법 | |
Seki et al. | Fuzzy control for electric power-assisted wheelchair driving on disturbance roads | |
Herrera et al. | Modeling and path-following control of a wheelchair in human-shared environments | |
Huang et al. | Shared Navigational Control and User Intent Detection in an Intelligent Walker. | |
JP2017132406A (ja) | 車両の制御装置及び車両の制御方法 | |
Fontanelli et al. | Unicycle steering by brakes: a passive guidance support for an assistive cart | |
WO2023284241A1 (zh) | 康复机构的控制方法、康复机构的控制系统及康复设备 | |
Yan et al. | Model predictive control for human following rehabilitation robot | |
Bošnak et al. | Embedded control system for smart walking assistance device | |
Perez et al. | Robotic wheelchair controlled through a vision-based interface | |
WO2018223776A1 (zh) | 机器人的控制方法、装置、系统和计算机可读存储介质 | |
Ching et al. | Touchless shared-control for wheelchair navigation | |
Andreetto et al. | Path following for robotic rollators via simulated passivity | |
JPH01260509A (ja) | 走行制御装置 | |
Thuy et al. | Vision Based autonomous path/line following of a mobile robot using a hybrid fuzzy pid controller | |
Ramesh et al. | Type-1 and type-2 fuzzy logic speed controller based high performance direct torque and flux controlled induction motor drive | |
US11396314B2 (en) | Motorized robotic walker guided by an image processing system for human walking assistance | |
Furuya et al. | Wheelchair control based on a polynomial function approximating a user's gaze curve | |
van Workum et al. | Smart wheelchair guidance using optical flow | |
CN112494281B (zh) | 机器人控制装置、机器人、机器人控制方法及存储介质 | |
Wang et al. | Adaptive control method for a walking support machine considering center-of-gravity shifts and load changes | |
Baba et al. | A prediction method considering object motion for humanoid robot with visual sensor |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 21799532 Country of ref document: EP Kind code of ref document: A1 |
|
NENP | Non-entry into the national phase |
Ref country code: DE |
|
122 | Ep: pct application non-entry in european phase |
Ref document number: 21799532 Country of ref document: EP Kind code of ref document: A1 |