CN112247962B - 面向上肢穿戴机器人的人机博弈控制方法及系统 - Google Patents
面向上肢穿戴机器人的人机博弈控制方法及系统 Download PDFInfo
- Publication number
- CN112247962B CN112247962B CN202011119646.3A CN202011119646A CN112247962B CN 112247962 B CN112247962 B CN 112247962B CN 202011119646 A CN202011119646 A CN 202011119646A CN 112247962 B CN112247962 B CN 112247962B
- Authority
- CN
- China
- Prior art keywords
- robot
- task
- matrix
- human
- basic
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 54
- 210000001364 upper extremity Anatomy 0.000 title claims abstract description 52
- 239000011159 matrix material Substances 0.000 claims abstract description 184
- 238000013178 mathematical model Methods 0.000 claims abstract description 10
- 230000003993 interaction Effects 0.000 claims description 28
- 230000001133 acceleration Effects 0.000 claims description 17
- 238000013016 damping Methods 0.000 claims description 17
- 230000002860 competitive effect Effects 0.000 claims description 14
- 230000009471 action Effects 0.000 claims description 9
- 230000003930 cognitive ability Effects 0.000 claims description 8
- 230000005484 gravity Effects 0.000 claims description 8
- 238000000354 decomposition reaction Methods 0.000 claims description 6
- 230000002079 cooperative effect Effects 0.000 claims 1
- 230000003044 adaptive effect Effects 0.000 description 8
- 230000008901 benefit Effects 0.000 description 3
- 241000282412 Homo Species 0.000 description 2
- 230000006978 adaptation Effects 0.000 description 2
- 230000001149 cognitive effect Effects 0.000 description 2
- 230000009133 cooperative interaction Effects 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 238000012549 training Methods 0.000 description 2
- 206010008190 Cerebrovascular accident Diseases 0.000 description 1
- 208000006011 Stroke Diseases 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000002490 cerebral effect Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 230000008878 coupling Effects 0.000 description 1
- 238000010168 coupling process Methods 0.000 description 1
- 238000005859 coupling reaction Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000009795 derivation Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 210000002310 elbow joint Anatomy 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 230000036314 physical performance Effects 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 230000003252 repetitive effect Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 210000000323 shoulder joint Anatomy 0.000 description 1
- 210000001258 synovial membrane Anatomy 0.000 description 1
- 238000003466 welding Methods 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/0006—Exoskeletons, i.e. resembling a human figure
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1628—Programme controls characterised by the control loop
- B25J9/1633—Programme controls characterised by the control loop compliant, force, torque control, e.g. combined with position control
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1656—Programme controls characterised by programming, planning systems for manipulators
- B25J9/1661—Programme controls characterised by programming, planning systems for manipulators characterised by task planning, object-oriented languages
Landscapes
- Engineering & Computer Science (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Manipulator (AREA)
Abstract
本发明提供了一种面向上肢穿戴机器人的人机博弈控制方法及系统,将使用者和机器人共同完成的复杂或多进程任务分解为多个基本任务,建立人机针对各个基本任务的能力矩阵和任务匹配矩阵进行任务分配。将任务分配的结果输入基于博弈论的人机零和或者非零和游戏数学模型中,计算机器人在人机末端匹配的最佳刚度,随后通过机器人阻抗模型,计算出机器人末端的参考轨迹,最后通过自适应控制器输出控制力矩实现参考轨迹跟踪。本发明的上肢穿戴机器人控制方法可以在人机合作的情景下实现更好的柔顺控制,感知使用者的运动意图,最小化使用者的输入力。
Description
技术领域
本发明涉及智能机器人智能控制技术领域.具体地,涉及面向上肢穿戴机器人的人机博弈控制方法及系统。
背景技术
上肢穿戴机器人共享控制是一个新兴的研究领域,在机器人康复、搜索救援、远程操作等方面有着广泛的应用。人与机器人具有互补的能力,在许多情况下,他们的协作是必要的。传统的处理人与机器人的物理交互的方法通常涉及到机器人通过阻抗或导纳控制器顺从人的运动,明确定位这些角色的理由是,人类拥有更好的认知能力,如态势感知和决策技能,而机器人拥有更好的身体能力,如精确性和力量。然而,这种人为领导者,机器人为跟随者的固定控制模式要求人始终领导任务和驱动机器人意味着让人不断地承受高的认知负荷,这会在长时间的操作中降低性能。因此迫切需要一种上肢穿戴机器人的智能控制方法,使得人和机器人根据人的运动意图在领导者和追随者之间实时进行切换来满足更复杂控制情景的需要。
例如协同焊接,机器人能够根据对工件、环境和过程的粗略了解,按照指定的期望轨迹自主地执行任务,而人类可以为机器人提供任务中的纠正行动、微调控制和情景指导。另一个例子是避障,当机器人感知到即将发生的碰撞或违反安全约束时,它可以很好地控制并自动修改人类的意图动作。
专利文献CN110652423A(申请号:201910968787.3)公开了一种带有精确力控制的可穿戴式上肢康复训练机器人,包括可穿戴式腰带、多自由度机械臂,以及控制盒;机器人通过腰带穿戴在人的腰部,由主动执行器驱动,能够实现左、右肩关节内收/外展/前屈/后伸以及左、右肘关节前屈/后伸这些自由度的主被动康复训练。
发明内容
针对现有技术中的缺陷,本发明的目的是提供一种面向上肢穿戴机器人的人机博弈控制方法及系统。
根据本发明提供的一种面向上肢穿戴机器人的人机博弈控制方法,包括以下步骤:
步骤S1:在任务进行时利用末端手柄交互力传感器,实时记录使用者在运动时上肢的端点力数据,建立使用者和上肢穿戴机器人各个基本任务的能力矩阵和任务匹配矩阵,每一个基本任务都根据人和上肢穿戴机器人的能力矩阵和任务匹配矩阵进行任务分配;
步骤S2:将任务分配的结果输入基于博弈论的人机零和游戏数学模型中,计算出机器人的最佳刚度值;
步骤S3:将机器人刚度值和实时端点力输入机器人阻抗模型,计算出机器人末端在笛卡尔空间的参考轨迹;
步骤S4:将笛卡尔空间的参考轨迹通过机器人逆运动学计算出在关节空间的参考轨迹,建立机器人的动力学模型,并确定模型参数,建立李雅普诺夫方程,推导得到自适应控制器和自适应率。
优选地,所述步骤S1:
使用者和机器人共同完成的任何复杂或多进程任务都分解为多个简单的基本任务Υ={Υ1,Υ2,…,Υn},Υ1,Υ2,…,Υn为分解成的n个基本任务,一个任务是由一个四元组组合而成任务匹配矩阵Υi=(Wi,Si,Ni),Si为某项基本任务的状态,Ni代表人或者机器人的能力矩阵,Wi代表能力需求向量;
人或机器人为完成某项基本任务而进行的任务合作或者竞争行为,这些行为是基于人和机器人单独成功执行该任务所需的能力矩阵Ni和任务匹配矩阵Φi;
一个基本任务分解为:
所以复杂任务表示为:
通过上述方法可以将任务分解为简单的基本任务,通过下面的任务匹配矩阵对单个基本任务进行分配:
任务匹配矩阵反映了机器人或人对每个基本任务的适合程度,人或机器人对于某项基本任务的匹配是这是基于人的运动意图,任务匹配矩阵Φi定义为:
其中,ωi为辅助矩阵Θ的第i个元素;
辅助矩阵Θ被定义为:
其中,
Hi为任务匹配度向量,Π表示加权矩阵;
由于人具有较强的认知能力和决策能力,所以当任务中有许多复杂的需要决定的情况时,人是最适合领导任务的,通过末端手柄交互力传感器测量人对机器人的末端力来衡量人对某基本任务的匹配度,当人放松,末端力减少,人对基本任务的匹配度降低,该任务分配给机器人领导;当人施加较大的末端力,人对基本任务的匹配度提高,该基本任务分配给人来领导。
优选地,所述在步骤S2:
某基本任务分配给人来领导时:
根据黎卡提方程计算出最佳力f*和机器人最佳刚度u*。
优选地,所述步骤S2:
某个基本任务分配给机器人来领导时:
人和机器人的竞争交互行为可以看做看作是两方零和博弈的一种具体应用形式,即双方一方赢,另一方输,机器人的控制目标变为:表示机器人的任务权重,通过黎卡提方程计算出机器人最佳刚度u*来消除施加在机器人末端力的干扰力矩。
优选地,所述步骤S4:
其中,
τ为输出力矩;
q为关节空间角度向量;
M(q)为惯性矩阵;
Dq为驱动器阻尼系数矩阵;
g(q)为重力补偿矩阵;
τf=JT(q)f为外部施加力矩;
然后建立李雅普诺夫方程,推导得到自适应控制器和自适应率,通过自适应控制器计算出的控制力矩作为输入驱动弹性执行器,经过弹性执行器中的弹性组件的作用输出转矩对机器人关节进行驱动。
根据本发明提供的一种面向上肢穿戴机器人的人机博弈控制系统,包括以下模块:
模块S1:在任务进行时利用末端手柄交互力传感器,实时记录使用者在运动时上肢的端点力数据,建立使用者和上肢穿戴机器人各个基本任务的能力矩阵和任务匹配矩阵,每一个基本任务都根据人和上肢穿戴机器人的能力矩阵和任务匹配矩阵进行任务分配;
模块S2:将任务分配的结果输入基于博弈论的人机零和游戏数学模型中,计算出机器人的最佳刚度值;
模块S3:将机器人刚度值和实时端点力输入机器人阻抗模型,计算出机器人末端在笛卡尔空间的参考轨迹;
模块S4:将笛卡尔空间的参考轨迹通过机器人逆运动学计算出在关节空间的参考轨迹,建立机器人的动力学模型,并确定模型参数,建立李雅普诺夫方程,推导得到自适应控制器和自适应率。
优选地,所述模块S1:
使用者和机器人共同完成的任何复杂或多进程任务都分解为多个简单的基本任务Υ={Υ1,Υ2,…,Υn},Υ1,Υ2,…,Υn为分解成的n个基本任务,一个任务是由一个四元组组合而成任务匹配矩阵Υi=(Wi,Si,Ni),Si为某项基本任务的状态,Ni代表人或者机器人的能力矩阵,Wi代表能力需求向量;
人或机器人为完成某项基本任务而进行的任务合作或者竞争行为,这些行为是基于人和机器人单独成功执行该任务所需的能力矩阵Ni和任务匹配矩阵Φi;
一个基本任务分解为:
所以复杂任务表示为:
通过上述方法可以将任务分解为简单的基本任务,通过下面的任务匹配矩阵对单个基本任务进行分配:
任务匹配矩阵反映了机器人或人对每个基本任务的适合程度,人或机器人对于某项基本任务的匹配是这是基于人的运动意图,任务匹配矩阵Φi定义为:
其中,ωi为辅助矩阵Θ的第i个元素;
辅助矩阵Θ被定义为:
其中,
Hi为任务匹配度向量,Π表示加权矩阵;
由于人具有较强的认知能力和决策能力,所以当任务中有许多复杂的需要决定的情况时,人是最适合领导任务的,通过末端手柄交互力传感器测量人对机器人的末端力来衡量人对某基本任务的匹配度,当人放松,末端力减少,人对基本任务的匹配度降低,该任务分配给机器人领导;当人施加较大的末端力,人对基本任务的匹配度提高,该基本任务分配给人来领导。
优选地,所述在模块S2:
某基本任务分配给人来领导时:
根据黎卡提方程计算出最佳力f*和机器人最佳刚度u*。
优选地,所述模块S2:
某个基本任务分配给机器人来领导时:
人和机器人的竞争交互行为可以看做看作是两方零和博弈的一种具体应用形式,即双方一方赢,另一方输,机器人的控制目标变为:r2表示机器人的任务权重,通过黎卡提方程计算出机器人最佳刚度u*来消除施加在机器人末端力的干扰力矩。
优选地,所述模块S4:
其中,
τ为输出力矩;
q为关节空间角度向量;
M(q)为惯性矩阵;
Dq为驱动器阻尼系数矩阵;
g(q)为重力补偿矩阵;
τf=JT(q)f为外部施加力矩;
然后建立李雅普诺夫方程,推导得到自适应控制器和自适应率,通过自适应控制器计算出的控制力矩作为输入驱动弹性执行器,经过弹性执行器中的弹性组件的作用输出转矩对机器人关节进行驱动。
与现有技术相比,本发明具有如下的有益效果:
1、本发明专利中的面向上肢穿戴机器人的人机博弈控制系统基于博弈论,将人机交互看作人机零和或非零和博弈游戏,通过测量末端的交互力估计人的运动意图,从而实时让人机在领导者和跟随者之间切换,可以满足更复杂的控制情景。
2、本发明专利中的面向上肢穿戴机器人的人机博弈控制系统将复杂任务进行任务分解成多个基本任务,然后建立人机能力矩阵和任务匹配矩阵对基本任务进行分配,解决了传统人机交互控制中人机固定角色的单一性问题,提高了任务执行的效率。
3、本发明专利中的面向上肢穿戴机器人的人机博弈控制系统仅使用末端手柄交互力传感器测量力信息,规避了多传感器信息融合的数据耦合情况,大大减少了数据处理的复杂性,操作简单。
附图说明
通过阅读参照以下附图对非限制性实施例所作的详细描述,本发明的其它特征、目的和优点将会变得更明显:
图1为为上肢穿戴机器人人机博弈控制系统框图示意图。
具体实施方式
下面结合具体实施例对本发明进行详细说明。以下实施例将有助于本领域的技术人员进一步理解本发明,但不以任何形式限制本发明。应当指出的是,对本领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干变化和改进。这些都属于本发明的保护范围。
根据本发明提供的一种面向上肢穿戴机器人的人机博弈控制方法,包括以下步骤:
步骤S1:在任务进行时利用末端手柄交互力传感器,实时记录使用者在运动时上肢的端点力数据,建立使用者和上肢穿戴机器人各个基本任务的能力矩阵和任务匹配矩阵,每一个基本任务都根据人和上肢穿戴机器人的能力矩阵和任务匹配矩阵进行任务分配;
步骤S2:将任务分配的结果输入基于博弈论的人机零和游戏数学模型中,计算出机器人的最佳刚度值;
步骤S3:将机器人刚度值和实时端点力输入机器人阻抗模型,计算出机器人末端在笛卡尔空间的参考轨迹;
步骤S4:将笛卡尔空间的参考轨迹通过机器人逆运动学计算出在关节空间的参考轨迹,建立机器人的动力学模型,并确定模型参数,建立李雅普诺夫方程,推导得到自适应控制器和自适应率。
具体地,所述步骤S1:
使用者和机器人共同完成的任何复杂或多进程任务都分解为多个简单的基本任务Υ={Υ1,Υ2,…,Υn},Υ1,Υ2,…,Υn为分解成的n个基本任务,一个任务是由一个四元组组合而成任务匹配矩阵Υi=(Wi,Si,Ni),Si为某项基本任务的状态,Ni代表人或者机器人的能力矩阵,Wi代表能力需求向量;
人或机器人为完成某项基本任务而进行的任务合作或者竞争行为,这些行为是基于人和机器人单独成功执行该任务所需的能力矩阵Ni和任务匹配矩阵Φi;
一个基本任务分解为:
所以复杂任务表示为:
通过上述方法可以将任务分解为简单的基本任务,通过下面的任务匹配矩阵对单个基本任务进行分配:
任务匹配矩阵反映了机器人或人对每个基本任务的适合程度,人或机器人对于某项基本任务的匹配是这是基于人的运动意图,任务匹配矩阵Φi定义为:
其中,ωi为辅助矩阵Θ的第i个元素;
辅助矩阵Θ被定义为:
其中,
Hi为任务匹配度向量,Π表示加权矩阵;
由于人具有较强的认知能力和决策能力,所以当任务中有许多复杂的需要决定的情况时,人是最适合领导任务的,通过末端手柄交互力传感器测量人对机器人的末端力来衡量人对某基本任务的匹配度,当人放松,末端力减少,人对基本任务的匹配度降低,该任务分配给机器人领导;当人施加较大的末端力,人对基本任务的匹配度提高,该基本任务分配给人来领导。
具体地,所述在步骤S2:
某基本任务分配给人来领导时:
根据黎卡提方程计算出最佳力f*和机器人最佳刚度u*。
具体地,所述步骤S2:
某个基本任务分配给机器人来领导时:
人和机器人的竞争交互行为可以看做看作是两方零和博弈的一种具体应用形式,即双方一方赢,另一方输,机器人的控制目标变为:r2表示机器人的任务权重,通过黎卡提方程计算出机器人最佳刚度u*来消除施加在机器人末端力的干扰力矩。
具体地,所述步骤S4:
其中,
τ为输出力矩;
q为关节空间角度向量;
M(q)为惯性矩阵;
Dq为驱动器阻尼系数矩阵;
g(q)为重力补偿矩阵;
τf=JT(q)f为外部施加力矩;
然后建立李雅普诺夫方程,推导得到自适应控制器和自适应率,通过自适应控制器计算出的控制力矩作为输入驱动弹性执行器,经过弹性执行器中的弹性组件的作用输出转矩对机器人关节进行驱动。
根据本发明提供的一种面向上肢穿戴机器人的人机博弈控制系统,包括以下模块:
模块S1:在任务进行时利用末端手柄交互力传感器,实时记录使用者在运动时上肢的端点力数据,建立使用者和上肢穿戴机器人各个基本任务的能力矩阵和任务匹配矩阵,每一个基本任务都根据人和上肢穿戴机器人的能力矩阵和任务匹配矩阵进行任务分配;
模块S2:将任务分配的结果输入基于博弈论的人机零和游戏数学模型中,计算出机器人的最佳刚度值;
模块S3:将机器人刚度值和实时端点力输入机器人阻抗模型,计算出机器人末端在笛卡尔空间的参考轨迹;
模块S4:将笛卡尔空间的参考轨迹通过机器人逆运动学计算出在关节空间的参考轨迹,建立机器人的动力学模型,并确定模型参数,建立李雅普诺夫方程,推导得到自适应控制器和自适应率。
具体地,所述模块S1:
使用者和机器人共同完成的任何复杂或多进程任务都分解为多个简单的基本任务Υ={Υ1,Υ2,…,Υn},Υ1,Υ2,…,Υn为分解成的n个基本任务,一个任务是由一个四元组组合而成任务匹配矩阵Υi=(Wi,Si,Ni),Si为某项基本任务的状态,Ni代表人或者机器人的能力矩阵,Wi代表能力需求向量;
人或机器人为完成某项基本任务而进行的任务合作或者竞争行为,这些行为是基于人和机器人单独成功执行该任务所需的能力矩阵Ni和任务匹配矩阵Φi;
一个基本任务分解为:
所以复杂任务表示为:
通过上述方法可以将任务分解为简单的基本任务,通过下面的任务匹配矩阵对单个基本任务进行分配:
任务匹配矩阵反映了机器人或人对每个基本任务的适合程度,人或机器人对于某项基本任务的匹配是这是基于人的运动意图,任务匹配矩阵Φi定义为:
其中,ωi为辅助矩阵Θ的第i个元素;
辅助矩阵Θ被定义为:
其中,
Hi为任务匹配度向量,Π表示加权矩阵;
由于人具有较强的认知能力和决策能力,所以当任务中有许多复杂的需要决定的情况时,人是最适合领导任务的,通过末端手柄交互力传感器测量人对机器人的末端力来衡量人对某基本任务的匹配度,当人放松,末端力减少,人对基本任务的匹配度降低,该任务分配给机器人领导;当人施加较大的末端力,人对基本任务的匹配度提高,该基本任务分配给人来领导。
具体地,所述在模块S2:
某基本任务分配给人来领导时:
根据黎卡提方程计算出最佳力f*和机器人最佳刚度u*。
具体地,所述模块S2:
某个基本任务分配给机器人来领导时:
人和机器人的竞争交互行为可以看做看作是两方零和博弈的一种具体应用形式,即双方一方赢,另一方输,机器人的控制目标变为:r2表示机器人的任务权重,通过黎卡提方程计算出机器人最佳刚度u*来消除施加在机器人末端力的干扰力矩。
具体地,所述模块S4:
其中,
τ为输出力矩;
q为关节空间角度向量;
M(q)为惯性矩阵;
Dq为驱动器阻尼系数矩阵;
g(q)为重力补偿矩阵;
τf=JT(q)f为外部施加力矩;
然后建立李雅普诺夫方程,推导得到自适应控制器和自适应率,通过自适应控制器计算出的控制力矩作为输入驱动弹性执行器,经过弹性执行器中的弹性组件的作用输出转矩对机器人关节进行驱动。
下面通过优选例,对本发明进行更为具体地说明。
优选例1:
本发明专利是一种面向上肢穿戴机器人的人机博弈控制系统。将使用者和机器人共同完成的复杂或多进程任务分解为多个基本任务。建立人机针对各个基本任务的能力矩阵和任务匹配矩阵进行任务分配。将任务分配的结果输入基于博弈论的人机零和或者非零和游戏数学模型中,计算机器人在人机末端匹配的最佳刚度,随后通过机器人阻抗模型,计算出机器人末端的参考轨迹,最后通过自适应控制器输出控制力矩实现参考轨迹跟踪。本发明的上肢穿戴机器人控制方法可以在人机合作的情景下实现更好的柔顺控制,感知使用者的运动意图,最小化使用者的输入力。
本发明专利的目的是通过以下技术方案来实现的:
一种面向上肢穿戴机器人的人机博弈控制系统,其特征在于:
所述控制方法包括以下步骤:
步骤1,在任务进行时利用末端手柄交互力传感器,实时记录使用者在运动时上肢的端点力数据。建立使用者和机器人各个基本任务的能力矩阵和任务匹配矩阵,每一个基本任务都根据人和机器人的能力矩阵和任务匹配矩阵进行任务分配。
步骤2,将任务分配的结果输入基于博弈论的人机零和游戏数学模型中,计算出机器人的最佳刚度值。
步骤3,将机器人刚度值和实时端点力输入机器人阻抗模型,计算出机器人末端在笛卡尔空间的参考轨迹。
步骤4,将笛卡尔空间的参考轨迹通过机器人逆运动学计算出在关节空间的参考轨迹,建立机器人关节的动力学模型,并确定模型参数,建立李雅普诺夫方程,推导得到自适应控制器和自适应率。
在步骤1中,使用者和机器人共同完成的任何复杂或多进程任务都分解为多个简单的基本任务Υ={Υ1,Υ2,…,Υn}。Υ1,Υ2,…,Υn为分解成的n个基本任务。一个任务是由一个四元组组合而成Υi=(Wi,Si,Ni)。Si为某项基本任务的状态。Ni代表人或者机器人的能力矩阵,Wi代表能力需求向量。人或机器人为完成某项基本任务而进行的任务合作或者竞争,这些行为是基于人和机器人单独成功执行该任务所需的能力矩阵Ni和任务匹配矩阵Φi。例如,人具有较强的认知能力、逻辑推理能力和决策能力,所以当任务中有许多复杂的需要决定的情况时,人是最适合领导任务的。但是机器人的物理性能比较好,适合做简单重复性的工作。
在步骤2中,如果某个基本任务分配给人来领导,根据博弈论,人和机器人的合作交互行为可以看作是两方非零和博弈的一种具体应用形式,即双方都是赢家,利益互补,双方的目标是使各自的控制目标最小化。首先将机器人阻抗模型转为为状态方程,其中Md为机器人惯性矩阵,Cd为机器人阻尼矩阵,为参考加速度,为参考速度,u为机器人刚度,f为末端作用力。建立人的控制目标和机器人的控制目标其中ξ为状态量,Q为权重矩阵,R1为机器人权重,R2为人权重。根据黎卡提方程计算出最佳力f*和机器人最佳刚度u*。
在步骤2中:如果某个基本任务分配给机器人来领导,人和机器人的竞争交互行为可以看做看作是两方零和博弈的一种具体应用形式,即双方一方赢,另一方输,机器人的控制目标变为:通过黎卡提方程计算出机器人最佳刚度u*来消除人施加在机器人末端力的干扰。
在步骤4中:通过雅克比矩阵将笛卡尔空间参考轨迹逆运动学求解出机器人在关节空间的参考轨迹,根据牛顿欧拉法建立机器人关节动力学模型为:τ为输出力矩;q为关节空间角度向量;M(q)为惯性矩阵;为科里奥利矩阵;Dq为驱动器阻尼系数矩阵;g(q)为重力补偿矩阵。然后建立李雅普诺夫方程,推导得到自适应控制器和自适应率。通过自适应控制器计算出的控制力矩作为输入驱动弹性执行器,经过弹性执行器中的弹性组件的作用用输出转矩对机器人关节进行驱动。
优选例2:
下面结合附图对本发明专利作进一步详述。
使用者和上肢穿戴机器人通过末端手柄交互力传感器进行人机交互在脑卒中康复、搜索救援、远程操作等方面有着广泛的应用。如图1所示,所述控制方法包括以下步骤:
所述步骤1具体为:
利用末端手柄交互力传感器,实时记录使用者在运动时上肢的端点力数据F(fx,fy,fz)。将使用者和机器人共同完成的复杂或多进程任务Υ分解为几个基本任务Υ={Υ1,Υ2,…,Υn}。一个任务是由一个四元组组合而成Υi=(Wi,Si,Ni)。Si为某项基本任务的状态。Ni代表人或者机器人的能力矩阵,Wi代表能力需求向量。它被定义为:
建立使用者和机器人各个基本任务的能力矩阵,每一个基本任务都根据人和机器人的能力矩阵和能力需求矩阵和任务状态运算后进行任务分配。一个基本任务可以分解为:
所以复杂任务可以表示成:
通过上述方法可以将任务分解为简单的基本任务,通过下面的任务匹配矩阵对单个基本任务进行分配。
任务匹配矩阵反映了机器人或人对每个基本任务的适合程度,人或机器人对于某项基本任务的匹配是这是基于人的运动意图。任务匹配矩阵Φi定义为:
其中ωi为辅助矩阵Θ的第i个元素。辅助矩阵Θ被定义为:
其中Hi为任务匹配度向量,Π表示加权矩阵。由于人具有较强的认知能力和决策能力,所以当任务中有许多复杂的需要决定的情况时,人是最适合领导任务的。通过末端手柄交互力传感器测量人对机器人的末端力来衡量人对某基本任务的匹配度,当人放松,末端力减少,人对基本任务的匹配度降低,该任务分配给机器人领导。当人施加较大的末端力,人对基本任务的匹配度提高,该基本任务分配给人来领导。
所述步骤2具体为:
将任务分配的结果输入基于博弈论的人机零和游戏数学模型中,计算出机器人的最佳刚度值。
①根据博弈论,如果某基本任务分配给人来领导。人和机器人的合作交互行为可以看做看作是两方非零和博弈的一种具体应用形式,即双方都是赢家,利益互补,双方的目标是使各自的控制目标最小化。首先将机器人阻抗模型转为为状态方程:
建立人的控制目标和机器人的控制目标:
其中,
Γh表示人的控制目标,Γr表示机器人的控制目标,ξ为状态量,Q为权重矩阵,R1为机器人权重,R2为人权重,上标T表示转置。根据黎卡提方程计算出最佳力f*和机器人最佳刚度u*。在人机非零和游戏中,上肢穿戴机器人的最优决策可以根据黎卡提方程和最优控制计算出:
其中z*为机器人最优状态,黎卡提矩阵P可以在黎卡提方程中计算得出:
②如果某基本任务分配给机器人来领导。人和机器人的竞争交互行为可以看作是两方零和博弈的一种具体应用形式,即双方一方赢,另一方输,机器人的控制目标变为:
r2表示机器人的任务权重。
通过黎卡提方程计算出机器人最佳刚度u*为:
其中可以在黎卡提方程中计算得出:
用该最佳刚度来消除施加在机器人末端力的干扰力矩。
步骤3,将机器人刚度值和实时端点力输入机器人阻抗模型,计算出机器人末端在笛卡尔空间的参考轨迹。实时端点力由力传感器获得。
所述步骤4具体为:
根据牛顿欧拉法建立机器人关节动力学模型为:
其中:为机器人关节角加速度,为机器人关节角速度,τ为电机输出力矩;q为关节空间角度向量;τf=JT(q)f为外部施加力矩;J(q)为雅克比矩阵;M(q)为惯性矩阵;为科里奥利矩阵;Dq为阻尼系数矩阵;G(q)为重力补偿矩阵。动力学参数具有以下性质:
1)M(q)为对称正定矩阵;
弹性执行器系统动力学模型为:其中,为电机角加速度,为电机角速度,θ为电机转角,Mθ为减速电机惯性矩阵,Dθ为减速电机一阻尼系数矩阵;K为弹性执行器模型刚度。动力学模型中摩擦项可以用物理参数ψθ=[ψθ1,ψθ2,…,ψθn]T线性表示为:其中:为已知的动态回归矩阵。
通过雅克比矩阵将笛卡尔空间参考轨迹xr逆运动学求解出机器人在关节空间的参考轨迹qr,根据弹性执行器计算电机的参考输出角度θr,通过机器人动力学,得出实际机器人轨迹q,从而得出轨迹误差Δq,从而计算得出自适应律并反馈给自适应控制器来改变控制器参数,构成闭环系统,减小轨迹跟踪误差;
自适控制器和自适应率如下所示:
其中,
Mθ为减速电机惯性矩阵,为角加速度误差,为角速度误差,τ为输出力矩;q为关节空间角度向量;s为定义的滑膜向量,Λ为正定矩阵;K为刚度;B为电机惯性矩阵;θ为电机转子的角度向量;θr为电机转子的参考角度向量;Δθ为电机转子的角度输入与输出误差向量;为已知的动态回归矩阵;为物理参数;为自适应律;L为正定矩阵。
所述的自适应控制器和自适应更新率的推导及其稳定性证明过程如下所示:
将Lyapunov函数定义为V:
对V求导得到:
自适应控制器τ和自适应率设计为:
其中:
N=[ST ΔθT]
选择参数Λθ满足:
其中:λmin为[Λθ Dq]的最小特征值;λmax为[K2]的最大特征值。此时,Q正定,且有:
对(32)式求导得:
由上式可以看出有界,则一致连续。由Barbalat引理(J.J.E.Slotine andW.Li,Applied Nonlinear Control.Englewood Cliffs,NJ,USA:Prentice Hall,1991.)可知t→∞时,所以因此,当t→∞,s→0且Δψ→0,即Δq→0,实际位置q与参考位置qr之间的跟踪误差Δq→0。所以该自适应控制是稳定的。
在本申请的描述中,需要理解的是,术语“上”、“下”、“前”、“后”、“左”、“右”、“竖直”、“水平”、“顶”、“底”、“内”、“外”等指示的方位或位置关系为基于附图所示的方位或位置关系,仅是为了便于描述本申请和简化描述,而不是指示或暗示所指的装置或元件必须具有特定的方位、以特定的方位构造和操作,因此不能理解为对本申请的限制。
本领域技术人员知道,除了以纯计算机可读程序代码方式实现本发明提供的系统、装置及其各个模块以外,完全可以通过将方法步骤进行逻辑编程来使得本发明提供的系统、装置及其各个模块以逻辑门、开关、专用集成电路、可编程逻辑控制器以及嵌入式微控制器等的形式来实现相同程序。所以,本发明提供的系统、装置及其各个模块可以被认为是一种硬件部件,而对其内包括的用于实现各种程序的模块也可以视为硬件部件内的结构;也可以将用于实现各种功能的模块视为既可以是实现方法的软件程序又可以是硬件部件内的结构。
以上对本发明的具体实施例进行了描述。需要理解的是,本发明并不局限于上述特定实施方式,本领域技术人员可以在权利要求的范围内做出各种变化或修改,这并不影响本发明的实质内容。在不冲突的情况下,本申请的实施例和实施例中的特征可以任意相互组合。
Claims (10)
1.一种面向上肢穿戴机器人的人机博弈控制方法,其特征在于,包括以下步骤:
步骤S1:在任务进行时利用末端手柄交互力传感器,实时记录使用者在运动时上肢的端点力数据,建立使用者和上肢穿戴机器人各个基本任务的能力矩阵和任务匹配矩阵,每一个基本任务都根据人和上肢穿戴机器人的能力矩阵和任务匹配矩阵进行任务分配;
步骤S2:将任务分配的结果输入基于博弈论的人机零和游戏数学模型中,计算出机器人的最佳刚度值;
步骤S3:将机器人刚度值和实时端点力输入机器人阻抗模型,计算出机器人末端在笛卡尔空间的参考轨迹;
步骤S4:将笛卡尔空间的参考轨迹通过机器人逆运动学计算出在关节空间的参考轨迹,建立机器人的动力学模型,并确定模型参数,建立李雅普诺夫方程,推导得到自适应控制器和自适应率。
2.根据权利要求1所述的一种面向上肢穿戴机器人的人机博弈控制方法,其特征在于,所述步骤S1:
使用者和机器人共同完成的任何复杂或多进程任务都分解为多个简单的基本任务Υ={Υ1,Υ2,…,Υn},Υ1,Υ2,…,Υn为分解成的n个基本任务,一个任务是由一个四元组组合而成任务匹配矩阵Υi=(Wi,Si,Ni),Si为某项基本任务的状态,Ni代表人或者机器人的能力矩阵,Wi代表能力需求向量;
人或机器人为完成某项基本任务而进行的任务合作或者竞争行为,这些行为是基于人和机器人单独成功执行该任务所需的能力矩阵Ni和任务匹配矩阵Φi;
一个基本任务分解为:
所以复杂任务表示为:
通过上述方法可以将任务分解为简单的基本任务,通过下面的任务匹配矩阵对单个基本任务进行分配:
任务匹配矩阵反映了机器人或人对每个基本任务的适合程度,人或机器人对于某项基本任务的匹配是基于人的运动意图,任务匹配矩阵Φi定义为:
其中,ωi为辅助矩阵Θ的第i个元素;
辅助矩阵Θ被定义为:
其中,
Hi为任务匹配度向量,∏表示加权矩阵;
由于人具有较强的认知能力和决策能力,所以当任务中有许多复杂的需要决定的情况时,人是最适合领导任务的,通过末端手柄交互力传感器测量人对机器人的末端力来衡量人对某基本任务的匹配度,当人放松,末端力减少,人对基本任务的匹配度降低,该任务分配给机器人领导;当人施加较大的末端力,人对基本任务的匹配度提高,该基本任务分配给人来领导。
5.根据权利要求1所述的一种面向上肢穿戴机器人的人机博弈控制方法,其特征在于,所述步骤S4:
其中,
τ为输出力矩;
q为关节空间角度向量;
M(q)为惯性矩阵;
Dq为驱动器阻尼系数矩阵;
g(q)为重力补偿矩阵;
τf=JT(q)f为外部施加力矩;
然后建立李雅普诺夫方程,推导得到自适应控制器和自适应率,通过自适应控制器计算出的控制力矩作为输入驱动弹性执行器,经过弹性执行器中的弹性组件的作用输出转矩对机器人关节进行驱动。
6.一种面向上肢穿戴机器人的人机博弈控制系统,其特征在于,包括以下模块:
模块S1:在任务进行时利用末端手柄交互力传感器,实时记录使用者在运动时上肢的端点力数据,建立使用者和上肢穿戴机器人各个基本任务的能力矩阵和任务匹配矩阵,每一个基本任务都根据人和上肢穿戴机器人的能力矩阵和任务匹配矩阵进行任务分配;
模块S2:将任务分配的结果输入基于博弈论的人机零和游戏数学模型中,计算出机器人的最佳刚度值;
模块S3:将机器人刚度值和实时端点力输入机器人阻抗模型,计算出机器人末端在笛卡尔空间的参考轨迹;
模块S4:将笛卡尔空间的参考轨迹通过机器人逆运动学计算出在关节空间的参考轨迹,建立机器人的动力学模型,并确定模型参数,建立李雅普诺夫方程,推导得到自适应控制器和自适应率。
7.根据权利要求6所述的一种面向上肢穿戴机器人的人机博弈控制系统,其特征在于,所述模块S1:
使用者和机器人共同完成的任何复杂或多进程任务都分解为多个简单的基本任务Υ={Υ1,Υ2,…,Υn},Υ1,Υ2,…,Υn为分解成的n个基本任务,一个任务是由一个四元组组合而成任务匹配矩阵Υi=(Wi,Si,Ni),Si为某项基本任务的状态,Ni代表人或者机器人的能力矩阵,Wi代表能力需求向量;
人或机器人为完成某项基本任务而进行的任务合作或者竞争行为,这些行为是基于人和机器人单独成功执行该任务所需的能力矩阵Ni和任务匹配矩阵Φi;
一个基本任务分解为:
所以复杂任务表示为:
通过上述方法可以将任务分解为简单的基本任务,通过下面的任务匹配矩阵对单个基本任务进行分配:
任务匹配矩阵反映了机器人或人对每个基本任务的适合程度,人或机器人对于某项基本任务的匹配是基于人的运动意图,任务匹配矩阵Φi定义为:
其中,ωi为辅助矩阵Θ的第i个元素;
辅助矩阵Θ被定义为:
其中,
Hi为任务匹配度向量,Π表示加权矩阵;
由于人具有较强的认知能力和决策能力,所以当任务中有许多复杂的需要决定的情况时,人是最适合领导任务的,通过末端手柄交互力传感器测量人对机器人的末端力来衡量人对某基本任务的匹配度,当人放松,末端力减少,人对基本任务的匹配度降低,该任务分配给机器人领导;当人施加较大的末端力,人对基本任务的匹配度提高,该基本任务分配给人来领导。
10.根据权利要求6所述的一种面向上肢穿戴机器人的人机博弈控制系统,其特征在于,所述模块S4:
其中,
τ为输出力矩;
q为关节空间角度向量;
M(q)为惯性矩阵;
Dq为驱动器阻尼系数矩阵;
g(q)为重力补偿矩阵;
τf=JT(q)f为外部施加力矩;
然后建立李雅普诺夫方程,推导得到自适应控制器和自适应率,通过自适应控制器计算出的控制力矩作为输入驱动弹性执行器,经过弹性执行器中的弹性组件的作用输出转矩对机器人关节进行驱动。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011119646.3A CN112247962B (zh) | 2020-10-19 | 2020-10-19 | 面向上肢穿戴机器人的人机博弈控制方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011119646.3A CN112247962B (zh) | 2020-10-19 | 2020-10-19 | 面向上肢穿戴机器人的人机博弈控制方法及系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112247962A CN112247962A (zh) | 2021-01-22 |
CN112247962B true CN112247962B (zh) | 2021-10-08 |
Family
ID=74244955
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011119646.3A Active CN112247962B (zh) | 2020-10-19 | 2020-10-19 | 面向上肢穿戴机器人的人机博弈控制方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112247962B (zh) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113095463A (zh) * | 2021-03-31 | 2021-07-09 | 南开大学 | 一种基于进化强化学习的机器人对抗方法 |
CN113721574B (zh) * | 2021-09-07 | 2023-07-18 | 中国联合网络通信集团有限公司 | 一种柔顺控制方法、mec、现场单元、柔顺控制系统及装置 |
CN113733117B (zh) * | 2021-09-09 | 2023-09-08 | 长春工业大学 | 一种可重构机器人人类意图辨识控制方法及装置 |
CN113858201B (zh) * | 2021-09-29 | 2023-04-25 | 清华大学 | 用于柔性驱动机器人的自适应变阻抗控制方法、系统与设备 |
CN114795604B (zh) * | 2022-04-18 | 2024-06-18 | 合肥综合性国家科学中心人工智能研究院(安徽省人工智能实验室) | 基于非零和博弈的下肢假肢协调控制方法及系统 |
CN114569410B (zh) * | 2022-05-06 | 2022-09-13 | 卓道医疗科技(浙江)有限公司 | 康复机器人训练模式的控制方法、装置及存储介质 |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101615265B (zh) * | 2009-08-11 | 2012-07-04 | 路军 | 一种基于多Agent技术的智能决策仿真实验系统 |
JP6426547B2 (ja) * | 2015-07-21 | 2018-11-21 | ファナック株式会社 | 人間協調型ロボットシステムのロボットシミュレーション装置 |
US10445442B2 (en) * | 2016-09-01 | 2019-10-15 | Energid Technologies Corporation | System and method for game theory-based design of robotic systems |
CN107479380A (zh) * | 2017-08-25 | 2017-12-15 | 东北大学 | 基于演化博弈理论的多智能体协调控制方法 |
CN108393884B (zh) * | 2018-01-18 | 2021-01-05 | 西北工业大学 | 一种基于Petri网的多机械臂遥操作系统协同任务规划方法 |
CN109394476B (zh) * | 2018-12-06 | 2021-01-19 | 上海神添实业有限公司 | 脑肌信息自动意图识别与上肢智能控制方法及系统 |
CN111716356B (zh) * | 2020-06-18 | 2021-12-24 | 南京邮电大学 | 一种仿人多机器人的协作方法 |
-
2020
- 2020-10-19 CN CN202011119646.3A patent/CN112247962B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
CN112247962A (zh) | 2021-01-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112247962B (zh) | 面向上肢穿戴机器人的人机博弈控制方法及系统 | |
Li et al. | Asymmetric bimanual control of dual-arm exoskeletons for human-cooperative manipulations | |
CN109848983B (zh) | 一种高顺应性人引导机器人协同作业的方法 | |
CN108527372B (zh) | 一种变刚度串联弹性驱动器的机器人关节自适应控制方法 | |
Okamura et al. | An overview of dexterous manipulation | |
Zhang et al. | Real-time kinematic control for redundant manipulators in a time-varying environment: Multiple-dynamic obstacle avoidance and fast tracking of a moving object | |
Haddadin | Towards safe robots: approaching Asimov’s 1st law | |
Chen et al. | Neural learning enhanced variable admittance control for human–robot collaboration | |
Doulgeri et al. | Feedback control for object manipulation by a pair of soft tip fingers | |
Li et al. | Assimilation control of a robotic exoskeleton for physical human-robot interaction | |
Luo et al. | Repulsive reaction vector generator for whole-arm collision avoidance of 7-DoF redundant robot manipulator | |
Yang et al. | Neural learning enhanced teleoperation control of Baxter robot using IMU based motion capture | |
Wu et al. | Adaptive impedance control based on reinforcement learning in a human-robot collaboration task with human reference estimation | |
Nath et al. | Teleoperation with kinematically redundant robot manipulators with sub-task objectives | |
Ahmed et al. | A comparative study between convolution and optimal backstepping controller for single arm pneumatic artificial muscles | |
Chen et al. | Impedance matching strategy for physical human robot interaction control | |
Ghavifekr et al. | Designing inverse dynamic controller with integral action for motion planning of surgical robot in the presence of bounded disturbances | |
JP3105694B2 (ja) | マニピュレータ制御方法 | |
Bahani et al. | Intelligent controlling the gripping force of an object by two computer-controlled cooperative robots | |
Lin et al. | Dynamic trajectory-tracking control method of robotic transcranial magnetic stimulation with end-effector gravity compensation based on force sensors | |
CN109176529A (zh) | 一种空间机器人协调运动的新型自适应模糊控制方法 | |
Rasch et al. | Combining cartesian trajectories with joint constraints for human-like robot-human handover | |
Ruiz-Ruiz et al. | A Reactive performance-based Shared Control Framework for Assistive Robotic Manipulators | |
Na et al. | Adaptive impedance control of a haptic teleoperation system for improved transparency | |
Doulgeri et al. | Force/position tracking of a robot in compliant contact with unknown stiffness and surface kinematics |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |