CN117484506A - 机器人控制方法、装置、机器人及计算机可读存储介质 - Google Patents
机器人控制方法、装置、机器人及计算机可读存储介质 Download PDFInfo
- Publication number
- CN117484506A CN117484506A CN202311631726.0A CN202311631726A CN117484506A CN 117484506 A CN117484506 A CN 117484506A CN 202311631726 A CN202311631726 A CN 202311631726A CN 117484506 A CN117484506 A CN 117484506A
- Authority
- CN
- China
- Prior art keywords
- robot
- moment
- control strategy
- rewards
- trained
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 69
- 238000003860 storage Methods 0.000 title claims abstract description 11
- 238000011217 control strategy Methods 0.000 claims abstract description 94
- 238000012549 training Methods 0.000 claims abstract description 41
- 230000009471 action Effects 0.000 claims abstract description 34
- 238000004590 computer program Methods 0.000 claims description 22
- 230000007613 environmental effect Effects 0.000 claims description 11
- 238000013507 mapping Methods 0.000 claims description 4
- 230000008569 process Effects 0.000 abstract description 24
- 230000005021 gait Effects 0.000 abstract description 5
- 230000006870 function Effects 0.000 description 20
- 238000010586 diagram Methods 0.000 description 5
- 230000006399 behavior Effects 0.000 description 4
- 238000012545 processing Methods 0.000 description 4
- 238000004088 simulation Methods 0.000 description 4
- 230000008878 coupling Effects 0.000 description 3
- 238000010168 coupling process Methods 0.000 description 3
- 238000005859 coupling reaction Methods 0.000 description 3
- 230000004913 activation Effects 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 238000003062 neural network model Methods 0.000 description 2
- 238000005096 rolling process Methods 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000009472 formulation Methods 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 230000005012 migration Effects 0.000 description 1
- 238000013508 migration Methods 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 230000010355 oscillation Effects 0.000 description 1
- 230000002787 reinforcement Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J11/00—Manipulators not otherwise provided for
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1628—Programme controls characterised by the control loop
- B25J9/163—Programme controls characterised by the control loop learning, adaptive, model based, rule based expert control
Landscapes
- Engineering & Computer Science (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Manipulator (AREA)
Abstract
本申请提供一种机器人控制方法、装置、机器人及计算机可读存储介质。机器人控制方法包括:将机器人的当前状态和下一时刻的期望状态输入控制策略,得到控制策略输出的机器人在下一时刻的动作;控制策略的参数是利用风格奖励训练得到的,风格奖励通过对参考数据集进行学习得到,参考数据集根据人体运动数据得到,根据下一时刻的动作控制机器人运动,可以使机器人实现自然的人形机器人步态,从而使机器人的运动过程具有更好泛化性能,进而可以提高机器人适应真实环境的能力。
Description
技术领域
本申请属于机器人领域,尤其涉及机器人控制方法、装置、机器人及计算机可读存储介质。
背景技术
在机器人控制领域,通过开发近似的动力学模型描述机器人的运动规律,然后通过轨迹优化算法求解最优的行动路径,可以指示机器人完成特定的任务,但是采用这种方法控制机器人不能使机器人很好地适应不同的任务和复杂的环境。为此,研究人员提出使用强化学习算法学习机器人的运动行为,使机器人自主学习完成任务,采用这种方法控制机器人在仿真环境中可以有较好表现。但是仿真环境与真实环境存在一定差距,使用在仿真环境得到的运动控制方法控制机器人,无法使机器人适应真实环境。
发明内容
有鉴于此,本申请实施例提供了一种机器人控制方法、装置、机器人及计算机可读存储介质,用于解决现有技术中机器人无法适应真实环境的问题。
本申请实施例的第一方面提供了一种机器人控制方法,包括:
将机器人的当前状态和下一时刻的期望状态输入控制策略,得到所述控制策略输出的所述机器人在下一时刻的动作;所述控制策略的参数是利用风格奖励训练得到的,所述风格奖励通过对参考数据集进行学习得到,所述参考数据集根据人体运动数据得到;
根据所述下一时刻的动作控制所述机器人运动。
在一实施例中,所述方法还包括:
将第t时刻的状态以及第t+1时刻的期望状态输入待训练的控制策略,根据所述待训练的控制策略输出的第t+1时刻的动作确定第t+1时刻的状态;
将所述第t时刻的状态以及所述第t+1时刻的状态输入待训练的判别器,根据所述待训练的判别器的输出信息确定所述风格奖励,判别器的输出信息用于表示输入所述判别器的数据是否是所述参考数据集中的数据;
根据所述风格奖励优化所述待训练控制策略的参数,根据所述判别器的训练目标优化所述待训练的判别器的参数,直到满足预设结束条件,得到所述控制策略以及所述判别器;所述判别器的训练目标根据所述第t时刻的状态、所述第t+1时刻以及所述参考数据集得到。
在一实施例中,所述根据所述风格奖励优化所述待训练控制策略的参数,包括:
根据所述风格奖励以及任务奖励确定折扣回报,所述任务奖励根据所述第t时刻的状态以及所述第t+1时刻的期望状态确定;
根据所述折扣回报优化所述待训练控制策略的参数。
在一实施例中,所述根据所述风格奖励以及任务奖励确定折扣回报,包括:
根据所述任务奖励和所述风格奖励,以及所述任务奖励和所述风格奖励分别对应的权重,确定折扣回报。
在一实施例中,所述根据所述待训练的控制策略输出的第t+1时刻的动作确定第t+1时刻的状态,包括:
根据所述待训练的控制策略输出的第t+1时刻的动作以及环境参数,确定第t+1时刻的状态。
在一实施例中,所述环境参数根据预设的固定参数以及随机生成的扰动参数确定。
在一实施例中,所述方法还包括:
获取人体运动数据;
根据所述人体运动数据以及人体与机器人的映射关系,通过逆运动学得到关节角度,通过正运动学得到末端位置;
根据所述关节角度和所述末端位置生成所述参考数据集。
本申请实施例的第二方面提供了一种机器人控制装置,包括:
输入模块,用于将机器人的当前状态和下一时刻的期望状态输入控制策略,得到所述控制策略输出的所述机器人在下一时刻的动作;所述控制策略的参数是利用风格奖励训练得到的,所述风格奖励通过对参考数据集进行学习得到,所述参考数据集根据人体运动数据得到;
控制模块,用于根据所述下一时刻的动作控制所述机器人运动。
本申请实施例的第三方面提供了一种机器人,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现如上述第一方面所述的机器人控制方法。
本申请实施例的第四方面提供了一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,所述计算机程序被处理器执行时实现如上述第一方面所述的机器人控制方法。
本申请实施例的第五方面提供了一种计算机程序产品,当计算机程序产品在机器人上运行时,使得机器人执行上述第一方面中任一项所述的机器人控制方法。
本申请实施例与现有技术相比存在的有益效果是:通过对人体运动数据得到的参考数据集进行学习得到风格奖励,利用风格奖励训练控制策略的参数,使控制策略的参数为学习人体运动数据得到的参数,使用训练后的控制策略控制机器人运动,可以使机器人实现自然的人形机器人步态,从而使机器人的运动过程具有更好泛化性能,进而可以提高机器人适应真实环境的能力。
附图说明
为了更清楚地说明本申请实施例中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍。
图1是本申请一实施例提供的机器人控制方法的实现流程示意图;
图2是本申请一实施例提供的训练控制策略的框架图;
图3是本申请一实施例提供的机器人控制装置示意图;
图4是本申请实施例提供的机器人的结构示意图。
具体实施方式
以下描述中,为了说明而不是为了限定,提出了诸如特定系统结构、技术之类的具体细节,以便透彻理解本申请实施例。然而,本领域的技术人员应当清楚,在没有这些具体细节的其它实施例中也可以实现本申请。在其它情况中,省略对众所周知的系统、装置、电路以及方法的详细说明,以免不必要的细节妨碍本申请的描述。
应当理解,当在本说明书和所附权利要求书中使用时,术语“包括”指示所描述特征、整体、步骤、操作、元素和/或组件的存在,但并不排除一个或多个其它特征、整体、步骤、操作、元素、组件和/或其集合的存在或添加。
还应当理解,在此本申请说明书中所使用的术语仅仅是出于描述特定实施例的目的而并不意在限制本申请。如在本申请说明书和所附权利要求书中所使用的那样,除非上下文清楚地指明其它情况,否则单数形式的“一”、“一个”及“该”意在包括复数形式。
还应当进一步理解,在本申请说明书和所附权利要求书中使用的术语“和/或”是指相关联列出的项中的一个或多个的任何组合以及所有可能组合,并且包括这些组合。
为了提高机器人适应真实环境的能力,本申请提供一种机器人控制方法,通过学习根据人体运动数据得到的参考数据集,得到风格奖励,利用风格奖励得到控制策略的参数,可以使控制策略学习人体运动数据,采用训练后的控制策略控制机器人,可以使机器人具有自然的人形机器人步态,使机器人的运动过程具有更好泛化性能,进而可以提高机器人适应真实环境的能力。
下面对本申请提供的机器人控制方法进行示例性说明。本申请提供的机器人控制方法由机器人执行。
请参阅附图1,本申请一实施例提供的机器人控制方法包括:
S101:将机器人的当前状态和下一时刻的期望状态输入控制策略,得到所述控制策略输出的所述机器人在下一时刻的动作;所述控制策略的参数是利用风格奖励训练得到的,所述风格奖励通过对参考数据集进行学习得到,所述参考数据集根据人体运动数据得到。
其中,机器人的当前状态包括机器人当前的关节角度、关节速度、方向等参数。机器人下一时刻的期望状态包括机器人下一时刻的关节角度、关节速度、方向等参数。机器人下一时刻的期望状态根据机器人执行的任务确定,也可以根据机器人执行的任务以及机器人所处的环境确定。机器人下一时刻的动作包括机器人下一时刻的关节角度或位置。其中,关节角度、关节速度均是指机器人全身多个关节的角度、速度,以实现对机器人的全身运动控制。
控制策略是经过训练得到的,用于根据机器人的当前状态和下一时刻的期望状态输出机器人下一时刻的动作。示例性地,控制策略是一个神经网络模型,例如可以是浅层多层感知器。示例性地,该感知器包括三个隐藏层,三个隐藏层分别是512、256和128个维度,并采用指数线性单元作为激活函数。
机器人运动学包括正运动学和逆运动学,正运动学是根据机器人各关节的角度计算机器人关节末端的位置的过程,逆运动学是根据机器人关节末端的位置计算机器人各关节的角度的过程。
人体运动数据包括人体运动过程中在各时刻各关节或关节末端所在的位置,人体运动可以是指行走、跑步、转向、翻滚等动作。在采集人体运动数据后,根据人体运动数据以及人体与机器人的映射关系,可以将人体运动数据映射到机器人上,即根据人体与机器人各关节的对应关系,将人体运动过程中各关节末端所在的位置映射为机器人各关节末端的位置。之后,根据机器人各关节末端的位置,通过逆运动学得到关节的角度,在得到关节的角度后,根据正运动学得到各关节末端的位置。之后,根据各关节的角度和各关节末端的位置即可生成参考数据集。其中,可以通过逆运动学中的任意一种算法计算得到关节的角度,也可以通过正运动学中的任意一种算法计算得到关节末端的位置。
在得到关节的角度和关节末端的位置后,还可以根据关节的角度以及关节末端的位置,通过有限差分法计算关节速度、机器人线速度和角速度等参数,将这些参数均作为参考数据集中的参数。
在控制策略的训练过程中,通过学习参考数据集得到风格奖励,再利用风格奖励训练控制策略,鼓励控制策略输出与参数数据集对应的动作数据,进而使得控制策略所控制的机器人产生与参考数据集中的行为风格相同的行为。
下面对控制策略的训练过程进行详细说明。
示例性地,控制策略的训练过程是通过多次迭代,不断优化待训练的控制策略的参数的过程,通过多次迭代,得到的做优参数即为控制策略的参数。
其中,每次迭代的运算过程相同。下面以其中一次的迭代为例,将第t时刻作为当前时刻,将第t+1时刻作为下一时刻,对控制策略的训练过程进行介绍。
根据机器人的运动状态(例如行走、跑步、翻滚等),将机器人第t时刻的状态以及第t+1时刻的期望状态输入待训练的控制策略,待训练的控制策略输出第t+1时刻的动作。第t+1时刻的动作可以是第t+1时刻各关节的位置或角度。根据第t+1时刻的动作可以得到第t+1时刻的状态。
在一实施例中,根据待训练的控制策略输出的第t+1时刻的状态以及环境参数,确定第t+1时刻的状态。其中,环境参数包括地面摩擦系数、地面坡度、对机器人施加的重量等参数。通过结合环境参数确定机器人第t+1时刻的状态,可以模拟机器人在真实的环境中的运动情况,提高了得到的控制策略的环境适应能力。
在一实施例中,环境参数根据预设的固定参数以及随机生成的扰动参数确定。例如,可以在每次迭代过程中随机添加扰动参数,从而可以促进控制策略从仿真环境到真实环境的学习行为迁移。其中,扰动参数用于改变地面摩擦系数、地面坡度、机器人施加的重量等。
在其他实施例中,除了添加随机的环境扰动,还添加机器人的扰动参数,例如在每次迭代过程中,根据扰动参数随机更改PD控制器增益、在随机时间间隔内向机器人速度添加速度向量来扰动机器人的速度等。
示例性地,添加扰动参数的随机变量包括摩擦系数、施加的重量、速度扰动、PD增益相乘系数。其中,扰动参数中,摩擦系数对应的扰动参数的范围为0.25~2.5,施加的重量对应的扰动参数的范围为-5~5,速度扰动参数的范围为-1.5~1.5,,PD增益相乘系数对应的扰动参数的范围为0.7~1.3。
在一实施例中,在训练过程中,控制策略输出的机器人第t+1时刻的动作包括关节的角度的均值和标准偏差,根据标准偏差可以从对应的第t+1时刻的状态中进行采样,采样后的数据用于输入判别器,以同时训练判别器。
其中,将相邻两个时刻的状态(即状态转移)输入判别器,判别器的输出信息用于表示输入判别器的数据是否是参考数据集中的数据。例如,判别器的输出信息为数值,若判别器输出的数值为正数,表示输入判别器的数据是参考数据集中的数据,若判别器输出的数值为负数,表示输入判别器的数据是待训练的控制策略输出的数据。
示例性地,判别器是一个神经网络模型,例如可以是多层感知器,包括两个隐藏层,两个隐藏层的维度分别为1024和512,并使用指数线性单元作为激活函数。
本申请实施例中,将第t时刻的状态以及第t+1时刻的状态输入判别器,根据判别器的输出信息确定风格奖励。之后,根据风格奖励优化待训练控制策略的参数,根据判别器的训练目标优化待训练的判别器的参数,直到满足预设结束条件,得到控制策略以及判别器。其中,判别器的训练目标根据第t时刻的状态、第t+1时刻以及参考数据集得到。
具体地,根据公式确定第t时刻的风格奖励/>其中,st表示机器人第t时刻的状态,st+1表示机器人第t+1时刻的状态,D(st,st+1)表示将第t时刻的状态以及第t+1时刻的状态输入待训练的判别器,待训练的判别器输出的数值。公式表示取0和1-0.25(D(st,st+1)-1中的最大值,使得到的风格奖励的值位于[0,1]范围内。
在一实施例中,根据风格奖励优化待训练控制策略包括根据风格奖励得到的折扣回报优化待训练控制策略。
具体地,折扣回报根据风格奖励和任务奖励得到,任务奖励根据第t时刻的状态以及第t+1时刻的期望状态确定。其中,计算任务奖励的参数根据机器人的动作(例如行走、跑步、转向、翻身等)确定,可以是机器人的速度、加速度、关节角度、关节末端位置等参数。例如,在机器人执行一些动作的情况下,计算任务奖励的参数可以是线速度和角速度。例如,根据公式确定第t时刻的任务奖励/>其中,/>表示第t时刻的期望线速度,/>表示第t时刻的实际线速度,/>表示第t时刻的期望角速度,/>表示第t时刻的实际角速度,ωt和ωω分别表示权重。
在一实施例中,根据任务奖励和风格奖励,以及任务奖励和风格奖励分别对应的权重,确定奖励函数。示例性地,第t时刻的奖励函数rt为其中,ωg和ωs分别表示任务奖励和风格奖励对应的权重。
通过奖励函数训练控制策略的机制,可以提高机器人运动过程中动作的可控性,并使得机器人在不同的环境条件下具有良好的运动性能。由于奖励函数包括任务奖励和风格奖励两部分,相对于仅采用任务奖励作为奖励函数的方法,可以避免由于任务不明确而引发的机器人的剧烈震荡。
在确定奖励函数后,根据公式确定折扣回报J(θ),其中,γt表示折扣因子,Eπθ表示计算数学期望,即在待训练的控制策略的参数为πθ的情况下计算数学期望。
每次迭代时,在优化待训练的控制策略的参数的同时,根据判别器的训练目标优化待训练的判别器的参数。其中,判别器的训练目标为
其中,Dφ(s,s')表示将机器人相邻两个时刻的状态输入待训练的判别器时,待训练的判别器输出的数值,E(s,s')~D表示输入待训练的判别器的相邻两个时刻的状态来自参考数据集,E(s,s')~πθ(s,a)表示输入待训练的判别器的相邻两个时刻的状态是待训练的控制策略输出的第t时刻的状态和第t+1时刻的状态,ωgp表示梯度惩罚系数,φ表示待训练的判别器当前的参数。
判别器的训练目标的公式中,第一项和第二项用于鼓励待训练的判别器准确判断输入的数据是来自参考数据集还是待训练控制策略的输出数据,第三项是梯度惩罚项,用于惩罚输入待训练的判别器样本上的非零梯度。判别器倾向于参考数据集样本流形上分配非零梯度的问题,可能导致生成器超调并偏离数据流形,梯度惩罚项可以减轻上述为题。以零为中心的梯度惩罚可以减少训练中的振荡,并提高训练稳定性。
将待训练的控制策略输出的数据输入待训练的判别器,根据待训练的判别器的输出值确定风格奖励,根据风格奖励确定折扣回报,最大化折扣回报以优化待训练的控制策略的参数,同时根据待训练的控制策略输出的数据以及参考数据集确定判别器的训练目标的值,根据判别器的训练目标的值优化待训练的判别器的参数。在得到优化参数后的待训练的控制策略以及优化参数后的待训练的判别器后,再次将优化参数后的待训练的控制策略输出的数据输入优化参数后的待训练的判别器,根据优化参数后的待训练的判别器的输出值确定风格奖励,反复迭代,直到满足预设结束条件。预设结束条件可以是达到最大迭代次数,或折扣回报位于预设范围内,或判别器的训练目标位于预设范围内。满足结束条件时,得到的待训练的控制策略的参数即为最优参数,最优参数的待训练的控制策略即为最终得到的控制策略。满足结束条件时,得到的待训练的判别器的参数即为最优参数,最优参数的待训练的判别器即为最终得到的判别器。
上述实施例中,在优化待训练的控制策略的参数的同时,同时优化待训练的判别器的参数,根据判别器的输出值确定风格奖励,根据任务奖励和风格奖励确定奖励函数,可以在不使用复杂的奖励函数的同时,使控制策略所控制的机器人实现人形机器人步态,提高机器人适应真实环境的能力。
在一实施例中,控制策略的训练过程如图2所示。将第t时刻的状态以及第t+1时刻的期望状态输入待训练的控制策略,得到待训练的控制策略输出的第t+1时刻的动作,将第t+1时刻的动作输入环境模型,得到环境模型输出的第t+1时刻的状态。根据人体运动数据得到参考数据集,将第t时刻的状态、第t+1时刻的状态、参考数据集输入判别器的训练模型中,训练模型根据判别器的训练目标优化待训练的判别器,在判别器的训练过程中,根据待训练的判别器的输出信息得到风格奖励。根据当前执行的任务确定任务奖励,根据任务奖励以及风格奖励确定奖励函数,根据奖励函数优化待训练的控制策略的参数,得到优化参数后的待训练的控制策略,再次将第t+1时刻的状态以及第t+2时刻的期望状态输入优化参数后的待训练的控制策略中,进行下一次迭代,直到得到最优参数。
S102:根据所述下一时刻的动作控制所述机器人运动。
具体地,将下一时刻的动作输入用于控制机器人电机转矩的PD控制器,PD控制器根据下一时刻的动作控制机器人运动。
上述实施例中,通过对人体运动数据得到的参考数据集进行学习得到风格奖励,利用风格奖励训练控制策略的参数,使控制策略的参数为学习人体运动数据得到的参数,使用训练后的控制策略控制机器人运动,可以使机器人实现自然的人形机器人步态,从而使机器人的运动过程具有更好泛化性能,进而可以提高机器人适应真实环境的能力。
应理解,上述实施例中各步骤的序号的大小并不意味着执行顺序的先后,各过程的执行顺序应以其功能和内在逻辑确定,而不应对本申请实施例的实施过程构成任何限定。
对应于上文实施例所述的机器人控制方法,图3示出了本申请实施例提供的机器人控制装置的结构框图,为了便于说明,仅示出了与本申请实施例相关的部分。
如图3所示,机器人控制装置包括:
输入模块31,用于将机器人的当前状态和下一时刻的期望状态输入控制策略,得到所述控制策略输出的所述机器人在下一时刻的动作;所述控制策略的参数是利用风格奖励训练得到的,所述风格奖励通过对参考数据集进行学习得到,所述参考数据集根据人体运动数据得到;
控制模块32,用于根据所述下一时刻的动作控制所述机器人运动。
在一实施例中,机器人控制装置还包括训练模块,训练模块用于:
将第t时刻的状态以及第t+1时刻的期望状态输入待训练的控制策略,根据所述待训练的控制策略输出的第t+1时刻的动作确定第t+1时刻的状态;
将所述第t时刻的状态以及所述第t+1时刻的状态输入待训练的判别器,根据所述待训练的判别器的输出信息确定所述风格奖励,判别器的输出信息用于表示输入所述判别器的数据是否是所述参考数据集中的数据;
根据所述风格奖励优化所述待训练控制策略的参数,根据所述判别器的训练目标优化所述待训练的判别器的参数,直到满足预设结束条件,得到所述控制策略以及所述判别器;所述判别器的训练目标根据所述第t时刻的状态、所述第t+1时刻以及所述参考数据集得到。
在一实施例中,训练模块具体用于:
根据所述风格奖励以及任务奖励确定折扣回报,所述任务奖励根据所述第t时刻的状态以及所述第t+1时刻的期望状态确定;
根据所述折扣回报优化所述待训练控制策略的参数。
在一实施例中,训练模块具体用于:
根据所述任务奖励和所述风格奖励,以及所述任务奖励和所述风格奖励分别对应的权重,确定折扣回报。
在一实施例中,训练模块具体用于:
根据所述待训练的控制策略输出的第t+1时刻的动作以及环境参数,确定第t+1时刻的状态。
在一实施例中,所述环境参数根据预设的固定参数以及随机生成的扰动参数确定。
在一实施例中,训练模块还用于:
获取人体运动数据;
根据所述人体运动数据以及人体与机器人的映射关系,通过逆运动学得到关节角度,通过正运动学得到末端位置;
根据所述关节角度和所述末端位置生成所述参考数据集。
需要说明的是,上述装置/单元之间的信息交互、执行过程等内容,由于与本申请方法实施例基于同一构思,其具体功能及带来的技术效果,具体可参见方法实施例部分,此处不再赘述。
图4是本申请实施例提供的机器人的结构示意图。
如图4所示,该实施例的机器人包括:处理器11、存储器12以及存储在所述存储器12中并可在所述处理器11上运行的计算机程序13。所述处理器11执行所述计算机程序13时实现上述机器人控制方法实施例中的步骤,例如图1所示的步骤S101至S102。或者,所述处理器11执行所述计算机程序13时实现上述各装置实施例中各模块/单元的功能,例如图3所示输入模块31至控制模块32的功能。
示例性的,所述计算机程序13可以被分割成一个或多个模块/单元,所述一个或者多个模块/单元被存储在所述存储器12中,并由所述处理器11执行,以完成本申请。所述一个或多个模块/单元可以是能够完成特定功能的一系列计算机程序指令段,该指令段用于描述所述计算机程序13在所述机器人中的执行过程。
本领域技术人员可以理解,图4仅仅是机器人的示例,并不构成对机器人的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件,例如所述机器人还可以包括输入输出设备、网络接入设备、总线等。
所述处理器11可以是中央处理单元(Central Processing Unit,CPU),还可以是其他通用处理器、数字信号处理器(Digital Signal Processor,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现场可编程门阵列(Field-Programmable Gate Array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。
所述存储器12可以是所述机器人的内部存储单元,例如机器人的硬盘或内存。所述存储器12也可以是所述机器人的外部存储设备,例如所述机器人上配备的插接式硬盘,智能存储卡(Smart Media Card,SMC),安全数字(Secure Digital,SD)卡,闪存卡(FlashCard)等。进一步地,所述存储器12还可以既包括所述机器人的内部存储单元也包括外部存储设备。所述存储器12用于存储所述计算机程序以及所述机器人所需的其他程序和数据。所述存储器12还可以用于暂时地存储已经输出或者将要输出的数据。
所属领域的技术人员可以清楚地了解到,为了描述的方便和简洁,仅以上述各功能单元、模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能单元、模块完成,即将所述装置的内部结构划分成不同的功能单元或模块,以完成以上描述的全部或者部分功能。实施例中的各功能单元、模块可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中,上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。另外,各功能单元、模块的具体名称也只是为了便于相互区分,并不用于限制本申请的保护范围。上述系统中单元、模块的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
在上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述或记载的部分,可以参见其它实施例的相关描述。
在本申请所提供的实施例中,应该理解到,所揭露的装置/机器人和方法,可以通过其它的方式实现。例如,以上所描述的装置/机器人实施例仅仅是示意性的,例如,所述模块或单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通讯连接可以是通过一些接口,装置或单元的间接耦合或通讯连接,可以是电性,机械或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本申请各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
集成的模块/单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本申请实现上述实施例方法中的全部或部分流程,也可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一计算机可读存储介质中,该计算机程序在被处理器执行时,可实现上述各个方法实施例的步骤。其中,所述计算机程序包括计算机程序代码,所述计算机程序代码可以为源代码形式、对象代码形式、可执行文件或某些中间形式等。所述计算机可读介质可以包括:能够携带所述计算机程序代码的任何实体或装置、记录介质、U盘、移动硬盘、磁碟、光盘、计算机存储器、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,RandomAccess Memory)、电载波信号、电信信号以及软件分发介质等。
本领域普通技术人员可以意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、或者计算机软件和电子硬件的结合来实现。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本申请的范围。
以上所述实施例仅用以说明本申请的技术方案,而非对其限制;尽管参照前述实施例对本申请进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本申请各实施例技术方案的精神和范围,均应包含在本申请的保护范围之内。
Claims (10)
1.一种机器人控制方法,其特征在于,包括:
将机器人的当前状态和下一时刻的期望状态输入控制策略,得到所述控制策略输出的所述机器人在下一时刻的动作;所述控制策略的参数是利用风格奖励训练得到的,所述风格奖励通过对参考数据集进行学习得到,所述参考数据集根据人体运动数据得到;
根据所述下一时刻的动作控制所述机器人运动。
2.根据权利要求1所述的方法,其特征在于,所述方法还包括:
将第t时刻的状态以及第t+1时刻的期望状态输入待训练的控制策略,根据所述待训练的控制策略输出的第t+1时刻的动作确定第t+1时刻的状态;
将所述第t时刻的状态以及所述第t+1时刻的状态输入待训练的判别器,根据所述待训练的判别器的输出信息确定所述风格奖励,判别器的输出信息用于表示输入所述判别器的数据是否是所述参考数据集中的数据;
根据所述风格奖励优化所述待训练控制策略的参数,根据所述判别器的训练目标优化所述待训练的判别器的参数,直到满足预设结束条件,得到所述控制策略以及所述判别器;所述判别器的训练目标根据所述第t时刻的状态、所述第t+1时刻以及所述参考数据集得到。
3.根据权利要求2所述的方法,其特征在于,所述根据所述风格奖励优化所述待训练控制策略的参数,包括:
根据所述风格奖励以及任务奖励确定折扣回报,所述任务奖励根据所述第t时刻的状态以及所述第t+1时刻的期望状态确定;
根据所述折扣回报优化所述待训练控制策略的参数。
4.根据权利要求3所述的方法,其特征在于,所述根据所述风格奖励以及任务奖励确定折扣回报,包括:
根据所述任务奖励和所述风格奖励,以及所述任务奖励和所述风格奖励分别对应的权重,确定折扣回报。
5.根据权利要求2所述的方法,其特征在于,所述根据所述待训练的控制策略输出的第t+1时刻的动作确定第t+1时刻的状态,包括:
根据所述待训练的控制策略输出的第t+1时刻的动作以及环境参数,确定第t+1时刻的状态。
6.根据权利要求5所述的方法,其特征在于,所述环境参数根据预设的固定参数以及随机生成的扰动参数确定。
7.根据权利要求1所述的方法,其特征在于,所述方法还包括:
获取人体运动数据;
根据所述人体运动数据以及人体与机器人的映射关系,通过逆运动学得到关节角度,通过正运动学得到末端位置;
根据所述关节角度和所述末端位置生成所述参考数据集。
8.一种机器人控制装置,其特征在于,包括:
输入模块,用于将机器人的当前状态和下一时刻的期望状态输入控制策略,得到所述控制策略输出的所述机器人在下一时刻的动作;所述控制策略的参数是利用风格奖励训练得到的,所述风格奖励通过对参考数据集进行学习得到,所述参考数据集根据人体运动数据得到;
控制模块,用于根据所述下一时刻的动作控制所述机器人运动。
9.一种机器人,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现如权利要求1至7任一项所述的方法。
10.一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1至7任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311631726.0A CN117484506A (zh) | 2023-11-30 | 2023-11-30 | 机器人控制方法、装置、机器人及计算机可读存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311631726.0A CN117484506A (zh) | 2023-11-30 | 2023-11-30 | 机器人控制方法、装置、机器人及计算机可读存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN117484506A true CN117484506A (zh) | 2024-02-02 |
Family
ID=89682996
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202311631726.0A Pending CN117484506A (zh) | 2023-11-30 | 2023-11-30 | 机器人控制方法、装置、机器人及计算机可读存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN117484506A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117944055A (zh) * | 2024-03-26 | 2024-04-30 | 中科璀璨机器人(成都)有限公司 | 一种人形机器人四肢协同平衡控制方法及装置 |
-
2023
- 2023-11-30 CN CN202311631726.0A patent/CN117484506A/zh active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117944055A (zh) * | 2024-03-26 | 2024-04-30 | 中科璀璨机器人(成都)有限公司 | 一种人形机器人四肢协同平衡控制方法及装置 |
CN117944055B (zh) * | 2024-03-26 | 2024-06-11 | 中科璀璨机器人(成都)有限公司 | 一种人形机器人四肢协同平衡控制方法及装置 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110221611B (zh) | 一种轨迹跟踪控制方法、装置及无人驾驶车辆 | |
Huang et al. | Parameterized batch reinforcement learning for longitudinal control of autonomous land vehicles | |
US20210316447A1 (en) | Systems, devices, and methods for distributed artificial neural network computation | |
CN112119409B (zh) | 具有关系存储器的神经网络 | |
Cutler et al. | Autonomous drifting using simulation-aided reinforcement learning | |
EP3788549B1 (en) | Stacked convolutional long short-term memory for model-free reinforcement learning | |
US20220326664A1 (en) | Improved machine learning for technical systems | |
Wu et al. | Deep reinforcement learning on autonomous driving policy with auxiliary critic network | |
CN117484506A (zh) | 机器人控制方法、装置、机器人及计算机可读存储介质 | |
Pan et al. | Data-driven vehicle modeling of longitudinal dynamics based on a multibody model and deep neural networks | |
US20210263526A1 (en) | Method and device for supporting maneuver planning for an automated driving vehicle or a robot | |
CN114521262A (zh) | 使用因果正确环境模型来控制智能体 | |
CN114341895A (zh) | 使用超模型的探索 | |
CN113419424B (zh) | 减少过估计的模型化强化学习机器人控制方法及系统 | |
Zhu et al. | Vision-based control in the open racing car simulator with deep and reinforcement learning | |
Bae et al. | Curriculum learning for vehicle lateral stability estimations | |
Lazzaroni et al. | Deep reinforcement learning for automated car parking | |
US11834066B2 (en) | Vehicle control using neural network controller in combination with model-based controller | |
CN114967472A (zh) | 一种无人机轨迹跟踪状态补偿深度确定性策略梯度控制方法 | |
CN113219968B (zh) | 自动驾驶控制方法及装置 | |
Zhu et al. | Driving control with deep and reinforcement learning in the open racing car simulator | |
CN112700001A (zh) | 用于深度强化学习的认证对抗鲁棒性 | |
Wang et al. | An end-to-end deep reinforcement learning model based on proximal policy optimization algorithm for autonomous driving of off-road vehicle | |
CN117048639B (zh) | 一种车辆自适应路径控制方法、存储介质及计算机 | |
Werner | Development of a reinforcement learning method for fault-tolerant vehicle dynamics control |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |