CN114529010A - 一种机器人自主学习方法、装置、设备及存储介质 - Google Patents
一种机器人自主学习方法、装置、设备及存储介质 Download PDFInfo
- Publication number
- CN114529010A CN114529010A CN202210109610.XA CN202210109610A CN114529010A CN 114529010 A CN114529010 A CN 114529010A CN 202210109610 A CN202210109610 A CN 202210109610A CN 114529010 A CN114529010 A CN 114529010A
- Authority
- CN
- China
- Prior art keywords
- robot
- learning
- skill
- task
- adopting
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N5/00—Computing arrangements using knowledge-based models
- G06N5/04—Inference or reasoning models
Abstract
本发明公开一种机器人自主学习方法、装置、设备及存储介质,该方法包括:基于预先构建的虚拟环境,获取由虚拟环境自动生成的环境参数;根据环境参数,通过深度学习模型生成训练数据;根据训练数据,采用分层强化学习框架生成至少一个机器人技能;根据待执行任务确定机器人的状态空间,基于状态空间,采用变分推理方法预测待执行任务的潜在技能向量,潜在技能向量与至少一个机器人技能中的其中一个机器人技能具有一一对应的关系;根据机器人技能和潜在技能向量,采用强化学习算法获得用于完成待执行任务的机器人控制策略。本发明在面对不同类型的任务时,无需重复针对不同类型的任务对机器人进行技能训练,提高了机器人进行自主学习的泛化性。
Description
技术领域
本发明涉及智能机器人技术领域,尤其是涉及一种机器人自主学习方法、装置、设备及存储介质。
背景技术
传统的工业机器人对人类依赖度高,在学习过程中需要过多的人为干预,缺乏自主学习的能力,难以从事复杂的工作。而能够自主学习的智能机器人拥有与人类相似的感知能力、动作能力、理解能力和协同能力,能够自主地从感知的数据信息中学习技能,快速适应环境变化,从而能够从事复杂的工作。
现有的机器人自主学习方法通常需要依赖大量的训练数据,使机器人针对单一类型的工作任务进行技能模型的训练,当面对不同类型的工作任务时,技能模型往往无法有效地完成工作任务,需要针对当前类型的工作任务重新进行技能模型的训练,导致机器人进行自主学习的泛化性较差。
发明内容
本发明提供一种机器人自主学习方法、装置、设备及存储介质,能够在虚拟环境中随机生成训练数据,实现训练数据的多样性,能够根据该训练数据针对不同类型的任务对机器人进行技能训练,生成机器人技能,当面对不同类型的任务时,采用变分推理方法预测任务的潜在技能向量,然后根据训练生成的机器人技能,获得用于完成任务的机器人控制策略,无需重新针对当前类型的工作任务进行技能训练,提高了机器人进行自主学习的泛化性。
为了解决上述技术问题,本发明实施例第一方面提供一种机器人自主学习方法,包括:
基于预先构建的虚拟环境,获取由所述虚拟环境自动生成的环境参数;
根据所述环境参数,通过深度学习模型生成训练数据;
根据所述训练数据,采用分层强化学习框架生成至少一个机器人技能;
根据待执行任务确定机器人的状态空间,基于所述状态空间,采用变分推理方法预测所述待执行任务的潜在技能向量,其中,所述潜在技能向量与所述至少一个机器人技能中的其中一个机器人技能具有一一对应的关系;
根据所述机器人技能和所述潜在技能向量,采用强化学习算法获得用于完成所述待执行任务的机器人控制策略。
作为优选方案,所述方法还包括:
基于预先确定的用于表示虚拟环境的源域和用于表示现实环境的目标域,采用预设的神经网络模型学习从所述源域到所述目标域的映射情况,根据所述映射情况,获得所述源域和所述目标域之间的误差;
根据所述映射情况,采用所述神经网络模型更新所述源域的状态空间,以缩小所述源域和所述目标域之间的误差。
作为优选方案,所述方法还包括:
响应于用户输入的增量学习指令,根据所述增量学习指令中的增量学习信息对所述机器人控制策略进行更新。
作为优选方案,所述深度学习模型为生成式对抗网络模型;
则,所述根据所述环境参数,通过深度学习模型生成训练数据,具体包括:
根据所述环境参数,通过所述生成式对抗网络模型中的生成器获取所述环境参数的分布特性;
根据所述分布特性,通过所述生成器随机生成所述训练数据。
作为优选方案,所述分层强化学习框架包括上层决策模型和下层决策模型;
则,所述根据所述训练数据,采用分层强化学习框架生成至少一个机器人技能,具体包括:
根据所述训练数据,基于所述上层决策模型,通过MPC算法对每个时刻的任务序列进行规划;
基于所述下层决策模型,通过DQN算法对所述每个时刻的任务序列进行运动规划,生成所述至少一个机器人技能。
作为优选方案,所述方法具体通过如下步骤预先获取所述神经网络模型:
步骤S61,基于LSTM神经网络,获取所述目标域的初始状态;
步骤S62,将所述源域的状态设置为与所述目标域的初始状态相同;
步骤S63,按照预设的每个状态所对应的行为策略,分别在所述源域和所述目标域上,在所述源域的当前状态和所述目标域的当前状态执行动作采样,获得状态转换信息,其中,所述状态转换信息包括所述源域的下一个状态和所述目标域的下一个状态;
步骤S64,将所述源域的下一个状态设置为与所述目标域的下一个状态相同;
重复步骤S63至步骤S64,直至所述源域的所有状态均设置完毕,并将所有状态均设置完毕的LSTM神经网络作为所述神经网络模型。
作为优选方案,所述响应于用户输入的增量学习指令,根据所述增量学习指令中的增量学习信息对所述机器人控制策略进行更新,具体包括:
响应于所述增量学习指令,获取增量学习信息,其中,所述增量学习信息包括根据用户指示所形成的修正运动轨迹的初始位置信息、原始运动轨迹与所述修正运动轨迹相交的交点位置信息、所述修正运动轨迹的实时位置信息;
根据所述增量学习信息,通过如下公式对所述原始运动轨迹进行更新:
响应于用户输入的停止学习指令,根据所述新运动轨迹的末端在当前时刻的位置信息,对所述机器人控制策略进行更新。
本发明实施例第二方面提供了一种机器人自主学习装置,包括:
环境参数获取模块,用于基于预先构建的虚拟环境,获取由所述虚拟环境自动生成的环境参数;
训练数据生成模块,用于根据所述环境参数,通过深度学习模型生成训练数据;
机器人技能生成模块,用于根据所述训练数据,采用分层强化学习框架生成至少一个机器人技能;
潜在技能向量预测模块,用于根据待执行任务确定机器人的状态空间,基于所述状态空间,采用变分推理方法预测所述待执行任务的潜在技能向量,其中,所述潜在技能向量与所述至少一个机器人技能中的其中一个机器人技能具有一一对应的关系;
机器人控制策略获取模块,用于根据所述机器人技能和所述潜在技能向量,采用强化学习算法获得用于完成所述待执行任务的机器人控制策略。
本发明实施例第三方面提供一种机器人自主学习设备,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现如第一方面任一项所述的机器人自主学习方法。
本发明实施例第四方面提供一种计算机可读存储介质,所述计算机可读存储介质包括存储的计算机程序,其中,在所述计算机程序运行时控制所述计算机可读存储介质所在设备执行如第一方面任一项所述的机器人自主学习方法。
相比于现有技术,本发明实施例的有益效果在于,能够在虚拟环境中随机生成训练数据,实现训练数据的多样性,能够根据该训练数据针对不同类型的任务对机器人进行技能训练,生成机器人技能,当面对不同类型的任务时,采用变分推理方法预测任务的潜在技能向量,然后根据训练生成的机器人技能,获得用于完成任务的机器人控制策略,无需重新针对当前类型的工作任务进行技能训练,提高了机器人进行自主学习的泛化性。
附图说明
图1是本发明实施例提供的一种机器人自主学习方法的流程示意图;
图2是本发明实施例提供的一种机器人自主学习装置的结构示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
参见图1,本发明实施例第一方面提供一种机器人自主学习方法,包括步骤S1至步骤S5,具体如下:
步骤S1,基于预先构建的虚拟环境,获取由所述虚拟环境自动生成的环境参数。
需要说明的是,本发明实施例通过如Unity3D的仿真软件预先构建用于机器人训练的虚拟环境,由于在现实环境对机器人进行技能训练的成本非常高且耗时长,因此在虚拟环境中对机器人进行技能训练。基于该预先构建的虚拟环境,获取由该虚拟环境自动生成的环境参数,环境参数包括如几何、摩擦力、重力等的物理参数、各种观测噪声、重力因素、关节摩擦、观测的位置和方向。
步骤S2,根据所述环境参数,通过深度学习模型生成训练数据。
具体地,根据环境参数,通过深度学习模型捕捉环境参数中潜在的分布特性,并根据该分布特性随机生成训练数据。
步骤S3,根据所述训练数据,采用分层强化学习框架生成至少一个机器人技能。
需要说明的是,为了解决稀疏奖励的问题,本发明根据步骤S2生成的训练数据,采用分层强化学习框架生成至少一个机器人技能,这里的机器人技能可以理解为机器人用于执行单一类型的简单任务时所需的低级技能。
步骤S4,根据待执行任务确定机器人的状态空间,基于所述状态空间,采用变分推理方法预测所述待执行任务的潜在技能向量,其中,所述潜在技能向量与所述至少一个机器人技能中的其中一个机器人技能具有一一对应的关系。
需要说明的是,本发明实施例采用状态空间对机器人的待执行任务进行描述,机器人协调过程可视为状态空间S到动作空间A的映射。在多任务场景中,使用集合K={1,...,I}预先定义一组机器人技能的序号,每项机器人技能的奖赏函数为r(s,a)。由于在多任务场景中,需要使用到多个机器人技能才能够完成待执行的任务,因此需要预测待执行任务的潜在技能向量,以根据潜在技能向量生成用于完成待执行任务的机器人控制策略。根据待执行任务确定机器人的状态空间,基于状态空间,采用变分推理方法预测待执行任务的潜在技能向量,其中,潜在技能向量与所有机器人技能中的其中一个机器人技能具有一一对应的关系。
值得说明的是,本发明实施例采用的变分推理方法由策略梯度的强化学习部分、推理部分和模型预测控制部分组成。对于强化学习部分的训练,使用近端策略优化算法来训练强化学习的策略和嵌入网络,使用多元高斯分布来表示策略、嵌入和推理函数,再通过多层感知器的输出参数化实现其平均和对角协方差。最后,利用强化学习算法对策略分布和嵌入分布进行联合优化,同时利用监督学习和交叉熵损失函数对推理函数分布进行训练,最终获得潜在技能向量序列。为了辅助学习待执行任务的潜在技能向量,推理函数采用变分推理方法的思想,用简单的分布函数加以逼近,对潜在技能向量进行预测。此外,推理函数可以使用交叉熵或者KL散度(Kullback-Leibler divergence)来衡量后验分布和简单分布函数之间的差异。在机器人执行机器人控制策略以完成任务之前,使用MPC(模型预测控制)方法对潜在技能向量进行在线仿真,以对模拟中的潜在技能向量进行评估。
步骤S5,根据所述机器人技能和所述潜在技能向量,采用强化学习算法获得用于完成所述待执行任务的机器人控制策略。
采用本发明实施例提供的一种机器人自主学习方法,能够在虚拟环境中随机生成训练数据,实现训练数据的多样性,能够根据该训练数据针对不同类型的任务对机器人进行技能训练,生成机器人技能,当面对不同类型的任务时,采用变分推理方法预测任务的潜在技能向量,然后根据训练生成的机器人技能,获得用于完成任务的机器人控制策略,无需重新针对当前类型的工作任务进行技能训练,提高了机器人进行自主学习的泛化性。
作为优选方案,所述方法还包括:
基于预先确定的用于表示虚拟环境的源域和用于表示现实环境的目标域,采用预设的神经网络模型学习从所述源域到所述目标域的映射情况,根据所述映射情况,获得所述源域和所述目标域之间的误差;
根据所述映射情况,采用所述神经网络模型更新所述源域的状态空间,以缩小所述源域和所述目标域之间的误差。
需要说明的是,为了解决虚拟环境由于建模误差而导致与现实环境存在误差的问题,通过域适应方法,能够学习从虚拟环境到现实环境的映射情况。虚拟环境作为源域,表示为Ds,现实环境作为目标域,表示为Dt,每个域可以由一个马尔科夫决策过程<S,A,p,r,γ>表示,其中S表示状态空间,A表示动作空间,p表示环境转移概率,r表示奖励值,γ表示衰减系数。在假设Ds和Dt共享相同的动作空间A的条件下,由于存在虚拟环境与现实环境之间存在误差,即使两个域在结构上相似,但产生的奖励r也有可能不同。因此本发明实施例基于预先确定的用于表示虚拟环境的源域和用于表示现实环境的目标域,采用预设的神经网络模型学习从源域到目标域的映射情况,根据映射情况,获得源域和目标域之间的误差;根据映射情况,采用该神经网络模型更新源域的状态空间,以缩小源域和目标域之间的误差,使得在源域当中的模拟对象的运动轨迹逼近在目标域当中的机器人的运动轨迹,从而提高在源域中的模拟质量。
作为优选方案,所述方法还包括:
响应于用户输入的增量学习指令,根据所述增量学习指令中的增量学习信息对所述机器人控制策略进行更新。
需要说明的是,由于机器人在自主学习后仍可能出现生成的机器人控制策略无法适应当前的待执行任务,从而导致无法完成任务,因此本发明实施例能够响应于用户输入的增量学习指令,通过用户的干预对机器人控制策略进行更新,从而实现增量学习的目的。通过预先设置在外界的传感器采集用户的指示信息,如手势信息和语音信息,经过对用户的指示信息进行处理,转化为增量学习指令,响应于该用户输入的增量学习指令,根据增量学习指令中的增量学习信息对机器人控制策略进行更新。
作为优选方案,所述深度学习模型为生成式对抗网络模型;
则,所述根据所述环境参数,通过深度学习模型生成训练数据,具体包括:
根据所述环境参数,通过所述生成式对抗网络模型中的生成器获取所述环境参数的分布特性;
根据所述分布特性,通过所述生成器随机生成所述训练数据。
需要说明的是,生成对抗网络模型主要由生成器和判别器组成,生成器能够捕捉环境参数中潜在的分布特性,并根据该分布特性随机生成训练数据;判别器用于判断输入数据是真实的采集数据还是生成的虚拟数据。在对生成对抗网络模型进行训练的过程中,可对生成器和判别器设定相应的损失函数,利用反向传播算法对模型的参数进行更新,直至收敛至纳什均衡。
作为优选方案,所述分层强化学习框架包括上层决策模型和下层决策模型;
则,所述根据所述训练数据,采用分层强化学习框架生成至少一个机器人技能,具体包括:
根据所述训练数据,基于所述上层决策模型,通过MPC算法对每个时刻的任务序列进行规划;
基于所述下层决策模型,通过DQN算法对所述每个时刻的任务序列进行运动规划,生成所述至少一个机器人技能。
需要说明的是,对于任务过程中的每个时刻,分层强化学习框架根据当前机器人状态下的任务序列选择一个机器人的动作,然后转换到新的状态,并获得动作策略的奖励,动作策略即为在某一状态下动作序列上的概率分布。根据生成对抗网络模型所生成的训练数据,基于上层决策模型,通过MPC(Model Predictive Control,模型预测控制)算法对每个时刻的任务序列进行规划;基于所述下层决策模型,通过DQN(Deep Q-LearningNetwork,深度Q学习网络)算法对所述每个时刻的任务序列进行运动规划,生成所述至少一个机器人技能。
以装配部件任务为例,针对上层决策过程,通过MPC(Model Predictive Control,模型预测控制)算法的思想,在当前状态下遍历每一个可能的动作,尝试选择每一个可选的装配部件,对每一个动作进行前向模拟,对装配部件进行规划直至装配部件任务的终点;针对下层决策过程,根据上层决策获得的装配部件序列,通过DQN(Deep Q-LearningNetwork,深度Q学习网络)算法对当前状态下进行运动规划,根据当前状态的图像,计算当前状态的图像与目标构型之间的差异,确保快速安全地到达对应位置,完成装配部件任务。其中,本发明实施例通过DQN(Deep Q-Learning Network,深度Q学习网络)算法预先学习特定状态下每个动作对应的目标函数,在对装配部件的数据进行采集完毕后,采用梯度下降算法优化每个动作对应的目标函数。
作为优选方案,所述方法具体通过如下步骤预先获取所述神经网络模型:
步骤S61,基于LSTM神经网络,获取所述目标域的初始状态;
步骤S62,将所述源域的状态设置为与所述目标域的初始状态相同;
步骤S63,按照预设的每个状态所对应的行为策略,分别在所述源域和所述目标域上,在所述源域的当前状态和所述目标域的当前状态执行动作采样,获得状态转换信息,其中,所述状态转换信息包括所述源域的下一个状态和所述目标域的下一个状态;
步骤S64,将所述源域的下一个状态设置为与所述目标域的下一个状态相同;
重复步骤S63至步骤S64,直至所述源域的所有状态均设置完毕,并将所有状态均设置完毕的LSTM神经网络作为所述神经网络模型。
作为优选方案,所述响应于用户输入的增量学习指令,根据所述增量学习指令中的增量学习信息对所述机器人控制策略进行更新,具体包括:
响应于所述增量学习指令,获取增量学习信息,其中,所述增量学习信息包括根据用户指示所形成的修正运动轨迹的初始位置信息、原始运动轨迹与所述修正运动轨迹相交的交点位置信息、所述修正运动轨迹的实时位置信息;
根据所述增量学习信息,通过如下公式对所述原始运动轨迹进行更新:
响应于用户输入的停止学习指令,根据所述新运动轨迹的末端在当前时刻的位置信息,对所述机器人控制策略进行更新。
值得说明的是,当用户输入增量学习指令,并开始对原始运动轨迹进行修正时,机器人的末端执行器能够感应到当前用户对原始运动轨迹进行修正,从而获得原始运动轨迹与修正运动轨迹相交的交点位置信息,修正运动轨迹即为用户进行示范所形成的运动轨迹,进一步地,通过公式获得实时更新的新运动轨迹,新运动轨迹即为原始运动轨迹从与修正运动轨迹相交的交点开始,与修正运动轨迹相接的运动轨迹。当接收到用户输入的停止学习指令时,响应于该停止学习指令,通过机器人的末端执行器获取新运动轨迹的末端在当前时刻的位置信息,即为新运动轨迹的最后一个位置点,然后从该新运动轨迹的最后一个位置点开始,执行原始运动轨迹的剩余位置点,直至完成任务,从而实现对机器人控制策略进行更新。
采用本发明实施例提供的一种机器人自主学习方法,能够在虚拟环境中随机生成训练数据,实现训练数据的多样性,能够根据该训练数据针对不同类型的任务对机器人进行技能训练,生成机器人技能,当面对不同类型的任务时,采用变分推理方法预测任务的潜在技能向量,然后根据训练生成的机器人技能,获得用于完成任务的机器人控制策略,无需重新针对当前类型的工作任务进行技能训练,提高了机器人进行自主学习的泛化性。此外,通过神经网络模型缩小虚拟环境和现实环境之间的误差,从而提升机器人进行自主学习的效果,能够响应于用户的增量学习指令,对机器人控制策略进行更新,进一步提高了机器人进行自主学习的泛化性。
参见图2,本发明实施例第二方面提供一种机器人自主学习装置,包括:
环境参数获取模块201,用于基于预先构建的虚拟环境,获取由所述虚拟环境自动生成的环境参数;
训练数据生成模块202,用于根据所述环境参数,通过深度学习模型生成训练数据;
机器人技能生成模块203,用于根据所述训练数据,采用分层强化学习框架生成至少一个机器人技能;
潜在技能向量预测模块204,用于根据待执行任务确定机器人的状态空间,基于所述状态空间,采用变分推理方法预测所述待执行任务的潜在技能向量,其中,所述潜在技能向量与所述至少一个机器人技能中的其中一个机器人技能具有一一对应的关系;
机器人控制策略获取模块205,用于根据所述机器人技能和所述潜在技能向量,采用强化学习算法获得用于完成所述待执行任务的机器人控制策略。
作为优选方案,所述装置还包括源域状态更新模块206,用于:
基于预先确定的用于表示虚拟环境的源域和用于表示现实环境的目标域,采用预设的神经网络模型学习从所述源域到所述目标域的映射情况,根据所述映射情况,获得所述源域和所述目标域之间的误差;
根据所述映射情况,采用所述神经网络模型更新所述源域的状态空间,以缩小所述源域和所述目标域之间的误差。
作为优选方案,所述装置还包括增量学习模块207,用于:
响应于用户输入的增量学习指令,根据所述增量学习指令中的增量学习信息对所述机器人控制策略进行更新。
作为优选方案,所述深度学习模型为生成式对抗网络模型;
则,所述训练数据生成模块202用于根据所述环境参数,通过深度学习模型生成训练数据,具体包括:
根据所述环境参数,通过所述生成式对抗网络模型中的生成器获取所述环境参数的分布特性;
根据所述分布特性,通过所述生成器随机生成所述训练数据。
作为优选方案,所述分层强化学习框架包括上层决策模型和下层决策模型;
则,所述机器人技能生成模块203用于根据所述训练数据,采用分层强化学习框架生成至少一个机器人技能,具体包括:
根据所述训练数据,基于所述上层决策模型,通过MPC算法对每个时刻的任务序列进行规划;
基于所述下层决策模型,通过DQN算法对所述每个时刻的任务序列进行运动规划,生成所述至少一个机器人技能。
作为优选方案,所述装置还包括神经网络模型获取模块208,具体用于如下步骤:
步骤S61,基于LSTM神经网络,获取所述目标域的初始状态;
步骤S62,将所述源域的状态设置为与所述目标域的初始状态相同;
步骤S63,按照预设的每个状态所对应的行为策略,分别在所述源域和所述目标域上,在所述源域的当前状态和所述目标域的当前状态执行动作采样,获得状态转换信息,其中,所述状态转换信息包括所述源域的下一个状态和所述目标域的下一个状态;
步骤S64,将所述源域的下一个状态设置为与所述目标域的下一个状态相同;
重复步骤S63至步骤S64,直至所述源域的所有状态均设置完毕,并将所有状态均设置完毕的LSTM神经网络作为所述神经网络模型。
作为优选方案,所述增量学习模块207用于响应于用户输入的增量学习指令,根据所述增量学习指令中的增量学习信息对所述机器人控制策略进行更新,具体包括:
响应于所述增量学习指令,获取增量学习信息,其中,所述增量学习信息包括根据用户指示所形成的修正运动轨迹的初始位置信息、原始运动轨迹与所述修正运动轨迹相交的交点位置信息、所述修正运动轨迹的实时位置信息;
根据所述增量学习信息,通过如下公式对所述原始运动轨迹进行更新:
响应于用户输入的停止学习指令,根据所述新运动轨迹的末端在当前时刻的位置信息,对所述机器人控制策略进行更新。
需要说明的是,本发明实施例所提供的一种机器人自主学习装置,能够实现上述任一实施例所述的机器人自主学习方法的所有流程,装置中的各个模块的作用以及实现的技术效果分别与上述实施例所述的机器人自主学习方法的作用以及实现的技术效果对应相同,这里不再赘述。
本发明实施例第三方面提供一种机器人自主学习设备,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现如第一方面任一实施例所述的机器人自主学习方法。
所述终端设备可以是桌上型计算机、笔记本、掌上电脑及云端服务器等计算设备。所述终端设备可包括,但不仅限于,处理器、存储器。所述终端设备还可以包括输入输出设备、网络接入设备、总线等。
所称处理器可以是中央处理单元(Central Processing Unit,CPU),还可以是其他通用处理器、数字信号处理器(Digital Signal Processor,DSP)、专用集成电路(ApplicationSpecific Integrated Circuit,ASIC)、现场可编程门阵列(Field-Programmable Gate Array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等,所述处理器是所述终端设备的控制中心,利用各种接口和线路连接整个终端设备的各个部分。
所述存储器可用于存储所述计算机程序和/或模块,所述处理器通过运行或执行存储在所述存储器内的计算机程序和/或模块,以及调用存储在存储器内的数据,实现所述终端设备的各种功能。所述存储器可主要包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需的应用程序(比如声音播放功能、图像播放功能等)等;存储数据区可存储根据手机的使用所创建的数据(比如音频数据、电话本等)等。此外,存储器可以包括高速随机存取存储器,还可以包括非易失性存储器,例如硬盘、内存、插接式硬盘,智能存储卡(Smart Media Card,SMC),安全数字(Secure Digital,SD)卡,闪存卡(Flash Card)、至少一个磁盘存储器件、闪存器件、或其他易失性固态存储器件。
本发明实施例第四方面提供一种计算机可读存储介质,所述计算机可读存储介质包括存储的计算机程序,其中,在所述计算机程序运行时控制所述计算机可读存储介质所在设备执行如第一方面任一实施例所述的机器人自主学习方法。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到本发明可借助软件加必需的硬件平台的方式来实现,当然也可以全部通过硬件来实施。基于这样的理解,本发明的技术方案对背景技术做出贡献的全部或者部分可以以软件产品的形式体现出来,该计算机软件产品可以存储在存储介质中,如ROM/RAM、磁碟、光盘等,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施例或者实施例的某些部分所述的方法。
以上所述是本发明的优选实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也视为本发明的保护范围。
Claims (10)
1.一种机器人自主学习方法,其特征在于,包括:
基于预先构建的虚拟环境,获取由所述虚拟环境自动生成的环境参数;
根据所述环境参数,通过深度学习模型生成训练数据;
根据所述训练数据,采用分层强化学习框架生成至少一个机器人技能;
根据待执行任务确定机器人的状态空间,基于所述状态空间,采用变分推理方法预测所述待执行任务的潜在技能向量,其中,所述潜在技能向量与所述至少一个机器人技能中的其中一个机器人技能具有一一对应的关系;
根据所述机器人技能和所述潜在技能向量,采用强化学习算法获得用于完成所述待执行任务的机器人控制策略。
2.如权利要求1所述的机器人自主学习方法,其特征在于,所述方法还包括:
基于预先确定的用于表示虚拟环境的源域和用于表示现实环境的目标域,采用预设的神经网络模型学习从所述源域到所述目标域的映射情况,根据所述映射情况,获得所述源域和所述目标域之间的误差;
根据所述映射情况,采用所述神经网络模型更新所述源域的状态空间,以缩小所述源域和所述目标域之间的误差。
3.如权利要求2所述的机器人自主学习方法,其特征在于,所述方法还包括:
响应于用户输入的增量学习指令,根据所述增量学习指令中的增量学习信息对所述机器人控制策略进行更新。
4.如权利要求3所述的机器人自主学习方法,其特征在于,所述深度学习模型为生成式对抗网络模型;
则,所述根据所述环境参数,通过深度学习模型生成训练数据,具体包括:
根据所述环境参数,通过所述生成式对抗网络模型中的生成器获取所述环境参数的分布特性;
根据所述分布特性,通过所述生成器随机生成所述训练数据。
5.如权利要求4所述的机器人自主学习方法,其特征在于,所述分层强化学习框架包括上层决策模型和下层决策模型;
则,所述根据所述训练数据,采用分层强化学习框架生成至少一个机器人技能,具体包括:
根据所述训练数据,基于所述上层决策模型,通过MPC算法对每个时刻的任务序列进行规划;
基于所述下层决策模型,通过DQN算法对所述每个时刻的任务序列进行运动规划,生成所述至少一个机器人技能。
6.如权利要求5所述的机器人自主学习方法,其特征在于,所述方法具体通过如下步骤预先获取所述神经网络模型:
步骤S61,基于LSTM神经网络,获取所述目标域的初始状态;
步骤S62,将所述源域的状态设置为与所述目标域的初始状态相同;
步骤S63,按照预设的每个状态所对应的行为策略,分别在所述源域和所述目标域上,在所述源域的当前状态和所述目标域的当前状态执行动作采样,获得状态转换信息,其中,所述状态转换信息包括所述源域的下一个状态和所述目标域的下一个状态;
步骤S64,将所述源域的下一个状态设置为与所述目标域的下一个状态相同;
重复步骤S63至步骤S64,直至所述源域的所有状态均设置完毕,并将所有状态均设置完毕的LSTM神经网络作为所述神经网络模型。
7.如权利要求6所述的机器人自主学习方法,其特征在于,所述响应于用户输入的增量学习指令,根据所述增量学习指令中的增量学习信息对所述机器人控制策略进行更新,具体包括:
响应于所述增量学习指令,获取增量学习信息,其中,所述增量学习信息包括根据用户指示所形成的修正运动轨迹的初始位置信息、原始运动轨迹与所述修正运动轨迹相交的交点位置信息、所述修正运动轨迹的实时位置信息;
根据所述增量学习信息,通过如下公式对所述原始运动轨迹进行更新:
响应于用户输入的停止学习指令,根据所述新运动轨迹的末端在当前时刻的位置信息,对所述机器人控制策略进行更新。
8.一种机器人自主学习装置,其特征在于,包括:
环境参数获取模块,用于基于预先构建的虚拟环境,获取由所述虚拟环境自动生成的环境参数;
训练数据生成模块,用于根据所述环境参数,通过深度学习模型生成训练数据;
机器人技能生成模块,用于根据所述训练数据,采用分层强化学习框架生成至少一个机器人技能;
潜在技能向量预测模块,用于根据待执行任务确定机器人的状态空间,基于所述状态空间,采用变分推理方法预测所述待执行任务的潜在技能向量,其中,所述潜在技能向量与所述至少一个机器人技能中的其中一个机器人技能具有一一对应的关系;
机器人控制策略获取模块,用于根据所述机器人技能和所述潜在技能向量,采用强化学习算法获得用于完成所述待执行任务的机器人控制策略。
9.一种机器人自主学习设备,其特征在于,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现如权利要求1至7任一项所述的机器人自主学习方法。
10.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质包括存储的计算机程序,其中,在所述计算机程序运行时控制所述计算机可读存储介质所在设备执行如权利要求1至7任一项所述的机器人自主学习方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210109610.XA CN114529010A (zh) | 2022-01-28 | 2022-01-28 | 一种机器人自主学习方法、装置、设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210109610.XA CN114529010A (zh) | 2022-01-28 | 2022-01-28 | 一种机器人自主学习方法、装置、设备及存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114529010A true CN114529010A (zh) | 2022-05-24 |
Family
ID=81623219
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210109610.XA Pending CN114529010A (zh) | 2022-01-28 | 2022-01-28 | 一种机器人自主学习方法、装置、设备及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114529010A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116542310A (zh) * | 2023-07-01 | 2023-08-04 | 帕西尼感知科技(张家港)有限公司 | 一种机器人的模型训练、运动指令预测方法、装置及系统 |
-
2022
- 2022-01-28 CN CN202210109610.XA patent/CN114529010A/zh active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116542310A (zh) * | 2023-07-01 | 2023-08-04 | 帕西尼感知科技(张家港)有限公司 | 一种机器人的模型训练、运动指令预测方法、装置及系统 |
CN116542310B (zh) * | 2023-07-01 | 2023-09-22 | 帕西尼感知科技(张家港)有限公司 | 一种机器人的模型训练、运动指令预测方法、装置及系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112119409B (zh) | 具有关系存储器的神经网络 | |
US20220363259A1 (en) | Method for generating lane changing decision-making model, method for lane changing decision-making of unmanned vehicle and electronic device | |
Whitney et al. | Reducing errors in object-fetching interactions through social feedback | |
US20220171907A1 (en) | Creation of digital twin of the interaction among parts of the physical system | |
US11627165B2 (en) | Multi-agent reinforcement learning with matchmaking policies | |
EP3788549B1 (en) | Stacked convolutional long short-term memory for model-free reinforcement learning | |
CN111144580B (zh) | 一种基于模仿学习的层级强化学习训练方法和装置 | |
US20160096272A1 (en) | Apparatus and methods for training of robots | |
KR102577188B1 (ko) | 목표 시스템에 대한 제어 시스템 생성 | |
Hafez et al. | Improving robot dual-system motor learning with intrinsically motivated meta-control and latent-space experience imagination | |
Hafez et al. | Efficient intrinsically motivated robotic grasping with learning-adaptive imagination in latent space | |
CN114529010A (zh) | 一种机器人自主学习方法、装置、设备及存储介质 | |
Krug et al. | Representing movement primitives as implicit dynamical systems learned from multiple demonstrations | |
CN111191399B (zh) | 机器鱼的控制方法、装置、设备及存储介质 | |
Rottmann et al. | Adaptive autonomous control using online value iteration with gaussian processes | |
CN116968024A (zh) | 获取用于生成形封闭抓取位姿的控制策略的方法、计算设备和介质 | |
Kwon et al. | SSPQL: stochastic shortest path-based Q-learning | |
CN115421387B (zh) | 一种基于逆强化学习的可变阻抗控制系统及控制方法 | |
Michaud et al. | Representation of behavioral history for learning in nonstationary conditions | |
Blinov et al. | Deep q-learning algorithm for solving inverse kinematics of four-link manipulator | |
Liu et al. | Robotic cognitive behavior control based on biology-inspired episodic memory | |
KR20230079804A (ko) | 상태 전이를 선형화하는 강화 학습에 기반한 전자 장치 및 그 방법 | |
Kaur et al. | Learning robotic skills through reinforcement learning | |
Zhao et al. | A robot demonstration method based on LWR and Q-learning algorithm | |
Martinson et al. | Improving success and efficiency of underwater autonomous tasks through dynamic re-planning and episodic reasoning |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |