CN116197909A - 机械臂抓取模型的训练方法、装置、电子设备及存储介质 - Google Patents

机械臂抓取模型的训练方法、装置、电子设备及存储介质 Download PDF

Info

Publication number
CN116197909A
CN116197909A CN202310234468.6A CN202310234468A CN116197909A CN 116197909 A CN116197909 A CN 116197909A CN 202310234468 A CN202310234468 A CN 202310234468A CN 116197909 A CN116197909 A CN 116197909A
Authority
CN
China
Prior art keywords
information
mechanical arm
grabbed
model
state information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202310234468.6A
Other languages
English (en)
Inventor
王俊伟
尚鹏
王通
吴继鹏
苏栋楠
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenzhen Institute of Advanced Technology of CAS
Original Assignee
Shenzhen Institute of Advanced Technology of CAS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shenzhen Institute of Advanced Technology of CAS filed Critical Shenzhen Institute of Advanced Technology of CAS
Priority to CN202310234468.6A priority Critical patent/CN116197909A/zh
Publication of CN116197909A publication Critical patent/CN116197909A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1628Programme controls characterised by the control loop
    • B25J9/163Programme controls characterised by the control loop learning, adaptive, model based, rule based expert control
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02PCLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
    • Y02P90/00Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
    • Y02P90/02Total factory control, e.g. smart factories, flexible manufacturing systems [FMS] or integrated manufacturing systems [IMS]

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

本发明公开了一种机械臂抓取模型的训练方法、装置、电子设备及存储介质。该方法包括:获取机械臂待抓取物体的环境状态信息;将所述机械臂待抓取物体的环境状态信息输入至预先构建的分段式奖励函数,得到奖励信息;基于所述机械臂待抓取物体的环境状态信息、所述机械臂待抓取物体的环境状态信息对应的动作信息和所述奖励信息对待训练模型进行训练,得到机械臂抓取模型。上述技术方案,通过分段式奖励函数确定奖励信息,可以有效避免稀疏奖励的问题,从而提升机械臂抓取模型的训练效果,进而提升使用机械臂抓取模型抓取物体的成功率。

Description

机械臂抓取模型的训练方法、装置、电子设备及存储介质
技术领域
本发明涉及机器视觉技术领域,尤其涉及一种机械臂抓取模型的训练方法、装置、电子设备及存储介质。
背景技术
随着人工智能技术的发展,相关智能机器人遍布各行各业。其对提高工业生产效率、降低生成成本以及提高产品质量发挥着至关重要的作用。
现有技术中,已经将强化学习引入到了机械臂的控制和规划当中,使机械臂在与环境的交互过程中,具有一定的识别、判断、比较、鉴别、记忆和自行调整能力。
目前,强化学习在环境奖励上存在稀疏奖励的问题,即当机械臂在抓取物体失败时,获得的奖励一直为0,无法获得正向奖励来提升机械臂的抓取策略,导致机械臂抓取模型的训练效果差,以及在使用机械臂抓取模型进行物体抓取时抓取成功率低。
发明内容
本发明提供了一种机械臂抓取模型的训练方法、装置、电子设备及存储介质,以提升机械臂抓取模型的训练精度,从而提升使用机械臂抓取模型进行物体抓取的成功率。
根据本发明的一方面,提供了一种机械臂抓取模型的训练方法,包括:
获取机械臂待抓取物体的环境状态信息;
将所述机械臂待抓取物体的环境状态信息输入至预先构建的分段式奖励函数,得到奖励信息;
基于所述机械臂待抓取物体的环境状态信息、所述机械臂待抓取物体的环境状态信息对应的动作信息和所述奖励信息对待训练模型进行训练,得到机械臂抓取模型。
根据本发明的另一方面,提供了一种机械臂抓取模型的训练装置,包括:
环境状态信息获取模块,用于获取机械臂待抓取物体的环境状态信息;
奖励信息确定模块,用于将所述机械臂待抓取物体的环境状态信息输入至预先构建的分段式奖励函数,得到奖励信息;
抓取模型训练模块,用于基于所述机械臂待抓取物体的环境状态信息、所述机械臂待抓取物体的环境状态信息对应的动作信息和所述奖励信息对待训练模型进行训练,得到机械臂抓取模型。
根据本发明的另一方面,提供了一种电子设备,所述电子设备包括:
至少一个处理器;
以及与所述至少一个处理器通信连接的存储器;
其中,所述存储器存储有可被所述至少一个处理器执行的计算机程序,所述计算机程序被所述至少一个处理器执行,以使所述至少一个处理器能够执行本发明任一实施例所述的机械臂抓取模型的训练方法。
根据本发明的另一方面,提供了一种计算机可读存储介质,所述计算机可读存储介质存储有计算机指令,所述计算机指令用于使处理器执行时实现本发明任一实施例所述的机械臂抓取模型的训练方法。
本发明实施例的技术方案,通过获取机械臂待抓取物体的环境状态信息,进而将机械臂待抓取物体的环境状态信息输入至预先构建的分段式奖励函数,得到奖励信息,进而基于机械臂待抓取物体的环境状态信息、机械臂待抓取物体的环境状态信息对应的动作信息和奖励信息对待训练模型进行训练,得到机械臂抓取模型。上述技术方案,通过分段式奖励函数确定奖励信息,可以有效避免稀疏奖励的问题,从而提升机械臂抓取模型的训练效果,进而提升使用机械臂抓取模型抓取物体的成功率。
应当理解,本部分所描述的内容并非旨在标识本发明的实施例的关键或重要特征,也不用于限制本发明的范围。本发明的其它特征将通过以下的说明书而变得容易理解。
附图说明
为了更清楚地说明本发明实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是根据本发明实施例一提供的一种机械臂抓取模型的训练方法的流程图;
图2是根据本发明实施例二提供的一种机械臂抓取模型的训练方法的流程图;
图3是根据本发明实施例三提供的一种机械臂抓取模型的训练方法的流程图;
图4是根据本发明实施例三提供的一种待训练网络的结构示意图;
图5是根据本发明实施例三提供的一种模型仿真的结果示意图;
图6是根据本发明实施例四提供的一种机械臂抓取模型的训练装置的结构示意图;
图7是实现本发明实施例的机械臂抓取模型的训练方法的电子设备的结构示意图。
具体实施方式
为了使本技术领域的人员更好地理解本发明方案,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分的实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都应当属于本发明保护的范围。
需要说明的是,本发明的说明书和权利要求书及上述附图中的术语“第一”、“第二”等是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的本发明的实施例能够以除了在这里图示或描述的那些以外的顺序实施。此外,术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元的过程、方法、系统、产品或设备不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。
实施例一
图1为本发明实施例一提供的一种机械臂抓取模型的训练方法的流程图,本实施例可适用于基于视觉的强化学习的机械臂抓取模型训练的情况,该方法可以由机械臂抓取模型的训练装置来执行,该机械臂抓取模型的训练装置可以采用硬件和/或软件的形式实现,该机械臂抓取模型的训练装置可配置于计算机终端和/或服务器中。如图1所示,该方法包括:
S110、获取机械臂待抓取物体的环境状态信息。
本实施例中,环境状态信息(State)是指代理在当前环境中所处的状态,可以包括但不限于图像长度、图像宽度和RGB(Red Green Blue)颜色。
具体的,可以从电子设备的预设存储位置获取机械臂待抓取物体的环境状态信息;或者,可以从与电子设备相连接的其他电子设备获取机械臂待抓取物体的环境状态信息,其他电子设备可以为设置在机械臂上的摄像头等。
S120、将所述机械臂待抓取物体的环境状态信息输入至预先构建的分段式奖励函数,得到奖励信息。
本实施例中,分段式奖励函数为根据抓取距离设计的分段式的奖励函数,可以用于确定所采取动作的奖励。奖励信息(Reward)为在环境状态下采取动作的奖励。
在一些实施例中,分段式奖励函数可以由两个奖励子函数构成;在一些实施例中,分段式奖励函数还可以由两个以上奖励子函数构成,在本实施例中不做限定。
需要说明的是,与现有稀疏奖励相比,分段式奖励函数可以提供精细划分的奖励,以提升机械臂的抓取策略,从而提升机械臂抓取模型的训练效果。
S130、基于所述机械臂待抓取物体的环境状态信息、所述机械臂待抓取物体的环境状态信息对应的动作信息和所述奖励信息对待训练模型进行训练,得到机械臂抓取模型。
本实施例中,动作信息(Action)为代理在环境状态下可以采取的动作。
具体的,可以将多个环境状态信息、多个环境状态信息对应的动作信息以及多个环境状态信息对应的奖励信息作为待训练模型的模型训练样本,进而根据模型训练样本对待训练模型进行训练,直至满足待训练模型停止训练条件,得到机械臂抓取模型。
在上述各实施例的基础上,可选的,在基于机械臂待抓取物体的环境状态信息、机械臂待抓取物体的环境状态信息对应的动作信息和奖励信息对待训练模型进行训练,得到机械臂抓取模型之后,还包括:获取机械臂待抓取物体的真实环境状态信息;将机械臂待抓取物体的真实环境状态信息输入至机械臂抓取模型,以完成待抓取物体的抓取动作。
其中,真实环境状态信息是指真实的机械臂所采集到的环境状态信息。
示例性的,将训练完成的机械抓取模型保存,并迁移部署至真实的机械臂中,真实的机械臂可以获取机械臂待抓取物体的真实环境状态信息,进而将机械臂待抓取物体的真实环境状态信息输入至机械臂抓取模型中,以控制真实的机械臂完成抓取物体的动作。
本发明实施例的技术方案,通过分段式奖励函数确定奖励信息,可以有效避免稀疏奖励的问题,从而提升机械臂抓取模型的训练效果,进而提升使用机械臂抓取模型抓取物体的成功率。
实施例二
图2为本发明实施例二提供的一种机械臂抓取模型的训练方法的流程图,本实施例的方法与上述实施例中提供的机械臂抓取模型的训练方法中各个可选方案可以结合。本实施例提供的机械臂抓取模型的训练方法进行了进一步优化。可选的,所述分段式奖励函数包括渐进奖励函数和抓取奖励函数;相应的,所述将所述机械臂待抓取物体的环境状态信息输入至预先构建的分段式奖励函数,得到奖励信息,包括:将所述机械臂待抓取物体的环境状态信息输入至所述渐进奖励函数,得到渐进奖励信息;将所述机械臂待抓取物体的环境状态信息输入至所述抓取奖励函数,得到抓取奖励信息;基于所述渐进奖励信息和所述抓取奖励信息确定奖励信息。
如图2所示,该方法包括:
S210、获取机械臂待抓取物体的环境状态信息。
S220、将所述机械臂待抓取物体的环境状态信息输入至所述渐进奖励函数,得到渐进奖励信息。
S230、将所述机械臂待抓取物体的环境状态信息输入至所述抓取奖励函数,得到抓取奖励信息。
S240、基于所述渐进奖励信息和所述抓取奖励信息确定奖励信息。
S250、基于所述机械臂待抓取物体的环境状态信息、所述机械臂待抓取物体的环境状态信息对应的动作信息和所述奖励信息对待训练模型进行训练,得到机械臂抓取模型。
本实施例中,分段式奖励函数可以包括渐进奖励函数和抓取奖励函数,其中,渐进奖励函数用于表征动作是否有更好状态变化的趋势,抓取奖励函数用于表征动作抓取物体的情况。
具体的,将机械臂待抓取物体的环境状态信息输入至渐进奖励函数,得到渐进奖励信息;以及将机械臂待抓取物体的环境状态信息输入至抓取奖励函数,得到抓取奖励信息,进而根据渐进奖励信息和抓取奖励信息确定奖励信息,实现了奖励信息的分段确定,可以有效避免稀疏奖励的问题,从而提升机械臂抓取模型的训练效果,进而提升使用机械臂抓取模型抓取物体的成功率。
在上述各实施例的基础上,可选的,渐进奖励函数可以为:
rtendency=v(st+1)-v(st);
其中,rtendency表示渐进奖励函数,v(st)表示当前环境状态的价值函数,v(st+1)表示下一环境状态的价值函数。
在上述各实施例的基础上,可选的,抓取奖励函数可以为:
Figure BDA0004121534740000071
其中,rgrasping表示抓取奖励函数,v(st)表示当前环境状态的价值函数,grasp∩v(st)表示机械臂抓取到物体并且当前环境状态的价值函数大于预设价值阈值,δ表示预设价值阈值。
可以理解的是,若机械臂未抓取到物体,抓取奖励信息为0;若机械臂抓取到物体并且当前环境状态的价值函数未超过预设价值阈值,抓取奖励信息为当前环境状态的价值函数减去常数100;若机械臂抓取到物体并且当前环境状态的价值函数大于预设价值阈值,抓取奖励信息为常数500,预设价值阈值可以根据检测和抓取性能确定。
在一些实施例中,抓取奖励函数中的常数500和常数100可以根据具体抓取需求进行更改,例如,在机械臂抓取到物体并且当前环境状态的价值函数未超过预设价值阈值的情况下,抓取奖励信息可以为当前环境状态的价值函数减去常数150,在机械臂抓取到物体并且当前环境状态的价值函数大于预设价值阈值的情况下,抓取奖励信息可与为常数600,在此不做限定。
示例性的,分段式奖励函数可以为:
r=rtendency+rgrasping
rtendency=v(st+1)-v(st);
Figure BDA0004121534740000081
其中,r表示确定的奖励信息。
本发明实施例的技术方案,通过将机械臂待抓取物体的环境状态信息输入至渐进奖励函数,得到渐进奖励信息;以及将机械臂待抓取物体的环境状态信息输入至抓取奖励函数,得到抓取奖励信息,进而根据渐进奖励信息和抓取奖励信息确定奖励信息,实现了奖励信息的分段确定,可以有效避免稀疏奖励的问题,从而提升机械臂抓取模型的训练效果,进而提升使用机械臂抓取模型抓取物体的成功率。
实施例三
图3为本发明实施例三提供的一种机械臂抓取模型的训练方法的流程图,本实施例的方法与上述实施例中提供的机械臂抓取模型的训练方法中各个可选方案可以结合。本实施例提供的机械臂抓取模型的训练方法进行了进一步优化。可选的,基于机械臂待抓取物体的环境状态信息、机械臂待抓取物体的环境状态信息对应的动作信息和所述奖励信息对待训练模型进行训练,得到机械臂抓取模型,包括:基于奖励信息确定评论家网络层的损失,基于评论家网络层的损失更新评论家网络层的网络参数;基于机械臂待抓取物体的环境状态信息、机械臂待抓取物体的环境状态信息对应的动作信息和奖励信息确定演员网络层的损失,基于演员网络层的损失更新演员网络层的网络参数;直至满足待训练模型的停止训练条件,得到机械臂抓取模型。
如图3所示,该方法包括:
S310、获取机械臂待抓取物体的环境状态信息。
S320、将所述机械臂待抓取物体的环境状态信息输入至预先构建的分段式奖励函数,得到奖励信息。
S330、基于所述奖励信息确定评论家网络层的损失,基于所述评论家网络层的损失更新评论家网络层的网络参数。
S340、基于所述机械臂待抓取物体的环境状态信息、所述机械臂待抓取物体的环境状态信息对应的动作信息和所述奖励信息确定演员网络层的损失,基于所述演员网络层的损失更新演员网络层的网络参数。
S350、直至满足所述待训练模型的停止训练条件,得到机械臂抓取模型。
本实施例中,待训练模型可以包括共享网络层、演员(Actor)网络层和评论家(Critic)网络层。其中,共享网络层用于提取机械臂待抓取物体的位置特征信息。演员网络层可以基于概率选行为,评论家网络层可以基于演员网络层的行为评判行为的得分,演员网络层可以根据评论家网络层的评分修改选行为的概率。
具体的,电子设备通过获取机械臂待抓取物体的环境状态信息,进而将机械臂待抓取物体的环境状态信息输入至预先构建的分段式奖励函数,得到奖励信息;进而基于奖励信息确定评论家网络层的损失,基于评论家网络层的损失更新评论家网络层的网络参数,基于机械臂待抓取物体的环境状态信息、机械臂待抓取物体的环境状态信息对应的动作信息和奖励信息确定演员网络层的损失,基于演员网络层的损失更新演员网络层的网络参数,直至满足待训练模型的停止训练条件,得到机械臂抓取模型。
在上述各实施例的基础上,可选的,基于奖励信息确定评论家网络层的损失,包括:基于奖励信息确定奖励信息对应的折扣奖励;基于奖励信息对应的折扣奖励确定优势函数值;基于优势函数值确定评论家网络层的损失。
示例性的,可以通过
Figure BDA0004121534740000101
计算得到R=[R0,R1,R2,R3,…],其中,γ表示折扣因子,rt代表时间t下的奖励信息,R表示折扣奖励;进而计算优势函数值,At=R–V’,其中,V’表示每个环境状态信息所对应的状态价值,At表示优势函数值,进而基于预先配置的损失函数c_loss=mean(square(At)),确定评论家网络层的损失。
在上述各实施例的基础上,可选的,基于机械臂待抓取物体的环境状态信息、机械臂待抓取物体的环境状态信息对应的动作信息和奖励信息确定演员网络层的损失,基于演员网络层的损失更新演员网络层的网络参数,包括:基于奖励信息确定优势函数值;基于机械臂待抓取物体的环境状态信息确定第一正态分布模型和第二正态分布模型;将机械臂待抓取物体的环境状态信息对应的动作信息,分别输入至第一正态分布模型和第二正态分布模型,得到第一概率信息和第二概率信息;基于第一概率信息和第二概率信息确定比率;基于优势函数值和比率确定演员网络层的损失。
示例性的,图4是本实施例提供的一种待训练网络的结构示意图,演员网络层包括actor-new网络和actor-old网络,actor-new网络与actor-old网络的网络结构相同,待训练网络可以在PyBullet仿真环境中进行训练并对物体进行抓取,使得模型收敛,具体包括如下步骤:
步骤1,将环境状态信息输入至卷积神经网络,基于卷积神经网络(CNN)提取待抓取物体的位置信息特征。
步骤2-1,将卷积神经网络(CNN)提取待抓取物体的位置信息特征,输入到actor-new网络,得到mu和sigma,然后将mu和sigma分别当作正态分布的均值和方差构建正态分布,正态分布用于表示动作信息的分布,进而通过正态分布生成动作信息,再将动作信息输入到环境中得到奖励信息和下一步的环境状态信息,再将下一步的环境状态信息输入到actor-new网络,同时将下一步的环境状态信息输入到评论家网络层中,得到价值函数,存储[(s,a,r),…],其中,s表示环境状态信息,a表示动作信息,r表示奖励信息,循环步骤2-1,直到存储预设数量的[(s,a,r),…],该过程中actor-new网络没有更新。确定奖励信息的奖励函数为:
r=rtendency+rgrasping
rtendency=v(st+1)-v(st);
Figure BDA0004121534740000111
步骤2-2,计算折扣奖励,通过
Figure BDA0004121534740000112
计算得到R=[R0,R1,R2,R3,…],其中,γ表示折扣因子,rt代表时间t下的奖励信息,R表示折扣奖励。
步骤2-3,计算优势函数,At=R–V’,其中,V’表示每个环境状态信息所对应的状态价值,At表示优势函数。
步骤2-4,基于损失函数c_loss=mean(square(At)),确定评论家网络层的损失,然后反向传播更新评论家网络层的网络参数。
步骤2-5,将存储的所有环境状态信息分别输入actor-old和actor-new网络,分别得到第一正态分布模型和第二正态分布模型,将存储的所有动作信息分别输入第一正态分布模型和第二正态分布模型,得到动作信息对应的第一概率信息和第二概率信息,进而将第二概率信息除以第一概率信息,得到比率。
步骤2-6,基于损失函数a_loss=mean(min((ratio*At,clip(ratio,1-ξ,1+ξ)*At)))确定演员网络层的损失,其中,ratio表示比率,ξ表示默认设置的常数,At表示优势函数值;进而基于演员网络层的损失,更新actor-new网络。
步骤2-7,循环2-2至2-6步骤,循环预设步数之后,循环结束,使用actor-new网络权重来更新actor-old网络。
步骤2-8,循环2-1至2-7步骤,训练1000次之后停止训练,得到机械臂抓取模型。
步骤3,将训练完成的机械臂抓取模型保存,并迁移部署至真实的机械臂上,以完成抓取动作。
为验证本实施例提出的机械臂抓取模型的训练方法的可行性,本实施例进行了仿真实验,将本实施例提出的机械臂抓取模型的训练方法(PRPPO)与现有技术中的置信域策略优化(Trust Region Policy Optimization,TRPO)算法以及近端策略优化(ProximalPolicy Optimization,PPO)算法进行了比对,仿真结果如图5所示,从图5可知,本实施例提出的机械臂抓取模型的训练方法得到的奖励信息优于TRPO算法,在稳定性上也优于PPO算法。
本发明实施例的技术方案,通过基于奖励信息确定评论家网络层的损失,基于评论家网络层的损失更新评论家网络层的网络参数,以及基于机械臂待抓取物体的环境状态信息、机械臂待抓取物体的环境状态信息对应的动作信息和奖励信息确定演员网络层的损失,基于演员网络层的损失更新演员网络层的网络参数,完成机械臂抓取模型的训练,以供真实的机械臂部署使用。
实施例四
图6为本发明实施例四提供的一种机械臂抓取模型的训练装置的结构示意图。如图6所示,该装置包括:
环境状态信息获取模块410,用于获取机械臂待抓取物体的环境状态信息;
奖励信息确定模块420,用于将所述机械臂待抓取物体的环境状态信息输入至预先构建的分段式奖励函数,得到奖励信息;
抓取模型训练模块430,用于基于所述机械臂待抓取物体的环境状态信息、所述机械臂待抓取物体的环境状态信息对应的动作信息和所述奖励信息对待训练模型进行训练,得到机械臂抓取模型。
本发明实施例的技术方案,通过获取机械臂待抓取物体的环境状态信息,进而将机械臂待抓取物体的环境状态信息输入至预先构建的分段式奖励函数,得到奖励信息,进而基于机械臂待抓取物体的环境状态信息、机械臂待抓取物体的环境状态信息对应的动作信息和奖励信息对待训练模型进行训练,得到机械臂抓取模型。上述技术方案,通过分段式奖励函数确定奖励信息,可以有效避免稀疏奖励的问题,从而提升机械臂抓取模型的训练效果,进而提升使用机械臂抓取模型抓取物体的成功率。
在一些可选的实施方式中,所述分段式奖励函数包括渐进奖励函数和抓取奖励函数;奖励信息确定模块420,具体用于:
将所述机械臂待抓取物体的环境状态信息输入至所述渐进奖励函数,得到渐进奖励信息;
将所述机械臂待抓取物体的环境状态信息输入至所述抓取奖励函数,得到抓取奖励信息;
基于所述渐进奖励信息和所述抓取奖励信息确定奖励信息。
在一些可选的实施方式中,所述渐进奖励函数为:
rtendency=v(st+1)-v(st);
其中,rtendency表示渐进奖励函数,v(st)表示当前环境状态的价值函数,v(st+1)表示下一环境状态的价值函数。
在一些可选的实施方式中,所述抓取奖励函数为:
Figure BDA0004121534740000141
其中,rgrasping表示抓取奖励函数,v(st)表示当前环境状态的价值函数,grasp∩v(st)表示机械臂抓取到物体并且当前环境状态的价值函数大于预设价值阈值,δ表示预设价值阈值。
在一些可选的实施方式中,抓取模型训练模块430,包括:
评论家网络层更新单元,用于基于所述奖励信息确定评论家网络层的损失,基于所述评论家网络层的损失更新评论家网络层的网络参数;
演员网络层更新单元,用于基于所述机械臂待抓取物体的环境状态信息、所述机械臂待抓取物体的环境状态信息对应的动作信息和所述奖励信息确定演员网络层的损失,基于所述演员网络层的损失更新演员网络层的网络参数;
模型训练停止单元,用于直至满足所述待训练模型的停止训练条件,得到机械臂抓取模型。
在一些可选的实施方式中,评论家网络层更新单元,具体用于:
基于所述奖励信息确定所述奖励信息对应的折扣奖励;
基于所述奖励信息对应的折扣奖励确定优势函数值;
基于所述优势函数值确定评论家网络层的损失。
在一些可选的实施方式中,演员网络层更新单元,具体用于:
基于所述奖励信息确定优势函数值;
基于所述机械臂待抓取物体的环境状态信息确定第一正态分布模型和第二正态分布模型;
将所述机械臂待抓取物体的环境状态信息对应的动作信息,分别输入至所述第一正态分布模型和第二正态分布模型,得到第一概率信息和第二概率信息;
基于所述第一概率信息和第二概率信息确定比率;
基于所述优势函数值和比率确定演员网络层的损失。
在一些可选的实施方式中,机械臂抓取模型的训练装置,还包括:
真实环境状态信息获取模块,用于获取机械臂待抓取物体的真实环境状态信息;
物体抓取模块,用于将所述机械臂待抓取物体的真实环境状态信息输入至所述机械臂抓取模型,以完成所述待抓取物体的抓取动作。
本发明实施例所提供的机械臂抓取模型的训练装置可执行本发明任意实施例所提供的机械臂抓取模型的训练方法,具备执行方法相应的功能模块和有益效果。
实施例五
图7示出了可以用来实施本发明的实施例的电子设备10的结构示意图。电子设备旨在表示各种形式的数字计算机,诸如,膝上型计算机、台式计算机、工作台、个人数字助理、服务器、刀片式服务器、大型计算机、和其它适合的计算机。电子设备还可以表示各种形式的移动装置,诸如,个人数字助理、蜂窝电话、智能电话、可穿戴设备(如头盔、眼镜、手表等)和其它类似的计算装置。本文所示的部件、它们的连接和关系、以及它们的功能仅仅作为示例,并且不意在限制本文中描述的和/或者要求的本发明的实现。
如图7所示,电子设备10包括至少一个处理器11,以及与至少一个处理器11通信连接的存储器,如只读存储器(ROM)12、随机访问存储器(RAM)13等,其中,存储器存储有可被至少一个处理器执行的计算机程序,处理器11可以根据存储在只读存储器(ROM)12中的计算机程序或者从存储单元18加载到随机访问存储器(RAM)13中的计算机程序,来执行各种适当的动作和处理。在RAM 13中,还可存储电子设备10操作所需的各种程序和数据。处理器11、ROM 12以及RAM 13通过总线14彼此相连。I/O接口15也连接至总线14。
电子设备10中的多个部件连接至I/O接口15,包括:输入单元16,例如键盘、鼠标等;输出单元17,例如各种类型的显示器、扬声器等;存储单元18,例如磁盘、光盘等;以及通信单元19,例如网卡、调制解调器、无线通信收发机等。通信单元19允许电子设备10通过诸如因特网的计算机网络和/或各种电信网络与其他设备交换信息/数据。
处理器11可以是各种具有处理和计算能力的通用和/或专用处理组件。处理器11的一些示例包括但不限于中央处理单元(CPU)、图形处理单元(GPU)、各种专用的人工智能(AI)计算芯片、各种运行机器学习模型算法的处理器、数字信号处理器(DSP)、以及任何适当的处理器、控制器、微控制器等。处理器11执行上文所描述的各个方法和处理,例如机械臂抓取模型的训练方法,该方法包括:
获取机械臂待抓取物体的环境状态信息;
将所述机械臂待抓取物体的环境状态信息输入至预先构建的分段式奖励函数,得到奖励信息;
基于所述机械臂待抓取物体的环境状态信息、所述机械臂待抓取物体的环境状态信息对应的动作信息和所述奖励信息对待训练模型进行训练,得到机械臂抓取模型。
在一些实施例中,机械臂抓取模型的训练方法可被实现为计算机程序,其被有形地包含于计算机可读存储介质,例如存储单元18。在一些实施例中,计算机程序的部分或者全部可以经由ROM 12和/或通信单元19而被载入和/或安装到电子设备10上。当计算机程序加载到RAM 13并由处理器11执行时,可以执行上文描述的机械臂抓取模型的训练方法的一个或多个步骤。备选地,在其他实施例中,处理器11可以通过其他任何适当的方式(例如,借助于固件)而被配置为执行机械臂抓取模型的训练方法。
本文中以上描述的系统和技术的各种实施方式可以在数字电子电路系统、集成电路系统、场可编程门阵列(FPGA)、专用集成电路(ASIC)、专用标准产品(ASSP)、芯片上系统的系统(SOC)、复杂可编程逻辑设备(CPLD)、计算机硬件、固件、软件、和/或它们的组合中实现。这些各种实施方式可以包括:实施在一个或者多个计算机程序中,该一个或者多个计算机程序可在包括至少一个可编程处理器的可编程系统上执行和/或解释,该可编程处理器可以是专用或者通用可编程处理器,可以从存储系统、至少一个输入装置、和至少一个输出装置接收数据和指令,并且将数据和指令传输至该存储系统、该至少一个输入装置、和该至少一个输出装置。
用于实施本发明的方法的计算机程序可以采用一个或多个编程语言的任何组合来编写。这些计算机程序可以提供给通用计算机、专用计算机或其他可编程数据处理装置的处理器,使得计算机程序当由处理器执行时使流程图和/或框图中所规定的功能/操作被实施。计算机程序可以完全在机器上执行、部分地在机器上执行,作为独立软件包部分地在机器上执行且部分地在远程机器上执行或完全在远程机器或服务器上执行。
在本发明的上下文中,计算机可读存储介质可以是有形的介质,其可以包含或存储以供指令执行系统、装置或设备使用或与指令执行系统、装置或设备结合地使用的计算机程序。计算机可读存储介质可以包括但不限于电子的、磁性的、光学的、电磁的、红外的、或半导体系统、装置或设备,或者上述内容的任何合适组合。备选地,计算机可读存储介质可以是机器可读信号介质。机器可读存储介质的更具体示例会包括基于一个或多个线的电气连接、便携式计算机盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦除可编程只读存储器(EPROM或快闪存储器)、光纤、便捷式紧凑盘只读存储器(CD-ROM)、光学储存设备、磁储存设备、或上述内容的任何合适组合。
为了提供与用户的交互,可以在电子设备上实施此处描述的系统和技术,该电子设备具有:用于向用户显示信息的显示装置(例如,CRT(阴极射线管)或者LCD(液晶显示器)监视器);以及键盘和指向装置(例如,鼠标或者轨迹球),用户可以通过该键盘和该指向装置来将输入提供给电子设备。其它种类的装置还可以用于提供与用户的交互;例如,提供给用户的反馈可以是任何形式的传感反馈(例如,视觉反馈、听觉反馈、或者触觉反馈);并且可以用任何形式(包括声输入、语音输入或者、触觉输入)来接收来自用户的输入。
可以将此处描述的系统和技术实施在包括后台部件的计算系统(例如,作为数据服务器)、或者包括中间件部件的计算系统(例如,应用服务器)、或者包括前端部件的计算系统(例如,具有图形用户界面或者网络浏览器的用户计算机,用户可以通过该图形用户界面或者该网络浏览器来与此处描述的系统和技术的实施方式交互)、或者包括这种后台部件、中间件部件、或者前端部件的任何组合的计算系统中。可以通过任何形式或者介质的数字数据通信(例如,通信网络)来将系统的部件相互连接。通信网络的示例包括:局域网(LAN)、广域网(WAN)、区块链网络和互联网。
计算系统可以包括客户端和服务器。客户端和服务器一般远离彼此并且通常通过通信网络进行交互。通过在相应的计算机上运行并且彼此具有客户端-服务器关系的计算机程序来产生客户端和服务器的关系。服务器可以是云服务器,又称为云计算服务器或云主机,是云计算服务体系中的一项主机产品,以解决了传统物理主机与VPS服务中,存在的管理难度大,业务扩展性弱的缺陷。
应该理解,可以使用上面所示的各种形式的流程,重新排序、增加或删除步骤。例如,本发明中记载的各步骤可以并行地执行也可以顺序地执行也可以不同的次序执行,只要能够实现本发明的技术方案所期望的结果,本文在此不进行限制。
上述具体实施方式,并不构成对本发明保护范围的限制。本领域技术人员应该明白的是,根据设计要求和其他因素,可以进行各种修改、组合、子组合和替代。任何在本发明的精神和原则之内所作的修改、等同替换和改进等,均应包含在本发明保护范围之内。

Claims (11)

1.一种机械臂抓取模型的训练方法,其特征在于,包括:
获取机械臂待抓取物体的环境状态信息;
将所述机械臂待抓取物体的环境状态信息输入至预先构建的分段式奖励函数,得到奖励信息;
基于所述机械臂待抓取物体的环境状态信息、所述机械臂待抓取物体的环境状态信息对应的动作信息和所述奖励信息对待训练模型进行训练,得到机械臂抓取模型。
2.根据权利要求1所述的方法,其特征在于,所述分段式奖励函数包括渐进奖励函数和抓取奖励函数;
相应的,所述将所述机械臂待抓取物体的环境状态信息输入至预先构建的分段式奖励函数,得到奖励信息,包括:
将所述机械臂待抓取物体的环境状态信息输入至所述渐进奖励函数,得到渐进奖励信息;
将所述机械臂待抓取物体的环境状态信息输入至所述抓取奖励函数,得到抓取奖励信息;
基于所述渐进奖励信息和所述抓取奖励信息确定奖励信息。
3.根据权利要求2所述的方法,其特征在于,所述渐进奖励函数为:
rtendency=v(st+1)-v(st);
其中,rtendency表示渐进奖励函数,v(st)表示当前环境状态的价值函数,v(st+1)表示下一环境状态的价值函数。
4.根据权利要求2所述的方法,其特征在于,所述抓取奖励函数为:
Figure FDA0004121534720000011
其中,rgrasping表示抓取奖励函数,v(st)表示当前环境状态的价值函数,grasp∩v(st)表示机械臂抓取到物体并且当前环境状态的价值函数大于预设价值阈值,δ表示预设价值阈值。
5.根据权利要求1所述的方法,其特征在于,所述基于所述机械臂待抓取物体的环境状态信息、所述机械臂待抓取物体的环境状态信息对应的动作信息和所述奖励信息对待训练模型进行训练,得到机械臂抓取模型,包括:
基于所述奖励信息确定评论家网络层的损失,基于所述评论家网络层的损失更新评论家网络层的网络参数;
基于所述机械臂待抓取物体的环境状态信息、所述机械臂待抓取物体的环境状态信息对应的动作信息和所述奖励信息确定演员网络层的损失,基于所述演员网络层的损失更新演员网络层的网络参数;
直至满足所述待训练模型的停止训练条件,得到机械臂抓取模型。
6.根据权利要求5所述的方法,其特征在于,所述基于所述奖励信息确定评论家网络层的损失,包括:
基于所述奖励信息确定所述奖励信息对应的折扣奖励;
基于所述奖励信息对应的折扣奖励确定优势函数值;
基于所述优势函数值确定评论家网络层的损失。
7.根据权利要求5所述的方法,其特征在于,所述基于所述机械臂待抓取物体的环境状态信息、所述机械臂待抓取物体的环境状态信息对应的动作信息和所述奖励信息确定演员网络层的损失,基于所述演员网络层的损失更新演员网络层的网络参数,包括:
基于所述奖励信息确定优势函数值;
基于所述机械臂待抓取物体的环境状态信息确定第一正态分布模型和第二正态分布模型;
将所述机械臂待抓取物体的环境状态信息对应的动作信息,分别输入至所述第一正态分布模型和所述第二正态分布模型,得到第一概率信息和第二概率信息;
基于所述第一概率信息和所述第二概率信息确定比率;
基于所述优势函数值和所述比率确定演员网络层的损失。
8.根据权利要求1所述的方法,其特征在于,在所述基于所述机械臂待抓取物体的环境状态信息、所述机械臂待抓取物体的环境状态信息对应的动作信息和所述奖励信息对待训练模型进行训练,得到机械臂抓取模型之后,还包括:
获取机械臂待抓取物体的真实环境状态信息;
将所述机械臂待抓取物体的真实环境状态信息输入至所述机械臂抓取模型,以完成所述待抓取物体的抓取动作。
9.一种机械臂抓取模型的训练装置,其特征在于,包括:
环境状态信息获取模块,用于获取机械臂待抓取物体的环境状态信息;
奖励信息确定模块,用于将所述机械臂待抓取物体的环境状态信息输入至预先构建的分段式奖励函数,得到奖励信息;
抓取模型训练模块,用于基于所述机械臂待抓取物体的环境状态信息、所述机械臂待抓取物体的环境状态信息对应的动作信息和所述奖励信息对待训练模型进行训练,得到机械臂抓取模型。
10.一种电子设备,其特征在于,所述电子设备包括:
至少一个处理器;
以及与所述至少一个处理器通信连接的存储器;
其中,所述存储器存储有可被所述至少一个处理器执行的计算机程序,所述计算机程序被所述至少一个处理器执行,以使所述至少一个处理器能够执行权利要求1-8中任一项所述的机械臂抓取模型的训练方法。
11.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质存储有计算机指令,所述计算机指令用于使处理器执行时实现权利要求1-8中任一项所述的机械臂抓取模型的训练方法。
CN202310234468.6A 2023-03-03 2023-03-03 机械臂抓取模型的训练方法、装置、电子设备及存储介质 Pending CN116197909A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202310234468.6A CN116197909A (zh) 2023-03-03 2023-03-03 机械臂抓取模型的训练方法、装置、电子设备及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202310234468.6A CN116197909A (zh) 2023-03-03 2023-03-03 机械臂抓取模型的训练方法、装置、电子设备及存储介质

Publications (1)

Publication Number Publication Date
CN116197909A true CN116197909A (zh) 2023-06-02

Family

ID=86511125

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202310234468.6A Pending CN116197909A (zh) 2023-03-03 2023-03-03 机械臂抓取模型的训练方法、装置、电子设备及存储介质

Country Status (1)

Country Link
CN (1) CN116197909A (zh)

Similar Documents

Publication Publication Date Title
CN112801164B (zh) 目标检测模型的训练方法、装置、设备及存储介质
WO2020073951A1 (zh) 用于图像识别的模型的训练方法、装置、网络设备和存储介质
CN113033537B (zh) 用于训练模型的方法、装置、设备、介质和程序产品
CN113657289B (zh) 阈值估计模型的训练方法、装置和电子设备
KR20210156243A (ko) 딥러닝 프레임워크의 훈련 방법, 장치 및 저장 매체
CN113436100B (zh) 用于修复视频的方法、装置、设备、介质和产品
CN113657483A (zh) 模型训练方法、目标检测方法、装置、设备以及存储介质
CN116740355A (zh) 自动驾驶图像的分割方法、装置、设备及存储介质
CN113780578B (zh) 模型训练方法、装置、电子设备及可读存储介质
CN113641829B (zh) 图神经网络的训练与知识图谱的补全方法、装置
CN115239889B (zh) 3d重建网络的训练方法、3d重建方法、装置、设备和介质
CN116197909A (zh) 机械臂抓取模型的训练方法、装置、电子设备及存储介质
CN115273148B (zh) 行人重识别模型训练方法、装置、电子设备及存储介质
CN115457329B (zh) 图像分类模型的训练方法、图像分类方法和装置
US20230032324A1 (en) Method for training decision-making model parameter, decision determination method, electronic device, and storage medium
CN113792876B (zh) 骨干网络的生成方法、装置、设备以及存储介质
CN113742457B (zh) 应答处理方法、装置、电子设备及存储介质
CN113807397B (zh) 语义表示模型的训练方法、装置、设备和存储介质
CN114663511A (zh) 一种图像生成方法、装置、设备及存储介质
CN114331379B (zh) 用于输出待办任务的方法、模型训练方法和装置
CN115223177A (zh) 一种文本识别方法、装置、设备及存储介质
CN116071608B (zh) 目标检测方法、装置、设备和存储介质
CN113552879B (zh) 自移动设备的控制方法、装置、电子设备及存储介质
CN117271098B (zh) 一种ai模型计算核调度方法、装置、设备及存储介质
CN117933353A (zh) 强化学习模型训练方法、装置、电子设备及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination