CN116673968A - 基于强化学习的机械臂轨迹规划要素选择方法及系统 - Google Patents
基于强化学习的机械臂轨迹规划要素选择方法及系统 Download PDFInfo
- Publication number
- CN116673968A CN116673968A CN202310966905.3A CN202310966905A CN116673968A CN 116673968 A CN116673968 A CN 116673968A CN 202310966905 A CN202310966905 A CN 202310966905A CN 116673968 A CN116673968 A CN 116673968A
- Authority
- CN
- China
- Prior art keywords
- target point
- mechanical arm
- track
- gesture
- sequence list
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000002787 reinforcement Effects 0.000 title claims abstract description 75
- 238000010187 selection method Methods 0.000 title claims description 14
- 238000012549 training Methods 0.000 claims abstract description 50
- 238000000034 method Methods 0.000 claims abstract description 42
- 238000004422 calculation algorithm Methods 0.000 claims abstract description 39
- 238000004088 simulation Methods 0.000 claims abstract description 14
- 238000004364 calculation method Methods 0.000 claims description 42
- 230000036544 posture Effects 0.000 claims description 37
- 230000033001 locomotion Effects 0.000 claims description 26
- 238000009826 distribution Methods 0.000 claims description 20
- 230000008569 process Effects 0.000 claims description 19
- 230000006870 function Effects 0.000 claims description 13
- 238000003860 storage Methods 0.000 claims description 7
- 238000012216 screening Methods 0.000 claims description 5
- 238000010276 construction Methods 0.000 claims description 3
- 238000011156 evaluation Methods 0.000 claims description 3
- 238000010801 machine learning Methods 0.000 description 4
- 238000004590 computer program Methods 0.000 description 3
- 238000010586 diagram Methods 0.000 description 3
- 238000012795 verification Methods 0.000 description 3
- 230000005540 biological transmission Effects 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 230000006978 adaptation Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1656—Programme controls characterised by programming, planning systems for manipulators
- B25J9/1664—Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1602—Programme controls characterised by the control system, structure, architecture
- B25J9/161—Hardware, e.g. neural networks, fuzzy logic, interfaces, processor
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02P—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
- Y02P90/00—Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
- Y02P90/02—Total factory control, e.g. smart factories, flexible manufacturing systems [FMS] or integrated manufacturing systems [IMS]
Landscapes
- Engineering & Computer Science (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Automation & Control Theory (AREA)
- Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Fuzzy Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Manipulator (AREA)
Abstract
本发明提供的基于强化学习的机械臂轨迹规划要素选择方法及系统,涉及机械臂控制领域;方法包括:构建场景文件,获取初始状态机械臂尖端的第一坐标和若干目标点的第二坐标,确定机械臂轨迹的目标点顺序列表;获取第一姿态集合,建立基于强化学习的第一策略网络和第一价值网络;采用蒙特卡洛树搜索,对第一姿态集合使用上限置信区间算法随机选择并进行强化训练,获得各机械臂姿态可执行轨迹方案的第一概率;根据目标点顺序列表和第一概率计算第一坐标至最终目标点的命令顺序列表;根据命令顺序列表执行仿真运行。本发明通过引入强化学习达到自动规划目标点顺序列表和机械臂姿态的目的,实现在不同的环境中自主训练寻找最合适的轨迹规划方案。
Description
技术领域
本发明涉及机械臂控制技术领域,具体涉及一种基于强化学习的机械臂轨迹规划要素选择方法及系统。
背景技术
在机械臂生产运行中,为了使机械臂尖端的设备抵达目标位置,需要对机械臂进行轨迹规划;而对于单机械臂在执行多目标任务时,使用自动化智能化的方式实现轨迹规划是个难题。机械臂轨迹规划一般需要输入机械臂的当前位置、目标位置和尖端姿态;在多目标任务流程中,不同的目标选择顺序与尖端姿态都会有不同的轨迹规划方案;众多轨迹规划方案中只有部分方案满足机械臂运行限制,因此需要对机械臂的轨迹规划方法进行设计,设计时首要任务是进行轨迹规划要素的选择。
发明内容
本发明目的在于提供一种基于强化学习的机械臂轨迹规划要素选择方法及系统,通过引入强化学习,构建策略网络和价值网络,训练模型以达到自动规划选择合适的目标点或机械臂姿态的目的,从而能在不同的环境中自主训练寻找最合适的轨迹规划方案。
为达成上述目的,本发明提出如下技术方案:
第一方面,提出一种基于强化学习的机械臂轨迹规划要素选择方法,包括:
构建机械臂工作的场景文件,并在所述场景文件中获取第一坐标和若干第二坐标;其中,所述第一坐标为初始状态机械臂尖端的位置坐标,所述第二坐标为各目标点的位置坐标;
根据所述第一坐标和各所述第二坐标,确定机械臂轨迹的目标点顺序列表;
获取第一姿态集合,建立基于强化学习的第一策略网络和第一价值网络;其中,所述第一姿态集合中至少包括两种机械臂姿态;
采用蒙特卡洛树搜索,根据所述目标点顺序列表对所述第一姿态集合使用上限置信区间算法随机选择并进行强化训练,获得选择各所述机械臂姿态由所述第一坐标运动至所述目标点顺序列表最终目标点的可执行轨迹方案的第一概率;其中,所述第一概率由执行选择的所述机械臂姿态抵达所述最终目标点的奖励值总和与规划可执行轨迹方案的总次数得到;
根据所述目标点顺序列表选取轨迹目标点,自所述第一坐标优先选择概率值最高的所述机械臂姿态进行轨迹计算,并当所述机械臂姿态获得可执行路径时,保存该路径参数至命令顺序列表中,再顺序选择下一个目标点进行计算,直到所述目标点顺序列表中所有目标点均计算出合适的运动轨迹后输出命令顺序列表;当所述目标点选择一概率值最高的机械臂姿态后在其下一目标点未获得可执行路径,则排除该所述概率值最高的机械臂姿态根据、再依据概率由高至低的顺序选择顺次的所述机械臂姿态进行轨迹计算,直至所述下一个目标点均能计算出可执行路径后输出所述第一坐标至所述目标点顺序列表最终目标点的命令顺序列表;
在所述场景文件中,根据所述命令顺序列表对所述机械臂执行仿真运行。
进一步的,采用蒙特卡洛树搜索,根据所述目标点顺序列表对所述第一姿态集合使用上限置信区间算法随机选择并进行强化训练的过程,包括:
选取所述目标点顺序列表中下一个目标点,以所述机械臂在当前轨迹点的状态作为所述第一策略网络的输入,该输入经卷积层转化成特征向量后通过全连接层得到输出层,所述输出层的输出通过Softmax函数转化为概率分布;其中,所述输出层为N*1维度,N为所述第一姿态集合中机械臂姿态的数目;所述第一策略网络采用蒙特卡洛树搜索,使用上限置信区间算法随机选择一所述机械臂姿态计算所述机械臂在当前轨迹点至所述下一目标点的轨迹方案,并当计算的所述机械臂姿态下获得可执行轨迹方案时设定该姿态下的轨迹规划结果值为1,否则设定为0;
根据所述概率分布,在所述轨迹规划结果值为1的若干所述机械臂姿态中随机选取一种所述机械臂姿态执行抵达该目标点和姿态的轨迹方案后,将抵达该目标点的所述机械臂状态作为下一次所述第一策略网络的输入;
遍历执行抵达所述目标点顺序列表的各目标点,直至获得抵达所述目标点顺序列表最终目标点的轨迹方案;
基于所述第一价值网络,评价执行所述姿态集合中各所述机械臂姿态下获得的轨迹方案,以获得执行各轨迹方案的奖励值;其中,当所述机械臂姿态下获得由所述第一坐标至所述最终目标点的可执行轨迹方案时,所述奖励值设置为增加1,否则所述奖励值设置为设定增加0。
进一步的,所述确定机械臂轨迹的目标点顺序列表的过程,包括:
计算各所述第二坐标与所述第一坐标的欧氏距离,筛选属于所述机械臂工作范围内的所有目标点,建立可完成目标列表;
确定存放在所述目标点顺序列表中的第一个目标点,所述第一个目标点为所述可完成目标列表中与所述第一坐标的所述欧氏距离最小的目标点;
以所述第一个目标点为下一所述机械臂尖端的初始位置,计算所述第一个目标点与所述可完成目标列表中未被选择的目标点的欧氏距离,存放与所述第一个目标点欧氏距离最小的、未被选择的所述目标点为所述目标点顺序列表的第二个目标点;
以所述目标点顺序列表最新确定的目标点为下一所述机械臂尖端的初始位置,重复执行计算下一所述机械臂尖端的初始位置与所述可完成目标列表中未被选择的目标点的欧氏距离,并选择所述可完成目标列表中与下一所述机械臂尖端的初始位置欧氏距离最小的、未被选择的所述目标点为所述目标点顺序列表下一目标点,直至所述可完成目标列表中的所有目标点都顺序存放在所述目标点顺序列表中。
进一步的,所述确定机械臂轨迹的目标点顺序列表的过程,包括:
获取第二姿态集合,建立基于强化学习的第二策略网络和第二价值网络;其中,所述第二姿态集合中至少包括两种机械臂姿态;
采用蒙特卡洛树搜索,对目标点集合使用上限置信区间算法随机选择并进行强化训练,获得所述机械臂由所述第一坐标选择所述目标点集合中任一所述目标点作为下一个目标点计算遍历集合中所有目标点的可执行轨迹方案的第二概率;所述第二概率由执行选择的所述下一个目标点计算获得遍历集合中所有目标点的可执行轨迹方案的奖励值总和与规划可执行轨迹方案的总次数得到;
根据所述第二概率确定所述目标点顺序列表,所述目标点顺序列表由所述机械臂运动轨迹的各目标点及其顺序构成;其中,所述机械臂运动轨迹为将所述目标点集合中概率值最高的所述目标点作为下一个目标点进行轨迹计算,获得的遍历集合中所有目标点的可执行轨迹方案。
进一步的,所述采用蒙特卡洛树搜索,对目标点集合使用上限置信区间算法随机选择并进行强化训练,获得所述机械臂由所述第一坐标选择所述目标点集合中任一所述目标点作为下一个目标点计算遍历集合中所有目标点的可执行轨迹方案的第二概率的过程,包括:
采用蒙特卡洛树搜索,使用上限置信区间算法随机选择所述目标点集合中下一个目标点,以所述机械臂在当前轨迹点的状态作为所述第二策略网络的输入,该输入经卷积层转化成特征向量后通过全连接层得到输出层,所述输出层的输出通过Softmax函数转化为概率分布;其中,所述输出层为M*1维度,M为所述目标点集合中目标点的数目;
所述第二策略网络判断所述下一个目标点是否为已经被选择的目标点,当所述下一个目标点为未被选择的目标点时,遍历所述第二姿态集合的所述机械臂姿态,计算任一所述机械臂姿态下所述机械臂在当前轨迹点运动至所述下一目标点的轨迹方案,并设定获得可执行轨迹方案的所述机械臂姿态的轨迹规划结果值为1,否则设定为0;
根据所述概率分布,在所述轨迹规划结果值为1的若干所述机械臂姿态中随机选取一种所述机械臂姿态执行抵达所述下一个目标点后,将抵达该目标点的所述机械臂状态作为下一次所述第二策略网络的输入,并循环执行在所述目标点集合中随机下一个目标点,直至所述目标点集合中所有目标点均已计算获得可执行轨迹方案或所有剩余的目标点均不能计算获得可执行轨迹方案;
基于所述第二价值网络,评价执行所述目标点集合中各选定下一个目标点获得的轨迹方案,以获得执行各轨迹方案的奖励值;其中,当所述下一个目标点为已经被选择的目标点时,所述奖励值设置为负数;当所述下一个目标点为未被选择的目标点,且计算得到由所述下一个目标点遍历集合中所有目标点的可执行轨迹方案,则所述奖励值设置为增加1,否则所述奖励值设置为设定增加0。
第二方面,提出一种基于强化学习的机械臂轨迹规划要素选择系统,该系统包括:
构建获取建立模块,用于构建机械臂工作的场景文件,并在所述场景文件中获取第一坐标和若干第二坐标;其中,所述第一坐标为初始状态机械臂尖端的位置坐标,所述第二坐标为各目标点的位置坐标;
确定模块,用于根据所述第一坐标和各所述第二坐标,确定机械臂轨迹的目标点顺序列表;
获取建立模块,用于获取第一姿态集合,建立基于强化学习的第一策略网络和第一价值网络;其中,所述第一姿态集合中至少包括两种机械臂姿态;
训练模块,用于采用蒙特卡洛树搜索,根据所述目标点顺序列表对所述第一姿态集合使用上限置信区间算法随机选择并进行强化训练,获得选择各所述机械臂姿态由所述第一坐标运动至所述目标点顺序列表最终目标点的可执行轨迹方案的第一概率;其中,所述第一概率由执行选择的所述机械臂姿态抵达所述最终目标点的奖励值总和与规划可执行轨迹方案的总次数得到;
轨迹计算模块,根据所述目标点顺序列表选取轨迹目标点,自所述第一坐标优先选择概率值最高的所述机械臂姿态进行轨迹计算,并当所述机械臂姿态获得可执行路径时,保存该路径参数至命令顺序列表中,再顺序选择下一个目标点进行计算,直到所述目标点顺序列表中所有目标点均计算出合适的运动轨迹后输出命令顺序列表;当所述目标点选择一概率值最高的机械臂姿态后在其下一目标点未获得可执行路径,则排除该所述概率值最高的机械臂姿态根据、再依据概率由高至低的顺序选择顺次的所述机械臂姿态进行轨迹计算,直至所述下一个目标点均能计算出可执行路径后输出所述第一坐标至所述目标点顺序列表最终目标点的命令顺序列表;
仿真执行模块,用于在所述场景文件中,根据所述命令顺序列表对所述机械臂执行仿真运行。
进一步的,所述第一训练模块采用蒙特卡洛树搜索,根据所述目标点顺序列表对所述第一姿态集合使用上限置信区间算法随机选择并进行强化训练的过程,包括如下执行单元:
第一选取单元,用于选取所述目标点顺序列表中下一个目标点,以所述机械臂在当前轨迹点的状态作为所述第一策略网络的输入,该输入经卷积层转化成特征向量后通过全连接层得到输出层,所述输出层的输出通过Softmax函数转化为概率分布;其中,所述输出层为N*1维度,N为所述第一姿态集合中机械臂姿态的数目;所述第一策略网络采用蒙特卡洛树搜索,使用上限置信区间算法随机选择一所述机械臂姿态计算所述机械臂在当前轨迹点至所述下一目标点的轨迹方案,并当计算的所述机械臂姿态下获得可执行轨迹方案时设定该姿态下的轨迹规划结果值为1,否则设定为0;
第二选取单元,用于根据所述概率分布,在所述轨迹规划结果值为1的若干所述机械臂姿态中随机选取一种所述机械臂姿态执行抵达该目标点和姿态的轨迹方案后,将抵达该目标点的所述机械臂状态作为下一次所述第一策略网络的输入;
遍历执行单元,用于遍历执行抵达所述目标点顺序列表的各目标点,直至获得抵达所述目标点顺序列表最终目标点的轨迹方案;
第一评价单元,用于基于所述第一价值网络,评价执行所述姿态集合中各所述机械臂姿态下获得的轨迹方案,以获得执行各轨迹方案的奖励值;其中,当所述机械臂姿态下获得由所述第一坐标至所述最终目标点的可执行轨迹方案时,所述奖励值设置为增加1,否则所述奖励值设置为设定增加0。
进一步的,所述确定模块根据所述第一坐标和各所述第二坐标,确定机械臂轨迹的目标点顺序列表的执行单元,包括:
获取单元,用于获取第二姿态集合,建立基于强化学习的第二策略网络和第二价值网络;其中,所述第二姿态集合中至少包括两种机械臂姿态;
训练单元,用于采用蒙特卡洛树搜索,对目标点集合使用上限置信区间算法随机选择并进行强化训练,获得所述机械臂由所述第一坐标选择所述目标点集合中任一所述目标点作为下一个目标点计算遍历集合中所有目标点的可执行轨迹方案的第二概率;所述第二概率由执行选择的所述下一个目标点计算获得遍历集合中所有目标点的可执行轨迹方案的奖励值总和与规划可执行轨迹方案的总次数得到;
第一确定单元,用于根据所述第二概率确定所述目标点顺序列表,所述目标点顺序列表由所述机械臂运动轨迹的各目标点及其顺序构成;其中,所述机械臂运动轨迹为将所述目标点集合中概率值最高的所述目标点作为下一个目标点进行轨迹计算,获得的遍历集合中所有目标点的可执行轨迹方案。
第三方面,提出一种电子设备,包括至少一个处理器;所述处理器与存储器耦合,所述存储器用于存储一条或多条计算指令,其中,所述一条或多条计算机指令被所述处理器运行时执行以实现上述的基于强化学习的机械臂轨迹规划要素选择方法的步骤。
第四方面,提出一种可读存储介质,其上存储有程序或指令,所述程序或指令被处理器执行时实现如上述的基于强化学习的机械臂轨迹规划要素选择方法的步骤。
由以上技术方案可知,本发明的技术方案获得了如下有益效果:
本发明公开的基于强化学习的机械臂轨迹规划要素选择方法及系统,其方法包括:构建机械臂工作的场景文件,获取初始状态机械臂尖端的第一坐标和若干目标点的第二坐标;根据第一坐标和各第二坐标,确定机械臂轨迹的目标点顺序列表;获取第一姿态集合,建立基于强化学习的第一策略网络和第一价值网络;采用蒙特卡洛树搜索,根据所述目标点顺序列表对所述第一姿态集合使用上限置信区间算法随机选择并进行强化训练,获得选择各所述机械臂姿态由所述第一坐标运动至所述目标点顺序列表最终目标点的可执行轨迹方案的第一概率;根据目标点顺序列表和第一概率计算第一坐标至目标点顺序列表最终目标点的命令顺序列表;根据命令顺序列表执行仿真运行。本发明通过引入强化学习达到自动规划目标点顺序列表和机械臂姿态的目的,训练速度快,较短时间即可实现在不同的环境中自主训练寻找最合适的轨迹规划方案。
本发明的要素选择方法将机械臂目标点的选择顺序、尖端姿态选择与机械臂轨迹规划的结合,实现对场景文件中任意目标点都能进行快速地轨迹规划训练。强化学习中,采用蒙特卡洛树搜索方式,使用策略网络和价值网络进行要素选择的训练,并使用上限置信区间算法平衡对要素选择的随机训练,以避免训练次数不平衡的情况。此外,本发明还通过对规划的命令顺序列表表示的轨迹方案进行实时仿真验证,对机械臂轨迹进行可视化验证,充分提高该轨迹真实应用的可靠性。
应当理解,前述构思以及在下面更加详细地描述的额外构思的所有组合只要在这样的构思不相互矛盾的情况下都可以被视为本公开的发明主题的一部分。
结合附图从下面的描述中可以更加全面地理解本发明教导的前述和其他方面、实施例和特征。本发明的其他附加方面例如示例性实施方式的特征和/或有益效果将在下面的描述中显见,或通过根据本发明教导的具体实施方式的实践中得知。
附图说明
附图不表示按照真实参照物比例绘制。在附图中,在各个图中示出的每个相同或近似相同的组成部分可以用相同的标号表示。为了清晰起见,在每个图中,并非每个组成部分均被标记。现在,将通过例子并参考附图来描述本发明的各个方面的实施例,其中:
图1为本申请实施例公开的机械臂轨迹规划要素选择方法整体流程图;
图2为本申请实施例公开的根据第一姿态集合进行强化训练的流程图;
图3为本申请实施例公开的确定目标点顺序列表流程图一;
图4为本申请实施例公开的确定目标点顺序列表流程图二;
图5为本申请实施例公开的根据目标点集合进行强化训练的流程图;
图6为根据本申请实施例的一种电子设备的示意图;
图7为本申请实施例公开的机械臂轨迹规划要素选择系统框架图。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例的附图,对本发明实施例的技术方案进行清楚、完整地描述。显然,所描述的实施例是本发明的一部分实施例,而不是全部的实施例。基于所描述的本发明的实施例,本领域普通技术人员在无需创造性劳动的前提下所获得的所有其他实施例,都属于本发明保护的范围。除非另作定义,此处使用的技术术语或者科学术语应当为本发明所属领域内具有一般技能的人士所理解的通常意义。
本发明专利申请说明书以及权利要求书中使用的“第一”、“第二”以及类似的词语并不表示任何顺序、数量或者重要性,而只是用来区分不同的组成部分。同样, 除非上下文清楚地指明其它情况,否则单数形式的“一个”“一”或者“该”等类似词语也不表示数量限制,而是表示存在至少一个。“包括”或者“包含”等类似的词语意指出现在“包括”或者“包含”前面的元件或者物件涵盖出现在“包括”或者“包含”后面列举的特征、整体、步骤、操作、元素和/或组件, 并不排除一个或多个其它特征、整体、步骤、 操作、元素、组件和/或其集合的存在或添加。“上”“下”“左”“右”等仅用于表示相对位置关系,当被描述对象的绝对位置改变后,则该相对位置关系也可能相应地改变。
基于现有技术中在机械臂多目标的工作任务中,由于机械臂的当前位置、目标位置和尖端姿态选择的不同会产生不同的运行轨迹,基于环境和机械臂的运行限制只有少部分轨迹能达成工作目标;因此,需要对机械臂的运行轨迹进行规划。本发明旨在于提出一种基于强化学习的机械臂轨迹规划要素选择方法及系统,通过对轨迹规划过程的关键要素进行自主选择,关键要素如机械臂姿态和目标点, 实现机械臂在不同的环境中自主训练寻找最合适的轨迹规划方案的效果。
下面结合附图所示的具体实施例,对本发明公开的基于强化学习的机械臂轨迹规划要素选择方法及系统作进一步具体介绍。
结合图1所述,实施例公开的基于强化学习的机械臂轨迹规划要素选择方法,包括如下步骤:
步骤S102,构建机械臂工作的场景文件,并在所述场景文件中获取第一坐标和若干第二坐标;其中,所述第一坐标为初始状态机械臂尖端的位置坐标,所述第二坐标为各目标点的位置坐标;场景文件充分描述机械臂的实际工作环境,包括机械臂工作空间、工作空间内的障碍物等。
步骤S104,根据所述第一坐标和各所述第二坐标,确定机械臂轨迹的目标点顺序列表;
本方案中目标点顺序列表可以按照预设条件直接选定,也可以采用机械学习进行训练实现目标点顺序的自主确定。图3示出一种按照预设条件直接确定目标点顺序列表的实施方式,包括如下步骤:步骤S302,计算各所述第二坐标与所述第一坐标的欧氏距离,筛选属于所述机械臂工作范围内的所有目标点,建立可完成目标列表;步骤S304,确定存放在所述目标点顺序列表中的第一个目标点,所述第一个目标点为所述可完成目标列表中与所述第一坐标的所述欧氏距离最小的目标点;步骤S306,以所述第一个目标点为下一所述机械臂尖端的初始位置,计算所述第一个目标点与所述可完成目标列表中未被选择的目标点的欧氏距离,存放与所述第一个目标点欧氏距离最小的、未被选择的所述目标点为所述目标点顺序列表的第二个目标点;步骤S308,以所述目标点顺序列表最新确定的目标点为下一所述机械臂尖端的初始位置,重复执行计算下一所述机械臂尖端的初始位置与所述可完成目标列表中未被选择的目标点的欧氏距离,并选择所述可完成目标列表中与下一所述机械臂尖端的初始位置欧氏距离最小的、未被选择的所述目标点为所述目标点顺序列表下一目标点,直至所述可完成目标列表中的所有目标点都顺序存放在所述目标点顺序列表中。
图4示出了通过机器学习确定目标点顺序列表的一实施方式,具体包括:步骤S402,获取第二姿态集合,建立基于强化学习的第二策略网络和第二价值网络;其中,所述第二姿态集合中至少包括两种机械臂姿态;步骤S404,采用蒙特卡洛树搜索,对目标点集合使用上限置信区间算法随机选择并进行强化训练,获得所述机械臂由所述第一坐标选择所述目标点集合中任一所述目标点作为下一个目标点计算遍历集合中所有目标点的可执行轨迹方案的第二概率;所述第二概率由执行选择的所述下一个目标点计算获得遍历集合中所有目标点的可执行轨迹方案的奖励值总和与规划可执行轨迹方案的总次数得到;步骤S406,根据所述第二概率确定所述目标点顺序列表,所述目标点顺序列表由所述机械臂运动轨迹的各目标点及其顺序构成;其中,所述机械臂运动轨迹为将所述目标点集合中概率值最高的所述目标点作为下一个目标点进行轨迹计算,获得的遍历集合中所有目标点的可执行轨迹方案。
由于机械臂轨迹规划需要提供机械臂尖端的起始位置坐标、终止位置坐标和抵达终止点时机械臂姿态,其中,机械臂尖端的起始位置坐标即为当前机械臂尖端所在位置坐标,如第一坐标;机械臂尖端的终止位置坐标即为各目标点位置坐标,如第二坐标;但是由于机械臂姿态并未指定,且不同的姿态需要通过不同的机械臂运动轨迹达成,因此在确定目标点顺序列表后,需要在无限种机械臂姿态中找到合适的姿态,最终实现规划相应的运动轨迹。
步骤S106,获取第一姿态集合,建立基于强化学习的第一策略网络和第一价值网络;其中,所述第一姿态集合中至少包括两种机械臂姿态;
步骤S108,采用蒙特卡洛树搜索,根据所述目标点顺序列表对所述第一姿态集合使用上限置信区间算法随机选择并进行强化训练,获得选择各所述机械臂姿态由所述第一坐标运动至所述目标点顺序列表最终目标点的可执行轨迹方案的第一概率;其中,所述第一概率由执行选择的所述机械臂姿态抵达所述最终目标点的奖励值总和与规划可执行轨迹方案的总次数得到;实施例采用的计算方式为第一概率P 1 =R 1 /N 1 ,其中,R 1 表示选择的所述机械臂姿态抵达所述最终目标点的奖励值总和,N 1 表示选择的所述机械臂姿态抵达所述最终目标点的规划可执行轨迹方案的总次数;
步骤S110,根据所述目标点顺序列表选取轨迹目标点,自所述第一坐标优先选择概率值最高的所述机械臂姿态进行轨迹计算,并当所述机械臂姿态获得可执行路径时,保存该路径参数至命令顺序列表中,再顺序选择下一个目标点进行计算,直到所述目标点顺序列表中所有目标点均计算出合适的运动轨迹后输出命令顺序列表;当所述目标点选择一概率值最高的机械臂姿态后在其下一目标点未获得可执行路径,则排除该所述概率值最高的机械臂姿态根据、再依据概率由高至低的顺序选择顺次的所述机械臂姿态进行轨迹计算,直至所述下一个目标点均能计算出可执行路径后输出所述第一坐标至所述目标点顺序列表最终目标点的命令顺序列表;
步骤S112,在所述场景文件中,根据所述命令顺序列表对所述机械臂执行仿真运行。
实施例中,第一姿态集合由20种常用机械臂姿态构成,第一策略网络和第一价值网络使用这20种常用机械臂姿态建立;在训练过程中,可执行轨迹方案采用将第一姿态集合中各机械臂姿态导入pyrep包中的getPath函数中进行运动轨迹计算,使用SBL算法,同时也可以采用PRM和RRT等轨迹计算算法计算轨迹。
结合图2所示,实施例采用蒙特卡洛树搜索,根据所述目标点顺序列表对所述第一姿态集合使用上限置信区间算法随机选择并进行强化训练的过程,包括:步骤S202,选取所述目标点顺序列表中下一个目标点,以所述机械臂在当前轨迹点的状态作为所述第一策略网络的输入,该输入经卷积层转化成特征向量后通过全连接层得到输出层,所述输出层的输出通过Softmax函数转化为概率分布;其中,所述输出层为N*1维度,N为所述第一姿态集合中机械臂姿态的数目;所述第一策略网络采用蒙特卡洛树搜索,使用上限置信区间算法随机选择一所述机械臂姿态计算所述机械臂在当前轨迹点至所述下一目标点的轨迹方案,并当计算的所述机械臂姿态下获得可执行轨迹方案时设定该姿态下的轨迹规划结果值为1,否则设定为0;步骤S204,根据所述概率分布,在所述轨迹规划结果值为1的若干所述机械臂姿态中随机选取一种所述机械臂姿态执行抵达该目标点和姿态的轨迹方案后,将抵达该目标点的所述机械臂状态作为下一次所述第一策略网络的输入;步骤S206,遍历执行抵达所述目标点顺序列表的各目标点,直至获得抵达所述目标点顺序列表最终目标点的轨迹方案;步骤S208,基于所述第一价值网络,评价执行所述姿态集合中各所述机械臂姿态下获得的轨迹方案,以获得执行各轨迹方案的奖励值;其中,当所述机械臂姿态下获得由所述第一坐标至所述最终目标点的可执行轨迹方案时,所述奖励值设置为增加1,否则所述奖励值设置为设定增加0。上述步骤实现第一策略网络的学习过程,当奖励值更新后,再重新选择一机械臂姿态开始新的一轮训练。
另外,步骤S110实现使用步骤S108训练好的系统进行验证,根据目标点顺序列表选取目标点,对每个目标点将优先选择奖励值最高的机械臂姿态进行计算,若该姿态获得合适的轨迹,将该路径的相关参数(机械臂尖端的起始位置坐标、终止位置坐标、抵达终止点时机械臂的姿态以及该路径)保存至命令顺序列表中,并选择下一个目标点进行计算,直到所有目标点均计算出合适的运动轨迹后输出结果。例如,选择目标点a的x姿态后,下一个目标点b中所有机械臂姿态均未计算出合适的路径轨迹,则从目标点顺序列表的第一个目标点开始重新计算,在目标点a处除去x姿态以外选择奖励值最高的姿态,并继续路径轨迹计算,直到获得所有目标点均计算出合适的运动轨迹后输出遍历目标点顺序列表完整轨迹的命令顺序列表。
作为一可选的实施方式,步骤S404对目标点集合使用上限置信区间算法随机选择并进行强化训练,获得所述机械臂由所述第一坐标选择所述目标点集合中任一所述目标点作为下一个目标点计算遍历集合中所有目标点的可执行轨迹方案的第二概率的过程可采用与机械臂姿态选择训练相似的过程,该过程包括图5所示的如下步骤:步骤S502,采用蒙特卡洛树搜索,使用上限置信区间算法随机选择所述目标点集合中下一个目标点,以所述机械臂在当前轨迹点的状态作为所述第二策略网络的输入,该输入经卷积层转化成特征向量后通过全连接层得到输出层,所述输出层的输出通过Softmax函数转化为概率分布;其中,所述输出层为M*1维度,M为所述目标点集合中目标点的数目;步骤S504,所述第二策略网络判断所述下一个目标点是否为已经被选择的目标点,当所述下一个目标点为未被选择的目标点时,遍历所述第二姿态集合的所述机械臂姿态,计算任一所述机械臂姿态下所述机械臂在当前轨迹点运动至所述下一目标点的轨迹方案,并设定获得可执行轨迹方案的所述机械臂姿态的轨迹规划结果值为1,否则设定为0;步骤S506,根据所述概率分布,在所述轨迹规划结果值为1的若干所述机械臂姿态中随机选取一种所述机械臂姿态执行抵达所述下一个目标点后,将抵达该目标点的所述机械臂状态作为下一次所述第二策略网络的输入,并循环执行在所述目标点集合中随机下一个目标点,直至所述目标点集合中所有目标点均已计算获得可执行轨迹方案或所有剩余的目标点均不能计算获得可执行轨迹方案;步骤S508,基于所述第二价值网络,评价执行所述目标点集合中各选定下一个目标点获得的轨迹方案,以获得执行各轨迹方案的奖励值;其中,当所述下一个目标点为已经被选择的目标点时,所述奖励值设置为负数;当所述下一个目标点为未被选择的目标点,且计算得到由所述下一个目标点遍历集合中所有目标点的可执行轨迹方案,则所述奖励值设置为增加1,否则所述奖励值设置为设定增加0。其中,第二概率P 2 =R 2 /N 2 ,R 2 表示选择的所述目标点抵达所述最终目标点的奖励值总和,N 2 表示选择的所述目标点抵达所述最终目标点的规划可执行轨迹方案的总次数;步骤S506在所有目标点均根据第二姿态集合计算过可执行轨迹方案后,完成一次训练,更新第二策略网络和第二价值网络的参数。
可选的,通过机器学习确定目标点顺序列表的过程还包括目标点筛选的过程,即通过计算各目标点与初始状态机械臂尖端的欧氏距离,筛选属于机械臂工作范围内的所有目标点,范围外的目标点设为不能完成的废弃点,移除出可完成目标列表。
作为另一可选的实施方式,本发明还可以直接在通过机器学习确定目标点顺序列表后,直接利用更新后的第二策略网络和第二价值网络进行验证,并确定机械臂的运动轨迹。具体为,将根据第二概率或奖励值最高的目标点规划好的运动轨迹,在场景文件中使用Coppeliasim进行仿真运行测试,若运动轨迹符合现实场景运行,且并未触碰该机械臂本体时,将该路径的相关参数(机械臂尖端的起始位置坐标、终止位置坐标、抵达终止点时机械臂的姿态以及该路径)保存至轨迹命令顺序列表中,直至所有目标点均完成,输出轨迹命令顺序列表。
作为一可选的实施方式,当本发明公开的机械臂轨迹规划要素选择方法应用于多机械臂多目标工作任务时,还包括对任意两机械臂规划的最终轨迹方案进行碰撞检测,以满足多机械臂的运行要求。
本发明公开的基于强化学习的机械臂轨迹规划要素选择方法,使用强化学习中的蒙特卡洛树搜索方式,建立策略网络和价值网络,结合上限置信区间算法平衡要素选择并进行随机训练,通过轨迹目标点的顺序选择、机械臂尖端姿态选择与机械臂轨迹规划的结合,实现快速对场景中任意多个目标点的轨迹规划。
本申请的实施例中,还提供一种电子设备,该设备包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,处理器运行所述计算机程序时实现上述实施例公开的基于强化学习的机械臂轨迹规划要素选择方法。以运行在计算机上的电子设备为例,如图6所示,该电子设备可以包括一个或多个(图中仅示出一个)处理器(处理器可以包括但不限于微处理器MCU或可编程逻辑器件FPGA等的处理装置)、用于存储数据的存储器、以及用于通信功能的传输装置。本领域普通技术人员可以理解,图6所示的结构仅为示意,其并不对上述电子设备的结构造成限定。
上述程序可以运行在处理器中,或者也可以存储在存储器中,即计算机可读介质中,计算机可读介质包括永久性和非永久性、可移动和非可移动媒体可以由任何方法或技术来实现信息存储。信息可以是计算机可读指令、数据结构、程序的模块或其他数据。计算机的存储介质的例子包括,但不限于相变内存 (PRAM)、静态随机存取存储器 (SRAM)、动态随机存取存储器 (DRAM)、其他类型的随机存取存储器 (RAM)、只读存储器 (ROM)、电可擦除可编程只读存储器 (EEPROM)、快闪记忆体或其他内存技术、只读光盘只读存储器 (CD-ROM)、数字多功能光盘 (DVD) 或其他光学存储、磁盒式磁带,磁带磁磁盘存储或其他磁性存储设备或任何其他非传输介质,可用于存储可以被计算设备访问的信息。按照本文中的界定,计算机可读介质不包括暂存电脑可读媒体,如调制的数据信号和载波。
这些计算机程序也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤,对应于不同的方法步骤可以通过不同的模块来实现。
在本实施例中,就提供了这样一种装置或系统,该系统可以称为一种基于强化学习的机械臂轨迹规划要素选择系统,该系统如图7所示,包括:构建获取建立模块,用于构建机械臂工作的场景文件,并在所述场景文件中获取第一坐标和若干第二坐标;其中,所述第一坐标为初始状态机械臂尖端的位置坐标,所述第二坐标为各目标点的位置坐标;确定模块,用于根据所述第一坐标和各所述第二坐标,确定机械臂轨迹的目标点顺序列表;获取建立模块,用于获取第一姿态集合,建立基于强化学习的第一策略网络和第一价值网络;其中,所述第一姿态集合中至少包括两种机械臂姿态;训练模块,用于采用蒙特卡洛树搜索,根据所述目标点顺序列表对所述第一姿态集合使用上限置信区间算法随机选择并进行强化训练,获得选择各所述机械臂姿态由所述第一坐标运动至所述目标点顺序列表最终目标点的可执行轨迹方案的第一概率;其中,所述第一概率由执行选择的所述机械臂姿态抵达所述最终目标点的奖励值总和与规划可执行轨迹方案的总次数得到;轨迹计算模块,根据所述目标点顺序列表选取轨迹目标点,自所述第一坐标优先选择概率值最高的所述机械臂姿态进行轨迹计算,并当所述机械臂姿态获得可执行路径时,保存该路径参数至命令顺序列表中,再顺序选择下一个目标点进行计算,直到所述目标点顺序列表中所有目标点均计算出合适的运动轨迹后输出命令顺序列表;当所述目标点选择一概率值最高的机械臂姿态后在其下一目标点未获得可执行路径,则排除该所述概率值最高的机械臂姿态根据、再依据概率由高至低的顺序选择顺次的所述机械臂姿态进行轨迹计算,直至所述下一个目标点均能计算出可执行路径后输出所述第一坐标至所述目标点顺序列表最终目标点的命令顺序列表;仿真执行模块,用于在所述场景文件中,根据所述命令顺序列表对所述机械臂执行仿真运行。
由于所述系统用于实现上述基于强化学习的机械臂轨迹规划要素选择方法,因此上述已经说明的,此处不再赘述。
例如,所述第一训练模块采用蒙特卡洛树搜索,根据所述目标点顺序列表对所述第一姿态集合使用上限置信区间算法随机选择并进行强化训练的过程,包括如下执行单元:第一选取单元,用于选取所述目标点顺序列表中下一个目标点,以所述机械臂在当前轨迹点的状态作为所述第一策略网络的输入,该输入经卷积层转化成特征向量后通过全连接层得到输出层,所述输出层的输出通过Softmax函数转化为概率分布;其中,所述输出层为N*1维度,N为所述第一姿态集合中机械臂姿态的数目;所述第一策略网络采用蒙特卡洛树搜索,使用上限置信区间算法随机选择一所述机械臂姿态计算所述机械臂在当前轨迹点至所述下一目标点的轨迹方案,并当计算的所述机械臂姿态下获得可执行轨迹方案时设定该姿态下的轨迹规划结果值为1,否则设定为0;第二选取单元,用于根据所述概率分布,在所述轨迹规划结果值为1的若干所述机械臂姿态中随机选取一种所述机械臂姿态执行抵达该目标点和姿态的轨迹方案后,将抵达该目标点的所述机械臂状态作为下一次所述第一策略网络的输入;遍历执行单元,用于遍历执行抵达所述目标点顺序列表的各目标点,直至获得抵达所述目标点顺序列表最终目标点的轨迹方案;第一评价单元,用于基于所述第一价值网络,评价执行所述姿态集合中各所述机械臂姿态下获得的轨迹方案,以获得执行各轨迹方案的奖励值;其中,当所述机械臂姿态下获得由所述第一坐标至所述最终目标点的可执行轨迹方案时,所述奖励值设置为增加1,否则所述奖励值设置为设定增加0。
又例如,所述确定模块根据所述第一坐标和各所述第二坐标,确定机械臂轨迹的目标点顺序列表的过程,包括:第一计算单元,用于计算各所述第二坐标与所述第一坐标的欧氏距离,筛选属于所述机械臂工作范围内的所有目标点,建立可完成目标列表;第二确定单元,用于确定存放在所述目标点顺序列表中的第一个目标点,所述第一个目标点为所述可完成目标列表中与所述第一坐标的所述欧氏距离最小的目标点;第二计算单元,用于以所述第一个目标点为下一所述机械臂尖端的初始位置,计算所述第一个目标点与所述可完成目标列表中未被选择的目标点的欧氏距离,存放与所述第一个目标点欧氏距离最小的、未被选择的所述目标点为所述目标点顺序列表的第二个目标点;重复执行单元,用于以所述目标点顺序列表最新确定的目标点为下一所述机械臂尖端的初始位置,重复执行计算下一所述机械臂尖端的初始位置与所述可完成目标列表中未被选择的目标点的欧氏距离,并选择所述可完成目标列表中与下一所述机械臂尖端的初始位置欧氏距离最小的、未被选择的所述目标点为所述目标点顺序列表下一目标点,直至所述可完成目标列表中的所有目标点都顺序存放在所述目标点顺序列表中。
又例如,所述确定模块还可以根据所述第一坐标和各所述第二坐标,采用机器学习的方式确定机械臂轨迹的目标点顺序列表的执行单元,具体包括:获取单元,用于获取第二姿态集合,建立基于强化学习的第二策略网络和第二价值网络;其中,所述第二姿态集合中至少包括两种机械臂姿态;训练单元,用于采用蒙特卡洛树搜索,对目标点集合使用上限置信区间算法随机选择并进行强化训练,获得所述机械臂由所述第一坐标选择所述目标点集合中任一所述目标点作为下一个目标点计算遍历集合中所有目标点的可执行轨迹方案的第二概率;所述第二概率由执行选择的所述下一个目标点计算获得遍历集合中所有目标点的可执行轨迹方案的奖励值总和与规划可执行轨迹方案的总次数得到;第一确定单元,用于根据所述第二概率确定所述目标点顺序列表,所述目标点顺序列表由所述机械臂运动轨迹的各目标点及其顺序构成;其中,所述机械臂运动轨迹为将所述目标点集合中概率值最高的所述目标点作为下一个目标点进行轨迹计算,获得的遍历集合中所有目标点的可执行轨迹方案。
其中,训练单元采用蒙特卡洛树搜索,对目标点集合使用上限置信区间算法随机选择并进行强化训练,获得所述机械臂由所述第一坐标选择所述目标点集合中任一所述目标点作为下一个目标点计算遍历集合中所有目标点的可执行轨迹方案的第二概率的过程,包括:采用蒙特卡洛树搜索,使用上限置信区间算法随机选择所述目标点集合中下一个目标点,以所述机械臂在当前轨迹点的状态作为所述第二策略网络的输入,该输入经卷积层转化成特征向量后通过全连接层得到输出层,所述输出层的输出通过Softmax函数转化为概率分布;其中,所述输出层为M*1维度,M为所述目标点集合中目标点的数目;所述第二策略网络判断所述下一个目标点是否为已经被选择的目标点,当所述下一个目标点为未被选择的目标点时,遍历所述第二姿态集合的所述机械臂姿态,计算任一所述机械臂姿态下所述机械臂在当前轨迹点运动至所述下一目标点的轨迹方案,并设定获得可执行轨迹方案的所述机械臂姿态的轨迹规划结果值为1,否则设定为0;根据所述概率分布,在所述轨迹规划结果值为1的若干所述机械臂姿态中随机选取一种所述机械臂姿态执行抵达所述下一个目标点后,将抵达该目标点的所述机械臂状态作为下一次所述第二策略网络的输入,并循环执行在所述目标点集合中随机下一个目标点,直至所述目标点集合中所有目标点均已计算获得可执行轨迹方案或所有剩余的目标点均不能计算获得可执行轨迹方案;基于所述第二价值网络,评价执行所述目标点集合中各选定下一个目标点获得的轨迹方案,以获得执行各轨迹方案的奖励值;其中,当所述下一个目标点为已经被选择的目标点时,所述奖励值设置为负数;当所述下一个目标点为未被选择的目标点,且计算得到由所述下一个目标点遍历集合中所有目标点的可执行轨迹方案,则所述奖励值设置为增加1,否则所述奖励值设置为设定增加0。
本发明实施例公开的基于强化学习的机械臂轨迹规划要素选择方法及系统,其方法包括:构建机械臂工作的场景文件;根据场景文件确定机械臂轨迹的目标点顺序列表;获取第一姿态集合,根据目标点顺序列表对第一姿态集合使用上限置信区间算法随机选择并进行强化学习,获得选择各所述机械臂姿态的可执行轨迹方案的第一概率;根据目标点顺序列表和第一概率获得命令顺序列表并执行仿真运行。本发明通过引入强化学习达到对机械臂自适应规划目标点顺序列表和选择机械臂姿态的目的,以较短时间实现机械臂在不同环境中自主训练寻找最合适轨迹规划方案的技术效果。
虽然本发明已以较佳实施例揭露如上,然其并非用以限定本发明。本发明所属技术领域中具有通常知识者,在不脱离本发明的精神和范围内,当可作各种的更动与润饰。因此,本发明的保护范围当视权利要求书所界定者为准。
Claims (10)
1.一种基于强化学习的机械臂轨迹规划要素选择方法,其特征在于,包括:
构建机械臂工作的场景文件,并在所述场景文件中获取第一坐标和若干第二坐标;其中,所述第一坐标为初始状态机械臂尖端的位置坐标,所述第二坐标为各目标点的位置坐标;
根据所述第一坐标和各所述第二坐标,确定机械臂轨迹的目标点顺序列表;
获取第一姿态集合,建立基于强化学习的第一策略网络和第一价值网络;其中,所述第一姿态集合中至少包括两种机械臂姿态;
采用蒙特卡洛树搜索,根据所述目标点顺序列表对所述第一姿态集合使用上限置信区间算法随机选择并进行强化训练,获得选择各所述机械臂姿态由所述第一坐标运动至所述目标点顺序列表最终目标点的可执行轨迹方案的第一概率;其中,所述第一概率由执行选择的所述机械臂姿态抵达所述最终目标点的奖励值总和与规划可执行轨迹方案的总次数得到;
根据所述目标点顺序列表选取轨迹目标点,自所述第一坐标优先选择概率值最高的所述机械臂姿态进行轨迹计算,并当所述机械臂姿态获得可执行路径时,保存该路径参数至命令顺序列表中,再顺序选择下一个目标点进行计算,直到所述目标点顺序列表中所有目标点均计算出合适的运动轨迹后输出命令顺序列表;当所述目标点选择一概率值最高的机械臂姿态后在其下一目标点未获得可执行路径,则排除该所述概率值最高的机械臂姿态根据、再依据概率由高至低的顺序选择顺次的所述机械臂姿态进行轨迹计算,直至所述下一个目标点均能计算出可执行路径后输出所述第一坐标至所述目标点顺序列表最终目标点的命令顺序列表;
在所述场景文件中,根据所述命令顺序列表对所述机械臂执行仿真运行。
2.根据权利要求1所述的基于强化学习的机械臂轨迹规划要素选择方法,其特征在于,采用蒙特卡洛树搜索,根据所述目标点顺序列表对所述第一姿态集合使用上限置信区间算法随机选择并进行强化训练的过程,包括:
选取所述目标点顺序列表中下一个目标点,以所述机械臂在当前轨迹点的状态作为所述第一策略网络的输入,该输入经卷积层转化成特征向量后通过全连接层得到输出层,所述输出层的输出通过Softmax函数转化为概率分布;其中,所述输出层为N*1维度,N为所述第一姿态集合中机械臂姿态的数目;所述第一策略网络采用蒙特卡洛树搜索,使用上限置信区间算法随机选择一所述机械臂姿态计算所述机械臂在当前轨迹点至所述下一目标点的轨迹方案,并当计算的所述机械臂姿态下获得可执行轨迹方案时设定该姿态下的轨迹规划结果值为1,否则设定为0;
根据所述概率分布,在所述轨迹规划结果值为1的若干所述机械臂姿态中随机选取一种所述机械臂姿态执行抵达该目标点和姿态的轨迹方案后,将抵达该目标点的所述机械臂状态作为下一次所述第一策略网络的输入;
遍历执行抵达所述目标点顺序列表的各目标点,直至获得抵达所述目标点顺序列表最终目标点的轨迹方案;
基于所述第一价值网络,评价执行所述姿态集合中各所述机械臂姿态下获得的轨迹方案,以获得执行各轨迹方案的奖励值;其中,当所述机械臂姿态下获得由所述第一坐标至所述最终目标点的可执行轨迹方案时,所述奖励值设置为增加1,否则所述奖励值设置为设定增加0。
3.根据权利要求1所述的基于强化学习的机械臂轨迹规划要素选择方法,其特征在于,所述确定机械臂轨迹的目标点顺序列表的过程,包括:
计算各所述第二坐标与所述第一坐标的欧氏距离,筛选属于所述机械臂工作范围内的所有目标点,建立可完成目标列表;
确定存放在所述目标点顺序列表中的第一个目标点,所述第一个目标点为所述可完成目标列表中与所述第一坐标的所述欧氏距离最小的目标点;
以所述第一个目标点为下一所述机械臂尖端的初始位置,计算所述第一个目标点与所述可完成目标列表中未被选择的目标点的欧氏距离,存放与所述第一个目标点欧氏距离最小的、未被选择的所述目标点为所述目标点顺序列表的第二个目标点;
以所述目标点顺序列表最新确定的目标点为下一所述机械臂尖端的初始位置,重复执行计算下一所述机械臂尖端的初始位置与所述可完成目标列表中未被选择的目标点的欧氏距离,并选择所述可完成目标列表中与下一所述机械臂尖端的初始位置欧氏距离最小的、未被选择的所述目标点为所述目标点顺序列表下一目标点,直至所述可完成目标列表中的所有目标点都顺序存放在所述目标点顺序列表中。
4.根据权利要求1所述的基于强化学习的机械臂轨迹规划要素选择方法,其特征在于,所述确定机械臂轨迹的目标点顺序列表的过程,包括:
获取第二姿态集合,建立基于强化学习的第二策略网络和第二价值网络;其中,所述第二姿态集合中至少包括两种机械臂姿态;
采用蒙特卡洛树搜索,对目标点集合使用上限置信区间算法随机选择并进行强化训练,获得所述机械臂由所述第一坐标选择所述目标点集合中任一所述目标点作为下一个目标点计算遍历集合中所有目标点的可执行轨迹方案的第二概率;所述第二概率由执行选择的所述下一个目标点计算获得遍历集合中所有目标点的可执行轨迹方案的奖励值总和与规划可执行轨迹方案的总次数得到;
根据所述第二概率确定所述目标点顺序列表,所述目标点顺序列表由所述机械臂运动轨迹的各目标点及其顺序构成;其中,所述机械臂运动轨迹为将所述目标点集合中概率值最高的所述目标点作为下一个目标点进行轨迹计算,获得的遍历集合中所有目标点的可执行轨迹方案。
5.根据权利要求4所述的基于强化学习的机械臂轨迹规划要素选择方法,其特征在于,所述采用蒙特卡洛树搜索,对目标点集合使用上限置信区间算法随机选择并进行强化训练,获得所述机械臂由所述第一坐标选择所述目标点集合中任一所述目标点作为下一个目标点计算遍历集合中所有目标点的可执行轨迹方案的第二概率的过程,包括:
采用蒙特卡洛树搜索,使用上限置信区间算法随机选择所述目标点集合中下一个目标点,以所述机械臂在当前轨迹点的状态作为所述第二策略网络的输入,该输入经卷积层转化成特征向量后通过全连接层得到输出层,所述输出层的输出通过Softmax函数转化为概率分布;其中,所述输出层为M*1维度,M为所述目标点集合中目标点的数目;
所述第二策略网络判断所述下一个目标点是否为已经被选择的目标点,当所述下一个目标点为未被选择的目标点时,遍历所述第二姿态集合的所述机械臂姿态,计算任一所述机械臂姿态下所述机械臂在当前轨迹点运动至所述下一目标点的轨迹方案,并设定获得可执行轨迹方案的所述机械臂姿态的轨迹规划结果值为1,否则设定为0;
根据所述概率分布,在所述轨迹规划结果值为1的若干所述机械臂姿态中随机选取一种所述机械臂姿态执行抵达所述下一个目标点后,将抵达该目标点的所述机械臂状态作为下一次所述第二策略网络的输入,并循环执行在所述目标点集合中随机下一个目标点,直至所述目标点集合中所有目标点均已计算获得可执行轨迹方案或所有剩余的目标点均不能计算获得可执行轨迹方案;
基于所述第二价值网络,评价执行所述目标点集合中各选定下一个目标点获得的轨迹方案,以获得执行各轨迹方案的奖励值;其中,当所述下一个目标点为已经被选择的目标点时,所述奖励值设置为负数;当所述下一个目标点为未被选择的目标点,且计算得到由所述下一个目标点遍历集合中所有目标点的可执行轨迹方案,则所述奖励值设置为增加1,否则所述奖励值设置为设定增加0。
6.一种基于强化学习的机械臂轨迹规划要素选择系统,其特征在于,包括:
构建获取建立模块,用于构建机械臂工作的场景文件,并在所述场景文件中获取第一坐标和若干第二坐标;其中,所述第一坐标为初始状态机械臂尖端的位置坐标,所述第二坐标为各目标点的位置坐标;
确定模块,用于根据所述第一坐标和各所述第二坐标,确定机械臂轨迹的目标点顺序列表;
获取建立模块,用于获取第一姿态集合,建立基于强化学习的第一策略网络和第一价值网络;其中,所述第一姿态集合中至少包括两种机械臂姿态;
训练模块,用于采用蒙特卡洛树搜索,根据所述目标点顺序列表对所述第一姿态集合使用上限置信区间算法随机选择并进行强化训练,获得选择各所述机械臂姿态由所述第一坐标运动至所述目标点顺序列表最终目标点的可执行轨迹方案的第一概率;其中,所述第一概率由执行选择的所述机械臂姿态抵达所述最终目标点的奖励值总和与规划可执行轨迹方案的总次数得到;
轨迹计算模块,根据所述目标点顺序列表选取轨迹目标点,自所述第一坐标优先选择概率值最高的所述机械臂姿态进行轨迹计算,并当所述机械臂姿态获得可执行路径时,保存该路径参数至命令顺序列表中,再顺序选择下一个目标点进行计算,直到所述目标点顺序列表中所有目标点均计算出合适的运动轨迹后输出命令顺序列表;当所述目标点选择一概率值最高的机械臂姿态后在其下一目标点未获得可执行路径,则排除该所述概率值最高的机械臂姿态根据、再依据概率由高至低的顺序选择顺次的所述机械臂姿态进行轨迹计算,直至所述下一个目标点均能计算出可执行路径后输出所述第一坐标至所述目标点顺序列表最终目标点的命令顺序列表;
仿真执行模块,用于在所述场景文件中,根据所述命令顺序列表对所述机械臂执行仿真运行。
7.根据权利要求6所述的基于强化学习的机械臂轨迹规划要素选择系统,其特征在于,所述第一训练模块采用蒙特卡洛树搜索,根据所述目标点顺序列表对所述第一姿态集合使用上限置信区间算法随机选择并进行强化训练的过程,包括如下执行单元:
第一选取单元,用于选取所述目标点顺序列表中下一个目标点,以所述机械臂在当前轨迹点的状态作为所述第一策略网络的输入,该输入经卷积层转化成特征向量后通过全连接层得到输出层,所述输出层的输出通过Softmax函数转化为概率分布;其中,所述输出层为N*1维度,N为所述第一姿态集合中机械臂姿态的数目;所述第一策略网络采用蒙特卡洛树搜索,使用上限置信区间算法随机选择一所述机械臂姿态计算所述机械臂在当前轨迹点至所述下一目标点的轨迹方案,并当计算的所述机械臂姿态下获得可执行轨迹方案时设定该姿态下的轨迹规划结果值为1,否则设定为0;
第二选取单元,用于根据所述概率分布,在所述轨迹规划结果值为1的若干所述机械臂姿态中随机选取一种所述机械臂姿态执行抵达该目标点和姿态的轨迹方案后,将抵达该目标点的所述机械臂状态作为下一次所述第一策略网络的输入;
遍历执行单元,用于遍历执行抵达所述目标点顺序列表的各目标点,直至获得抵达所述目标点顺序列表最终目标点的轨迹方案;
第一评价单元,用于基于所述第一价值网络,评价执行所述姿态集合中各所述机械臂姿态下获得的轨迹方案,以获得执行各轨迹方案的奖励值;其中,当所述机械臂姿态下获得由所述第一坐标至所述最终目标点的可执行轨迹方案时,所述奖励值设置为增加1,否则所述奖励值设置为设定增加0。
8.根据权利要求6所述的基于强化学习的机械臂轨迹规划要素选择系统,其特征在于,所述确定模块根据所述第一坐标和各所述第二坐标,确定机械臂轨迹的目标点顺序列表的执行单元,包括:
获取单元,用于获取第二姿态集合,建立基于强化学习的第二策略网络和第二价值网络;其中,所述第二姿态集合中至少包括两种机械臂姿态;
训练单元,用于采用蒙特卡洛树搜索,对目标点集合使用上限置信区间算法随机选择并进行强化训练,获得所述机械臂由所述第一坐标选择所述目标点集合中任一所述目标点作为下一个目标点计算遍历集合中所有目标点的可执行轨迹方案的第二概率;所述第二概率由执行选择的所述下一个目标点计算获得遍历集合中所有目标点的可执行轨迹方案的奖励值总和与规划可执行轨迹方案的总次数得到;
第一确定单元,用于根据所述第二概率确定所述目标点顺序列表,所述目标点顺序列表由所述机械臂运动轨迹的各目标点及其顺序构成;其中,所述机械臂运动轨迹为将所述目标点集合中概率值最高的所述目标点作为下一个目标点进行轨迹计算,获得的遍历集合中所有目标点的可执行轨迹方案。
9.一种电子设备,其特征在于,包括至少一个处理器;所述处理器与存储器耦合,所述存储器用于存储一条或多条计算指令,其中,所述一条或多条计算机指令被所述处理器运行时执行以实现权利要求1~5中任一项所述的基于强化学习的机械臂轨迹规划要素选择方法的步骤。
10.一种可读存储介质,其上存储有程序或指令,其特征在于,所述程序或指令被处理器执行时实现如权利要求1至5中任一项所述的基于强化学习的机械臂轨迹规划要素选择方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310966905.3A CN116673968B (zh) | 2023-08-03 | 2023-08-03 | 基于强化学习的机械臂轨迹规划要素选择方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310966905.3A CN116673968B (zh) | 2023-08-03 | 2023-08-03 | 基于强化学习的机械臂轨迹规划要素选择方法及系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN116673968A true CN116673968A (zh) | 2023-09-01 |
CN116673968B CN116673968B (zh) | 2023-10-10 |
Family
ID=87781361
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310966905.3A Active CN116673968B (zh) | 2023-08-03 | 2023-08-03 | 基于强化学习的机械臂轨迹规划要素选择方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116673968B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117032262A (zh) * | 2023-09-12 | 2023-11-10 | 南栖仙策(南京)科技有限公司 | 机器控制方法、装置、电子设备及存储介质 |
Citations (38)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005316614A (ja) * | 2004-04-27 | 2005-11-10 | Univ Nihon | 最適化方法及び最適化プログラム |
US20100114338A1 (en) * | 2008-10-31 | 2010-05-06 | Gm Global Technology Operations, Inc. | Multi-goal path planning of welding robots with automatic sequencing |
US20120165982A1 (en) * | 2010-12-27 | 2012-06-28 | Samsung Electronics Co., Ltd. | Apparatus for planning path of robot and method thereof |
CN105676642A (zh) * | 2016-02-26 | 2016-06-15 | 同济大学 | 一种六自由度机器人工位布局与运动时间协同优化方法 |
CN105676636A (zh) * | 2016-01-11 | 2016-06-15 | 北京邮电大学 | 一种基于nsga-ii算法的冗余度空间机械臂多目标优化方法 |
US20170254657A1 (en) * | 2016-03-06 | 2017-09-07 | Arizona Board Of Regents On Behalf Of The University Of Arizona | Traverse and trajectory optimization and multi-purpose tracking |
CN107490965A (zh) * | 2017-08-21 | 2017-12-19 | 西北工业大学 | 一种空间自由漂浮机械臂的多约束轨迹规划方法 |
CN108326852A (zh) * | 2018-01-16 | 2018-07-27 | 西北工业大学 | 一种多目标优化的空间机械臂轨迹规划方法 |
CN108582072A (zh) * | 2018-04-28 | 2018-09-28 | 北京邮电大学 | 一种基于改进图规划算法的空间机械臂任务规划方法 |
CN110174118A (zh) * | 2019-05-29 | 2019-08-27 | 北京洛必德科技有限公司 | 基于强化学习的机器人多目标搜索路径规划方法和装置 |
WO2020040763A1 (en) * | 2018-08-23 | 2020-02-27 | Siemens Aktiengesellschaft | Real-time production scheduling with deep reinforcement learning and monte carlo tree search |
US20200061824A1 (en) * | 2018-08-27 | 2020-02-27 | Teradyne, Inc. | System and method for multi-goal path planning |
US20200101608A1 (en) * | 2018-09-30 | 2020-04-02 | Xiangtan University | Method and system for determining motion path of mechanical arm |
CN110989352A (zh) * | 2019-12-06 | 2020-04-10 | 上海应用技术大学 | 一种基于蒙特卡洛树搜索算法的群体机器人协同搜索方法 |
US20210060774A1 (en) * | 2019-08-30 | 2021-03-04 | X Development Llc | Multi-objective robot path planning |
CN112528552A (zh) * | 2020-10-23 | 2021-03-19 | 洛阳银杏科技有限公司 | 一种基于深度强化学习的机械臂控制模型构建方法 |
CN112666949A (zh) * | 2020-12-24 | 2021-04-16 | 武汉理工大学 | 船舶路径规划方法、系统和存储介质 |
US20210141346A1 (en) * | 2019-11-12 | 2021-05-13 | Johnson Controls Technology Company | Building control system with features for operating under intermittent connectivity to a cloud computation system |
CN112827174A (zh) * | 2021-02-05 | 2021-05-25 | 清华大学 | 一种分布式多机器人目标搜索方法 |
CN113110472A (zh) * | 2021-04-25 | 2021-07-13 | 深圳市跨越新科技有限公司 | 路径规划方法、装置和终端 |
CN113334395A (zh) * | 2021-08-09 | 2021-09-03 | 常州唯实智能物联创新中心有限公司 | 多夹具的机械臂无序抓取方法及系统 |
CN113341719A (zh) * | 2021-06-15 | 2021-09-03 | 上海应用技术大学 | 一种融合teb算法和模糊控制的agv轨迹跟踪控制方法 |
CN114067309A (zh) * | 2021-10-25 | 2022-02-18 | 大连理工大学 | 一种基于多视角三维重建的甜椒识别与采摘顺序确定方法 |
CN114906128A (zh) * | 2021-09-24 | 2022-08-16 | 同济大学 | 一种基于mcts算法的自动泊车运动规划方法 |
CN115179287A (zh) * | 2022-07-13 | 2022-10-14 | 苏州中科行智智能科技有限公司 | 一种机械臂的路径规划方法 |
CN115237119A (zh) * | 2022-06-06 | 2022-10-25 | 苏州瑞志行远智能科技有限公司 | 一种基于agv协同搬运目标分配和决策算法 |
CN115302502A (zh) * | 2022-07-08 | 2022-11-08 | 浙江大学 | 一种结合抓取网络和抓取位姿选择与调整的机械臂轨迹规划方法 |
CN115338862A (zh) * | 2022-08-16 | 2022-11-15 | 哈尔滨工业大学 | 一种基于部分可观测马尔科夫的机械手移动路径规划方法 |
CN115424701A (zh) * | 2022-11-07 | 2022-12-02 | 杭州柳叶刀机器人有限公司 | 一种关于最优路径规划的骨表面随动技术 |
KR20220168175A (ko) * | 2021-06-15 | 2022-12-22 | 엔비디아 코포레이션 | 신경망 경로 계획 |
US20230042431A1 (en) * | 2019-10-16 | 2023-02-09 | Five AI Limited | Prediction and planning for mobile robots |
US20230056652A1 (en) * | 2021-08-13 | 2023-02-23 | Massachusetts Institute Of Technology | Robotic Grasping Via RF-Visual Sensing And Learning |
US20230053753A1 (en) * | 2021-08-13 | 2023-02-23 | Sanctuary Cognitive Systems Corporation | Multi-purpose robots and computer program products, and methods for operating the same |
CN115907254A (zh) * | 2022-11-23 | 2023-04-04 | 东北大学 | 一种基于进化的多目标强化学习的车辆路线规划方法 |
CN116069045A (zh) * | 2023-04-06 | 2023-05-05 | 武汉大学 | 一种基于移动机器人的辐射环境探测方法和系统 |
CN116088579A (zh) * | 2023-02-27 | 2023-05-09 | 重庆邮电大学 | 一种基于深度强化学习的无人机自适应信息路径规划方法 |
CN116412826A (zh) * | 2021-12-31 | 2023-07-11 | 第四范式(北京)技术有限公司 | 路径规划方法、装置、电子设备及存储介质 |
WO2023135271A1 (en) * | 2022-01-13 | 2023-07-20 | Five AI Limited | Motion prediction and trajectory generation for mobile agents |
-
2023
- 2023-08-03 CN CN202310966905.3A patent/CN116673968B/zh active Active
Patent Citations (39)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005316614A (ja) * | 2004-04-27 | 2005-11-10 | Univ Nihon | 最適化方法及び最適化プログラム |
US20100114338A1 (en) * | 2008-10-31 | 2010-05-06 | Gm Global Technology Operations, Inc. | Multi-goal path planning of welding robots with automatic sequencing |
CN102203687A (zh) * | 2008-10-31 | 2011-09-28 | 通用汽车环球科技运作有限责任公司 | 自动排序的焊接机器人多目标路径规划 |
US20120165982A1 (en) * | 2010-12-27 | 2012-06-28 | Samsung Electronics Co., Ltd. | Apparatus for planning path of robot and method thereof |
CN105676636A (zh) * | 2016-01-11 | 2016-06-15 | 北京邮电大学 | 一种基于nsga-ii算法的冗余度空间机械臂多目标优化方法 |
CN105676642A (zh) * | 2016-02-26 | 2016-06-15 | 同济大学 | 一种六自由度机器人工位布局与运动时间协同优化方法 |
US20170254657A1 (en) * | 2016-03-06 | 2017-09-07 | Arizona Board Of Regents On Behalf Of The University Of Arizona | Traverse and trajectory optimization and multi-purpose tracking |
CN107490965A (zh) * | 2017-08-21 | 2017-12-19 | 西北工业大学 | 一种空间自由漂浮机械臂的多约束轨迹规划方法 |
CN108326852A (zh) * | 2018-01-16 | 2018-07-27 | 西北工业大学 | 一种多目标优化的空间机械臂轨迹规划方法 |
CN108582072A (zh) * | 2018-04-28 | 2018-09-28 | 北京邮电大学 | 一种基于改进图规划算法的空间机械臂任务规划方法 |
WO2020040763A1 (en) * | 2018-08-23 | 2020-02-27 | Siemens Aktiengesellschaft | Real-time production scheduling with deep reinforcement learning and monte carlo tree search |
US20200061824A1 (en) * | 2018-08-27 | 2020-02-27 | Teradyne, Inc. | System and method for multi-goal path planning |
US20200101608A1 (en) * | 2018-09-30 | 2020-04-02 | Xiangtan University | Method and system for determining motion path of mechanical arm |
CN110174118A (zh) * | 2019-05-29 | 2019-08-27 | 北京洛必德科技有限公司 | 基于强化学习的机器人多目标搜索路径规划方法和装置 |
US20210060774A1 (en) * | 2019-08-30 | 2021-03-04 | X Development Llc | Multi-objective robot path planning |
US20230042431A1 (en) * | 2019-10-16 | 2023-02-09 | Five AI Limited | Prediction and planning for mobile robots |
US20210141346A1 (en) * | 2019-11-12 | 2021-05-13 | Johnson Controls Technology Company | Building control system with features for operating under intermittent connectivity to a cloud computation system |
CN110989352A (zh) * | 2019-12-06 | 2020-04-10 | 上海应用技术大学 | 一种基于蒙特卡洛树搜索算法的群体机器人协同搜索方法 |
CN112528552A (zh) * | 2020-10-23 | 2021-03-19 | 洛阳银杏科技有限公司 | 一种基于深度强化学习的机械臂控制模型构建方法 |
CN112666949A (zh) * | 2020-12-24 | 2021-04-16 | 武汉理工大学 | 船舶路径规划方法、系统和存储介质 |
CN112827174A (zh) * | 2021-02-05 | 2021-05-25 | 清华大学 | 一种分布式多机器人目标搜索方法 |
CN113110472A (zh) * | 2021-04-25 | 2021-07-13 | 深圳市跨越新科技有限公司 | 路径规划方法、装置和终端 |
KR20220168175A (ko) * | 2021-06-15 | 2022-12-22 | 엔비디아 코포레이션 | 신경망 경로 계획 |
CN113341719A (zh) * | 2021-06-15 | 2021-09-03 | 上海应用技术大学 | 一种融合teb算法和模糊控制的agv轨迹跟踪控制方法 |
CN113334395A (zh) * | 2021-08-09 | 2021-09-03 | 常州唯实智能物联创新中心有限公司 | 多夹具的机械臂无序抓取方法及系统 |
US20230056652A1 (en) * | 2021-08-13 | 2023-02-23 | Massachusetts Institute Of Technology | Robotic Grasping Via RF-Visual Sensing And Learning |
US20230053753A1 (en) * | 2021-08-13 | 2023-02-23 | Sanctuary Cognitive Systems Corporation | Multi-purpose robots and computer program products, and methods for operating the same |
CN114906128A (zh) * | 2021-09-24 | 2022-08-16 | 同济大学 | 一种基于mcts算法的自动泊车运动规划方法 |
CN114067309A (zh) * | 2021-10-25 | 2022-02-18 | 大连理工大学 | 一种基于多视角三维重建的甜椒识别与采摘顺序确定方法 |
CN116412826A (zh) * | 2021-12-31 | 2023-07-11 | 第四范式(北京)技术有限公司 | 路径规划方法、装置、电子设备及存储介质 |
WO2023135271A1 (en) * | 2022-01-13 | 2023-07-20 | Five AI Limited | Motion prediction and trajectory generation for mobile agents |
CN115237119A (zh) * | 2022-06-06 | 2022-10-25 | 苏州瑞志行远智能科技有限公司 | 一种基于agv协同搬运目标分配和决策算法 |
CN115302502A (zh) * | 2022-07-08 | 2022-11-08 | 浙江大学 | 一种结合抓取网络和抓取位姿选择与调整的机械臂轨迹规划方法 |
CN115179287A (zh) * | 2022-07-13 | 2022-10-14 | 苏州中科行智智能科技有限公司 | 一种机械臂的路径规划方法 |
CN115338862A (zh) * | 2022-08-16 | 2022-11-15 | 哈尔滨工业大学 | 一种基于部分可观测马尔科夫的机械手移动路径规划方法 |
CN115424701A (zh) * | 2022-11-07 | 2022-12-02 | 杭州柳叶刀机器人有限公司 | 一种关于最优路径规划的骨表面随动技术 |
CN115907254A (zh) * | 2022-11-23 | 2023-04-04 | 东北大学 | 一种基于进化的多目标强化学习的车辆路线规划方法 |
CN116088579A (zh) * | 2023-02-27 | 2023-05-09 | 重庆邮电大学 | 一种基于深度强化学习的无人机自适应信息路径规划方法 |
CN116069045A (zh) * | 2023-04-06 | 2023-05-05 | 武汉大学 | 一种基于移动机器人的辐射环境探测方法和系统 |
Non-Patent Citations (4)
Title |
---|
刘建伟;高峰;罗雄麟;: "基于值函数和策略梯度的深度强化学习综述", 计算机学报, no. 06 * |
张继仁;陈慧;宋绍禹;胡峰伟;: "基于强化学习的自动泊车运动规划", 同济大学学报(自然科学版), no. 1 * |
李清;胡志华;: "基于多目标遗传算法的灾后可靠路径选择", 浙江大学学报(工学版), no. 01 * |
邹启杰;刘世慧;张跃;侯英鹂;: "基于强化学习的快速探索随机树特殊环境中路径重规划算法", 控制理论与应用, no. 08 * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117032262A (zh) * | 2023-09-12 | 2023-11-10 | 南栖仙策(南京)科技有限公司 | 机器控制方法、装置、电子设备及存储介质 |
CN117032262B (zh) * | 2023-09-12 | 2024-03-19 | 南栖仙策(南京)科技有限公司 | 机器控制方法、装置、电子设备及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN116673968B (zh) | 2023-10-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109960880B (zh) | 一种基于机器学习的工业机器人避障路径规划方法 | |
CN114603564B (zh) | 机械臂导航避障方法、系统、计算机设备及存储介质 | |
Bohlin et al. | Path planning using lazy PRM | |
CN109492763B (zh) | 一种基于强化学习网络训练的自动泊车方法 | |
CN116673968B (zh) | 基于强化学习的机械臂轨迹规划要素选择方法及系统 | |
Pan et al. | Real-time collision detection and distance computation on point cloud sensor data | |
CN114460943A (zh) | 服务机器人自适应目标导航方法及系统 | |
Camacho et al. | Reward machines for vision-based robotic manipulation | |
Zhang et al. | Safe and efficient robot manipulation: Task-oriented environment modeling and object pose estimation | |
CN117606490B (zh) | 一种水下自主航行器协同搜索路径规划方法 | |
CN108731678A (zh) | 机器人全局路径规划方法 | |
CN116713999B (zh) | 一种多机械臂多目标寻找的训练方法及训练装置 | |
CN113503885A (zh) | 一种基于采样优化ddpg算法的机器人路径导航方法及系统 | |
Kumra et al. | Learning robotic manipulation tasks via task progress based Gaussian reward and loss adjusted exploration | |
CN116578080A (zh) | 一种基于深度强化学习的局部路径规划方法 | |
CN113218399B (zh) | 一种基于多智能体分层强化学习的迷宫导航方法及装置 | |
CN116100539A (zh) | 基于深度强化学习的机械臂自主动态避障方法及系统 | |
Panov et al. | Automatic formation of the structure of abstract machines in hierarchical reinforcement learning with state clustering | |
Bahrpeyma et al. | Application of Reinforcement Learning to UR10 Positioning for Prioritized Multi-Step Inspection in NVIDIA Omniverse | |
CN112917477A (zh) | 多自由度机器人静态环境运动规划方法 | |
Kim et al. | Visual Hindsight Self-Imitation Learning for Interactive Navigation | |
CN117348577B (zh) | 一种生产工艺仿真检测方法、装置、设备以及介质 | |
CN116901073B (zh) | 多机械臂协同轨迹规划方法、装置、电子设备及存储介质 | |
CN116834018A (zh) | 一种多机械臂多目标寻找的训练方法及训练装置 | |
CN117419720A (zh) | 一种基于分层强化学习进行同步定位与建图的方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |