CN117162103B - 一种冗余机器人自碰撞规避控制方法 - Google Patents

一种冗余机器人自碰撞规避控制方法 Download PDF

Info

Publication number
CN117162103B
CN117162103B CN202311437879.1A CN202311437879A CN117162103B CN 117162103 B CN117162103 B CN 117162103B CN 202311437879 A CN202311437879 A CN 202311437879A CN 117162103 B CN117162103 B CN 117162103B
Authority
CN
China
Prior art keywords
solver
redundant robot
inverse
value
end effector
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202311437879.1A
Other languages
English (en)
Other versions
CN117162103A (zh
Inventor
黄凯
洪庭贺
廖嘉辉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sun Yat Sen University
Original Assignee
Sun Yat Sen University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sun Yat Sen University filed Critical Sun Yat Sen University
Priority to CN202311437879.1A priority Critical patent/CN117162103B/zh
Publication of CN117162103A publication Critical patent/CN117162103A/zh
Application granted granted Critical
Publication of CN117162103B publication Critical patent/CN117162103B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Manipulator (AREA)

Abstract

本发明公开了一种冗余机器人自碰撞规避控制方法,涉及机器人控制规划领域。所述方法包括:基于伪逆方法,建立用于控制冗余机器人的关节速度的伪逆求解器,并引入干扰项;建立强化学习求解器并进行训练;响应于训练完成的强化学习求解器输出的干扰项,伪逆求解器生成反向运动学解;根据反向运动学解控制冗余机器人的关节速度,调整冗余机器人的末端执行器至目标点。相较于现有技术,本发明能够引导冗余机器人达到更多目标,同时保持机器人平稳性,适用于三维空间,有效避免了额外自由度使得相同的末端执行器姿势可以对应无限数量的反向运动学解的缺陷。

Description

一种冗余机器人自碰撞规避控制方法
技术领域
本发明涉及机器人控制规划技术领域,更具体地,涉及一种冗余机器人自碰撞规避控制方法。
背景技术
机器人在工业生产中被广泛应用,可以代替人类完成重复性、危险性、高精度的生产工作,提高生产效率和质量。机器人的运动规划是机器人控制中的重要环节,其目标是规划出一条从起点到终点的安全、高效、平滑的轨迹。然而,由于机器人的自身结构和工作环境的复杂性,机器人在运动过程中可能会发生自碰撞,即身体的两个部位发生碰撞,这些碰撞可能会导致规划目标不能完成,甚至使机器人失去平衡或控制,对机器人和工作环境产生损坏。因此,自碰撞规避是机器人运动规划中必须考虑的问题之一。
然而,现有的自碰撞规避控制方法由于关节多自由度高而产生的高维度配置空间需要花费大量的计算时间,不适用于实时的运动规划,特别是对于冗余机器人而言,冗余机器人的额外自由度使相同的末端执行器姿势可以对应无限数量的反向运动学(IK)解,导致难以确定适当的IK解来避免自我碰撞,且满足自碰避免的约束十分复杂。
发明内容
本发明为克服上述现有技术所述的额外自由度使得相同的末端执行器姿势可以对应无限数量的反向运动学解,导致难以避免自我碰撞的缺陷,提供一种冗余机器人自碰撞规避控制方法。
为解决上述技术问题,本发明的技术方案如下:
第一方面,一种冗余机器人自碰撞规避控制方法,包括:
基于伪逆方法,建立用于控制冗余机器人的关节速度的伪逆求解器,并引入干扰项;
建立强化学习求解器并进行训练;
响应于训练完成的所述强化学习求解器输出的干扰项,所述伪逆求解器生成反向运动学解;
根据所述反向运动学解控制冗余机器人的关节速度,调整所述冗余机器人的末端执行器至目标点。
第二方面,一种计算机可读存储介质,所述存储介质上存储有至少一条指令、至少一段程序、代码集或指令集,所述至少一条指令、至少一段程序、代码集或指令集由处理器加载并执行,以实现第一方面所述方法。
与现有技术相比,本发明技术方案的有益效果是:
本发明公开了一种冗余机器人自碰撞规避控制方法及存储介质,所述方法关注的是直接操作末端执行器的场景,引入了强化学习求解器,通过强化学习求解器输出干扰项以对伪逆求解器施加干扰而非直接控制机器人,由伪逆求解器将干扰合并到解析过程以获得反向运动学解,以避免机器人自碰撞问题。相较于现有技术,本发明能够引导冗余机器人达到更多目标,同时保持机器人平稳性,适用于三维空间,有效避免了额外自由度使得相同的末端执行器姿势可以对应无限数量的反向运动学解、难以寻找到合适解的缺陷。
附图说明
图1为本发明实施例1中冗余机器人自碰撞规避控制方法的流程示意图;
图2为本发明实施例1中强化学习求解器的迭代训练过程示意图;
图3为本发明实施例1中强化学习求解器中的神经网络架构示意图;
图4为本发明实施例2中不同强化学习方法下冗余机器人关节的平均加速度对比图;
图5为本发明实施例2中采用改进的缓冲区前后的训练效果对比图。
具体实施方式
本申请的说明书和权利要求书及上述附图中的术语“第一”、“第二”等是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的术语在适当情况下可以互换,这仅仅是描述本申请的实施例中对相同属性的对象在描述时所采用的区分方式。此外,术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,以便包含一系列单元的过程、方法、系统、产品或设备不必限于那些单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它单元。
附图仅用于示例性说明,不能理解为对本专利的限制;
为了更好说明本实施例,附图某些部件会有省略、放大或缩小,并不代表实际产品的尺寸;
对于本领域技术人员来说,附图中某些公知结构及其说明可能省略是可以理解的。
下面结合附图和实施例对本发明的技术方案做进一步的说明。
实施例1
本实施例提出了一种冗余机器人自碰撞规避控制方法,参阅图 1,包括:
基于伪逆方法,建立用于控制冗余机器人的关节速度的伪逆求解器(Pseudo-Inverse-solver),并引入干扰项;
建立强化学习求解器并进行训练;
响应于训练完成的所述强化学习求解器(RL-Solver)输出的干扰项,所述伪逆求解器生成反向运动学解;
根据所述反向运动学解控制冗余机器人的关节速度,调整所述冗余机器人的末端执行器至目标点。
该实施例中,引入了基于强化学习方法的强化学习求解器,强化学习求解器并不直接控制冗余机器人,而是对伪逆求解器施加干扰,以此避免机器人自碰,与数值解相比,本实施例能够引导冗余机器人达到更多目标,同时保持机器人平稳性,适用于三维空间,得到的IK解与冗余机器人的机械特性保持一致,即关节变量有界,保证运动的平滑性和连续性,能够在变化的环境中运转。
需要说明的是,在自碰撞避免的情况下,现有技术中碰撞样本难以采集,通过强化学习直接控制冗余机器人关节会导致难以获得成功的训练结果,难以获得冗余机器人的闭合形式解。
此外,相较于现有技术关注固定或规则运动的外部碰撞,仅考虑了末端执行器自由移动的场景,而实际应用中机器人的手臂连杆是不规则运动的,本实施例关注的是直接控制末端执行器的场景,这要求对应的控制方法只能在零空间找到合适的姿态来避免自碰撞。
在一优选实施例中,所述基于伪逆方法,建立用于控制冗余机器人的关节速度的伪逆求解器,包括:
定义冗余机器人末端执行器的期望速度为六维向量;定义n维向量/>,表示冗余机器人的关节速度,n表示自由度数量,用/>代表雅各比行列式(Jacobian Matrix),则:
基于伪逆方法,将关节速度最小化,有:
这样无法满足自碰撞避免的需求,因此,引入一个与具有相同维度的向量/>,作为干扰项(Interference):
根据拉格朗日乘子法,有:
定义,由于/>,故雅各比行列式的右伪逆,则所述伪逆求解器的表达式为:
本领域技术人员应当理解,
证明了干扰下的关节速度可以产生冗余机器人姿态控制的期望速度。
在一优选实施例中,所述建立强化学习求解器并进行训练,包括:
基于Actor-Critic神经网络架构构建强化学习求解器,用于输出干扰项;
给定环境(Environment)的观测空间和动作空间/>;所述观测空间包括冗余机器人的当前关节角度/>、目标点和末端执行器之间的坐标差/>、末端执行器的初始位置与当前位置间的姿态差异/>,其中,
式中,表示目标点的位置坐标,/>表示末端执行器的位置坐标;/>、/>与/>为三维向量;
式中,表示末端执行器的初始位置,/>表示末端执行器的当前位置;/>、/>与/>为三维向量,代表在笛卡尔坐标系下关于x、y、z轴的旋转;
设置每一步的奖励函数
采用TD3(Twin Delayed Deep Deterministic Policy Gradient,双延时确定策略梯度)算法对智能代理进行迭代训练,参阅图 2,输出干扰量作用于所述伪逆求解器中,从中得到输出的关节速度;其中,对TD3算法的回放缓冲区(replay buffer)引入经验样本调整机制,以加快训练的收敛速度。
在一可选实施例中,所述对TD3算法的回放缓冲区引入经验样本调整机制,包括:
引入一个epoch buffer(轮次缓冲区),缓存每个周期的个经验样本,表示对应周期花费/>步;
在每个周期结束后,基于周期结束奖励对对应周期的所述经验样本进行调整,再添加至回放缓冲区。
在一些示例中,当满足以下至少之一时,视为周期结束:
(1)所述冗余机器人发生自碰撞;
(2)步数达到单个epoch(轮次)的预设上限;
(3)所述末端执行器发生外部碰撞(即碰到其他目标)。
进一步地,所述周期结束奖励为:
式中,为正值,/>为负值;
所述基于周期结束奖励对对应周期的所述经验样本进行调整,包括:
对第步的经验样本中的奖励值进行累加调整,其过程如下:
式中,为衰减因子;/>为调整后的奖励值;
作为对应周期中第/>步经验样本的最终奖励值用于训练。
本领域技术人员应当理解,一个完整周期的经验样本包含了连续动作和状态之间相关信息,将这些样本一起添加到回放缓冲区可以提高样本之间的相关性,基于改进的缓冲区策略,使得强化学习算法可以更好地利用在一个完整周期内收集到的经验,从而加快训练的收敛速度,并提高训练的稳定性。
在一些示例中,所述衰减因子预设为0.2。
进一步地,所述方法还包括,对回放缓冲区引入动态平衡机制,具体为:
在每个周期结束时,返回一个info值表示末端执行器的执行结果;其中,所述info(消息)值为“真”(1)时表示对应周期末端执行器成功到达目标点,所述info值为“假”(0)时表示对应周期末端执行器未成功到达目标点;
定义为当前回放缓冲区中来自成功周期的总步数,/>为失败周期的总步数;
当所述info值满足以下至少之一时,将epoch buffer中的经验样本放入所述回放缓冲区:
(1)所述info值为“真”且
(2)所述info值为“假”且
需要说明的是,该动态平衡机制能确保回放缓冲区中来自成功周期和失败周期的样本数目大致相等,能避免因样本数不平衡导致训练过程出现收敛困难的问题,能够解决训练过程中奖励/惩罚稀疏的问题,让智能体更快学习到合适的策略。
在一可选实施例中,所述奖励函数包括平移部分奖励和旋转部分奖励/>,其表达式为:
其中,
式中,为三维向量,表示末端执行器的当前速度;/>为系数,用于平衡平移部分奖励和旋转部分奖励。
本领域技术人员应当理解,若定义末端执行器当前速度向量与目标方向向量间的夹角为,则本实施例中单步的平移部分奖励即为/>
在一些示例中,取值100。
在一可选实施例中,参阅图 3,所述强化学习求解器包括两个独立的Critic(评价)网络和一个Actor(动作)网络;
其中,所述Actor网络根据当前状态信息输入,输出Q值最大的干扰项;两个所述Critic网络(即Critic1与Critic2)根据当前状态信息输入和动作,分别输出Q值,即Q1和Q2,较大的Q值(即MAX{Q1,Q2})用于评估所述Actor网络产生的干扰项/>在当前状态的价值,估计预期累积奖励,帮助所述Actor网络学习更优的策略,且较小的Q值(即MIN{Q1,Q2})作为返回值用于更新Critic网络。
需要说明的是,每个Critic网络生成1个Q值,比较数值大小,取其中较小的Q值作为返回值用于更新Critic网络,以此抵消估值过大的问题。
进一步地,每个所述Critic网络各有两个完全连接的隐藏层,其输入层的维度是观测空间与动作空间/>的维度之和,其输出层输出Q值;所述Actor网络有两个完全连接的隐藏层,其输入层和观测空间/>具有相同维度,其输出层输出干扰项/>
在一些示例中,所述Critic网络中,每个隐藏层有128个PReLU单元。
在一些示例中,所述Actor网络中,每个隐藏层有128个PReLU单元。
实施例2
本实施例应用实施例1提出的方法,以说明其产生的冗余机器人的机械臂运动具备稳定性和平滑性。
首先,基于伪逆方法,建立用于控制冗余机器人的关节速度的伪逆求解器,并引入干扰项;
然后,基于Actor-Critic神经网络架构建立强化学习求解器,并采用TD3算法进行训练,在训练过程中对TD3算法的回放缓冲区引入经验样本调整机制和动态平衡机制;
随后,响应于训练完成的所述强化学习求解器输出的干扰项,所述伪逆求解器生成反向运动学解;
最后,根据所述反向运动学解控制冗余机器人的关节速度,调整所述冗余机器人的末端执行器至目标点。
相较于采用SAC(Soft Actor-Critic,柔性动作-评价)、PI(Pseudo-Inverse,伪逆)、DLS(Damped Least Squares,阻尼最小二乘)和TJ(Transpose Jacobian,转置雅可比)方法进行自碰撞规避控制,根据上述步骤,本实施例提出的方法在加速度方面表现较好,产生的运动更加稳定平滑,参阅图 4所示的平均加速度(Average Acceleration)对比。
此外,图 5展示了采用改进的缓冲区前后的神经网络训练情况,包括Critic网络的收敛曲线、Actor网络的收敛曲线以及奖励(Reward)情况。可以看到:
(1)对于Critic的收敛曲线,可见改进过的缓冲区使算法收敛更快,智能体通过学习过程中更准确地预测了执行特定动作在不同状态下的价值,从而对环境有了更好的理解和预测能力;
(2)对于Actor的收敛曲线,改进过的缓冲区提高了收敛的平滑度;
(3)由于对环境估算的准确性提升,智能体在每个步骤获得更高的奖励且波动性较低,使得学习过程更加可靠高效。
可以理解,上述实施例1中的可选项同样适用于本实施例,故在此不再重复描述。
实施例3
本实施例提出一种计算机可读存储介质,所述存储介质上存储有至少一条指令、至少一段程序、代码集或指令集,所述至少一条指令、至少一段程序、代码集或指令集由处理器加载并执行,以实现实施例1所述方法的全部或部分步骤。
可以理解,所述存储介质可以是瞬时性的,也可以是非瞬时性的。示范性地,所述存储介质包括但不限于U盘、移动硬盘、只读存储器(ROM,Read-Only Memory)、随机访问存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。
在一些示例中提供一种计算机程序产品,具体可以通过硬件、软件或其结合的方式实现。作为非限制性示例,所述计算机程序产品可以体现为所述存储介质,还可以体现为软件产品,例如SDK(Software Development Kit,软件开发包)等。
在一些示例中提供一种计算机程序,包括计算机可读代码,在所述计算机可读代码在计算机设备中运行的情况下,所述计算机设备中的处理器执行用于实现所述方法中的部分或全部步骤。
本实施例还提出一种电子设备,包括存储器和处理器,所述存储器存储有至少一条指令、至少一段程序、代码集或指令集,所述处理器执行所述至少一条指令、至少一段程序、代码集或指令集时实现如实施例1中所述方法的部分或全部步骤。
示范性地,所述处理器可以为中央处理器(Central ProcessingUnit,CPU)、微处理器(Microprocessor Unit,MPU)、数字信号处理器(Digital SignalProcessor,DSP)或现场可编程门阵列(Field Programmable Gate Array,FPGA)等。
在一些示例中提供一种所述电子设备的硬件实体,包括:处理器、存储器和通信接口;
其中,所述处理器通常控制所述电子设备的总体操作;
所述通信接口用于使所述电子设备通过网络与其他终端或服务器通信;
所述存储器配置为存储由处理器可执行的指令和应用,还可以缓存待处理器以及电子设备中各模块待处理或已经处理的数据(包括但不限于图像数据、音频数据、语音通信数据和视频通信数据),可以通过闪存(FLASH)或随机访问存储器(RAM,Random AccessMemory)实现。
进一步地,处理器、通信接口和存储器之间可以通过总线进行数据传输,总线可以包括任意数量的互联的总线和桥,总线将一个或多个处理器和存储器的各种电路连接在一起。
可以理解,上述实施例1中的可选项同样适用于本实施例,故在此不再重复描述。
附图中描述位置关系的用语仅用于示例性说明,不能理解为对本专利的限制;
显然,本发明的上述实施例仅仅是为清楚地说明本发明所作的举例,而并非是对本发明的实施方式的限定。应理解,在本公开的各种实施例中,上述各步骤/过程的序号的大小并不意味着执行顺序的先后,各步骤/过程的执行顺序应以其功能和内在逻辑确定,而不应对实施例的实施过程构成任何限定。还应理解,以上所描述的设备实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,如:多个单元或组件可以结合,或可以集成到另一个系统,或一些特征可以忽略,或不执行。另外,各组成部分相互之间的耦合、或直接耦合、或通信连接可以是通过一些接口,设备或单元的间接耦合或通信连接,可以是电性的、机械的或其它形式的。对于所属领域的普通技术人员来说,在上述说明的基础上还可以做出其它不同形式的变化或变动。这里无需也无法对所有的实施方式予以穷举。凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明权利要求的保护范围之内。

Claims (9)

1.一种冗余机器人自碰撞规避控制方法,其特征在于,包括:
基于伪逆方法,建立用于控制冗余机器人的关节速度的伪逆求解器,并引入干扰项,包括:
定义冗余机器人末端执行器的期望速度为六维向量;定义n维向量/>,表示冗余机器人的关节速度,n表示自由度数量,用/>代表雅各比行列式,则:
基于伪逆方法,将关节速度最小化,有:
引入一个与具有相同维度的向量/>,作为干扰项:
subject to x˙ = J q˙
根据拉格朗日乘子法,有:
定义雅各比行列式的右伪逆,则所述伪逆求解器的表达式为:
建立强化学习求解器并进行训练;
响应于训练完成的所述强化学习求解器输出的干扰项,所述伪逆求解器生成反向运动学解;
根据所述反向运动学解控制冗余机器人的关节速度,调整所述冗余机器人的末端执行器至目标点。
2.根据权利要求1所述的一种冗余机器人自碰撞规避控制方法,其特征在于,所述建立强化学习求解器并进行训练,包括:
基于Actor-Critic神经网络架构构建强化学习求解器,用于输出干扰项;
给定环境的观测空间和动作空间/>;所述观测空间包括冗余机器人的当前关节角度/>、目标点和末端执行器之间的坐标差/>、末端执行器的初始位置与当前位置间的姿态差异/>,其中,
式中,表示目标点的位置坐标,/>表示末端执行器的位置坐标;/>、/>与/>为三维向量;
式中,表示末端执行器的初始位置,/>表示末端执行器的当前位置;/>、/>为三维向量,代表在笛卡尔坐标系下关于x、y、z轴的旋转;
设置每一步的奖励函数
采用TD3算法对智能代理进行迭代训练,输出干扰量作用于所述伪逆求解器中,从中得到输出的关节速度;其中,对TD3算法的回放缓冲区引入经验样本调整机制,以加快训练的收敛速度。
3.根据权利要求2所述的一种冗余机器人自碰撞规避控制方法,其特征在于,所述对TD3算法的回放缓冲区引入经验样本调整机制,包括:
引入一个epoch buffer,缓存每个周期的个经验样本,表示对应周期花费/>步;
在每个周期结束后,基于周期结束奖励对对应周期的所述经验样本进行调整,再添加至回放缓冲区。
4.根据权利要求3所述的一种冗余机器人自碰撞规避控制方法,其特征在于,所述周期结束奖励为:
式中,为正值,/>为负值;
所述基于周期结束奖励对对应周期的所述经验样本进行调整,包括:
对第步的经验样本中的奖励值进行累加调整,其过程如下:
式中,为衰减因子;/>为调整后的奖励值;
作为对应周期中第/>步经验样本的最终奖励值用于训练。
5.根据权利要求3所述的一种冗余机器人自碰撞规避控制方法,其特征在于,所述方法还包括,对回放缓冲区引入动态平衡机制,具体为:
在每个周期结束时,返回一个info值表示末端执行器的执行结果;其中,所述info值为“真”时表示对应周期末端执行器成功到达目标点,所述info值为“假”时表示对应周期末端执行器未成功到达目标点;
定义为当前回放缓冲区中来自成功周期的总步数,/>为失败周期的总步数;
当所述info值满足以下至少之一时,将epoch buffer中的经验样本放入所述回放缓冲区:
(1)所述info值为“真”且
(2)所述info值为“假”且
6.根据权利要求2所述的一种冗余机器人自碰撞规避控制方法,其特征在于,所述奖励函数包括平移部分奖励和旋转部分奖励/>,其表达式为:
其中,
式中,为三维向量,表示末端执行器的当前速度;/>为系数,用于平衡平移部分奖励和旋转部分奖励。
7.根据权利要求2-6任一项所述的一种冗余机器人自碰撞规避控制方法,其特征在于,所述强化学习求解器包括两个独立的Critic网络和一个Actor网络;
其中,所述Actor网络根据当前状态信息输入,输出Q值最大的干扰项;两个所述Critic网络根据当前状态信息输入和动作,分别输出Q值,较大的Q值用于评估所述Actor网络产生的干扰项/>在当前状态的价值,估计预期累积奖励,帮助所述Actor网络学习更优的策略,且较小的Q值作为返回值用于更新Critic网络。
8.根据权利要求7所述的一种冗余机器人自碰撞规避控制方法,其特征在于,每个所述Critic网络各有两个完全连接的隐藏层,其输入层的维度是观测空间与动作空间/>的维度之和,其输出层输出Q值;所述Actor网络有两个完全连接的隐藏层,其输入层和观测空间具有相同维度,其输出层输出干扰项/>
9.一种计算机可读存储介质,其特征在于,所述存储介质上存储有至少一条指令、至少一段程序、代码集或指令集,所述至少一条指令、至少一段程序、代码集或指令集由处理器加载并执行,以实现如权利要求1-8任一项所述方法。
CN202311437879.1A 2023-11-01 2023-11-01 一种冗余机器人自碰撞规避控制方法 Active CN117162103B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202311437879.1A CN117162103B (zh) 2023-11-01 2023-11-01 一种冗余机器人自碰撞规避控制方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202311437879.1A CN117162103B (zh) 2023-11-01 2023-11-01 一种冗余机器人自碰撞规避控制方法

Publications (2)

Publication Number Publication Date
CN117162103A CN117162103A (zh) 2023-12-05
CN117162103B true CN117162103B (zh) 2024-02-09

Family

ID=88932045

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202311437879.1A Active CN117162103B (zh) 2023-11-01 2023-11-01 一种冗余机器人自碰撞规避控制方法

Country Status (1)

Country Link
CN (1) CN117162103B (zh)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111923039A (zh) * 2020-07-14 2020-11-13 西北工业大学 一种基于强化学习的冗余机械臂路径规划方法
CN112605996A (zh) * 2020-12-16 2021-04-06 中山大学 一种面向冗余机械臂的无模型碰撞避免控制方法
KR20210096842A (ko) * 2020-01-29 2021-08-06 한국과학기술원 주어진 엔드-이펙터 경로를 정확하게 따라가기 위한 리던던트 매니퓰레이터의 충돌 없는 궤적 최적화 방법 및 장치
CN115890670A (zh) * 2022-11-19 2023-04-04 无锡慧眼人工智能科技有限公司 基于强化深度学习训练七自由度冗余机械臂运动轨迹的方法
CN116572248A (zh) * 2023-06-07 2023-08-11 哈尔滨工业大学 一种关节空间规划的冗余机械臂碰撞回避及路径规划方法
CN116604571A (zh) * 2023-07-14 2023-08-18 湖南大学 一种基于深度强化学习的机器人三维测量路径规划方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20220305649A1 (en) * 2021-03-25 2022-09-29 Naver Corporation Reachable manifold and inverse mapping training for robots

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210096842A (ko) * 2020-01-29 2021-08-06 한국과학기술원 주어진 엔드-이펙터 경로를 정확하게 따라가기 위한 리던던트 매니퓰레이터의 충돌 없는 궤적 최적화 방법 및 장치
CN111923039A (zh) * 2020-07-14 2020-11-13 西北工业大学 一种基于强化学习的冗余机械臂路径规划方法
CN112605996A (zh) * 2020-12-16 2021-04-06 中山大学 一种面向冗余机械臂的无模型碰撞避免控制方法
CN115890670A (zh) * 2022-11-19 2023-04-04 无锡慧眼人工智能科技有限公司 基于强化深度学习训练七自由度冗余机械臂运动轨迹的方法
CN116572248A (zh) * 2023-06-07 2023-08-11 哈尔滨工业大学 一种关节空间规划的冗余机械臂碰撞回避及路径规划方法
CN116604571A (zh) * 2023-07-14 2023-08-18 湖南大学 一种基于深度强化学习的机器人三维测量路径规划方法

Also Published As

Publication number Publication date
CN117162103A (zh) 2023-12-05

Similar Documents

Publication Publication Date Title
Chen et al. A deep reinforcement learning based method for real-time path planning and dynamic obstacle avoidance
CN112440281A (zh) 一种基于数字孪生的机器人轨迹规划方法
JP2019529135A (ja) ロボット操作のための深層強化学習
Takano et al. Primitive communication based on motion recognition and generation with hierarchical mimesis model
US11759947B2 (en) Method for controlling a robot device and robot device controller
CN112757284B (zh) 机器人控制装置、方法和存储介质
Aljalbout et al. Learning vision-based reactive policies for obstacle avoidance
Cruz et al. Learning contextual affordances with an associative neural architecture.
US20220066401A1 (en) Machine control system
Jandaghi et al. Motion dynamics modeling and fault detection of a soft trunk robot
Yan et al. Hierarchical policy learning with demonstration learning for robotic multiple peg-in-hole assembly tasks
Liu et al. Sim-and-real reinforcement learning for manipulation: A consensus-based approach
CN117162103B (zh) 一种冗余机器人自碰撞规避控制方法
JP7375587B2 (ja) 軌道生成装置、多リンクシステム、及び軌道生成方法
Chen et al. Zero-shot sim-to-real transfer of reinforcement learning framework for robotics manipulation with demonstration and force feedback
CN116834014A (zh) 一种空间多臂机器人捕获非合作目标的智能协同控制方法和系统
Sugimoto et al. Trajectory-model-based reinforcement learning: Application to bimanual humanoid motor learning with a closed-chain constraint
Sugimoto et al. Trial and error: Using previous experiences as simulation models in humanoid motor learning
Peng et al. Deep reinforcement learning with a stage incentive mechanism of dense reward for robotic trajectory planning
Feng et al. Reinforcement Learning-Based Impedance Learning for Robot Admittance Control in Industrial Assembly
CN113843802A (zh) 一种基于深度强化学习td3算法的机械臂运动控制方法
Jia et al. Path planning with autonomous obstacle avoidance using reinforcement learning for six-axis arms
Luipers et al. Robot Control Using Model-Based Reinforcement Learning With Inverse Kinematics
Cai et al. Task2Morph: Differentiable Task-Inspired Framework for Contact-Aware Robot Design
US20240054393A1 (en) Learning Device, Learning Method, Recording Medium Storing Learning Program, Control Program, Control Device, Control Method, and Recording Medium Storing Control Program

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant