CN114932546A - 一种基于未知机械臂模型的深度强化学习抑振系统及方法 - Google Patents
一种基于未知机械臂模型的深度强化学习抑振系统及方法 Download PDFInfo
- Publication number
- CN114932546A CN114932546A CN202210292577.9A CN202210292577A CN114932546A CN 114932546 A CN114932546 A CN 114932546A CN 202210292577 A CN202210292577 A CN 202210292577A CN 114932546 A CN114932546 A CN 114932546A
- Authority
- CN
- China
- Prior art keywords
- mechanical arm
- vibration
- reinforcement learning
- algorithm
- vibration suppression
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1602—Programme controls characterised by the control system, structure, architecture
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1628—Programme controls characterised by the control loop
- B25J9/163—Programme controls characterised by the control loop learning, adaptive, model based, rule based expert control
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T90/00—Enabling technologies or technologies with a potential or indirect contribution to GHG emissions mitigation
Landscapes
- Engineering & Computer Science (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Automation & Control Theory (AREA)
- Manipulator (AREA)
- Feedback Control In General (AREA)
Abstract
本发明公开了一种基于未知机械臂模型的深度强化学习抑振系统及方法,属于机器人控制领域,所述抑振系统包括机械臂模块、振动采集模块、处理器和抑振控制模块;所述抑振方法是将深度强化学习与输入整形器二者相结合,在机器人机械臂精确动力学模型未知的情况下,通过深度强化学习DDPG算法的训练,不断优化输入整形器的参数,以此来对机械臂振动进行优化,提高机械臂工作效率。本发明不需要明确的机械臂的动力学模型,通过此方法便可以达到较好的抑振效果,具有较强的鲁棒性,能够适应各种类型的机械臂,有着较强的普适性。
Description
技术领域
本发明涉及机器人控制领域,尤其是一种基于未知机械臂模型的深度强化学习抑振系统及方法。
背景技术
为了满足工业生产质量和效率的不断提高需求,工业机器人向着更加智能化的方向发展,各类工业机械臂应运而生。其中,机械臂的吊装在生产中比较常见,如龙门/桁架机器人的悬臂、天车的吊臂等等。吊装的机械臂具有高灵活性,高工作效率,低成本与低能耗等优势,但机械臂在工作过程中会产生一定程度的振动,从而对其工作稳定性和精度造成影响,尤其在一些精度要求较高的地方,如高精度上下料、装配等。机械臂无法满足其工作要求。专利号为CN201710548814.2的发明专利提出的一种基于时滞补偿的风洞支杆抑振方法,分析了振动控制中加速度传感器与压电作动器激励信号的相位差,在控制器中编制移相算法程序做时滞补偿,最终实现主动振动控制,此方法需要利用锤击法来获得系统的频率响应函数,较为复杂;专利号为CN201710975489.8的发明专利通过一种基于输入整形器的机器人关节末端残余振动抑制方法,采用拉格朗日乘子法解出脉冲幅值表达式,再将参考信号与输入整形器做卷积运算得到新的整形信号,对其做预测路径规划处理后,再利用该信号去驱动系统以抑制机器人末端残余振动,虽然该发明并不需要建立精确的系统动力学模型,但正因如此,其只能对振动抑制有效果,很难达到最优抑振效果。
随着机器学习技术的广泛应用,无监督的强化学习得到越来越多人的重视,尤其在将强化学习与深度学习相结合,在解决一些非线性问题上取得了不错的效果。但考虑到大部分被控对象的精确数学模型难以获得,有必要研发一种基于未知机械臂模型的深度强化学习抑振系统及方法,以克服现有技术存在的不足。
发明内容
本发明需要解决的技术问题是提供一种基于未知机械臂模型的深度强化学习抑振系统及方法,将深度强化学习与输入整形器二者相结合,在机器人机械臂精确动力学模型未知的情况下,通过深度强化学习DDPG算法的训练,不断优化输入整形器的参数,以此来对机械臂振动进行优化,提高机械臂工作效率。
为解决上述技术问题,本发明所采用的技术方案是:
一种基于未知机械臂模型的深度强化学习抑振系统,包括机械臂模块、振动采集模块、处理器和抑振控制模块;
所述机械臂模块,是振动抑制的对象,能够是机器人的悬臂,也能够是单独存在的机械臂,如串联在桁架机器人横梁上的倒装机器人;
所述振动采集模块,包括陀螺仪和TTL转485模块,陀螺仪通过固定装置固定在机械臂的末端,实时采集机械臂末端的偏航、俯仰、横滚姿态的振动数据,所述振动数据以TTL电平信号发送至TTL转485模块,以提高其传输距离至1000m,然后将其转化为485电平信号,发送至抑振控制模块;
所述处理器,用来接收实时采集到的机械臂振动数据,并进行处理分析,同时搭载抑振控制模块,实现对机械臂的振动抑制控制;
所述抑振控制模块,其功能为根据实时接收采集到的机械臂振动数据,推导出机械臂系统的阻尼比与频率,进而设计输入整形器,对机械臂运行的加速度信号进行整形,并再次得到振动数据;此时根据深度强化学习DDPG算法选取一个动作,再次对机械臂运行的加速度信号进行整形,得到振动数据,对此次过程的振动数据进行处理,再次根据强化学习DDPG算法选取动作,不断循环此训练过程,直至机械臂达到较好的抑振效果。
一种基于未知机械臂模型的深度强化学习抑振方法,将深度强化学习与输入整形二者结合;在机器人机械臂精确动力学模型未知的情况下,通过深度强化学习DDPG算法,不断优化输入整形器参数,以此来对机械臂振动进行优化,以提高机械臂工作效率。
本发明技术方案的进一步改进在于:该方法不需要已知机械臂精确的动力学模型,而是将机械臂系统近似为二阶系统,通过陀螺仪传感器采集机械臂末端振动数据,以此来求解系统的阻尼比与频率,进而设计输入整形器;具体实现步骤如下:
步骤1,根据机械臂振动数据推导出其阻尼比与频率参数,将机械臂系统近似为二阶系统,取机械臂振动数据中的俯仰数据,取俯仰数据的最大值为系统的峰值YP,对应的时间为峰值时间tP,对应的超调量为σ,超调量的计算公式如下:
σ=[YP-Y(∞)]/Y(∞)*100% (1)
其中,Y(∞)为系统稳定下的输出,ε为系统的阻尼比,联立(1)(2)式求得系统的阻尼比ε,计算公式如下:
系统的峰值时间tP计算公式如下:
由式(3)计算出系统的阻尼比,峰值时间tP直接读取,由此得系统的频率wn计算公式为:
由此便求出机械臂系统的阻尼比与频率;
步骤2;根据第一步求出的机械臂系统的阻尼比与频率,将机械臂系统近似为二阶系统,表达式为:
根据拉普拉斯变换,将系统的表达式改写为传递函数的形式:
输入整形器的时域表达式为:
其中,Ai为脉冲幅值,ti为脉冲时滞,n为输入整形所包含的脉冲个数,对其进行拉普拉斯变换,得到其频域表达式为:
引入输入整形后,二阶系统的响应为:
考虑到系统响应的快速性,取n=2,则有:
t1=0 (11)
A1+A2=1 (15)
由式(11)-(15)便求得输入整形器的参数t1、t2、A1、A2,由此完成输入整形器的设计;
步骤3,对机械臂的加速度进行输入整形,设整形前加速度为a0,整形后的加速度:在0至t2时间段内,加速度a1=A1*a0/(A1+A2),在t2之后,加速度a2=a0,以此完成对机械臂加速度的整形;通过振动采集模块将整形后机械臂的振动数据再次发送至抑振模块;
步骤4,深度强化学习DDPG算法训练:将强化学习DDPG算法与输入整形器两者结合,通过DDPG算法的训练得到最优的输入整形器参数,以此达到最佳抑振效果。
本发明技术方案的进一步改进在于:步骤4中,强化学习DDPG算法训练过程如下:
基于深度确定性策略梯度算法,应用深度学习技术,同时基于Actor-Critic算法的确定性策略算法,该算法中的Actor和Critic都使用深度神经网络来建立近似函数,直接从Actor的策略生成确定性的行为;该算法在学习阶段在确定性行为基础上增加一个噪声函数,以实现在确定性行为周围进行小范围探索;此外,该算法还为Actor和Critic网络分别备份了一套参数来计算行为价值的期待值,以更稳定的提升Critic的策略指导水平,从而减少因近似数据的引导性而发生不收敛的情况,共用到了两个Actor网络,两个Critic网络共4个网络;
奖励机制:在每个循环周期内,求该周期内的振动数据的方差,公式如下:
其中,Di为第i次训练周期,[x1 x2 x3…xn]为每个振动采样周期的振动数据,x0为0,将Di作为DDPG算法奖励函数的输入,奖励函数公式如下:
能够看到振动数据的方差越小,表示机械臂运行越平稳,其奖励值便越大,反之,方差越大,运行过程中振动越剧烈,其奖励值越小;
搭建Critic网络:Critic网络接收的输入是状态以及行为动作,输出“状态-行为对”的价值,所设计的Critic共有3个隐藏层,处理状态的隐藏层和行为的隐藏层先分开运算,其中处理状态的隐藏层有两个,分别为256个神经元,128个神经元,处理行为的隐藏层为128个神经元,最后通过一个隐藏层全连接在一起输出“状态-行为对”价值;
搭建Actor网络:Actor网络的输入为状态,输出为行为动作,所设计的Actor共有3个隐藏层,分别为256个、128个、64个神经元,层与层之间全连接;
确定性策略下探索的实现:在生成的行为基础上添加一个随机噪声,使其在确切的行为周围实现一定范围的探索;噪声模型为Ornstein-Uhlenbeck,能够生成符合马尔科夫过程的随机过程;
至此,完成DDPG算法框架的搭建,最后对该算法的学习率参数进行配置,完成DDPG算法的设计,通过此算法的训练,不断优化输入整形器参数,使机械臂工作越来越平顺。
由于采用了上述技术方案,本发明取得的技术进步是:
1、本发明将深度强化学习与输入整形相结合,通过深度强化学习的不断训练,在数据驱动下不断优化输入整形器,使得机械臂模型未知的情况下,以达到较好的抑振效果,所提出的方法鲁棒性较好,具有较强的普适性,可以适用于各种串联机器人、桁架机器人悬臂的振动抑制控制。
2、本发明不需要明确的机械臂的动力学模型,通过基于强化学习在未知机械臂模型下的抑振方法便可以达到较好的抑振效果,具有较强的鲁棒性,能够适应各种类型的机械臂,有着较强的普适性。
3、本发明通过基于强化学习在未知机械臂模型下的抑振方法进行对机械臂进行抑振,在其全生命周期,不会因为其工作时长的增加导致抑振性能下降,相反,其对振动的抑制会越来越好。
附图说明
图1是本发明系统组成框图;
图2是本发明控制框图;
图3是本发明实施例中龙门机器人悬臂抑振系统组成示意图;
图4是本发明实施例中机器人悬臂抑振方法流程图。
具体实施方式
下面结合附图及实施例对本发明做进一步详细说明:
本发明的目的为提供一种基于未知机械臂模型的深度强化学习抑振系统及方法,将强化学习与输入整形二者相结合,可以在不清楚机器人机械臂精确动力学模型的情况下,通过强化学习不断训练输入整形器参数,实现在对系统快速性影响最小的情况下,机械臂的振动最小,以提高机械臂工作效率,下面以龙门机器人悬臂的抑振为具体实施方式对本发明进行详细说明。
如图1所示,龙门机器人悬臂的抑振系统包括机械臂模块、振动采集模块、处理器和抑振控制模块;
所述机械臂模块,为龙门机器人Z方向的悬臂,其可在XYZ空间内自由移动。在悬臂启动与停止过程中,存在较长时间的低频振动,对龙门机器人的工作效率产生较大的影响。龙门机器人悬臂采用德国倍福控制器,国产埃斯顿的驱动器与伺服电机,其运动的速度、加速度、加加速度可以通过控制器进行配置。
所述振动采集模块,其功能为固定在龙门机器人悬臂末端,实时采集龙门机器人悬臂末端振动情况。硬件由三驰惯性的陀螺仪,型号为100D2与TTL转485模块组成,陀螺仪实时采集机械臂末端的偏航、俯仰、横滚姿态,数据以TTL电平信号发送至TTL转485模块,以提高其传输距离至1000m,将其转化为485电平信号,发送至抑振模块。
所述处理器,主要用来接收实时采集到的机械臂振动数据,并进行处理分析,同时搭载抑振模块,实现对机械臂的振动抑制控制。采用个人笔记本,处理器为i5-8300H,显卡为1050Ti。基于matlab2020a开发抑振控制模块,通过USB转485模块实时接收振动采集模块数据。
所述抑振控制模块,其功能为根据实时接收采集到的龙门机器人悬臂振动数据,推导出龙门机器人悬臂系统的阻尼比与频率,进而设计输入整形器,对龙门机器人悬臂运行的加速度信号进行整形,并再次得到振动数据。此时根据深度强化学习DDPG算法选取一个动作(输入整形器的参数),再次对龙门机器人运行的加速度信号进行整形,得到振动数据,对此次过程的振动数据进行处理,再次根据强化学习DDPG算法选取动作(输入整形器的时滞),不断循环此训练过程,直至龙门机器人悬臂达到较好的抑振效果。
如图2所示,龙门机器人悬臂的抑振系统的抑振方法,具体操作步骤如下:
步骤1,根据龙门机器人悬臂振动数据推导出其阻尼比与频率参数,将系统近似为二阶系统,取振动数据中的俯仰数据,以俯仰数据的最大值为系统的峰值YP,对应的时间为峰值时间tP,对应的超调量为σ,利用超调量的计算公式:
σ=[YP-Y(∞)]/Y(∞)*100% (1)
其中,Y(∞)为系统稳定下的输出,ε为系统的阻尼比,通过推导求得系统的阻尼比ε,计算公式如下:
系统的峰值时间tP计算公式如下:
根据阻尼比公式求出阻尼比ε,峰值时间tP可直接读取,由此可得系统的频率wn计算公式为:
由此便求出机械臂系统的阻尼比ε与频率wn。
步骤2,根据第一步求出系统的阻尼比ε与频率wn,设计输入整形器,输入整形技术为前馈控制方式,将该系统近似为二阶系统,表达式为:
根据拉普拉斯理论,将系统的表达式改写为传递函数的形式:
输入整形器的时域表达式为:
其中,Ai为脉冲幅值,ti为脉冲时滞,n为输入整形所包含的脉冲个数,对其进行拉普拉斯变换,得到其频域表达式为:
引入输入整形后,二阶系统的响应为:
考虑到系统响应的快速性,取n=2,则有:
t1=0 (11)
A1+A2=1 (15)
由上述(11)-(15)各式便可求得输入整形器的参数t1、t2、A1、A2,由此完成输入整形器的设计。
步骤3,对龙门机器人悬臂的加速度进行输入整形,设整形前的加速度为a0,整形后的加速度:在0至t2时间段内,加速度a1=A1*a0/(A1+A2),在t2之后,加速度a2=a0,以此完成对龙门机器人悬臂加速度的输入整形。通过振动采集模块将此次的振动数据再次发送至抑振模块。
步骤4,深度强化学习DDPG算法训练:将深度强化学习DDPG算法与输入整形器两者结合,通过DDPG算法的训练得到最优的输入整形器参数,以此达到最佳抑振效果。
步骤4中:DDPG算法具体如下如下:
基于深度确定性策略梯度(DDPG)算法,应用深度学习技术,同时基于Actor-Critic算法的确定性策略算法,该算法中的Actor和Critic都使用深度神经网络来建立近似函数,直接从Actor的策略生成确定性的行为。该算法在学习阶段在确定性行为基础上增加一个噪声函数,以实现在确定性行为周围进行小范围探索。此外,该算法还为Actor和Critic网络分别备份了一套参数来计算行为价值的期待值,以更稳定的提升Critic的策略指导水平,从而减少因近似数据的引导性而发生不收敛的情况,共用到了两个Actor网络,两个Critic网络共4个网络。
该算法应用到龙门机器人悬臂抑振中具体如下:
智能体为龙门机器人悬臂,动作空间为输入整形器的参数t2、A1,状态空间为输入机械臂的振动反馈。在每个循环周期内,求该周期内的振动数据的方差,公式如下:
其中,Di为第i次训练周期,[x1 x2 x3…xn]为每个振动采样周期的振动数据,x0为0,将Di作为DDPG算法奖励函数的输入,奖励函数公式如下:
可以看到振动数据的方差越小,奖励值越大。
搭建Critic网络:Critic网络接收的输入是状态(振动数据的方差)以及行为动作(输入整形器参数),输出状态-行为对的价值,所设计的Critic共有3个隐藏层,处理状态的隐藏层和行为的隐藏层先分开运算,其中处理状态的隐藏层有两个,分别为256个神经元,128个神经元,处理行为的隐藏层为128个神经元,最后通过一个隐藏层全连接在一起输出“状态-行为对”价值。
搭建Actor网络:Actor网络的输入是状态(振动数据的方差),输出为行动作(输入整形器参数),所设计的Actor共有3个隐藏层,分别为256个、128个、64个神经元,层与层之间全连接。
确定性策略下探索的实现:在生成的行为基础上添加一个随机噪声,使其在确切的行为周围实现一定范围的探索,噪声模型为Ornstein-Uhlenbeck,可以生成符合马尔科夫过程的随机过程。
至此,完成DDPG算法框架的搭建,最后对该算法的学习率等参数进行配置,完成DDPG算法的设计,通过此算法的训练,不断优化输入整形器参数,机械臂在工作过程中越来越平顺。
图3、4所示,龙门机器人悬臂抑振系统的示意图和流程图:开始输入原始龙门机器人控制信号,通过振动采集模块获得龙门机器人悬臂的振动信息,首次判断并非为输入整形后的数据,故不进行深度强化学习,通过计算获得系统阻尼比与频率信息,以此获得输入整形器时滞与幅值信息,之后进行输入整形,将整形后的控制型号重新输入控制器。由于并非通过精确动力学模型求得的输入整形器参数,故必然达不到抑振目标,因此再次通过振动采集模块采集当前的振动信息,通过价值评估,获取此次奖励,按照奖励大小,基于深度强化学习DDPG算法再次获得时滞幅值数据,进行输入整形,通过振动采集模块所采集的振动数据判断是否达到抑振目标,如果没有,继续执行上述强化学习训练的过程,直到达到抑振目标结束。
Claims (4)
1.一种基于未知机械臂模型的深度强化学习抑振系统,其特征在于:包括机械臂模块、振动采集模块、处理器和抑振控制模块;
所述机械臂模块,是振动抑制的对象,能够是机器人的悬臂,也能够是单独存在的机械臂;
所述振动采集模块,包括陀螺仪和TTL转485模块,陀螺仪通过固定装置固定在机械臂的末端,实时采集机械臂末端的偏航、俯仰、横滚姿态的振动数据,所述振动数据以TTL电平信号发送至TTL转485模块,以提高其传输距离至1000m,然后将其转化为485电平信号,发送至抑振控制模块;
所述处理器,用来接收实时采集到的机械臂振动数据,并进行处理分析,同时搭载抑振控制模块,实现对机械臂的振动抑制控制;
所述抑振控制模块,其功能为根据实时接收采集到的机械臂振动数据,推导出机械臂系统的阻尼比与频率,进而设计输入整形器,对机械臂运行的加速度信号进行整形,并再次得到振动数据;此时根据深度强化学习DDPG算法选取一个动作,再次对机械臂运行的加速度信号进行整形,得到振动数据,对此次过程的振动数据进行处理,再次根据强化学习DDPG算法选取动作,不断循环此训练过程,直至机械臂达到较好的抑振效果。
2.一种如权利要求1所述的基于未知机械臂模型的深度强化学习抑振系统的抑振方法,其特征在于:将深度强化学习与输入整形二者结合;在机器人机械臂精确动力学模型未知的情况下,通过深度强化学习DDPG算法,不断优化输入整形器参数,以此来对机械臂振动进行优化,以提高机械臂工作效率。
3.根据权利要求2所述的一种基于未知机械臂模型的深度强化学习抑振方法,其特征在于:该方法不需要已知机械臂精确的动力学模型,而是将机械臂系统近似为二阶系统,通过陀螺仪传感器采集机械臂末端振动数据,以此来求解系统的阻尼比与频率,进而设计输入整形器;具体实现步骤如下:
步骤1,根据机械臂振动数据推导出其阻尼比与频率参数,将机械臂系统近似为二阶系统,取机械臂振动数据中的俯仰数据,取俯仰数据的最大值为系统的峰值YP,对应的时间为峰值时间tP,对应的超调量为σ,超调量的计算公式如下:
σ=[YP-Y(∞)]/Y(∞)*100% (1)
其中,Y(∞)为系统稳定下的输出,ε为系统的阻尼比,联立(1)(2)式求得系统的阻尼比ε,计算公式如下:
系统的峰值时间tP计算公式如下:
由式(3)计算出系统的阻尼比,峰值时间tP直接读取,由此得系统的频率wn计算公式为:
由此便求出机械臂系统的阻尼比与频率;
步骤2;根据第一步求出的机械臂系统的阻尼比与频率,将机械臂系统近似为二阶系统,表达式为:
根据拉普拉斯变换,将系统的表达式改写为传递函数的形式:
输入整形器的时域表达式为:
其中,Ai为脉冲幅值,ti为脉冲时滞,n为输入整形所包含的脉冲个数,对其进行拉普拉斯变换,得到其频域表达式为:
引入输入整形后,二阶系统的响应为:
考虑到系统响应的快速性,取n=2,则有:
t1=0 (11)
A1+A2=1 (15)
由式(11)-(15)便求得输入整形器的参数t1、t2、A1、A2,由此完成输入整形器的设计;
步骤3,对机械臂的加速度进行输入整形,设整形前加速度为a0,整形后的加速度:在0至t2时间段内,加速度a1=A1*a0/(A1+A2),在t2之后,加速度a2=a0,以此完成对机械臂加速度的整形;通过振动采集模块将整形后机械臂的振动数据再次发送至抑振模块;
步骤4,深度强化学习DDPG算法训练:将强化学习DDPG算法与输入整形器两者结合,通过DDPG算法的训练得到最优的输入整形器参数,以此达到最佳抑振效果。
4.根据权利要求3所述的一种基于未知机械臂模型的深度强化学习抑振方法,其特征在于:步骤4中,强化学习DDPG算法训练过程如下:
基于深度确定性策略梯度算法,应用深度学习技术,同时基于Actor-Critic算法的确定性策略算法,该算法中的Actor和Critic都使用深度神经网络来建立近似函数,直接从Actor的策略生成确定性的行为;该算法在学习阶段在确定性行为基础上增加一个噪声函数,以实现在确定性行为周围进行小范围探索;此外,该算法还为Actor和Critic网络分别备份了一套参数来计算行为价值的期待值,以更稳定的提升Critic的策略指导水平,从而减少因近似数据的引导性而发生不收敛的情况,共用到了两个Actor网络,两个Critic网络共4个网络;
奖励机制:在每个循环周期内,求该周期内的振动数据的方差,公式如下:
其中,Di为第i次训练周期,[x1x2x3…xn]为每个振动采样周期的振动数据,x0为0,将Di作为DDPG算法奖励函数的输入,奖励函数公式如下:
能够看到振动数据的方差越小,表示机械臂运行越平稳,其奖励值便越大,反之,方差越大,运行过程中振动越剧烈,其奖励值越小;
搭建Critic网络:Critic网络接收的输入是状态以及行为动作,输出“状态-行为对”的价值,所设计的Critic共有3个隐藏层,处理状态的隐藏层和行为的隐藏层先分开运算,其中处理状态的隐藏层有两个,分别为256个神经元,128个神经元,处理行为的隐藏层为128个神经元,最后通过一个隐藏层全连接在一起输出“状态-行为对”价值;
搭建Actor网络:Actor网络的输入为状态,输出为行为动作,所设计的Actor共有3个隐藏层,分别为256个、128个、64个神经元,层与层之间全连接;
确定性策略下探索的实现:在生成的行为基础上添加一个随机噪声,使其在确切的行为周围实现一定范围的探索;噪声模型为Ornstein-Uhlenbeck,能够生成符合马尔科夫过程的随机过程;
至此,完成DDPG算法框架的搭建,最后对该算法的学习率参数进行配置,完成DDPG算法的设计,通过此算法的训练,不断优化输入整形器参数,使机械臂工作越来越平顺。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210292577.9A CN114932546B (zh) | 2022-03-23 | 2022-03-23 | 一种基于未知机械臂模型的深度强化学习抑振系统及方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210292577.9A CN114932546B (zh) | 2022-03-23 | 2022-03-23 | 一种基于未知机械臂模型的深度强化学习抑振系统及方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN114932546A true CN114932546A (zh) | 2022-08-23 |
CN114932546B CN114932546B (zh) | 2023-10-03 |
Family
ID=82861942
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210292577.9A Active CN114932546B (zh) | 2022-03-23 | 2022-03-23 | 一种基于未知机械臂模型的深度强化学习抑振系统及方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114932546B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116423509A (zh) * | 2023-04-10 | 2023-07-14 | 之江实验室 | 一种基于深度神经网络的机械臂残余振动抑制方法及装置 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107340116A (zh) * | 2017-07-10 | 2017-11-10 | 大连理工大学 | 一种基于时滞补偿的风洞支杆抑振方法 |
CN107738273A (zh) * | 2017-10-16 | 2018-02-27 | 华南理工大学 | 一种基于输入整形器的机器人关节末端残余振动抑制方法 |
US20180089589A1 (en) * | 2016-09-27 | 2018-03-29 | Fanuc Corporation | Machine learning device and machine learning method for learning optimal object grasp route |
CN112021001A (zh) * | 2020-09-02 | 2020-12-04 | 东北林业大学 | 一种基于ql-si算法的松果采摘装置振动抑制方法 |
CN112338921A (zh) * | 2020-11-16 | 2021-02-09 | 西华师范大学 | 一种基于深度强化学习的机械臂智能控制快速训练方法 |
CN112388636A (zh) * | 2020-11-06 | 2021-02-23 | 广州大学 | DDPG多目标遗传自优化三轴delta机器平台与方法 |
EP3822595A1 (en) * | 2019-11-14 | 2021-05-19 | Hitachi, Ltd. | Predictive maintenance for robotic arms using vibration measurements |
-
2022
- 2022-03-23 CN CN202210292577.9A patent/CN114932546B/zh active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20180089589A1 (en) * | 2016-09-27 | 2018-03-29 | Fanuc Corporation | Machine learning device and machine learning method for learning optimal object grasp route |
CN107340116A (zh) * | 2017-07-10 | 2017-11-10 | 大连理工大学 | 一种基于时滞补偿的风洞支杆抑振方法 |
CN107738273A (zh) * | 2017-10-16 | 2018-02-27 | 华南理工大学 | 一种基于输入整形器的机器人关节末端残余振动抑制方法 |
EP3822595A1 (en) * | 2019-11-14 | 2021-05-19 | Hitachi, Ltd. | Predictive maintenance for robotic arms using vibration measurements |
CN112021001A (zh) * | 2020-09-02 | 2020-12-04 | 东北林业大学 | 一种基于ql-si算法的松果采摘装置振动抑制方法 |
CN112388636A (zh) * | 2020-11-06 | 2021-02-23 | 广州大学 | DDPG多目标遗传自优化三轴delta机器平台与方法 |
CN112338921A (zh) * | 2020-11-16 | 2021-02-09 | 西华师范大学 | 一种基于深度强化学习的机械臂智能控制快速训练方法 |
Non-Patent Citations (1)
Title |
---|
贾鹏霄;周越;李鑫伟;: "基于离线学习输入整形的柔性关节机械臂振动控制研究", 振动与冲击, no. 13 * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116423509A (zh) * | 2023-04-10 | 2023-07-14 | 之江实验室 | 一种基于深度神经网络的机械臂残余振动抑制方法及装置 |
CN116423509B (zh) * | 2023-04-10 | 2024-01-16 | 之江实验室 | 一种基于深度神经网络的机械臂残余振动抑制方法及装置 |
Also Published As
Publication number | Publication date |
---|---|
CN114932546B (zh) | 2023-10-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6499720B2 (ja) | 機械学習装置、サーボ制御装置、サーボ制御システム、及び機械学習方法 | |
CN110909859A (zh) | 基于对抗结构化控制的仿生机器鱼运动控制方法、系统 | |
CN108170151B (zh) | 一种水下机器人的自适应运动控制装置及其方法 | |
CN109885077B (zh) | 一种四旋翼飞行器姿态控制方法及控制器 | |
CN112077839B (zh) | 一种机械臂的运动控制方法及装置 | |
CN112338913A (zh) | 一种多关节柔性机械臂的轨迹跟踪控制方法及系统 | |
CN114932546A (zh) | 一种基于未知机械臂模型的深度强化学习抑振系统及方法 | |
Shakhovska et al. | The neurocontroller for satellite rotation | |
CN107315348B (zh) | 一种基于惩罚式小波网络的无人潜航器位姿控制方法 | |
CN117452827B (zh) | 一种欠驱动无人艇轨迹跟踪控制方法 | |
CN114967714A (zh) | 一种自主式水下机器人抗扰运动控制方法及系统 | |
Guo et al. | Locally weighted learning robot control with improved parameter convergence | |
Zhu et al. | A fuzzy logic-based cascade control without actuator saturation for the unmanned underwater vehicle trajectory tracking | |
Rani et al. | A neural network based efficient leader–follower formation control approach for multiple autonomous underwater vehicles | |
Yang et al. | Trajectory tracking with external disturbance of bionic underwater robot based on CPG and robust model predictive control | |
CN104950683A (zh) | 一种视觉伺服机械臂系统的自适应间隙逆模型发生装置 | |
CN116736748A (zh) | 构建机器人的控制器的方法和机器人 | |
CN114118371A (zh) | 一种智能体深度强化学习方法及计算机可读介质 | |
CN111152213A (zh) | 一种基于混合控制的机械臂振动补偿方法及装置 | |
Hu et al. | A survey of deep neural network sliding mode control in robot application | |
Xu et al. | Bioinspired backstepping sliding mode control and adaptive sliding innovation filter of quadrotor unmanned aerial vehicles | |
CN116560241B (zh) | 面向铰接车的显式循环模型预测控制轨迹跟踪方法和装置 | |
Wang et al. | Stochastic path following control of marine vehicles with multiple disturbances and input saturation | |
CN116513219A (zh) | 一种车辆自适应控制方法、系统、存储介质及车辆 | |
CN118131807A (zh) | 一种基于确定学习的四足机器人智能控制方法及系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |