CN115167102A - 一种基于并行优势动作评价的强化学习自适应pid控制方法 - Google Patents

一种基于并行优势动作评价的强化学习自适应pid控制方法 Download PDF

Info

Publication number
CN115167102A
CN115167102A CN202210547986.9A CN202210547986A CN115167102A CN 115167102 A CN115167102 A CN 115167102A CN 202210547986 A CN202210547986 A CN 202210547986A CN 115167102 A CN115167102 A CN 115167102A
Authority
CN
China
Prior art keywords
actor
network
critic
value
function
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202210547986.9A
Other languages
English (en)
Inventor
杜海舟
徐野
郭晓晗
田飞
李鑫
李建鹏
贺正良
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Gansu Huadian Fuxin Energy Co ltd Minle Branch
Shanghai Electric Power University
Original Assignee
Gansu Huadian Fuxin Energy Co ltd Minle Branch
Shanghai Electric Power University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Gansu Huadian Fuxin Energy Co ltd Minle Branch, Shanghai Electric Power University filed Critical Gansu Huadian Fuxin Energy Co ltd Minle Branch
Priority to CN202210547986.9A priority Critical patent/CN115167102A/zh
Publication of CN115167102A publication Critical patent/CN115167102A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B11/00Automatic controllers
    • G05B11/01Automatic controllers electric
    • G05B11/36Automatic controllers electric with provision for obtaining particular characteristics, e.g. proportional, integral, differential
    • G05B11/42Automatic controllers electric with provision for obtaining particular characteristics, e.g. proportional, integral, differential for obtaining a characteristic which is both proportional and time-dependent, e.g. P. I., P. I. D.

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • Feedback Control In General (AREA)

Abstract

本发明公开了基于并行优势动作评价的强化学习自适应PID控制方法,包括设置采样周期,A2C算法的线程个数n,初始化网络参数;根据当前状态误差,利用状态转换器构造第i个智能体的输入状态向量;利用RBF网络同时实现第i个智能体策略函数和值函数的学习,参数值修正后计算系统输出,并观测下一采样时间系统误差ei(t+1),计算奖励函数ri(t);判断是否更新参数,数据总量达到batch size,停止采样,输出状态估计值并更新权值,将n个智能体上传的梯度汇总并求平均,更新Global Net参数,Global Net传递给Actor(i)和Critic(i)新的权值;迭代重复,输出算法的最优解。通过本发明提供的方法,可以有效的克服大超调,非线性和滞后性对PID控制器带来的影响。

Description

一种基于并行优势动作评价的强化学习自适应PID控制方法
技术领域
本发明强化学习,PID控制器参数调优的技术领域,尤其涉及一种基于并行优势动作评价的强化学习自适应PID控制方法。
背景技术
在现代工业控制系统研究中,对控制性能指标进行优化是研究控制算法的首要任务之一。常见的工业控制系统一般具有非线性、含时滞、多变量等复杂特性,研究人员提出了模糊PID控制、分数阶PID控制、自抗扰控制等算法,提升控制算法的性能。工程实践中,此类控制算法和控制器的参数整定及优化过程需要工程师大量的实践经验,或通过观察被控对象的响应逐步调整,或通过辨识模型推理计算。参数优化过程繁琐耗时、常有重复性工作。
随着人工智能技术的发展,深度学习、强化学习等人工智能理论及技术被广泛应用于语音识别、智能推荐、机器人控制等领域。由于控制理论的“反馈”概念与强化学习的“奖励”概念的相似性,为了增强控制算法性能、减少人工成本,许多学者也尝试在控制理论与控制工程领域引入强化学习。但目前这类研究大多处于理论证明和仿真实验阶段,少有工程实践的验证。
而传统PID控制器在控制过程中,控制参数不变。但实际生产过程中,因为非线性、滞后性、扰动信号等因素,系统的过程参数和结构甚至都会发生变化,导致PID控制效果不理想。
目前,实现电力系统自动发电控制(Automatic Generation Control,AGC)功能的控制系统依旧采用传统的定参数PID控制器。控制器的目标是使输出量能够跟随输入量的变化而变化,即输出值等于输入的期望值,而存在于期望值与实际输出值中的差值则称为误差。实际上,实际输出值并不完全等于期望值,并且易受扰动影响而只能近似地实现,即误差必然存在。导致这种情况的共有两个原因:一是互联电网的AGC系统具有时变性、非线性以及参数不确定的特点;二是电网的实际用电负荷时刻都在发生变化,机组的各类参数也在随之改变。因此,定参数PID控制策略已经不能满足电网的调频需求。
发明内容
本部分的目的在于概述本申请的实施例的一些方面以及简要介绍一些较佳实施例,在本部分以及本申请的说明书摘要和申请名称中可能会做些简化或省略以避免使本部分、说明书摘要和申请名称的目的模糊,而这种简化或省略不能用于限制本申请的范围。
鉴于上述和/或现有技术中所存在的问题,提出了本申请。
因此,本申请所要解决的技术问题是:定参数PID控制策略已经不能满足电网的调频需求。
为解决上述技术问题,本申请提供如下技术方案:一种基于并行优势动作评价的强化学习自适应PID控制方法,包括,
设置采样周期,A2C算法的线程个数n,初始化网络参数;
获取当前状态误差,误差ei(t)=yd(t)-y(t),由调度中心下发的计划出力值yd(t)和发电站实际出力值y(t)的差值确定,误差ei(t)作为输入信号进入控制器;
根据当前状态误差,利用状态转换器构造第i个智能体的输入状态向量Θi(t);
利用RBF网络同时实现第i个智能体策略函数和值函数的学习,参数值修正后计算系统输出,并观测下一采样时间系统误差ei(t+1),计算奖励函数ri(t);
判断是否更新参数,数据总量达到batch size,停止采样,输出状态估计值并更新权值,将n个智能体上传的梯度汇总并求平均,更新Global Net参数,Global Net传递给Actor(i)和Critic(i)新的权值;
不断迭代重复,直到满足停止条件,输出算法的最优解。
作为本发明所述的基于强化学习算法的PID控制器参数自整定方法的一种优选方案,其中:根据当前状态误差,利用状态转换器构造第i个智能体的输入状态向量包括,PID控制器的控制规律如下:
Figure BDA0003650259700000021
将连续函数离散化,离散化后形式:
Figure BDA0003650259700000022
ei(t)=yd(t)-y(t)
根据递推原理:
Figure BDA0003650259700000031
Δui(t)=ui(t)-ui(t-1)
故:
Δui(t)=kPΔei(t)+kIei(t)+kDΔ2ei(t)=KΘi(t)
式中:i∈[1,n],n表示智能体的总数,i代表第i个智能体;K=[kI kP kD]为PID控制器的三个参数值;yd(t)为设定目标值;y(t)为实测系统反馈值;ei(t)为本次采样误差;ei(t-1)为上一次采样误差;ei(t-2)为上上次采样误差;Δui(t)为本次控制量增量;Θi(t)=[ei(t) Δei(t) Δ2ei(t)]为RBF网络的输入向量;Δei(t)=ei(t)-ei(t-1)为ei(t)的一次差分;Δ2ei(t)=ei(t)-2ei(t-1)+ei(t-2)为ei(t)的二次差分。
作为本发明所述的基于强化学习算法的PID控制器参数自整定方法的一种优选方案,其中:利用RBF网络同时实现第i个智能体策略函数和值函数的学习,参数值修正后计算系统输出,并观测下一采样时间系统误差ei(t+1),计算奖励函数ri(t)包括,所述RBF网络由输入层、隐含层和输出层构成,选择RBF网络作为参数化手段,设置神经网络中心,随机配置初始Actor和Critic网络权值参数,对应网络输入Θi(t)=[ei(t) Δei(t) Δ2ei(t)]Τ,输出为Y=kI' kP' kD' V(t)]Τ
作为本发明所述的基于强化学习算法的PID控制器参数自整定方法的一种优选方案,其中:所述输入层包括三个输入节点,三个输入节点的输入分别为状态向量Θi(t)的一个分量,分别代表系统输出误差、误差的一次差分、误差的二次差分。
作为本发明所述的基于强化学习算法的PID控制器参数自整定方法的一种优选方案,其中:所述隐含层取5个节点,激活函数选用高斯型核函数,则第j个隐节点的输出为:
Figure BDA0003650259700000032
其中:μj=[μ1j μ2j μ3j]T为第j个隐节点的中心向量,σj为第j个节点的宽度向量。
作为本发明所述的基于强化学习算法的PID控制器参数自整定方法的一种优选方案,其中:所述输出层由Actor和Critic组成,Actor和Critic共享RBF网络的输入层和隐层的资源,共四个输出节点,其中前三个输出为Actor部分的输出K'(t)的三个分量,第四个节点的输出为Critic部分的值函数V(t):
Figure BDA0003650259700000041
Figure BDA0003650259700000042
其中,j=1,2,…,5为隐含层节点编号;m=1,2,3,为输出层节点编号;wj1,2,3为隐含层第j个节点分别与输出层Actor第1,2,3个节点之间的权值;wj4为隐含层第j个节点与输出层Critic(第四个节点)之间的权值。
作为本发明所述的基于强化学习算法的PID控制器参数自整定方法的一种优选方案,其中:参数值修正后计算系统输出,并观测下一采样时间系统误差ei(t+1),计算奖励函数ri(t)包括,控制作用为:
Δu(k)=kPΔe(t)+kIe(t)+kDΔ2e(t)=KΘ(t)
Actor通过高斯干扰Kξ对K'(t)进行修正,得到最终K(t),修正公式为:
K(t)=K'(t)+Kξ
Critic用于评估值函数,AC学习中的误差δTD与状态转移中相邻状态的值函数和回报函数有关,回报函数ri(t),用来反映选择动作的好坏,定义为:
Figure BDA0003650259700000043
作为本发明所述的基于强化学习算法的PID控制器参数自整定方法的一种优选方案,其中:判断是否更新参数,数据总量达到batch size,停止采样,输出状态估计值并更新权值,将n个智能体上传的梯度汇总并求平均,更新Global Net参数,Global Net传递给Actor(i)和Critic(i)新的权值包括,
TD误差δTD为:
δTD=qt-V(St,W'v)
qt=rt+1+γrt+2+…+γn-1rt+nnV(St+n,W'v)
其中,γ为折扣因子,0<γ<1,用来确定延迟回报与立即回报的比例,此处取γ=0.99。W'v为Critic网络权值,δTD反映Actor网络所选动作的优劣程度;
系统的学习性能指标为:
Figure BDA0003650259700000051
梯度下降法进行权值迭代更新,具体公式为:
Figure BDA0003650259700000052
其中,α为学习率,是可调节的常数;
Figure BDA0003650259700000053
为策略梯度,又有:
Figure BDA0003650259700000054
故RBF网络中Actor与Critic权重更新公式为:
wj(t+1)=wj(t)+αAδTD(t)Yj(t),j=1,2,3
w4(t+1)=w4(t)cδTD(t)Yj(t)
其中,αA为Actor的学习率,αc为Critic的学习率。
作为本发明所述的基于强化学习算法的PID控制器参数自整定方法的一种优选方案,其中:判断是否更新参数,数据总量达到batch size,停止采样,输出状态估计值并更新权值,将n个智能体上传的梯度汇总并求平均,更新Global Net参数,Global Net传递给Actor(i)和Critic(i)新的权值包括,
隐含层节点的中心和宽度的更新的具体公式为:
Figure BDA0003650259700000055
Figure BDA0003650259700000056
其中,αμ,ασ分别为中心和宽度的学习率;
Actor网络结构与Critic网络结构利用自身梯度更新中央大脑网络Global Net中存储的的网络参数,更新公式为:
Figure BDA0003650259700000061
Figure BDA0003650259700000062
其中,Wa为中央网络存储的的Actor网络权值,W'a为每个Actor-Critic结构的Actor网络权值,Wv为中央网络存储的的Critic网络权值,W'v为每个Actor-Critic结构的Critic网络权值,αA为Actor的学习率,αc为Critic的学习率。
作为本发明所述的基于强化学习算法的PID控制器参数自整定方法的一种优选方案,其中:通过调整Actor和Critic网络结构的学习率,提高所述PID控制器参数整定系统结构的收敛性。
本申请的有益效果:通过本发明提供的方法,可以有效的克服大超调,非线性和滞后性对PID控制器带来的影响,以优化PID控制器在电网领域的适用性。
附图说明
为了更清楚地说明本申请实施例的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其它的附图。其中:
图1为本发明实施例提供的基于并行优势动作评价的强化学习自适应PID控制方法的基本流程示意图;
图2为本发明实施例提供的基于并行优势动作评价的强化学习自适应PID控制方法的PID控制原理框图;
图3为本发明实施例提供的基于并行优势动作评价的强化学习自适应PID控制方法的强化学习基本框架;
图4为本发明实施例提供的基于并行优势动作评价的强化学习自适应PID控制方法的Advantage-Actor-Critic学习框架;
图5为本发明实施例提供的基于并行优势动作评价的强化学习自适应PID控制方法的RBF神经网络结构;
图6为本发明实施例提供的基于并行优势动作评价的强化学习自适应PID控制方法的整体网络结构示意图;
图7为本发明实施例提供的基于并行优势动作评价的强化学习自适应PID控制方法的控制器Simulink模型;
图8为本发明实施例提供的基于并行优势动作评价的强化学习自适应PID控制方法的奖励函数收敛曲线;
图9为本发明实施例提供的基于并行优势动作评价的强化学习自适应PID控制方法的仿真实验结果对比图。
具体实施方式
为使本申请的上述目的、特征和优点能够更加明显易懂,下面结合说明书附图对本申请的具体实施方式做详细的说明。
在下面的描述中阐述了很多具体细节以便于充分理解本申请,但是本申请还可以采用其他不同于在此描述的其它方式来实施,本领域技术人员可以在不违背本申请内涵的情况下做类似推广,因此本申请不受下面公开的具体实施例的限制。
其次,本申请结合示意图进行详细描述,在详述本申请实施例时,为便于说明,表示器件结构的剖面图会不依一般比例作局部放大,而且所述示意图只是示例,其在此不应限制本申请保护的范围。此外,在实际制作中应包含长度、宽度及深度的三维空间尺寸。
再其次,此处所称的“一个实施例”或“实施例”是指可包含于本申请至少一个实现方式中的特定特征、结构或特性。在本说明书中不同地方出现的“在一个实施例中”并非均指同一个实施例,也不是单独的或选择性的与其他实施例互相排斥的实施例。
实施例1
本实施例提供了一种基于强化学习的控制参数优化算法,通过结合多线程优势动作评价算法的奖励机制,RBF的快速学习和控制系统的动态性能指标评价模块,对控制器参数进行在线自整定及优化。优势动作评价算法(Advantage Actor-critic Algorithm),以下简称为A2C,是深度强化学习领域新一代算法,目的在于解决贯序决策问题。算法的基础是动作-评价强化学习算法(Actor-Critic Algorithm),包括Actor和Critic两个网络,Actor是一个以策略为基础的网络,通过奖惩信息来进行调节不同状态下采取各种动作的概率;Critic是一个以值为基础的学习网络,可以计算每一步的奖惩值。二者相结合,Actor来选择动作,Critic告诉Actor选择的动作是否合适。
在这一过程中,Actor不断迭代,得到每一个状态下选择每一动作的合理概率,Critic也不断迭代,不断完善每个状态下选择每一个动作的奖励值。A2C算法创建多个并行的环境,每个并行环境同时运行Actor-Critic,让多个拥有副结构的智能体同时在这些并行环境上更新主结构中的参数。并行中的智能体互不干扰,而主结构的参数更新通过副结构上传汇总各并行智能体的更新梯度实现,所以相对于Actor-Critic算法,A2C算法中数据收敛性显著提高。A2C算法在策略寻优方面体现出了非凡的性能,现阶段被广泛应用于金融、自动控制、游戏等行业,并取得了良好的效果。作为一种动态变参数PID控制算法,具有参数自整定及优化算法的可行性、有效性和普适性。本发明通过利用多线程并行的特性,异步训练多个智能体,经历不同的学习过程,打破样本间的关联性,作为一种动态变参数PID控制算法,解决传统定参数PID控制器的不足。
具体的,参照图1~7,一种基于并行优势动作评价的强化学习自适应PID控制方法,包括以下步骤:
步骤一:设置采样周期,A2C算法的线程个数n,初始化网络参数。
步骤二:在输入端,定义期望输出由调度中心下发的计划出力值yd(t),与被控对象实际输出发电站实际出力值y(t)的差值为状态误差ei(t)=yd(t)-y(t),误差ei(t)作为输入信号进入控制器。
步骤三:根据误差e(t)构建状态向量Θi(t)=[ei(t) Δei(t) Δ2ei(t)];
参照图2,PID的控制规律为:
Figure BDA0003650259700000081
kP-比例环节系数,kI-积分环节系数,kD-微分环节系数。
计算机控制是采样控制,需将连续函数离散化,离散化后形式:
Figure BDA0003650259700000082
ei(t)=yd(t)-y(t)
根据递推原理:
Figure BDA0003650259700000091
Δui(t)=ui(t)-ui(t-1)
故:
Δui(t)=kPΔei(t)+kIei(t)+kDΔ2ei(t)=KΘi(t)
式中:
i∈[1,n],n表示智能体的总数,i代表第i个智能体;
K=[kI kP kD],PID控制器的三个参数值;
yd(t),设定目标值;y(t),实测系统反馈值;
ei(t),本次采样误差;ei(t-1),上一次采样误差;
ei(t-2),上上次采样误差;Δui(t),本次控制量增量;
Θi(t)=[ei(t) Δei(t) Δ2ei(t)],RBF网络的输入向量;
Δei(t)=ei(t)-ei(t-1),ei(t)的一次差分;
Δ2ei(t)=ei(t)-2ei(t-1)+ei(t-2),ei(t)的二次差分。
步骤四:选择RBF网络作为参数化手段,设置神经网络中心,随机配置初始Actor和Critic网络权值参数,状态向量Θi(t)作为输入,经过隐含层与输出层的计算,对应网络输入Θi(t)=[ei(t) Δei(t) Δ2ei(t)]Τ,输出为Y=kI' kP' kD' V(t)]Τ。参照图5,RBF神经网络同时实现策略函数和值函数的学习;
第一层:输入层是整个RBF网络的输入。该层共有三个输入节点,这三个节点的输入分别是状态向量Θi(t)的一个分量。Θi(t)=[ei(t) Δei(t) Δ2ei(t)]Τ,分别代表系统输出误差、误差的一次差分、误差的二次差分。
第二层:隐含层取5个节点,激活函数选用高斯型核函数。根据高斯核函数的形式,第j个隐节点的输出为:
Figure BDA0003650259700000092
其中:μj=[μ1j μ2j μ3j]T为第j个隐节点的中心向量,σj为第j个节点的宽度向量,隐含层是对激活函数的参数进行调整,采用非线性优化策略,学习速度较慢。
第三层:为了减小计算量,提升计算速度,利用一个RBF网络同时实现策略函数和值函数的学习。Actor和Critic共享RBF网络的输入层和隐层的资源,故输出层由Actor和Critic两部分组成,共四个输出节点。其中前三个输出为Actor部分的输出K'(t)的三个分量,第四个节点的输出为Critic部分的值函数V(t)。输出分别根据以下公式来计算:
Figure BDA0003650259700000101
Figure BDA0003650259700000102
其中,j=1,2,…,5为隐含层节点编号;m=1,2,3,为输出层节点编号;wj1,2,3为隐含层第j个节点分别与输出层Actor第1,2,3个节点之间的权值;wj4为隐含层第j个节点与输出层Critic(第四个节点)之间的权值。
步骤五:利用Actor-Critic模型进行动作评价及修正;
Actor-Critic学习模型主要分为两个部分:执行器Actor和评价器Critic。Actor-Critic学习可对值函数和策略函数进行逼近,其中策略函数由Actor部分策略梯度估计方法进行梯度下降学习来实现;而值函数估计由Critic部分采用TD学习算法实现。参照图4,Actor-Critic学习模型的体系结构:对于状态s,执行器根据当前策略选择动作a,状态s接受动作a的作用后,转移到状态s+1,同时产生一个回报信号r;状态s和回报信号r作为评价器的输入,其输出为值函数的估计,并产生一个TD误差信号,用于评价器和执行器网络的更新学习,对选择的动作进行评价,以修正执行器的动作选择策略。
(1)Actor网络
Actor的主要作用是学习策略。利用高斯干扰Kξ对K'(t)进行修正,得到最终K(t)。高斯干扰Kξ是一个期望为零,依赖值函数信息的方差为
Figure BDA0003650259700000103
的正态分布函数;修正公式为:
K(t)=K'(t)+Kξ
(2)Critic网络
Critic主要用来评估值函数。本专利应用TD算法来学习。AC学习中的误差δTD与状态转移中相邻状态的值函数和回报函数有关。回报函数r(t),用来反映选择动作的好坏,定义为:
Figure BDA0003650259700000111
步骤六:K(t)作为PID参数,将控制信号作用于被控系统,观测下一采样时间的系统输出和奖励函数值;
控制作用为:
Δu(k)=kPΔe(t)+kIe(t)+kDΔ2e(t)
步骤七:根据新的系统输出值构建新的系统状态;
输入向量为:
Θi(t+1)=[ei(t+1) Δei(t+1) Δ2ei(t+1)]
步骤八:预测下一采样时间的输出函数和回报函数,计算值函数和TD误差,更新网络参数,收集所有Agent参数以更新Global Network的参数;
(1)TD误差δTD为:
δTD=qt-V(St,W′v)
qt=rt+1+γrt+2+...+γn-1rt+nnV(St+n,W′v)
其中,γ为折扣因子,0<γ<1,用来确定延迟回报与立即回报的比例,此处取γ=0.99。W′v为Critic网络权值,δTD反映Actor网络所选动作的优劣程度。
(2)系统的学习性能指标为:
Figure BDA0003650259700000112
(3)梯度下降法进行权值迭代更新,具体公式为:
Figure BDA0003650259700000113
其中,α为学习率,是可调节的常数;
Figure BDA0003650259700000114
为策略梯度,又有:
Figure BDA0003650259700000115
故RBF网络中Actor与Critic权重更新公式为:
wj(t+1)=wj(t)+αAδTD(t)Yj(t),j=1,2,3
w4(t+1)=w4(t)cδTD(t)Yj(t)
其中,αA为Actor的学习率,αc为Critic的学习率。
(4)隐含层节点的中心和宽度的更新的具体公式为:
Figure BDA0003650259700000121
Figure BDA0003650259700000122
其中,αμ,ασ分别为中心和宽度的学习率。
(5)Actor网络结构与Critic网络结构利用自身梯度更新中央大脑网络GlobalNet中存储的的网络参数,更新公式为:
Figure BDA0003650259700000123
Figure BDA0003650259700000124
其中,Wa为中央网络存储的的Actor网络权值,W'a为每个Actor-Critic结构的Actor网络权值,Wv为中央网络存储的的Critic网络权值,W'v为每个Actor-Critic结构的Critic网络权值,αA为Actor的学习率,αc为Critic的学习率。
步骤九:参照图6的流程,运行A2C算法进行迭代,重复步骤三到七,直到学习完毕。
实施例2
对实施例1提供的基于并行优势动作评价的强化学习自适应PID控制方法进行实验评估,将实施例1的A2C算法在gym测试框架中训练,训练结果如图8所示。可以看出在200个回合左右,奖励函数收敛至最大值。
训练不同回合数将参数代入PID控制器仿真,与同为深度强化学习PID控制器的DQN-PID做对比,得到的调节效果如图9所示,可以看出本发明提供的方法可以有效改善PID控制器因大超调,非线性和滞后性等问题带来的影响。
综上所述,发明将参数整定问题近似为求解约束优化问题,通过结合多线程A2C的奖励机制,RBF的快速学习和控制系统的动态性能指标评价模块,对控制器参数进行在线自整定及优化。作为一种动态变参数PID控制算法,具有参数自整定及优化算法的可行性、有效性和普适性。本发明通过利用多线程并行的特性,异步训练多个智能体,经历不同的学习过程,打破样本间的关联性,作为一种动态变参数PID控制算法,解决传统定参数PID控制器的不足。
应当认识到,本发明的实施例可以由计算机硬件、硬件和软件的组合、或者通过存储在非暂时性计算机可读存储器中的计算机指令来实现或实施。所述方法可以使用标准编程技术-包括配置有计算机程序的非暂时性计算机可读存储介质在计算机程序中实现,其中如此配置的存储介质使得计算机以特定和预定义的方式操作——根据在具体实施例中描述的方法和附图。每个程序可以以高级过程或面向对象的编程语言来实现以与计算机系统通信。然而,若需要,该程序可以以汇编或机器语言实现。在任何情况下,该语言可以是编译或解释的语言。此外,为此目的该程序能够在编程的专用集成电路上运行。
此外,可按任何合适的顺序来执行本文描述的过程的操作,除非本文另外指示或以其他方式明显地与上下文矛盾。本文描述的过程(或变型和/或其组合)可在配置有可执行指令的一个或多个计算机系统的控制下执行,并且可作为共同地在一个或多个处理器上执行的代码(例如,可执行指令、一个或多个计算机程序或一个或多个应用)、由硬件或其组合来实现。所述计算机程序包括可由一个或多个处理器执行的多个指令。
进一步,所述方法可以在可操作地连接至合适的任何类型的计算平台中实现,包括但不限于个人电脑、迷你计算机、主框架、工作站、网络或分布式计算环境、单独的或集成的计算机平台、或者与带电粒子工具或其它成像装置通信等等。本发明的各方面可以以存储在非暂时性存储介质或设备上的机器可读代码来实现,无论是可移动的还是集成至计算平台,如硬盘、光学读取和/或写入存储介质、RAM、ROM等,使得其可由可编程计算机读取,当存储介质或设备由计算机读取时可用于配置和操作计算机以执行在此所描述的过程。此外,机器可读代码,或其部分可以通过有线或无线网络传输。当此类媒体包括结合微处理器或其他数据处理器实现上文所述步骤的指令或程序时,本文所述的发明包括这些和其他不同类型的非暂时性计算机可读存储介质。当根据本发明所述的方法和技术编程时,本发明还包括计算机本身。计算机程序能够应用于输入数据以执行本文所述的功能,从而转换输入数据以生成存储至非易失性存储器的输出数据。输出信息还可以应用于一个或多个输出设备如显示器。在本发明优选的实施例中,转换的数据表示物理和有形的对象,包括显示器上产生的物理和有形对象的特定视觉描绘。
如在本申请所使用的,术语“组件”、“模块”、“系统”等等旨在指代计算机相关实体,该计算机相关实体可以是硬件、固件、硬件和软件的结合、软件或者运行中的软件。例如,组件可以是,但不限于是:在处理器上运行的处理、处理器、对象、可执行文件、执行中的线程、程序和/或计算机。作为示例,在计算设备上运行的应用和该计算设备都可以是组件。一个或多个组件可以存在于执行中的过程和/或线程中,并且组件可以位于一个计算机中以及/或者分布在两个或更多个计算机之间。此外,这些组件能够从在其上具有各种数据结构的各种计算机可读介质中执行。这些组件可以通过诸如根据具有一个或多个数据分组(例如,来自一个组件的数据,该组件与本地系统、分布式系统中的另一个组件进行交互和/或以信号的方式通过诸如互联网之类的网络与其它系统进行交互)的信号,以本地和/或远程过程的方式进行通信。
应说明的是,以上实施例仅用以说明本发明的技术方案而非限制,尽管参照较佳实施例对本发明进行了详细说明,本领域的普通技术人员应当理解,可以对本发明的技术方案进行修改或者等同替换,而不脱离本发明技术方案的精神和范围,其均应涵盖在本发明的权利要求范围当中。

Claims (10)

1.一种基于并行优势动作评价的强化学习自适应PID控制方法,其特征在于:包括以下步骤,
设置采样周期,A2C算法的线程个数n,初始化网络参数;
获取当前状态误差,误差ei(t)=yd(t)-y(t),由调度中心下发的计划出力值yd(t)和发电站实际出力值y(t)的差值确定,误差ei(t)作为输入信号进入控制器;
根据当前状态误差,利用状态转换器构造第i个智能体的输入状态向量Θi(t);
利用RBF网络同时实现第i个智能体策略函数和值函数的学习,参数值修正后计算系统输出,并观测下一采样时间系统误差ei(t+1),计算奖励函数ri(t);
判断是否更新参数,数据总量达到batch size,停止采样,输出状态估计值并更新权值,将n个智能体上传的梯度汇总并求平均,更新GlobalNet参数,Global Net传递给Actor(i)和Critic(i)新的权值;
不断迭代重复,直到满足停止条件,输出算法的最优解。
2.根据权利要求1所述的基于并行优势动作评价的强化学习自适应PID控制方法,其特征在于:根据当前状态误差,利用状态转换器构造第i个智能体的输入状态向量包括,PID控制器的控制规律如下:
Figure FDA0003650259690000011
将连续函数离散化,离散化后形式:
Figure FDA0003650259690000012
ei(t)=yd(t)-y(t)
根据递推原理:
Figure FDA0003650259690000013
Δui(t)=ui(t)-ui(t-1)
故:
Δui(t)=kpΔei(t)+kIei(t)+kDΔ2ei(t)=KΘi(t)
式中:i∈[1,n],n表示智能体的总数,i代表第i个智能体;K=[kI kP kD]为PID控制器的三个参数值;yd(t)为设定目标值;y(t)为实测系统反馈值;ei(t)为本次采样误差;ei(t-1)为上一次采样误差;ei(t-2)为上上次采样误差;Δui(t)为本次控制量增量;Θi(t)=[ei(t)Δei(t)Δ2ei(t)]为RBF网络的输入向量;Δei(t)=ei(t)-ei(t-1)为ei(t)的一次差分;Δ2ei(t)=ei(t)-2ei(t-1)+ei(t-2)为ei(t)的二次差分。
3.根据权利要求1或2所述的基于并行优势动作评价的强化学习自适应PID控制方法,其特征在于:利用RBF网络同时实现第i个智能体策略函数和值函数的学习,参数值修正后计算系统输出,并观测下一采样时间系统误差ei(t+1),计算奖励函数ri(t)包括,所述RBF网络由输入层、隐含层和输出层构成,选择RBF网络作为参数化手段,设置神经网络中心,随机配置初始Actor和Critic网络权值参数,对应网络输入Θi(t)=[ei(t)Δei(t)Δ2ei(t)]T,输出为Y=[kI′kP′kD′V(t)]T
4.根据权利要求3所述的基于并行优势动作评价的强化学习自适应PID控制方法,其特征在于:所述输入层包括三个输入节点,三个输入节点的输入分别为状态向量Θi(t)的一个分量,分别代表系统输出误差、误差的一次差分、误差的二次差分。
5.根据权利要求3或4所述的基于并行优势动作评价的强化学习自适应PID控制方法,其特征在于:所述隐含层取5个节点,激活函数选用高斯型核函数,则第j个隐节点的输出为:
Figure FDA0003650259690000021
其中:μj=[μ1j μ2j μ3j]T为第j个隐节点的中心向量,σj为第j个节点的宽度向量。
6.根据权利要求5所述的基于并行优势动作评价的强化学习自适应PID控制方法,其特征在于:所述输出层由Actor和Critic组成,Actor和Critic共享RBF网络的输入层和隐层的资源,共四个输出节点,其中前三个输出为Actor部分的输出K′(t)的三个分量,第四个节点的输出为Critic部分的值函数V(t):
Figure FDA0003650259690000031
Figure FDA0003650259690000032
其中,j=1,2,…,5为隐含层节点编号;m=1,2,3,为输出层节点编号;wj1,2,3为隐含层第j个节点分别与输出层Actor第1,2,3个节点之间的权值;wj4为隐含层第j个节点与输出层Critic(第四个节点)之间的权值。
7.根据权利要求6所述的基于并行优势动作评价的强化学习自适应PID控制方法,其特征在于:参数值修正后计算系统输出,并观测下一采样时间系统误差ei(t+1),计算奖励函数ri(t)包括,控制作用为:
Δu(k)=kpΔe(t)+kIe(t)+kDΔ2e(t)=KΘ(t)
Actor通过高斯干扰Kξ对K′(t)进行修正,得到最终K(t),修正公式为:
K(t)=K′(t)+Kξ
Critic用于评估值函数,AC学习中的误差δTD与状态转移中相邻状态的值函数和回报函数有关,回报函数ri(t),用来反映选择动作的好坏,定义为:
Figure FDA0003650259690000033
8.根据权利要求7所述的基于并行优势动作评价的强化学习自适应PID控制方法,其特征在于:判断是否更新参数,数据总量达到batch size,停止采样,输出状态估计值并更新权值,将n个智能体上传的梯度汇总并求平均,更新GlobalNet参数,GlobalNet传递给Actor(i)和Critic(i)新的权值包括,
TD误差δTD为:
δTD=qt-V(St,W′v)
qt=rt+1+γrt+2+...+γn-1rt+nny(St+n,W′v)
其中,γ为折扣因子,0<γ<1,用来确定延迟回报与立即回报的比例,此处取γ=0.99。W′v为Critic网络权值,δTD反映Actor网络所选动作的优劣程度;
系统的学习性能指标为:
Figure FDA0003650259690000041
梯度下降法进行权值迭代更新,具体公式为:
Figure FDA0003650259690000042
其中,α为学习率,是可调节的常数;
Figure FDA0003650259690000043
为策略梯度,又有:
Figure FDA0003650259690000044
故RBF网络中Actor与Critic权重更新公式为:
wj(t+1)=wj(t)+αAδTD(t)Yj(t),j=1,2,3
w4(t+1)=w4(t)cδTD(t)Yj(t)
其中,αA为Actor的学习率,αc为Critic的学习率。
9.根据权利要求7或8所述的基于并行优势动作评价的强化学习自适应PID控制方法,其特征在于:判断是否更新参数,数据总量达到batch size,停止采样,输出状态估计值并更新权值,将n个智能体上传的梯度汇总并求平均,更新GlobalNet参数,GlobalNet传递给Actor(i)和Critic(i)新的权值包括,
隐含层节点的中心和宽度的更新的具体公式为:
Figure FDA0003650259690000045
Figure FDA0003650259690000046
其中,αμ,ασ分别为中心和宽度的学习率;
Actor网络结构与Critic网络结构利用自身梯度更新中央大脑网络Global Net中存储的的网络参数,更新公式为:
Figure FDA0003650259690000048
Figure FDA0003650259690000047
其中,Wa为中央网络存储的的Actor网络权值,W′a为每个Actor-Critic结构的Actor网络权值,Wv为中央网络存储的的Critic网络权值,W′v为每个Actor-Critic结构的Critic网络权值,αA为Actor的学习率,αc为Critic的学习率。
10.根据权利要求9所述的基于并行优势动作评价的强化学习自适应PID控制方法,其特征在于:通过调整Actor和Critic网络结构的学习率,提高PID控制器参数整定系统结构的收敛性。
CN202210547986.9A 2022-05-18 2022-05-18 一种基于并行优势动作评价的强化学习自适应pid控制方法 Pending CN115167102A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210547986.9A CN115167102A (zh) 2022-05-18 2022-05-18 一种基于并行优势动作评价的强化学习自适应pid控制方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210547986.9A CN115167102A (zh) 2022-05-18 2022-05-18 一种基于并行优势动作评价的强化学习自适应pid控制方法

Publications (1)

Publication Number Publication Date
CN115167102A true CN115167102A (zh) 2022-10-11

Family

ID=83484199

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210547986.9A Pending CN115167102A (zh) 2022-05-18 2022-05-18 一种基于并行优势动作评价的强化学习自适应pid控制方法

Country Status (1)

Country Link
CN (1) CN115167102A (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115983506A (zh) * 2023-03-20 2023-04-18 华东交通大学 一种水质预警方法、系统及可读存储介质
CN117826580A (zh) * 2024-03-05 2024-04-05 南京航空航天大学 基于td3算法的阀控液压缸强化学习分数阶控制方法及系统
CN117826580B (zh) * 2024-03-05 2024-06-07 南京航空航天大学 基于td3算法的阀控液压缸强化学习分数阶控制方法及系统

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115983506A (zh) * 2023-03-20 2023-04-18 华东交通大学 一种水质预警方法、系统及可读存储介质
CN117826580A (zh) * 2024-03-05 2024-04-05 南京航空航天大学 基于td3算法的阀控液压缸强化学习分数阶控制方法及系统
CN117826580B (zh) * 2024-03-05 2024-06-07 南京航空航天大学 基于td3算法的阀控液压缸强化学习分数阶控制方法及系统

Similar Documents

Publication Publication Date Title
CN108008627B (zh) 一种并行优化的强化学习自适应pid控制方法
US11914350B2 (en) Manufacturing process control using constrained reinforcement machine learning
Kubalík et al. Symbolic regression methods for reinforcement learning
Lin et al. Observer-based indirect adaptive fuzzy-neural tracking control for nonlinear SISO systems using VSS and H∞ approaches
Wani et al. A critical review on control strategies for structural vibration control
Narendra et al. Fast reinforcement learning using multiple models
Rego et al. Lyapunov-based continuous-time nonlinear control using deep neural network applied to underactuated systems
CN105867138A (zh) 一种基于pid控制器的稳定平台控制方法及装置
Mahmoud et al. Direct adaptive control for nonlinear systems using a TSK fuzzy echo state network based on fractional-order learning algorithm
Kosmatopoulos Control of unknown nonlinear systems with efficient transient performance using concurrent exploitation and exploration
Kumar et al. Lyapunov stability-based control and identification of nonlinear dynamical systems using adaptive dynamic programming
CN115167102A (zh) 一种基于并行优势动作评价的强化学习自适应pid控制方法
Menner et al. Automated controller calibration by Kalman filtering
Srikanth et al. Analytical tuning rules for second-order reduced ADRC with SOPDT models
CN113885328A (zh) 一种基于积分强化学习的核电功率跟踪控制方法
CN112180730B (zh) 一种多智能体系统分层最优一致性控制方法和装置
CN116880191A (zh) 一种基于时序预测的过程工业生产系统的智能控制方法
Du et al. Reinforcement learning
Kicki et al. Tuning of extended state observer with neural network-based control performance assessment
Emamzadeh et al. Fuzzy-based interaction prediction approach for hierarchical control of large-scale systems
Eqra et al. A novel adaptive multi-critic based separated-states neuro-fuzzy controller: Architecture and application to chaos control
JEYABALAN Grey wolf optimization algorithm based weight selection for tuning h-infinity loop shaping controller in application to a benchmark multivariable system with transmission zero
Taeib et al. Model predictive control based on chaos particle swarm optimization for nonlinear processes with constraints
CN117970782B (zh) 一种基于鱼鳞进化gsom改进的模糊pid控制方法
Echevarrieta et al. Speeding-Up Evolutionary Algorithms to Solve Black-Box Optimization Problems

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination