CN111459023A - 一种事件驱动的自学习控制技术 - Google Patents
一种事件驱动的自学习控制技术 Download PDFInfo
- Publication number
- CN111459023A CN111459023A CN202010355736.6A CN202010355736A CN111459023A CN 111459023 A CN111459023 A CN 111459023A CN 202010355736 A CN202010355736 A CN 202010355736A CN 111459023 A CN111459023 A CN 111459023A
- Authority
- CN
- China
- Prior art keywords
- event
- iteration
- tracking error
- control
- time
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000005516 engineering process Methods 0.000 title abstract description 8
- 230000007246 mechanism Effects 0.000 claims abstract description 4
- 230000001960 triggered effect Effects 0.000 claims description 13
- 238000000034 method Methods 0.000 claims description 12
- 239000000126 substance Substances 0.000 claims description 11
- 230000009471 action Effects 0.000 claims description 3
- 238000013461 design Methods 0.000 claims description 3
- 239000013598 vector Substances 0.000 claims description 3
- 230000006399 behavior Effects 0.000 claims description 2
- 230000000694 effects Effects 0.000 claims description 2
- 238000004364 calculation method Methods 0.000 abstract description 2
- 238000010586 diagram Methods 0.000 description 3
- 230000006872 improvement Effects 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 238000004088 simulation Methods 0.000 description 2
- 238000009825 accumulation Methods 0.000 description 1
- 238000004378 air conditioning Methods 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 150000001875 compounds Chemical class 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003252 repetitive effect Effects 0.000 description 1
- 230000008054 signal transmission Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B13/00—Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion
- G05B13/02—Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric
- G05B13/0265—Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric the criterion being a learning criterion
Landscapes
- Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Computation (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Automation & Control Theory (AREA)
- Feedback Control In General (AREA)
Abstract
本发明公开一种针对网络控制系统的事件驱动的自学习控制技术,属于智能控制领域。本发明主要针对网络控制系统中的资源有限问题,所提出的控制方案如下:考虑离散时间线性时变网络控制系统;提出事件驱动的迭代学习控制律;根据李雅普诺夫稳定性理论设计事件触发条件;建立事件驱动的自学习控制方案。本发明公开的一种事件驱动的自学习控制技术,主要针对网络控制系统中资源有限问题,在保证控制性能的基础上,降低控制执行的次数,减少执行器的计算负担,从而延长执行机构的寿命,节省资源的消耗。
Description
技术领域
本发明属于网络控制系统中的智能控制领域,更具体地,涉及一种事件驱 动的自学习控制技术。
背景技术
随着人工智能水平的提升,网络控制系统在智能交通、航天工程、空调系 统、智能农业等领域获得广泛的应用。网络控制系统的显著特点是通过公共共 享的通信网络进行数据传输,这就提出了如何有效利用有限的网络信道来提高 信号传输的质量和速率的问题。事件驱动控制被认为是解决这一问题的有效方 法之一。事件驱动控制是在事件发生后执行控制任务,而不是经过一定的固定 时间就可使控制器动作,它是由精心设计的事件触发条件来驱动事件。由于控 制只在需要时执行,因此在保证控制性能的同时,能够大大降低资源的消耗和 执行器的负担。
值得指出的是,许多系统在工程实践中是重复运行的,如工业机器人、化 工间歇过程、高速列车系统等。除了时变动态外,这些重复过程也沿着迭代方 向动态演化。因此,重复操作系统呈现出一种二维动态特性。对于这类系统的 控制,迭代学习控制(IterativeLearning Control,ILC)被认为是最合适的方法, 因为它可通过学习先前重复操作中获得的控制知识来提高控制性能。近年来, 关于ILC在网络控制系统中的应用,人们做了大量的工作。例如,文献“迭代 学习控制理论及其在网络控制系统中的应用”、文献“包含数据丢失的迭代学习 控制系统收敛性分析”和文献“网络控制系统中迭代学习控制算法的鲁棒收敛性分析”等均对ILC方法进行了研究以处理时变传输延迟、数据包丢失和外部 干扰等问题。
除了数据丢失、传输延迟和数据噪声等问题外,有限的网络信道也是网络 控制系统需要解决的关键问题。因此,为了提高网络控制系统的效率,将事件 驱动控制与迭代学习控制相结合已经成为一个新的研究课题。然而,对于重复 性网络系统中事件驱动型ILC的研究却很少。显然,与一维时间动态系统的事 件驱动控制方法相比,二维重复系统的事件驱动控制方法的研究还处于起步阶 段,许多问题尚待探索。
发明内容
本发明公开的一种事件驱动的自学习控制技术要解决的技术问题是,在保 证控制性能的基础上,节约网络资源,降低控制器执行的次数,减少执行器的 计算负担,延长执行机构的寿命。
本发明的目的通过以下技术方案实现:
本发明公开的一种事件驱动的自学习控制技术,主要针对网络控制系统中 资源有限问题,设计事件驱动的P型迭代学习控制方法,能够在保证控制性能 的同时,有效减少控制资源的利用,从而达到节省资源的目的。
本发明公开的一种事件驱动的自学习控制技术,所述方法包括以下步骤:
步骤1、考虑离散时间线性时变网络控制系统:
其中,yk(t)表示系统的输出,uk(t)表示系统的控制输入,xk(t)是系统的状 态,A(t),B(t)和C(t)表示具有兼容维数的矩阵或向量;t∈{0,1,…,N}代表时 间,其中N表示终端时间;k∈{0,1,…}是迭代次数;
该系统满足:
系统输入输出可观可控,即对于某一有界的给定的期望状态xd(t),存在某 一有界的控制输入信号ud(t),使得在控制输入信号ud(t)的驱动下,系统的输出 等于期望给定输出信号;
系统的初始状态xk(0)在每次迭代都是相同的;
步骤2、提出事件驱动的P型迭代学习控制律
其中,{kl},l=0,1,…,是事件触发的迭代序列;kl表示第l次触发的迭代; kl-1表示第l-1次触发的迭代;Lp是一个可调的学习增益; 指的是第k次迭代第t+1时刻的输出跟踪误差, yd(t+1)是期望的输出,那么即第kl-1次迭代第t+1时刻的输出跟踪误差;
步骤3、设计事件触发条件:
其中,ek-1(t+1)是第k-1次迭代第t+1时刻的事件触发误差,其定义为k-1∈[kl-1,kl),即对于t+1时刻,最新触发迭 代的跟踪误差与当前次迭代的跟踪误差之间的差值;其中Δ是一个1迭代差分算子,即 Δuk(t)=uk(t)-uk-1(t);
该事件触发条件意味着:如果上述不等式满足,则事件触发;
步骤4、建立事件驱动的自学习控制方案:
进一步地,步骤3中所述的事件触发条件的设计主要包括以下步骤:
步骤3.1、将离散时间线性时变网络控制系统进一步写成如下形式
步骤3.2、根据(a1)式,所述离散时间线性时变网络控制系统的输出可进 一步表示成
步骤3.4、当k=kl,将所提出的事件驱动的P型迭代学习控制律代入(a3), 则
步骤3.7、令ΔVk(t+1)<0,则
又进一步地,步骤4所述的是跟踪误差阈值,即跟踪误 差阈值的考虑是必要的,因为没有它可能导致控制更新的累积,而阈值限制的 作用是确保误差在一个小范围内。换句话说,控制机制的实际触发动作取决于 事件触发条件和跟踪误差阈值。
有益效果:
1、与一维时间域中传统的事件驱动控制方法相比,虽然事件触发条件仍需 要有针对性的验证,但它在迭代方向和时间方向上均保证了所提控制方案的稳 定性;
2、沿迭代方向而不是时间方向触发控制输入的更新,从而减少控制设备的 动作次数、计算负担和所需的网络资源。
结合附图阅读本发明的具体实施方式后,本发明的其他特点和优点将变得 更加清楚。
附图说明
图1为应用本发明所提的事件驱动的自学习控制方案的第10次迭代的触发 时刻图;
图2为应用本发明所提的事件驱动的自学习控制方案的第50次迭代的触发 时刻图;
图3为应用本发明所提的事件驱动的自学习控制方案的第100次迭代的触 发时刻图;
图4为应用本发明所提的事件驱动的自学习控制方案的第150次迭代的触 发时刻图;
图5为应用本发明所提的事件驱动的自学习控制方案的第400次迭代的触 发时刻图;
图6为应用本发明所提的事件驱动的自学习控制方案的输出跟踪性能图;
图7为应用本发明所提的事件驱动的自学习控制方案的每次迭代事件触发 时刻的总数;
具体实施方式
为了更好地说明本发明的目的和优点,下面结合实施例和相应附图对发明 内容做进一步详细说明。
本发明针对具有重复运行特性的网络控制系统中的资源有限问题,提出一 种事件驱动的自学习控制,包括以下步骤:
步骤S1:考虑如下的离散时间线性时变网络控制系统:
其中,yk(t)表示系统的输出,uk(t)表示系统的控制输入,xk(t)是系统的状 态,A(t),B(t)和C(t)表示具有兼容维数的矩阵或向量;t∈{0,1,…,N}代表时 间,其中N表示终端时间;k∈{0,1,…}是迭代次数;
该系统满足:
系统输入输出可观可控,即对于某一有界的给定的期望状态xd(t),存在某 一有界的控制输入信号ud(t),使得在控制输入信号ud(t)的驱动下,系统的输出 等于期望给定输出信号;具体地说,即
系统的初始状态xk(0)在每次迭代都是相同的,即xk(0)=xd(t);
本文的控制目标是设计由事件驱动的迭代学习控制器,在保证控制性能的 同时减少控制执行次数;具体来说,在保证跟踪误差收敛的前提下,随着迭代 次数的增加,控制输入的更新越少;
为了使下面的描述更清晰,事件触发的迭代序列记为{kl},l=0,1,…;对于 同一时刻来说,控制输入仅在事件触发的迭代时更新;否则,控制输入将保持 与最新一次触发迭代相同;
步骤S2:设计事件驱动的P型迭代学习控制律:
其中,kl表示第l次触发的迭代;kl-1表示第l-1次触发的迭代;Lp是一个 可调的学习增益;指的是第k次迭代第t+1时刻的输 出跟踪误差,yd(t+1)是期望的输出,那么即第kl-1次迭代第t+1时刻的 输出跟踪误差;
步骤S3:设计事件触发条件;
将离散时间线性时变网络控制系统进一步写成如下形式
根据(b4)式,所述离散时间线性时变网络控制系统的输出可进一步表示 成
在事件触发的迭代,即当k=kl,将所提出的事件驱动的P型迭代学习控制 律(b3)代入(b6),则
利用柯西–施瓦兹不等式:(a+b)2≤2(a2+b2),则
令ΔVk(t+1)<0,则
事件触发条件意味着如果(b12)式满足,则控制输入更新;
步骤S4:提出事件驱动的自学习控制方案;
所提的事件驱动的自学习控制方案总结如下:
步骤S3:考虑离散时间线性时变网络控制系统(b1),如果如下条件
|1-LpC(t+1)B(t)|≤ρp<1 (b15)
满足,则所提出的事件驱动的自学习控制方案(b13)和(b14)可以保证跟踪 误差收敛到零;
其中,δxk(t+1)=xd(t+1)-xk(t+1);
进一步,
δxk(t+1)=A(t)δxk(t)+B(t)δuk(t) (b17)
其中,δuk(t)=ud(t)-uk(t);
进一步,由于δxk(0)=0,结合(b4),则
在事件触发的迭代,即k=kl,根据(b14)、(b16)和(b17),则
考虑(b18),(b19)可以被进一步写成
对(b20)式两端取范数,
不等式(b21)两端同乘以λt,0<λ<1,根据λ-范数的定义,则
考虑到k=kl,根据(b14)和(b16)-(b18),则
在(b23)式两边取范数,然后等式两边同时乘以λt+1,就可以得到
由λ-范数的定义,(b24)式可被进一步写成
对于事件间隔区间,即k∈(kl-1,kl),控制输入将保持不变,此时,输出也将 保持不变,进而在这一区间上的跟踪误差也会保持不变直到下一次触发的迭代; 由于跟踪误差在触发迭代时是收敛的,因此跟踪误差在整个迭代方向随迭代次 数的增加而收敛。
为了验证本发明方法的正确性,对本发明的方法进行了以下仿真:
考虑一个离散时间线性时变网络控制系统(b1),其中A(t),B(t)和C(t)分 别为
B(t)=[0 0.3sint 1]T,
C(t)=[0 0.1 1+0.1cost];
控制任务是跟踪期望轨迹yd(t+1)=sin(2tπ/50)+sin(2tπ/5),t∈{0,1,…,50};在仿真中跟踪误差的阈值被选为初始状态和输入设置为0;为了更 好地模拟实际情况,在仿真中设置了输出扰动和状态扰动 wk(t)=0.1randncos(tπ)/k;选择学习增益Lp=0.5。
应用所提的事件驱动的自学习控制方案(b13)、(b14),第10、50、100、 150和400次迭代所对应的事件触发时刻分别如图1-图5所示;从这五个图我们 可以清楚地看到,在一次迭代中并不是所有的时刻都被触发,触发时刻明显减 少。
相对应地,第10、50、100、150和400次迭代的系统输出以及期望输出如 图6所示;从图6可以看出,即使减少触发次数显著减少,也可以获得良好的 跟踪性能。
图7展示了每次迭代触发事件发生的总数;从图7中可以看出,随着迭代 次数的增加,每次迭代所触发的事件总数明显减少,进一步验证了所提出的方 事件驱动的自学习控制方案可以有效减少控制行为的更新次数,同时保证跟踪 性能。
以上所述的具体描述,对发明的目的、技术方案和有益效果进行了进一步 的详细说明,所应理解的是,实施例仅用于解释本发明,并不用于限定本发明 的保护范围,凡与本发明在相同原理和构思条件下修改、等同替换、改进等, 均应包含在本发明的保护范围之内。
Claims (3)
1.一种事件驱动的自学习控制技术,其特征在于:所述方法包括以下步骤:
步骤1、考虑离散时间线性时变网络控制系统:
其中,yk(t)表示系统的输出,uk(t)表示系统的控制输入,xk(t)是系统的状态,A(t),B(t)和C(t)表示具有兼容维数的矩阵或向量;t∈{0,1,…,N}代表时间,其中N表示终端时间;k∈{0,1,…}是迭代/重复次数;
该系统满足:
系统输入输出可观可控,即对于某一有界的给定的期望状态xd(t),存在某一有界的控制输入信号ud(t),使得在控制输入信号ud(t)的驱动下,系统的输出等于期望给定输出信号;
系统的初始状态xk(0)在每次迭代都是相同的;
步骤2、提出事件驱动的P型迭代学习控制律
其中,{kl},l=0,1,…,是事件触发的迭代序列;kl表示第l次触发的迭代操作;kl-1表示第l-1次触发的迭代操作;Lp是一个可调的学习增益;指的是第k次迭代第t+1时刻的输出跟踪误差,yd(t+1)是期望的输出,那么即第kl-1次迭代第t+1时刻的输出跟踪误差;
步骤3、设计事件触发条件:
其中,ek-1(t+1)是第k-1次迭代第t+1时刻的事件触发误差,其定义为即对于t+1时刻,最新触发迭代的跟踪误差与当前次迭代的跟踪误差之间的差值;其中Δ是一个1迭代差分算子,即Δuk(t)=uk(t)-uk-1(t);
该事件触发条件意味着:如果上述不等式满足,则事件触发,控制器动作;
步骤4、建立事件驱动的自学习控制方案:
其中,θ>0是跟踪误差阈值;事件触发的迭代由跟踪误差阈值和事件触发条件共同决定。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010355736.6A CN111459023B (zh) | 2020-04-29 | 2020-04-29 | 一种事件驱动的自学习控制方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010355736.6A CN111459023B (zh) | 2020-04-29 | 2020-04-29 | 一种事件驱动的自学习控制方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111459023A true CN111459023A (zh) | 2020-07-28 |
CN111459023B CN111459023B (zh) | 2022-04-08 |
Family
ID=71685379
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010355736.6A Active CN111459023B (zh) | 2020-04-29 | 2020-04-29 | 一种事件驱动的自学习控制方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111459023B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112947090A (zh) * | 2021-03-23 | 2021-06-11 | 河南理工大学 | 一种dos攻击下轮式机器人数据驱动迭代学习控制方法 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4587651A (en) * | 1983-05-04 | 1986-05-06 | Cxc Corporation | Distributed variable bandwidth switch for voice, data, and image communications |
CN108037659A (zh) * | 2017-11-07 | 2018-05-15 | 西安电子科技大学 | 基于事件驱动的时变耦合复杂动态网络同步方法 |
CN108287467A (zh) * | 2018-01-18 | 2018-07-17 | 河南理工大学 | 基于事件触发的无模型自适应数据驱动控制方法 |
CN109143872A (zh) * | 2018-11-19 | 2019-01-04 | 重庆科技学院 | 一种基于事件触发gdhp的连续搅拌反应釜过程控制方法 |
US20190345810A1 (en) * | 2018-05-14 | 2019-11-14 | National Oilwell Varco, L.P. | Intelligent monitoring for drilling process automation |
-
2020
- 2020-04-29 CN CN202010355736.6A patent/CN111459023B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4587651A (en) * | 1983-05-04 | 1986-05-06 | Cxc Corporation | Distributed variable bandwidth switch for voice, data, and image communications |
CN108037659A (zh) * | 2017-11-07 | 2018-05-15 | 西安电子科技大学 | 基于事件驱动的时变耦合复杂动态网络同步方法 |
CN108287467A (zh) * | 2018-01-18 | 2018-07-17 | 河南理工大学 | 基于事件触发的无模型自适应数据驱动控制方法 |
US20190345810A1 (en) * | 2018-05-14 | 2019-11-14 | National Oilwell Varco, L.P. | Intelligent monitoring for drilling process automation |
CN109143872A (zh) * | 2018-11-19 | 2019-01-04 | 重庆科技学院 | 一种基于事件触发gdhp的连续搅拌反应釜过程控制方法 |
Non-Patent Citations (2)
Title |
---|
CHANGCHUN HUA等: "Event-Triggered Iterative Learning Containment Control of Model-Free Multiagent Systems", 《IEEE TRANSACTIONS ON SYSTEMS, MAN, AND CYBERNETICS: SYSTEMS》 * |
QIONGXIA YU等: "Modified P-Type ILC for High-Speed Trains with Varying Trial Lengths", 《2018 IEEE 7TH DATA DRIVEN CONTROL AND LEARNING SYSTEMS CONFERENCE》 * |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112947090A (zh) * | 2021-03-23 | 2021-06-11 | 河南理工大学 | 一种dos攻击下轮式机器人数据驱动迭代学习控制方法 |
Also Published As
Publication number | Publication date |
---|---|
CN111459023B (zh) | 2022-04-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Shi et al. | Filtering for switched T–S fuzzy systems with persistent dwell time | |
Shen et al. | A novel Markov chain based ILC analysis for linear stochastic systems under general data dropouts environments | |
Su et al. | Sensor networks with random link failures: Distributed filtering for T–S fuzzy systems | |
CN107728475B (zh) | 带有执行器饱和的切换系统事件触发控制设计方法 | |
Wang et al. | Robust $ H_ {\infty} $ control for networked systems with random packet losses | |
Zhang et al. | H∞ step tracking control for networked discrete-time nonlinear systems with integral and predictive actions | |
Jia et al. | H∞ control for networked systems with data packet dropout | |
CN112698573B (zh) | 基于正切换系统建模的网络化系统非脆弱事件触发控制方法 | |
Xiao et al. | Event-triggered network-based state observer design of positive systems | |
Zhang et al. | Iterative learning control for uncertain nonlinear networked control systems with random packet dropout | |
CN111459023B (zh) | 一种事件驱动的自学习控制方法 | |
Garone et al. | LQG control for distributed systems over TCP-like erasure channels | |
Shao et al. | A high-order iterative learning control for discrete-time linear switched systems | |
Martínez-Marroquín et al. | Particle swarm optimization applied to the design of type-1 and type-2 fuzzy controllers for an autonomous mobile robot | |
Yang et al. | Observer-based event-triggered H∞ control of switched systems with time delays | |
CN111314231A (zh) | 一种基于事件驱动的复杂网络平衡点控制的方法 | |
Ma et al. | H∞ control for discrete‐time nonlinear Markov jump systems with multiplicative noise and sector constraint | |
Wang et al. | Positive observer design for positive Markovian jump systems with mode-dependent time-varying delays and incomplete transition rates | |
Liu et al. | Stability analysis of swarms in a noisy environment | |
Qaisar et al. | Event-triggered based $ H_ {\infty} $ Consensus Control for Multi-agent Systems under Time-varying Delay | |
Cheng et al. | Aperiodic Sampling Event-Triggered Consensus Control for Multi-Agent Systems | |
Mazumdar et al. | Linear Quadratic Optimal Control of Jump System over Multiple Erasure Channels | |
CN111339473B (zh) | 一阶离散多智能体系统的平衡点控制方法 | |
Hu et al. | Event-Triggered Neural Network Control for Uncertain Nonlinear Systems Without State Observer | |
Yang et al. | Neural-Network-Based Set-Membership Filtering Under WTOD Protocols via a Novel Event-Triggered Compensation Mechanism |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |