CN107180279A - 基于qpso‑dmpc的反应再生系统优化控制方法 - Google Patents

基于qpso‑dmpc的反应再生系统优化控制方法 Download PDF

Info

Publication number
CN107180279A
CN107180279A CN201710448545.2A CN201710448545A CN107180279A CN 107180279 A CN107180279 A CN 107180279A CN 201710448545 A CN201710448545 A CN 201710448545A CN 107180279 A CN107180279 A CN 107180279A
Authority
CN
China
Prior art keywords
mrow
msubsup
msub
reaction
qpso
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201710448545.2A
Other languages
English (en)
Other versions
CN107180279B (zh
Inventor
陈雪梅
吴凌
白竣仁
周伟
陈实
易军
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Chongqing University of Science and Technology
Original Assignee
Chongqing University of Science and Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Chongqing University of Science and Technology filed Critical Chongqing University of Science and Technology
Priority to CN201710448545.2A priority Critical patent/CN107180279B/zh
Publication of CN107180279A publication Critical patent/CN107180279A/zh
Application granted granted Critical
Publication of CN107180279B publication Critical patent/CN107180279B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/04Forecasting or optimisation specially adapted for administrative or management purposes, e.g. linear programming or "cutting stock problem"
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/06Resources, workflows, human or project management; Enterprise or organisation planning; Enterprise or organisation modelling
    • G06Q10/067Enterprise or organisation modelling
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/06Energy or water supply

Landscapes

  • Business, Economics & Management (AREA)
  • Engineering & Computer Science (AREA)
  • Human Resources & Organizations (AREA)
  • Strategic Management (AREA)
  • Economics (AREA)
  • Tourism & Hospitality (AREA)
  • Theoretical Computer Science (AREA)
  • Entrepreneurship & Innovation (AREA)
  • General Physics & Mathematics (AREA)
  • Marketing (AREA)
  • General Business, Economics & Management (AREA)
  • Physics & Mathematics (AREA)
  • Development Economics (AREA)
  • Quality & Reliability (AREA)
  • Operations Research (AREA)
  • Game Theory and Decision Science (AREA)
  • Health & Medical Sciences (AREA)
  • Educational Administration (AREA)
  • Public Health (AREA)
  • Water Supply & Treatment (AREA)
  • General Health & Medical Sciences (AREA)
  • Primary Health Care (AREA)
  • Feedback Control In General (AREA)
  • Other Investigation Or Analysis Of Materials By Electrical Means (AREA)

Abstract

本发明公开了一种基于QPSO‑DMPC的反应再生系统优化控制方法,包括:S1:将反应再生系统的传递函数模型转化为阶跃响应模型;S2:建立DMPC模型,包括开环预测模块、稳态目标计算模块和动态矩阵控制模块;S3:利用QPSO算法中粒子在搜索空间内的强随机性,在不放松约束条件的前提下,在更大的范围内对经济优化函数进行求解;S4:根据QPSO算法对经济优化函数求得的解获得反应再生系统的输出设定值,并与实际输出的偏差作为目标误差函数,利用QPSO算法对该目标误差函数求解,获得操作变量的最佳变化量。本发明提供的基于QPSO‑DMPC的反应再生系统优化控制方法不仅减小了RRS硬件负担,还能获取更优的操作变量参数,在保证经济效益的基础上,进一步对RRS进行优化控制。

Description

基于QPSO-DMPC的反应再生系统优化控制方法
技术领域
本发明属于石油化工技术领域,涉及一种基于QPSO-DMPC的反应再生系统优化控制方法。
背景技术
石油化工工业在我国国民经济中占有举足轻重的地位,承担着为我国提供各种能源的重担。常规的催化裂化装置由三个部分组成,包含反应再生系统、分馏系统以及吸收稳定系统。作为催化裂化的核心部分,反应再生系统(Reaction regeneration system,RRS)将原油经过加工,生成各种各样的轻质油产品。但现有的反应再生系统为非线性反应再生系统,存在控制精度低,且硬件负担大的问题。
发明内容
鉴于上述问题,本发明的目的是提供一种基于QPSO-DMPC的反应再生系统优化控制方法,以解决现有的非线性反应再生系统控制精度低且硬件负担大的问题。
本发明提供的基于QPSO-DMPC的反应再生系统优化控制方法,包括:
S1:将反应再生系统的传递函数模型转化为阶跃响应模型;
S2:建立DMPC模型,DMPC模型包括开环预测模块、稳态目标计算模块和动态矩阵控制模块;
S3:利用QPSO算法,在不放松约束条件的前提下,对经济优化函数进行求解;其中,约束条件包括操作变量的硬约束和软约束,被控变量的硬约束和软约束,外部目标的约束;
S4:根据QPSO算法对经济优化函数求得的解获得反应再生系统的输出设定值,并与实际输出的偏差作为目标误差函数,利用QPSO算法对该目标误差函数求解,获得操作变量的最佳变化量。
利用上述根据本发明提供的基于QPSO-DMPC的反应再生系统优化控制方法,能够赋予粒子更高的随机性,最优粒子可以表达更大范围内的最优值,该方法不仅减小了RRS硬件负担,还能获取更优的操作变量参数,真正达到RRS的自适应最优控制。
附图说明
图1为根据本发明的基于QPSO-DMPC的反应再生系统优化控制方法的流程图;
图2为根据本发明的DMPC对RRS输出的跟踪效果图;
图3为根据本发明的DMPC对RRS输入的跟踪效果;
图4为根据本发明的QPSO-DMPC对RRS的输出的跟踪结果图;
图5根据本发明的QPSO-DMPC对RRS的输出的跟踪结果图。
具体实施方式
在下面的描述中,出于说明的目的,为了提供对一个或多个实施例的全面理解,阐述了许多具体细节。然而,很明显,也可以在没有这些具体细节的情况下实现这些实施例。在其它例子中,为了便于描述一个或多个实施例,公知的结构和设备以方框图的形式示出。
名词解释
DMPC:The Double-layerd Model Predictive Control,双层模型预测控制。
QPSO:Quantum-behaved Particle Swarm Optimization algorithm,量子粒子群优化算法。
图1示出了根据本发明的基于QPSO-DMPC的反应再生系统优化控制方法的流程。
如图1所示,本发明提供的基于QPSO-DMPC的反应再生系统优化控制方法,包括如下步骤:
S1:将RRS的传递函数模型转化为阶跃响应模型。
转换后的RRS的阶跃响应模型如下:
式(1)中,Δu为操作变量的变化量,k为时间,N为模型长度,为RRS操作变量的阶跃响应系数矩阵,为RRS干扰变量的阶跃响应系数矩阵,对满足
S2:建立DMPC模型,DMPC模型包括开环预测模块、稳态目标计算模块和动态矩阵控制模块。
建立开环预测模块的过程,包括如下步骤:
S211:当Δu(k+i-1)=0、Δv(k+i-1)=0(1≤i≤P)时,设为对y(k+p|k)的预测值,其中,Δν为干扰变量的变化量,P为预测时域,则有:
S212:考虑反馈校正,假设vss(k)=vss(k-1)+Δv(k)为已知,从k时刻开始,反应再生系统的操作变量不再变化时,基于式(2)得到反应再生系统的开环预测为yol(k+i|k),当检测到Δu(k-1)时求解得到反应再生系统的开环预测:
S213:基于式(3)与RRS的实际输出,得到误差
S214:对误差进行一阶指数平滑处理,得到:
S215:以平滑处理后的误差为基准,对RRS的输出进行反馈校正,且反馈校正在未来所有时间点都是恒定的,记为k时刻的开环动态预测值得到:
S216:结合式(4),得到开放稳态预测:
建立稳态目标计算模块的过程,包括如下步骤:
S221:提取所有反应再生系统的操作变量和被控变量的硬约束条件与软约束条件,并合并表达为关于稳态操作变量的变化量δuss(k)的形式:
其中,为操作变量的上限,为操作变量的理想值的集合,为稳态增益矩阵,为稳态被控变量的变化量,为被控变量的理想值的集合,k为迭代次数,t为时间。
更为具体地,稳态MV的硬约束为:
在MPC控制过程中,存在MV变化速率约束0≤j≤M-1,其中,M为控制时域,则增加的稳态MV的硬约束为:
对δus(k)进行限制,则增加的稳态MV的硬约束为:
稳态CV的硬约束为:
稳态CV的软约束为:
在实际过程中,总是满足 y o,hy o;另外,对Δyss(k)进行限制,则增加的稳态CV的硬约束为
CV的新稳态值仅决定于δuss(k)的大小,而与MV动态变化路径无关,稳态预测模型为:
其中,为稳态增益矩阵;为开环稳态预测。
所有条件合并表达为关于稳态操作变量的变化量δuss(k)的形式:
S222:建立经济优化函数:
S223:放松约束条件,采用二次规划方法对式(5)进行求解,获得稳态操作变量的变化量δuss(k)。
建立动态矩阵控制模块的过程,包括如下步骤:
S231:取预测时域为P,控制时域为M,在每个时刻k,可得到:
S232:当P大于N时,yol(k+j|k)=yol(k+N|k),j>N,该预测值包含预测误差的反馈校正及干扰的影响,得到:
其中,D为动态控制矩阵;
S233:在动态矩阵中,根据QPSO算法对经济优化函数求得的解获得反应再生系统的输出设定值,并与实际输出的偏差作为目标误差函数,选择最小化的目标误差函数如下:
为了让预测输出尽可能地接近实际输出,以式(5)的解求得RRS的输出设定值和实际输出的误差为目标误差函数。
S234:对最小化的目标函数(6)求解,获得稳态操作变量的最佳变化量。
采用MATLAB7.0为仿真平台,以RRS为对象,进行DMPC算法的研究,仿真过程中,采样周期为4分钟,权重向量B=(122211),Jmin=-3,建模时域N=30,作变量下限ui 为0,预测控制的操作变量上限为600,被控变量下限yi 为0,被控变量上限为800,稳态操作变量变化值δus(k)为100,操作变量变化值为50。
各操作变量代表名称如表1所示:
表1各操作变量代表名称
各被控变量代表名称如表2所示:
表2各被控变量代表名称
通过实验仿真,DMPC对输出的跟踪效果以及对输入的跟踪效果如图2和图3所示。
从图2和图3可以看出,在考虑各变量优先级顺序的条件下,通过放松约束条件对最佳的操作变量变化量进行求取,仿真结果表明,DMPC对RRS的输入和输出有很好的跟踪效果。然而,放松约束条件不仅对硬件设备提出了更高的要求,而且所求的最优解是通过放松约束条件后求取的最优解,并不是真正意义上的最优解。群体智能算法在不放松约束条件下,对最优化问题的求解比传统的二次规划或线性规划方法有天然的优势,因此,本发明将QPSO算法引入到DMPC中。
S3:利用QPSO算法,在不放松约束条件的前提下,对经济优化函数进行求解。
其中,约束条件包括操作变量的硬约束和软约束,被控变量的硬约束和软约束,外部目标的约束。
利用QPSO算法,在不放松约束条件的前提下,对经济优化函数进行求解的过程如下:
S31:初始化系统参数,包括种群规模n、最大迭代次数T、随机生成n个粒子x1,x2,…,xn、粒子维数m、压缩-扩张因子α和令外部存档集Q,Q为空;
S32:评价每个粒子的适应度,并根据优劣对个体最优值和全局最优值进行替换;
S33:将每个粒子的当前适应度pi和个体最优适应度进行比较,如果当前适应度pi支配个体最优适应度则将当前适应度pi代替个体最优适应度否则,保留原有的个体最优适应度
S34:更新外部存档集Q,将种群中所有的非支配集加入外部存档集Q,并删除被支配的粒子;
S35:利用拥挤机制和禁忌算法在外部存档集Q中随机选择一个粒子作为全局最优值;
S36:更新作为全局最优值的粒子的位置xij(t),更新公式为:
eij(t)=βPij(t)+(1-β)Pgj(t)
其中,xij(t+1)表示作为全局最优值的粒子更新后的位置,Pij为第i个粒子第m维的当前最优位置,Pgj为全局最优位置,uij与β分别为0到1之间的随机数,α为扩张-收缩因子,会影响单个粒子的收敛性,从1至0.5随迭代次数自适应变化;
S37:判断当前全局最优解是否满足条件或者迭代次数是否达到最大迭代次数T,如果是,则输出当前全局最优解,否则,跳转至步骤S32进行重复计算,直到当前全局最优解满足条件或者迭代次数达到最大迭代次数T为止;
S38:不放松约束条件,利用QPSO对建立的经济优化函数J进行求解,求得单目标下的稳态操作变量的变化量δuss(k)。
S4:根据QPSO算法对经济优化函数求得的解获得反应再生系统的输出设定值,并与实际输出的偏差作为目标误差函数,利用QPSO算法对该目标误差函数求解,获得操作变量的最佳变化量。
利用QPSO算法对目标误差函数求解,获得操作变量的最佳变化量的过程,包括如下步骤:
S41:取预测时域为P,控制时域为M,在每个时刻k,可得到:
S42:当P大于N时,yol(k+j|k)=yol(k+N|k),j>N,该预测值包含预测误差的反馈校正及干扰的影响,得到:
S43:在动态矩阵中,根据QPSO算法对经济优化函数求得的解获得反应再生系统的输出设定值,并与实际输出的偏差作为目标误差函数,选择最小化的目标误差函数J(k)如下:
在动态矩阵中,根据QPSO算法对经济优化函数求得的解获得反应再生系统的输出设定值的公式为:
式(5)中,yss(k)为反应再生系统的输出设定值,δuss(k)为QPSO算法对经济优化函数求得的解,为稳态增益矩阵,由系统的稳态模型得到;为开环稳态预测,由辨识好的传递函数模型得到。
S44:利用QPSO算法对最小化的目标函数求解,获得操作变量的最佳变化量。
步骤S44的操作过程请参照步骤S31-S37。
采用MATLAB7.0为仿真平台,以RRS为对象,进行各算法的研究,仿真过程中,采样周期为4分钟,建模时域N=600,操作变量下限ui为-0.5,预测控制的操作变量上限为0.5,被控变量下限yi为-0.5,被控变量上限为0.5,稳态操作变量变化值δus(k)为0.1,操作变量变化值为0.1,B1=[0.1 2 2],A1=[10 20 200],J1max=-3,J2max=-4。各变量所代表意义如表1和表2所示,算法的参数取值如表3所示:
表3各算法参数取值表
QPSO-DMPC对RRS输出的跟踪效果以及对输入的跟踪效果的如图4和图5所示。
从图4和图5中可以看出,通过设置RRS的经济优化函数,并采用QPSO对RRS的经济优化问题求解,在保证经济效益的基础上,进一步对RRS的过程进行稳态控制,即采用QPSO对DMPC的动态矩阵控制阶段进行求解,仿真结果表明,QPSO-DMPC能对RRS的被控变量和操作变量进行跟踪,表明了QPSO-DMPC算法在RRS中的有效性。
以上所述,仅为本发明的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,可轻易想到变化或替换,都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应所述以权利要求的保护范围为准。

Claims (8)

1.一种基于QPSO-DMPC的反应再生系统优化控制方法,其特征在于包括如下步骤:
S1:将反应再生系统的传递函数模型转化为阶跃响应模型;
S2:建立DMPC模型,DMPC模型包括开环预测模块、稳态目标计算模块和动态矩阵控制模块;
S3:利用QPSO算法,在不放松约束条件的前提下,对经济优化化函数进行求解;其中,约束条件包括操作变量的硬约束和软约束,被控变量的硬约束和软约束,外部目标的约束;
S4:根据QPSO算法对经济优化函数求得的解获得反应再生系统的输出设定值,并与实际输出的偏差作为目标误差函数,利用QPSO算法对该目标误差函数求解,获得操作变量的最佳变化量。
2.根据权利要求1所述的基于QPSO-DMPC的反应再生系统优化控制方法,其特征在于:反应再生系统的阶跃响应模型为:
<mrow> <mi>y</mi> <mrow> <mo>(</mo> <mi>k</mi> <mo>)</mo> </mrow> <mo>=</mo> <munderover> <mi>&amp;Sigma;</mi> <mrow> <mi>i</mi> <mo>=</mo> <mn>1</mn> </mrow> <mrow> <mi>N</mi> <mo>-</mo> <mn>1</mn> </mrow> </munderover> <msubsup> <mi>A</mi> <mi>i</mi> <mi>u</mi> </msubsup> <mi>&amp;Delta;</mi> <mi>u</mi> <mrow> <mo>(</mo> <mi>k</mi> <mo>-</mo> <mi>i</mi> <mo>)</mo> </mrow> <mo>+</mo> <munderover> <mi>&amp;Sigma;</mi> <mrow> <mi>i</mi> <mo>=</mo> <mn>1</mn> </mrow> <mrow> <mi>N</mi> <mo>-</mo> <mn>1</mn> </mrow> </munderover> <msubsup> <mi>A</mi> <mi>N</mi> <mi>u</mi> </msubsup> <mi>&amp;Delta;</mi> <mi>u</mi> <mrow> <mo>(</mo> <mi>k</mi> <mo>-</mo> <mi>N</mi> <mo>)</mo> </mrow> <mo>+</mo> <munderover> <mi>&amp;Sigma;</mi> <mrow> <mi>i</mi> <mo>=</mo> <mn>1</mn> </mrow> <mrow> <mi>N</mi> <mo>-</mo> <mn>1</mn> </mrow> </munderover> <msubsup> <mi>A</mi> <mi>i</mi> <mi>v</mi> </msubsup> <mi>&amp;Delta;</mi> <mi>v</mi> <mrow> <mo>(</mo> <mi>k</mi> <mo>-</mo> <mi>i</mi> <mo>)</mo> </mrow> <mo>+</mo> <munderover> <mi>&amp;Sigma;</mi> <mrow> <mi>i</mi> <mo>=</mo> <mn>1</mn> </mrow> <mrow> <mi>N</mi> <mo>-</mo> <mn>1</mn> </mrow> </munderover> <msubsup> <mi>A</mi> <mi>N</mi> <mi>v</mi> </msubsup> <mi>&amp;Delta;</mi> <mi>u</mi> <mrow> <mo>(</mo> <mi>k</mi> <mo>-</mo> <mi>N</mi> <mo>)</mo> </mrow> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>1</mn> <mo>)</mo> </mrow> </mrow>
式(1)中,Δu为操作变量的变化量,k为时间,N为模型长度,为反应再生系统的操作变量的阶跃响应系数矩阵,为反应再生系统的干扰变量的阶跃响应系数矩阵,对于满足
3.根据权利要求1所述的基于QPSO-DMPC的反应再生系统优化控制方法,其特征在于:建立开环预测模块的过程,包括如下步骤:
S211:当Δu(k+i-1)=0、Δv(k+i-1)=0(1≤i≤P)时,设为对y(k+p|k)的预测值,其中,Δν为干扰变量的变化量,P为预测时域,则有:
<mrow> <mover> <mi>y</mi> <mo>^</mo> </mover> <mrow> <mo>(</mo> <mi>k</mi> <mo>+</mo> <mi>p</mi> <mo>|</mo> <mi>k</mi> <mo>)</mo> </mrow> <mo>-</mo> <mover> <mi>y</mi> <mo>^</mo> </mover> <mrow> <mo>(</mo> <mi>k</mi> <mo>+</mo> <mi>p</mi> <mo>|</mo> <mi>k</mi> <mo>-</mo> <mn>1</mn> <mo>)</mo> </mrow> <mo>=</mo> <msubsup> <mi>A</mi> <mrow> <mi>p</mi> <mo>+</mo> <mn>1</mn> </mrow> <mi>u</mi> </msubsup> <mi>&amp;Delta;</mi> <mi>u</mi> <mrow> <mo>(</mo> <mi>k</mi> <mo>-</mo> <mn>1</mn> <mo>)</mo> </mrow> <mo>+</mo> <msubsup> <mi>A</mi> <mi>p</mi> <mi>v</mi> </msubsup> <mi>&amp;Delta;</mi> <mi>v</mi> <mrow> <mo>(</mo> <mi>k</mi> <mo>)</mo> </mrow> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>2</mn> <mo>)</mo> </mrow> </mrow>
S212:考虑反馈校正,假设vss(k)=vss(k-1)+Δv(k)为已知,从k时刻开始,反应再生系统的操作变量不再变化时,基于式(2)得到反应再生系统的开环预测为yol(k+i|k),当检测到Δu(k-1)时求解得到反应再生系统的开环预测:
<mrow> <msup> <mi>y</mi> <mrow> <mi>o</mi> <mi>l</mi> </mrow> </msup> <mrow> <mo>(</mo> <mi>k</mi> <mo>|</mo> <mi>k</mi> <mo>)</mo> </mrow> <mo>=</mo> <msup> <mi>y</mi> <mrow> <mi>o</mi> <mi>l</mi> </mrow> </msup> <mrow> <mo>(</mo> <mi>k</mi> <mo>|</mo> <mi>k</mi> <mo>-</mo> <mn>1</mn> <mo>)</mo> </mrow> <mo>+</mo> <msubsup> <mi>A</mi> <mn>1</mn> <mi>u</mi> </msubsup> <mi>&amp;Delta;</mi> <mi>u</mi> <mrow> <mo>(</mo> <mi>k</mi> <mo>-</mo> <mn>1</mn> <mo>)</mo> </mrow> <mo>;</mo> </mrow>
其中,vss(k)为阶跃响应的递推模型。
4.根据权利要求1所述的基于QPSO-DMPC的反应再生系统优化控制方法,其特征在于:建立稳态目标计算模块的过程,包括如下步骤:
S221:提取所有反应再生系统的操作变量和被控变量的硬约束条件与软约束条件,并合并表达为关于稳态操作变量的变化量δuss(k)的形式:
其中,为操作变量的上限,为操作变量的理想值的集合,为稳态增益矩阵,为稳态被控变量的变化量,为被控变量的理想值的集合,k为迭代次数,t为时间;
S222:建立经济优化函数:
<mrow> <mi>min</mi> <mi> </mi> <mi>J</mi> <mo>=</mo> <msup> <mrow> <mo>(</mo> <munder> <mi>&amp;Sigma;</mi> <mrow> <mi>i</mi> <mo>&amp;NotElement;</mo> <msub> <mi>&amp;Psi;</mi> <mrow> <mi>m</mi> <mi>m</mi> </mrow> </msub> </mrow> </munder> <msub> <mi>B&amp;delta;u</mi> <mrow> <mi>i</mi> <mo>,</mo> <mi>s</mi> <mi>s</mi> </mrow> </msub> <mo>(</mo> <mi>k</mi> <mo>)</mo> <mo>-</mo> <msub> <mi>J</mi> <mi>min</mi> </msub> <mo>)</mo> </mrow> <mn>2</mn> </msup> <mo>+</mo> <munder> <mi>&amp;Sigma;</mi> <mrow> <mi>i</mi> <mo>&amp;Element;</mo> <msub> <mi>&amp;Psi;</mi> <mrow> <mi>m</mi> <mi>m</mi> </mrow> </msub> </mrow> </munder> <msup> <mi>B</mi> <mn>2</mn> </msup> <msub> <mi>U</mi> <mi>i</mi> </msub> <msup> <mrow> <mo>(</mo> <mi>k</mi> <mo>)</mo> </mrow> <mn>2</mn> </msup> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>3</mn> <mo>)</mo> </mrow> </mrow>
式(3)中,B为权重;
S223:放松约束条件,采用二次规划方法对式(3)进行求解,获得单目标下的稳态操作变量的变化量δuss(k)。
5.根据权利要求1所述的基于QPSO-DMPC的反应再生系统优化控制方法,其特征在于:建立动态矩阵控制模块的过程,包括如下步骤:
S231:取预测时域为P,控制时域为M,在每个时刻k,可得到:
<mrow> <msubsup> <mi>Y</mi> <mi>P</mi> <mrow> <mi>o</mi> <mi>l</mi> </mrow> </msubsup> <mrow> <mo>(</mo> <mi>k</mi> <mo>|</mo> <mi>k</mi> <mo>)</mo> </mrow> <mo>=</mo> <mfenced open = "[" close = "]"> <mtable> <mtr> <mtd> <mrow> <msup> <mi>y</mi> <mrow> <mi>o</mi> <mi>l</mi> </mrow> </msup> <mrow> <mo>(</mo> <mi>k</mi> <mo>+</mo> <mn>1</mn> <mo>|</mo> <mi>k</mi> <mo>)</mo> </mrow> </mrow> </mtd> </mtr> <mtr> <mtd> <mrow> <msup> <mi>y</mi> <mrow> <mi>o</mi> <mi>l</mi> </mrow> </msup> <mrow> <mo>(</mo> <mi>k</mi> <mo>+</mo> <mn>2</mn> <mo>|</mo> <mi>k</mi> <mo>)</mo> </mrow> </mrow> </mtd> </mtr> <mtr> <mtd> <mo>.</mo> </mtd> </mtr> <mtr> <mtd> <mo>.</mo> </mtd> </mtr> <mtr> <mtd> <mo>.</mo> </mtd> </mtr> <mtr> <mtd> <mrow> <msup> <mi>y</mi> <mrow> <mi>o</mi> <mi>l</mi> </mrow> </msup> <mrow> <mo>(</mo> <mi>k</mi> <mo>+</mo> <mi>P</mi> <mo>|</mo> <mi>k</mi> <mo>)</mo> </mrow> </mrow> </mtd> </mtr> </mtable> </mfenced> </mrow>
S232:当P大于N时,yol(k+j|k)=yol(k+N|k),j>N,该预测值包含预测误差的反馈校正及干扰的影响,得到:
<mrow> <msub> <mi>Y</mi> <mi>P</mi> </msub> <mrow> <mo>(</mo> <mi>k</mi> <mo>|</mo> <mi>k</mi> <mo>)</mo> </mrow> <mo>=</mo> <msubsup> <mi>Y</mi> <mi>P</mi> <mrow> <mi>o</mi> <mi>l</mi> </mrow> </msubsup> <mrow> <mo>(</mo> <mi>k</mi> <mo>|</mo> <mi>k</mi> <mo>)</mo> </mrow> <mo>+</mo> <mi>D</mi> <mi>&amp;Delta;</mi> <mover> <mi>u</mi> <mo>~</mo> </mover> <mrow> <mo>(</mo> <mi>k</mi> <mo>|</mo> <mi>k</mi> <mo>)</mo> </mrow> </mrow>
S233:在动态矩阵中,根据MQQPSO算法对经济优化函数求得的解获得反应再生系统的输出设定值,并与实际输出的偏差作为目标误差函数,选择最小化的目标误差函数如下:
<mrow> <mi>J</mi> <mrow> <mo>(</mo> <mi>k</mi> <mo>)</mo> </mrow> <mo>=</mo> <munderover> <mi>&amp;Sigma;</mi> <mn>1</mn> <mi>P</mi> </munderover> <mo>|</mo> <mo>|</mo> <mi>y</mi> <mrow> <mo>(</mo> <mi>k</mi> <mo>+</mo> <mi>i</mi> <mo>)</mo> </mrow> <mo>|</mo> <mi>k</mi> <mo>-</mo> <msub> <mi>y</mi> <mrow> <mi>s</mi> <mi>s</mi> </mrow> </msub> <mrow> <mo>(</mo> <mi>k</mi> <mo>)</mo> </mrow> <mo>|</mo> <msubsup> <mo>|</mo> <mrow> <mi>Q</mi> <mrow> <mo>(</mo> <mi>k</mi> <mo>)</mo> </mrow> </mrow> <mn>2</mn> </msubsup> <mo>+</mo> <munderover> <mi>&amp;Sigma;</mi> <mrow> <mi>j</mi> <mo>=</mo> <mn>0</mn> </mrow> <mrow> <mi>M</mi> <mo>-</mo> <mn>1</mn> </mrow> </munderover> <mo>|</mo> <mo>|</mo> <mi>&amp;Delta;</mi> <mi>u</mi> <mrow> <mo>(</mo> <mi>k</mi> <mo>+</mo> <mi>j</mi> <mo>|</mo> <mi>k</mi> <mo>)</mo> </mrow> <mo>|</mo> <msubsup> <mo>|</mo> <mo>^</mo> <mn>2</mn> </msubsup> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>4</mn> <mo>)</mo> </mrow> </mrow> 2
S234:对最小化的目标函数求解,获得稳态操作变量的最佳变化量。
6.根据权利要求4所述的基于QPSO-DMPC的反应再生系统优化控制方法,其特征在于:利用QPSO算法,在不放松约束条件的前提下,对经济优化函数进行求解的过程,包括如下步骤:
S31:初始化系统参数,包括种群规模n、最大迭代次数T、随机生成n个粒子x1,x2,…,xn、粒子维数m、压缩-扩张因子α和令外部存档集Q,Q为空;
S32:评价每个粒子的适应度,并根据优劣对个体最优值和全局最优值进行替换;
S33:将每个粒子的当前适应度pi和个体最优适应度进行比较,如果当前适应度pi支配个体最优适应度则将当前适应度pi代替个体最优适应度否则,保留原有的个体最优适应度
S34:更新外部存档集Q,将种群中所有的非支配集加入外部存档集Q,并删除被支配的粒子;
S35:利用拥挤机制和禁忌算法在外部存档集Q中随机选择一个粒子作为全局最优值;
S36:更新作为全局最优值的粒子的位置xij(t),更新公式为:
xij(t+1)=eij(t)±α|Cij(t)-xij(t)|×ln[1/uij(t)]
<mrow> <msub> <mi>C</mi> <mi>i</mi> </msub> <mrow> <mo>(</mo> <mi>t</mi> <mo>)</mo> </mrow> <mo>=</mo> <mrow> <mo>(</mo> <mfrac> <mn>1</mn> <mi>n</mi> </mfrac> <munderover> <mi>&amp;Sigma;</mi> <mrow> <mi>i</mi> <mo>=</mo> <mn>1</mn> </mrow> <mi>n</mi> </munderover> <msub> <mi>P</mi> <mrow> <mi>i</mi> <mn>1</mn> </mrow> </msub> <mo>(</mo> <mi>t</mi> <mo>)</mo> <mo>,</mo> <mfrac> <mn>1</mn> <mi>n</mi> </mfrac> <munderover> <mi>&amp;Sigma;</mi> <mrow> <mi>i</mi> <mo>=</mo> <mn>1</mn> </mrow> <mi>n</mi> </munderover> <msub> <mi>P</mi> <mrow> <mi>i</mi> <mn>2</mn> </mrow> </msub> <mo>(</mo> <mi>t</mi> <mo>)</mo> <mo>,</mo> <mn>...</mn> <mo>,</mo> <mfrac> <mn>1</mn> <mi>n</mi> </mfrac> <munderover> <mi>&amp;Sigma;</mi> <mrow> <mi>i</mi> <mo>=</mo> <mn>1</mn> </mrow> <mi>n</mi> </munderover> <msub> <mi>P</mi> <mrow> <mi>i</mi> <mi>j</mi> </mrow> </msub> <mo>(</mo> <mi>t</mi> <mo>)</mo> <mo>,</mo> <mn>...</mn> <mfrac> <mn>1</mn> <mi>n</mi> </mfrac> <munderover> <mi>&amp;Sigma;</mi> <mrow> <mi>i</mi> <mo>=</mo> <mn>1</mn> </mrow> <mi>n</mi> </munderover> <msub> <mi>P</mi> <mrow> <mi>i</mi> <mi>m</mi> </mrow> </msub> <mo>(</mo> <mi>t</mi> <mo>)</mo> <mo>)</mo> </mrow> </mrow>
eij(t)=βPij(t)+(1-β)Pgj(t)
<mrow> <mi>&amp;alpha;</mi> <mo>=</mo> <mn>1</mn> <mo>-</mo> <mn>0.5</mn> <mo>&amp;times;</mo> <mfrac> <mi>t</mi> <msub> <mi>T</mi> <mrow> <mi>m</mi> <mi>a</mi> <mi>x</mi> </mrow> </msub> </mfrac> </mrow>
其中,Cij(t)表示所有粒子的平均最优位置,xij(t+1)表示作为全局最优值的粒子更新后的位置,Pij为第i个粒子第j维的当前最优位置,Pgd为全局最优位置,uij与β分别为0到1之间的随机数,α为扩张-收缩因子,从1至0.5随迭代次数自适应变化;
S37:判断当前全局最优解是否满足条件或者迭代次数是否达到最大迭代次数T,如果是,则输出当前全局最优解,否则,跳转至步骤S32进行重复计算,直到当前全局最优解满足条件或者迭代次数达到最大迭代次数T为止;
S38:不放松约束条件,利用QPSO算法对建立的经济优化函数进行求解,获得单目标下的稳态操作变量的变化量δuss(k)。
7.根据权利要求1所述的基于QPSO-DMPC的反应再生系统优化控制方法,其特征在于:利用QPSO算法对目标误差函数求解,获得操作变量的最佳变化量的过程,包括如下步骤:
S41:取预测时域为P,控制时域为M,在每个时刻k,可得到:
<mrow> <msubsup> <mi>Y</mi> <mi>P</mi> <mrow> <mi>o</mi> <mi>l</mi> </mrow> </msubsup> <mrow> <mo>(</mo> <mi>k</mi> <mo>|</mo> <mi>k</mi> <mo>)</mo> </mrow> <mo>=</mo> <mfenced open = "[" close = "]"> <mtable> <mtr> <mtd> <mrow> <msup> <mi>y</mi> <mrow> <mi>o</mi> <mi>l</mi> </mrow> </msup> <mrow> <mo>(</mo> <mi>k</mi> <mo>+</mo> <mn>1</mn> <mo>|</mo> <mi>k</mi> <mo>)</mo> </mrow> </mrow> </mtd> </mtr> <mtr> <mtd> <mrow> <msup> <mi>y</mi> <mrow> <mi>o</mi> <mi>l</mi> </mrow> </msup> <mrow> <mo>(</mo> <mi>k</mi> <mo>+</mo> <mn>2</mn> <mo>|</mo> <mi>k</mi> <mo>)</mo> </mrow> </mrow> </mtd> </mtr> <mtr> <mtd> <mo>.</mo> </mtd> </mtr> <mtr> <mtd> <mo>.</mo> </mtd> </mtr> <mtr> <mtd> <mo>.</mo> </mtd> </mtr> <mtr> <mtd> <mrow> <msup> <mi>y</mi> <mrow> <mi>o</mi> <mi>l</mi> </mrow> </msup> <mrow> <mo>(</mo> <mi>k</mi> <mo>+</mo> <mi>P</mi> <mo>|</mo> <mi>k</mi> <mo>)</mo> </mrow> </mrow> </mtd> </mtr> </mtable> </mfenced> </mrow>
S42:当P大于N时,yol(k+j|k)=yol(k+N|k),j>N,该预测值包含预测误差的反馈校正及干扰的影响,得到:
<mrow> <msub> <mi>Y</mi> <mi>P</mi> </msub> <mrow> <mo>(</mo> <mi>k</mi> <mo>|</mo> <mi>k</mi> <mo>)</mo> </mrow> <mo>=</mo> <msubsup> <mi>Y</mi> <mi>P</mi> <mrow> <mi>o</mi> <mi>l</mi> </mrow> </msubsup> <mrow> <mo>(</mo> <mi>k</mi> <mo>|</mo> <mi>k</mi> <mo>)</mo> </mrow> <mo>+</mo> <mi>D</mi> <mi>&amp;Delta;</mi> <mover> <mi>u</mi> <mo>~</mo> </mover> <mrow> <mo>(</mo> <mi>k</mi> <mo>|</mo> <mi>k</mi> <mo>)</mo> </mrow> </mrow>
S43:在动态矩阵中,根据QPSO算法对经济优化函数求得的解获得反应再生系统的输出设定值,并与实际输出的偏差作为目标误差函数,选择最小化的目标误差函数如下:
<mrow> <mi>J</mi> <mrow> <mo>(</mo> <mi>k</mi> <mo>)</mo> </mrow> <mo>=</mo> <munderover> <mi>&amp;Sigma;</mi> <mn>1</mn> <mi>P</mi> </munderover> <mo>|</mo> <mo>|</mo> <mi>y</mi> <mrow> <mo>(</mo> <mi>k</mi> <mo>+</mo> <mi>i</mi> <mo>)</mo> </mrow> <mo>|</mo> <mi>k</mi> <mo>-</mo> <msub> <mi>y</mi> <mrow> <mi>s</mi> <mi>s</mi> </mrow> </msub> <mrow> <mo>(</mo> <mi>k</mi> <mo>)</mo> </mrow> <mo>|</mo> <msubsup> <mo>|</mo> <mrow> <mi>Q</mi> <mrow> <mo>(</mo> <mi>k</mi> <mo>)</mo> </mrow> </mrow> <mn>2</mn> </msubsup> <mo>+</mo> <munderover> <mi>&amp;Sigma;</mi> <mrow> <mi>j</mi> <mo>=</mo> <mn>0</mn> </mrow> <mrow> <mi>M</mi> <mo>-</mo> <mn>1</mn> </mrow> </munderover> <mo>|</mo> <mo>|</mo> <mi>&amp;Delta;</mi> <mi>u</mi> <mrow> <mo>(</mo> <mi>k</mi> <mo>+</mo> <mi>j</mi> <mo>|</mo> <mi>k</mi> <mo>)</mo> </mrow> <mo>|</mo> <msubsup> <mo>|</mo> <mo>^</mo> <mn>2</mn> </msubsup> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>4</mn> <mo>)</mo> </mrow> </mrow>
S44:利用QPSO算法对最小化的目标函数求解,获得操作变量的最佳变化量。
8.根据权利要求7所述的基于QPSO-DMPC的反应再生系统优化控制方法,其特征在于:在动态矩阵中,根据QPSO算法对经济优化函数求得的解获得反应再生系统的输出设定值的公式为:
<mrow> <msub> <mi>y</mi> <mrow> <mi>s</mi> <mi>s</mi> </mrow> </msub> <mrow> <mo>(</mo> <mi>k</mi> <mo>)</mo> </mrow> <mo>=</mo> <msubsup> <mi>S</mi> <mi>N</mi> <mi>u</mi> </msubsup> <msub> <mi>&amp;delta;u</mi> <mrow> <mi>s</mi> <mi>s</mi> </mrow> </msub> <mrow> <mo>(</mo> <mi>k</mi> <mo>)</mo> </mrow> <mo>+</mo> <msubsup> <mi>y</mi> <mrow> <mi>s</mi> <mi>s</mi> </mrow> <mrow> <mi>o</mi> <mi>l</mi> </mrow> </msubsup> <mrow> <mo>(</mo> <mi>k</mi> <mo>)</mo> </mrow> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>5</mn> <mo>)</mo> </mrow> </mrow>
式(5)中,yss(k)为反应再生系统的输出设定值,δuss(k)为QPSO算法对经济优化函数求得的解,为稳态增益矩阵;为开环稳态预测。
CN201710448545.2A 2017-06-14 2017-06-14 基于qpso-dmpc的反应再生系统优化控制方法 Active CN107180279B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201710448545.2A CN107180279B (zh) 2017-06-14 2017-06-14 基于qpso-dmpc的反应再生系统优化控制方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201710448545.2A CN107180279B (zh) 2017-06-14 2017-06-14 基于qpso-dmpc的反应再生系统优化控制方法

Publications (2)

Publication Number Publication Date
CN107180279A true CN107180279A (zh) 2017-09-19
CN107180279B CN107180279B (zh) 2020-08-25

Family

ID=59836270

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710448545.2A Active CN107180279B (zh) 2017-06-14 2017-06-14 基于qpso-dmpc的反应再生系统优化控制方法

Country Status (1)

Country Link
CN (1) CN107180279B (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107942682A (zh) * 2017-12-22 2018-04-20 太原理工大学 非高斯系统的动态经济性能优化与控制一体化设计方法
CN113687632A (zh) * 2021-01-25 2021-11-23 南京工业大学 一种间歇反应过程的变周期协同优化控制方法
CN114237172A (zh) * 2021-11-30 2022-03-25 浙江大学衢州研究院 基于机器学习的自优化被控变量选择方法和装置
CN114296354A (zh) * 2021-12-31 2022-04-08 上海电力设计院有限公司 基于多优先级约束放松的混合优化算法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102968056A (zh) * 2012-12-07 2013-03-13 上海电机学院 质子交换膜燃料电池的建模系统及其智能预测控制方法
CN103425048A (zh) * 2013-05-22 2013-12-04 上海交通大学 一种基于动态优化的多模型广义预测控制系统及其控制方法
CN103809557A (zh) * 2013-12-30 2014-05-21 北京工业大学 一种基于神经网络的污水处理过程优化控制方法
CN104375475A (zh) * 2014-08-19 2015-02-25 上海交通大学 间歇反应器中间歇反应过程的优化控制方法
CN104776446A (zh) * 2015-04-14 2015-07-15 东南大学 一种锅炉燃烧优化控制方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102968056A (zh) * 2012-12-07 2013-03-13 上海电机学院 质子交换膜燃料电池的建模系统及其智能预测控制方法
CN103425048A (zh) * 2013-05-22 2013-12-04 上海交通大学 一种基于动态优化的多模型广义预测控制系统及其控制方法
CN103809557A (zh) * 2013-12-30 2014-05-21 北京工业大学 一种基于神经网络的污水处理过程优化控制方法
CN104375475A (zh) * 2014-08-19 2015-02-25 上海交通大学 间歇反应器中间歇反应过程的优化控制方法
CN104776446A (zh) * 2015-04-14 2015-07-15 东南大学 一种锅炉燃烧优化控制方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
施展 等: "基于QPSO和拥挤距离排序的多目标量子粒子群优化算法", 《控制与决策》 *
李世卿 等: "基于动态矩阵控制的双层结构预测控制的整体解决方案", 《自动化学报》 *

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107942682A (zh) * 2017-12-22 2018-04-20 太原理工大学 非高斯系统的动态经济性能优化与控制一体化设计方法
CN107942682B (zh) * 2017-12-22 2020-10-30 太原理工大学 非高斯系统的动态经济性能优化与控制一体化设计方法
CN113687632A (zh) * 2021-01-25 2021-11-23 南京工业大学 一种间歇反应过程的变周期协同优化控制方法
CN113687632B (zh) * 2021-01-25 2024-01-26 南京工业大学 一种间歇反应过程的变周期协同优化控制方法
CN114237172A (zh) * 2021-11-30 2022-03-25 浙江大学衢州研究院 基于机器学习的自优化被控变量选择方法和装置
CN114296354A (zh) * 2021-12-31 2022-04-08 上海电力设计院有限公司 基于多优先级约束放松的混合优化算法
CN114296354B (zh) * 2021-12-31 2024-03-08 上海电力设计院有限公司 基于多优先级约束放松的混合优化算法

Also Published As

Publication number Publication date
CN107180279B (zh) 2020-08-25

Similar Documents

Publication Publication Date Title
Liu et al. Adaptive fuzzy output tracking control for a class of uncertain nonlinear systems
CN107180279A (zh) 基于qpso‑dmpc的反应再生系统优化控制方法
Lin et al. Stabilization of uncertain fuzzy time-delay systems via variable structure control approach
Sun et al. Stable neural-network-based adaptive control for sampled-data nonlinear systems
Iplikci Support vector machines‐based generalized predictive control
Coban A fuzzy controller design for nuclear research reactors using the particle swarm optimization algorithm
Hiraoka et al. Learning robust options by conditional value at risk optimization
CN107045290A (zh) 基于mqpso‑dmpc的反应再生系统优化控制方法
Chen et al. Deep reinforcement learning control of a boiling water reactor
Xie et al. GA based decomposition of large scale distributed model predictive control systems
Adhau et al. Embedded implementation of deep learning-based linear model predictive control
Pawar et al. The What, Why, and How of Context Length Extension Techniques in Large Language Models--A Detailed Survey
CN107065576A (zh) 基于pso‑dmpc的反应再生系统优化控制方法
CN115933410B (zh) 一种基于q学习的双时间尺度燃煤发电系统最优跟踪控制方法
Xu et al. Generalized regression neural networks-based data-driven iterative learning control for nonlinear non-affine discrete-time systems
Belarbi et al. A stable model-based fuzzy predictive control based on fuzzy dynamic programming
Zheng et al. Design of PIλ-PDμ controller for high-order systems based on model order reduction using BB-BC and time moment matching
Verboven et al. Hydalearn: Highly dynamic task weighting for multi-task learning with auxiliary tasks
Gu et al. Heat: Hardware-efficient automatic tensor decomposition for transformer compression
Wang et al. Adaptive optimal tracking control with novel event‐triggered formulation for a type of nonlinear systems
Shi et al. Local Extrema Refinement Based Tensor Product Model Transformation Controller Design with Vary Input Methods
Westenbroek et al. On the computational consequences of cost function design in nonlinear optimal control
Hu et al. Energy-constrained Crystals Wasserstein GAN for the inverse design of crystal structures
Cubillos et al. Real-time process optimization based on grey-box neural models
Wang et al. Distributed Double‐Layered Dynamic Matrix Control for Large‐Scale System

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
EE01 Entry into force of recordation of patent licensing contract
EE01 Entry into force of recordation of patent licensing contract

Application publication date: 20170919

Assignee: Chongqing Qinlang Technology Co.,Ltd.

Assignor: Chongqing University of Science & Technology

Contract record no.: X2023980050332

Denomination of invention: Optimization control method for reaction regeneration system based on QPSO-DMPC

Granted publication date: 20200825

License type: Common License

Record date: 20231206

EE01 Entry into force of recordation of patent licensing contract

Application publication date: 20170919

Assignee: Guangxi Chunmeng Intelligent Technology Co.,Ltd.

Assignor: Chongqing University of Science & Technology

Contract record no.: X2023980053984

Denomination of invention: Optimization control method for reaction regeneration system based on QPSO-DMPC

Granted publication date: 20200825

License type: Common License

Record date: 20231227

EE01 Entry into force of recordation of patent licensing contract
EE01 Entry into force of recordation of patent licensing contract
EE01 Entry into force of recordation of patent licensing contract

Application publication date: 20170919

Assignee: Yuao Holdings Co.,Ltd.

Assignor: Chongqing University of Science & Technology

Contract record no.: X2024980000640

Denomination of invention: Optimization control method for reaction regeneration system based on QPSO-DMPC

Granted publication date: 20200825

License type: Common License

Record date: 20240119

Application publication date: 20170919

Assignee: Youzhengyun (Chongqing) Technology Development Co.,Ltd.

Assignor: Chongqing University of Science & Technology

Contract record no.: X2024980000636

Denomination of invention: Optimization control method for reaction regeneration system based on QPSO-DMPC

Granted publication date: 20200825

License type: Common License

Record date: 20240119

Application publication date: 20170919

Assignee: Chongqing Yiquan Small and Medium Enterprise Service Co.,Ltd.

Assignor: Chongqing University of Science & Technology

Contract record no.: X2024980000635

Denomination of invention: Optimization control method for reaction regeneration system based on QPSO-DMPC

Granted publication date: 20200825

License type: Common License

Record date: 20240119

Application publication date: 20170919

Assignee: Shuwu Shenzhou (Chongqing) Technology Co.,Ltd.

Assignor: Chongqing University of Science & Technology

Contract record no.: X2024980000632

Denomination of invention: Optimization control method for reaction regeneration system based on QPSO-DMPC

Granted publication date: 20200825

License type: Common License

Record date: 20240119

EE01 Entry into force of recordation of patent licensing contract
EE01 Entry into force of recordation of patent licensing contract

Application publication date: 20170919

Assignee: Chongqing Xinghua Network Technology Co.,Ltd.

Assignor: Chongqing University of Science & Technology

Contract record no.: X2024980001290

Denomination of invention: Optimization control method for reaction regeneration system based on QPSO-DMPC

Granted publication date: 20200825

License type: Common License

Record date: 20240126

Application publication date: 20170919

Assignee: Chongqing Shuangtu Technology Co.,Ltd.

Assignor: Chongqing University of Science & Technology

Contract record no.: X2024980001288

Denomination of invention: Optimization control method for reaction regeneration system based on QPSO-DMPC

Granted publication date: 20200825

License type: Common License

Record date: 20240126

Application publication date: 20170919

Assignee: Chongqing Chaimi Network Technology Service Co.,Ltd.

Assignor: Chongqing University of Science & Technology

Contract record no.: X2024980001287

Denomination of invention: Optimization control method for reaction regeneration system based on QPSO-DMPC

Granted publication date: 20200825

License type: Common License

Record date: 20240126

EE01 Entry into force of recordation of patent licensing contract
EE01 Entry into force of recordation of patent licensing contract

Application publication date: 20170919

Assignee: Foshan shangxiaoyun Technology Co.,Ltd.

Assignor: Chongqing University of Science & Technology

Contract record no.: X2024980003005

Denomination of invention: Optimization control method for reaction regeneration system based on QPSO-DMPC

Granted publication date: 20200825

License type: Common License

Record date: 20240322

Application publication date: 20170919

Assignee: FOSHAN YAOYE TECHNOLOGY Co.,Ltd.

Assignor: Chongqing University of Science & Technology

Contract record no.: X2024980003003

Denomination of invention: Optimization control method for reaction regeneration system based on QPSO-DMPC

Granted publication date: 20200825

License type: Common License

Record date: 20240322

Application publication date: 20170919

Assignee: Foshan helixing Technology Co.,Ltd.

Assignor: Chongqing University of Science & Technology

Contract record no.: X2024980003002

Denomination of invention: Optimization control method for reaction regeneration system based on QPSO-DMPC

Granted publication date: 20200825

License type: Common License

Record date: 20240322

EE01 Entry into force of recordation of patent licensing contract
EE01 Entry into force of recordation of patent licensing contract

Application publication date: 20170919

Assignee: Foshan qianshun Technology Co.,Ltd.

Assignor: Chongqing University of Science & Technology

Contract record no.: X2024980004523

Denomination of invention: Optimization control method for reaction regeneration system based on QPSO-DMPC

Granted publication date: 20200825

License type: Common License

Record date: 20240419