CN114967676A - 基于强化学习的模型预测控制轨迹跟踪控制系统及方法方法 - Google Patents

基于强化学习的模型预测控制轨迹跟踪控制系统及方法方法 Download PDF

Info

Publication number
CN114967676A
CN114967676A CN202210379484.XA CN202210379484A CN114967676A CN 114967676 A CN114967676 A CN 114967676A CN 202210379484 A CN202210379484 A CN 202210379484A CN 114967676 A CN114967676 A CN 114967676A
Authority
CN
China
Prior art keywords
vehicle
module
control
error
reinforcement learning
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202210379484.XA
Other languages
English (en)
Inventor
苏岩
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Suzhou Gst Infomation Technology Co ltd
Original Assignee
Suzhou Gst Infomation Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Suzhou Gst Infomation Technology Co ltd filed Critical Suzhou Gst Infomation Technology Co ltd
Priority to CN202210379484.XA priority Critical patent/CN114967676A/zh
Publication of CN114967676A publication Critical patent/CN114967676A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • G05D1/0221Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory involving a learning process
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Feedback Control In General (AREA)

Abstract

本发明涉及一种基于强化学习的模型预测控制轨迹跟踪控制系统,包括线性时变模型预测控制器、规划模块、状态估计模块以及强化学习模块,所述线性时变模型预测控制器包括预测模型、优化求解模块和目标函数+约束条件模块;预测模型的预测轨迹结合规划模块的参考轨迹输入给优化求解模块,对目标函数和约束条件进行求解,计算出最优控制量发送给被控车辆执行;车辆执行命令后得到状态量反馈给状态估计模块、规划模块、强化学习模块;状态估计模块根据反馈状态量修正模型误差;规划模块进行局部路径规划;强化学习模块根据参考轨迹与实际车辆位置差值调整车辆MPC控制误差权重参数,适配行驶道路与轨迹,提高控制精度。

Description

基于强化学习的模型预测控制轨迹跟踪控制系统及方法方法
技术领域
本发明属于车辆自动驾驶控制技术领域,具体涉及一种基于强化学习的模型预测控制轨迹跟踪控制系统及方法。
背景技术
自动驾驶的控制领域可以根据行驶方向分成横向控制与纵向控制。纵向控制主要是针对车辆油门、刹车的控制,相对来说技术比较成熟;而横向控制是给出控制量控制车辆方向盘朝着参考轨迹逼近,达到轨迹跟踪的目的。
无论是技术成熟的纵向控制,还是研究热门的横向控制,控制的核心仍然是设计满足要求的控制器及其代码实现。调研国内外自动驾驶控制领域发现,普遍应用的控制器包括PID控制器、模糊PID、Stanley控制器、滑模控制(Sliding Mode Controller,SMC)器、模型预测控制(Model Predictive Control,MPC)器、纯跟踪控制器、线性二次调节器(Linear Quadratic Regulator,LQR)等。其中,MPC控制器的思路是结合当前系统的测量值以及预测模型来预测未来一段时间内的控制输出,并且通过求解各种带约束的优化问题使得系统在未来一段时间内误差最小,基于此,MPC控制器鲁棒性较其他控制方法强,精度更高,应用也更为普遍。
然而,即便利用相对优异的控制器,日常行驶的环境变量以及车自身因素,都会导致控制精度的大幅度下滑:对于车辆本身来说,首先传感器的测量误差以及设备老化、车辆载荷变化、四轮定位等因素都会造成控制精度偏差;对于环境因素,包括行驶的道路地形因素、附着系数等。对于车辆自身因素以及传感器精度偏差,虽是无可避免,但却可以通过调节控制算法的控制参数来补偿。然而对于行驶路况因素,由于道路的地形变化,摩擦系数并非定值,道路曲率也是时变的,因此当控制器在某一路段可以实现较高精度的控制时,并不代表它适用于其他所有路段。当行驶道路发生改变时,控制器的某些参数,包括横向误差权重、横摆角误差权重、车辆侧偏系数等是会发生改变的,针对固定的控制器参数来说,此时对车辆的横向控制,肯定是会产生一定偏差,从而降低车辆行驶稳定性以及安全性。
检索发现,CN110221611A公开了一种轨迹跟踪控制方法、装置及无人驾驶车辆,CN110568760A公开了一种适用于换道及车道保持的参数化学习决策控制系统及方法。其中,CN110221611A公开的优化方法是利用强化学习的方法将这些繁琐的过程用神经网络去拟合与训练。众所周知,将可求解的物理模型替换成参数拟合的神经网络,优点是可以省略去复杂的计算过程,但缺点是相当于将原本清晰的内部逻辑结构转变成一个黑匣子,并不能了解内部运行机制并且很容易出现错误,因此对于车辆控制而言是一个很大胆且危险的做法。同时,CN110221611A公开的优化方法采用的是训练A3C模型,CN110221611A公开的优化方法神经网络输入的状态量是轨迹的横向偏差,输出的直接是控制量。CN110568760A公开的专利表述的是有一种基于强化学习的决策行为模块,当感知信号输入给该决策模块,根据强化学习的训练可以自主决策出未来一段时域内车辆的轨迹路线,其中路线包含车辆侧向偏移Ty、行为时间Tf、以及加减速行为,这些决策参数会下发给轨迹规划模块生成轨迹输入到MPC控制器去求解最优的控制量。因此,该专利侧重于采用强化学习学习决策行为,MPC控制器并没有改进。
发明内容
本发明的目的在于,针对现有技术存在的缺陷,提出一种基于强化学习的模型预测控制轨迹跟踪控制系统及方法,该方法针对模型预测控制器的固定参数不适应多路况情况下造成的轨迹跟踪控制误差这种情况,采用DDPG算法对误差参数进行训练学习,使控制器在控制车辆行驶时根据实际状态信息与参考轨迹及时调整控制参数,减少控制误差,提高控制精度。
为了达到以上目的,本发明提供一种基于强化学习的模型预测控制轨迹跟踪控制系统,包括线性时变模型预测控制器、规划模块、状态估计模块以及强化学习模块,所述线性时变模型预测控制器包括预测模型、优化求解模块和目标函数+约束条件模块;所述预测模块,用来表征车辆并预测其在未来预测时域内的行驶轨迹;
所述优化求解模块,用来对目标函数+约束条件模块进行求解,计算出最优控制量后,发送给被控车辆执行;
所述目标函数+约束条件模块,确定MPC控制器控制车辆进行轨迹跟踪时,计算下发的最优控制量的数值范围以及相隔控制时域内控制量的增量大小;
所述规划模块,用来根据车辆反馈的状态量及时发布局部规划路径轨迹给线性时变模型预测控制器;
所述状态估计模块,用来矫正理论建立的车辆动力学模型与实际车辆模型之间的模型误差,使理论模型逼近于实际车辆的动力学特性;
所述强化学习模块,用来根据车辆与参考轨迹之间的控制误差,及时调整线性时变模型预测控制器的误差权重参数,适配行驶道路与轨迹,提高控制精度。
本发明公开了一种基于强化学习的模型预测控制(Model Predictive Control,MPC)轨迹跟踪控制系统,适用于车辆自动驾驶时的横向轨迹跟踪控制。该系统主要包括两部分:MPC控制器以及强化学习模块。MPC控制器包含预测模型、优化求解模块以及约束条件成本函数三部分;强化学习模块为Actor与Critic神经网络。采用本系统,能够分析车辆力学特性,建立整车动力学模型;对非线性模型泰勒级数线性化以及欧拉离散化得到关于车辆状态空间的预测模型;优化求解模块基于约束条件对MPC成本函数求解,计算最优控制量;针对MPC控制器固定的误差权重矩阵,采用强化学习的深度确定性策略梯度(DeepDeterministic Policy Gradient,DDPG)算法对其进行学习训练。本系统结合强化学习的思想,较大程度上提升了MPC控制器的控制性能,提升了车辆轨迹跟踪的能力与对行驶环境的鲁棒性。
本发明还提供一种基于强化学习的模型预测控制轨迹跟踪控制方法,包括以下步骤:
步骤1、利用定位模块获取车辆初始位置信息,规划模块规划局部参考轨迹,并将轨迹的对地坐标系绝对坐标值数据发送给线性时变模型预测控制器;
步骤2、线性时变模型预测控制器的优化求解模块结合目标函数+约束条件模块根据目标函数以及约束条件求解出最优的车辆前轮转角控制量;
步骤3、优化求解模块将最优的车辆前轮转角控制量发送给被控车辆的执行器,车辆执行之后将下一时刻的状态信息反馈到状态估计模块、强化学习模块和规划模块;
步骤4、状态估计模块计算系统参考模型与车辆实际的模型之间的偏差,并将计算结果输入给线性时变模型预测控制器,以修正其预测模型的误差;
步骤5、规划模块根据下一时刻的状态信息重新规划车辆参考轨迹,强化学习模块根据实际的车辆轨迹状态与规划模块重新规划的参考轨迹之间的差值来调整线性时变模型预测控制器中的误差权重参数。
本发明进一步的采用如下技术方案:
所述步骤2中,目标函数的定义如下:
Figure BDA0003591660410000051
式中,Q表示输出权重的正定矩阵,R表示控制权重的正定矩阵,ρ是松弛因子权重,ε是松弛因子,
Figure BDA0003591660410000052
表示t时刻的状态量,ΔU(t)表示t时刻的控制增量,Np表示预测时域,Nc表示控制时域,η表示t时刻预测的t至t+i时刻之间的系统输出序列,Δu表示t时刻预测的t至t+i时刻之间的控制增量序列;上式由三部分组成,分别表征车辆的输出状态量、控制量以及松弛项。前者根据预测时域内的系统输出量,来反映控制算法控制车辆轨迹跟踪的误差程度;控制项根据控制时域内的控制输入量增量,来反映单位时间内控制量的变化速度,保证转向的平稳性以及转弯曲率;松弛项的加入是为了防止实际车辆行驶过程中产生的不确定变化导致的目标函数无最优解情况;
目标函数中的控制权重矩阵R是一个一维矩阵,输出权重矩阵Q是二维的矩阵,其形式如下:
Figure BDA0003591660410000053
式中,qlat表示横向误差权重,qψ表示横摆角误差权重。
所述步骤2中,约束条件的定义如下:
(1)行车稳定性约束
Figure BDA0003591660410000054
Figure BDA0003591660410000061
式中,δ代表前轮转角变量,δH为良好附着系数下的前轮转角极限值,δL,为低附着系数下的前轮转角极限值,lf表示车辆的前轴到车辆质心间的距离,lr表示车辆的后轴到车辆质心间的距离,βH表示在良好附着系数情况下的质心侧偏角,βL表示在低附着系数情况下的质心侧偏角,它们是质心车速与车辆纵轴x之间形成的角度;
(2)前轮摆动约束
Figure BDA0003591660410000062
式中,δmin为车辆前轮最小转角,δmax为车辆前轮最大转角,Δδmin为车辆前轮单位时间内最小的增量,Δδmax为车辆前轮单位时间内最大的增量,Δδ表示车辆前轮在单位时间内的增量;
(3)输出状态约束
Figure BDA0003591660410000063
式中,elat min为车辆最小的横向轨迹误差,elat max为车辆最大的横向轨迹误差,eψ min为车辆最小的横摆角误差,eψ max为车辆最大的横摆角误差,elat表示车辆的横向轨迹误差,eψ为车辆的横摆角误差。
所述步骤2中,优化求解模块求解最优车辆前轮转角控制量的过程如下:
步骤2-1、定义矩阵Qe与Re
Figure BDA0003591660410000064
Figure BDA0003591660410000065
式中,
Figure BDA0003591660410000066
为克罗内积运算符,INp为维度为Np的单位矩阵,INc为维度为Nc的单位矩阵;
步骤2-2、将目标函数表达式改写为:
Figure BDA0003591660410000071
Figure BDA0003591660410000072
式中,Y表示t时刻预测的t至t+i时刻之间的系统输出序列矩阵,ΔU表示t时刻预测的t至t+i时刻之间的控制增量序列矩阵,
Figure BDA0003591660410000073
均为系数矩阵,Ht为表征Qe的过程矩阵,
Figure BDA0003591660410000074
为表征Re的过程矩阵,Pt为常数项不影响求解,可以忽略;
步骤2-3、将MPC控制问题转换成二次规划问题,重写目标函数与约束条件如下:
Figure BDA0003591660410000075
st.ΔUmin≤ΔU(t)≤ΔUmax
Umid≤U(t)≤Umax
Figure BDA0003591660410000076
Figure BDA0003591660410000077
其中,ΔUmin表示车辆控制量变化的最小值,ΔUmax表示车辆控制量变化的最大值,ΔU(t)为车辆控制量变化值;Umin为车辆控制量的最小值,Umax为车辆控制量的最大值,U(t)为车辆控制量;Yc min为系统状态量的最小硬约束,Yc max为系统状态量的最大硬约束;Ysc min为系统状态量的最小软约束,Ysc max为系统状态量的最大软约束。
所述步骤3中,控制器控制量为车辆前轮转角,状态量包括车辆坐标XY值、车辆横向速度、车辆纵向速度、车辆横摆角、车辆横摆角速度,以及预测模型输出车辆横向误差与横摆角误差。
所述步骤5中,强化学习模块的设计如下:
定义强化学习模块的观测状态为横摆角偏差、横向偏差,动作集为横向误差权重以及横摆角误差权重;
搭建Actor网络,Actor网络包括一个三维状态输入层,两个全连接层作为隐藏层,一个二维动作输出层;其中状态输入层之后为第一隐藏层,由200个神经元组成,为全连接层;第一层之后为第二隐藏层,由128个神经元组成,也是全连接层;第二隐藏层之后连接二维动作输出层。Actor网络动作的输出层激活函数为双曲正切函数(Tanh);
搭建Critic网络,Critic网络由两个输入层、两个全连接层和一个输出层组成;其中在二维状态输入层之后为第一隐藏层,由200个神经元组成,为全连接层;二维动作输入层与第一隐藏层连接到第二隐藏层,该层由128个神经元组成,也为全连接层;第二隐藏层一维连接输出层,输出层输出动作的价值函数。动作价值函数输出层的激活函数采用恒等变换(identity);
Actor网络更新策略为确定性策略梯度加Omstein-Uhlenbeck(1930)过程噪声,增加随机探索性;Critic网络基于价值函数,通过最小化loss函数更新Critic网络;
奖励函数设置分成横向误差范围与横摆角误差范围,横向误差范围分成小于0.05m、小于0.10m、小于0.15m、小于0.20m、小于0.30m、大于0.40m、大于1.00m、大于3.00m;横摆角误差范围分成小于0.05rad、小于0.10rad、小于0.20rad、小于0.25rad、大于0.30rad、大于0.40rad、大于0.50rad。
所述步骤5中,强化学习模块神经网络的更新步骤如下:
步骤5-1、在观测状态st下,遵循加入噪声过程的策略选取动作at,进入到下一个时刻的状态st+1,并且得到奖励值Rt+1
步骤5-2、将序列(st,at,Rt+1,st+1)储存在经验回放池里,并随机采样n组序列(st,at,Rt+1,st+1);
步骤5-3、设置价值函数的目标值yt=r(st,at)+γQ′(st+1,μ′(st+1)|ω′),其中r表示t时刻的奖励,γ表示t时刻的折扣因子,Q′表示t+1时刻的Q值,μ′表示t+1时刻的目标actor网络,ω′表示t+1时刻的目标critic网络;
步骤5-4、通过最小化loss函数更新Critic网络,表达式如下:
Figure BDA0003591660410000091
步骤5-5、以采样梯度更新Actor网络,表达式如下:
Figure BDA0003591660410000092
步骤5-6、更新目标Actor网络与Critic网络:θQ′←τθQ+(1-τ)θQ′,θμ′←τθμ+(1-τ)θμ′,τ<<1
其中,
Figure BDA0003591660410000093
表示当前Critic网络与另一个Critic网络β时之间损失函数的期望值,ω表示当前Critic网络的网络参数,yt表示另一个Critic网络β的计算价值,
Figure BDA0003591660410000094
表示当前actor网络的损失函数期望值,
Figure BDA0003591660410000095
表示当前价值的梯度,a=μ(st)表示基于当前st通过actor网络计算得到的动作值a,
Figure BDA0003591660410000096
表示当前actor网络选择动作的策略梯度,θQ′表示目标Critic网络,θμ表示目标Actor网络,θQ表示当前Critic网络,θμ表示当前Actor网络,τ为更新率。
本发明采用MPC控制器的设计,包括动力学建模、模型表达式求解、MPC预测模型建立、目标函数以及约束条件的设置、以及在约束条件内的目标函数求解优化等环节。本发明在传统的MPC控制器设计思路基础上,对公式的推导进行了简化,使得对车辆的控制有理论模型基础来支撑。本发明对固定的目标函数误差权重参数用强化学习的方法去训练,使得车辆在不同环境行驶时,控制器可匹配最优的误差权重,从而减少控制误差。在保证车辆控制的理论逻辑正确的基础上采用强化学习训练的方法,是稳中求精的做法。同时,MPC虽然是经典控制器,但是根据其设计的思路、选取的变量等因素,所关注的重点也不同,本发明根据车辆横向控制,选取状态量为对地绝对坐标、横纵向速度等,控制量为前轮转角,并且设置约束条件主要围绕着对前轮转角的限制展开。此外,本发明的DDPG神经网络输入的状态量是轨迹的横向偏差与横摆角偏差以及道路的曲率,输出的是对横向误差权重以及横摆角误差权重数值的调节。与传统方法相比,本发明采用的DDPG方法,动作空间方差小,算法收敛速度上要高于A3C;强化学习的奖励函数、状态选择、动作的定义以及搭建的神经网络结构都与传统方法不相同。总之,本发明设计的是利用强化学习的方法优化MPC控制器的误差权重参数,从而达到减少控制误差、提高鲁棒性的目的。
另外,由于控制误差产生的直接因素在于控制器的控制精度,哪怕决策参数再如何精确,不够精确的控制器计算的控制量依旧是存在控制误差的关键所在。与现有技术相比,本发明通过强化学习对控制器误差权重参数的训练达到优化MPC控制器的目的,从而减小了控制误差,提高了控制器对环境的鲁棒性。
本发明的优点如下:
(1)基于强化学习的思想,针对不同路况改变控制器参数,控制精度显著提升;
(2)变参数的控制器可以显示出对行驶环境更好的鲁棒性;
(3)控制器单条控制指令计算到发布测试周期小于0.0ls,控制实时性好。
附图说明
下面结合附图对本发明作进一步的说明。
图1为本发明的控制框架图。
图2为本发明的DDPG算法Actor神经网络构成图。
图3为本发明的DDPG算法Critic神经网络构成图。
具体实施方式
实施例一
如图1所示,一种基于强化学习的模型预测控制轨迹跟踪控制系统,包括线性时变模型预测控制器、规划模块、状态估计模块以及强化学习模块,其中线性时变模型预测控制器包括预测模型、优化求解模块和目标函数+约束条件模块。预测模块,用来表征车辆并预测其在未来预测时域内的行驶轨迹;优化求解模块,用来对目标函数+约束条件模块进行求解,计算出最优控制量后,发送给被控车辆执行;目标函数+约束条件模块,确定MPC控制器控制车辆进行轨迹跟踪时,计算下发的最优控制量的数值范围以及相隔控制时域内控制量的增量大小;规划模块,用来根据车辆反馈的状态量及时发布局部规划路径轨迹给线性时变模型预测控制器;状态估计模块,用来矫正理论建立的车辆动力学模型与实际车辆模型之间的模型误差,使理论模型逼近于实际车辆的动力学特性;强化学习模块,用来根据车辆与参考轨迹之间的控制误差,及时调整线性时变模型预测控制器的误差权重参数,适配行驶道路与轨迹,提高控制精度。
一种基于强化学习的模型预测控制轨迹跟踪控制方法,包括以下步骤:
步骤1、利用定位模块获取车辆初始位置信息,规划模块根据车辆初始位置信息采用A*算法规划局部参考轨迹,并将该轨迹的对地坐标系绝对坐标值数据发送给线性时变模型预测控制器的优化求解模块进行最优控制量的计算求解。同时,预测模块根据车辆初始位置信息通过其内预测模型预测未来预测时域内的行驶轨迹作为反馈环节将预测轨迹发送给优化求解模块。
步骤2、线性时变模型预测控制器的优化求解模块接收规划模块的参考轨迹和预测模块的预测轨迹后结合目标函数+约束条件模块根据目标函数以及约束条件求解出最优的车辆前轮转角控制量。
其中,目标函数的定义如下:
Figure BDA0003591660410000121
式中,Q和R分别表示输出权重以及控制权重的正定矩阵,ρ是松弛因子权重,ε是松弛因子,
Figure BDA0003591660410000122
表示t时刻的状态量,ΔU(t)表示t时刻的控制增量,Np、Nc分别表示预测时域与控制时域,η、Δu分别表示t时刻预测的t至t+i时刻之间的系统输出序列以及控制增量序列。上式由三部分组成,分别表征车辆的输出状态量、控制量以及松弛项。前者根据预测时域内的系统输出量,来反映控制算法控制车辆轨迹跟踪的误差程度;控制项根据控制时域内的控制输入量增量,来反映单位时间内控制量的变化速度,保证转向的平稳性以及转弯曲率;松弛项的加入是为了防止实际车辆行驶过程中产生的不确定变化导致的目标函数无最优解情况。
目标函数中的控制权重矩阵R是一个一维矩阵,输出权重矩阵Q是二维的矩阵,其形式如下:
Figure BDA0003591660410000123
式中,qlat表示横向误差权重,qψ表示横摆角误差权重。
约束条件分成三部分,分别为行车稳定性约束、前轮摆角约束以及输出状态约束。前二者限制车辆在地形因素以及车辆自身物理条件因素下的前轮摆角与角速度,最后一项是限制车辆轨迹跟踪过程中的误差项。那么,约束条件的定义如下:
(1)行车稳定性约束
Figure BDA0003591660410000131
Figure BDA0003591660410000132
式中,δ代表前轮转角变量,δH为良好附着系数下的前轮转角极限值,δL为低附着系数下的前轮转角极限值,lf表示车辆的前轴到车辆质心间的距离,lr表示车辆的后轴到车辆质心间的距离,βH表示在良好附着系数情况下的质心侧偏角,βL表示在低附着系数情况下的质心侧偏角,它们是质心车速与车辆纵轴x之间形成的角度;
(2)前轮摆动约束
Figure BDA0003591660410000133
式中,δmin为车辆前轮最小转角,δmax为车辆前轮最大转角,Δδmin为车辆前轮单位时间内最小的增量,Δδmax为车辆前轮单位时间内最大的增量,Δδ表示车辆前轮在单位时间内的增量;
(3)输出状态约束
Figure BDA0003591660410000134
式中,elat min为车辆最小的横向轨迹误差,elat max为车辆最大的横向轨迹误差,eψ min为车辆最小的横摆角误差,eψ max为车辆最大的横摆角误差,elat表示车辆的横向轨迹误差,eψ为车辆的横摆角误差。
优化求解模块将MPC控制问题转换成二次规划求解问题,求解最优车辆前轮转角控制量的具体步骤如下:
步骤2-1、定义矩阵Qe与Re
Figure BDA0003591660410000141
Figure BDA0003591660410000142
式中,
Figure BDA0003591660410000143
为克罗内积运算符,INp与INc分别为维度为Np与Nc的单位矩阵;
步骤2-2、将目标函数表达式改写为:
Figure BDA0003591660410000144
Figure BDA0003591660410000145
式中,Y、ΔU分别表示t时刻预测的t至t+i时刻之间的系统输出序列矩阵以及控制增量序列矩阵,
Figure BDA0003591660410000146
均为系数矩阵,Ht
Figure BDA0003591660410000147
为表征Qe与Re的过程矩阵,Pt为常数项不影响求解,可以忽略;
步骤2-3、将MPC控制问题转换成二次规划问题,重写目标函数与约束条件如下:
Figure BDA0003591660410000148
st.ΔUmin≤ΔU(t)≤ΔUmax
Umin≤U(t)≤Umax
Figure BDA0003591660410000149
Figure BDA0003591660410000151
其中,ΔUmin、ΔUmax分别表示车辆控制量变化的最小值与最大值,ΔU(t)为车辆控制量变化值;Umin、Umax为车辆控制量的最小与最大值,U(t)为车辆控制量;Yc min、Yc max分别为系统状态量的最小硬约束和最大硬约束;Ysc min、Ysc max分别为系统状态量的最小软约束和最大软约束。
步骤3、优化求解模块将求出的最优车辆前轮转角控制量发送给被控车辆的执行器执行,车辆执行操作之后得到的状态量
Figure BDA0003591660410000152
将被反馈到状态估计模块、强化学习模块和规划模块。
控制器获得的前轮转角控制量U(t)为车辆前轮转角,状态量
Figure BDA0003591660410000153
包括车辆坐标XY值、车辆横向速度、车辆纵向速度、车辆横摆角、车辆横摆角速度,以及预测模型输出车辆横向误差与横摆角误差。
步骤4、状态估计模块接收车辆执行完控制量后的车辆状态,与理论建模得到的动力学参考模型做比对得到模型误差用于修正残奥模型,状态估计模块通过参数拟合的方法计算系统参考模型数据与车辆实际的模型数据之间的偏差,以动力学模型参数偏差的形式将拟合结果输入给线性时变模型预测控制器,修正其预测模型的参数误差。预测模型修正误差后再次预测车辆未来预测时域内的行驶轨迹并将预测轨迹输入给优化求解模块。
步骤5、规划模块根据下一时刻的状态信息重新规划车辆参考轨迹并将参考轨迹输入到强化学习模块和优化求解模块。强化学习模块根据实际的车辆轨迹状态与规划模块重新规划的参考轨迹之间的差值来调整线性时变模型预测控制器中的误差权重参数,达到根据不同行驶路面状况,去改变误差权重参数,使其可以适配更多复杂的路面,减少因为固定参数导致的轨迹跟踪误差。
上述步骤4和步骤5中,预测模块的预测轨迹和规划模块的参考轨迹输入到优化求解模块后,返回步骤2进行操作,即优化求解模块对目标函数+约束条件模块进行求解,并将求解的最优车辆前轮转角控制量发给车辆执行。
步骤5中,强化学习模块包括状态集、动作集、Actor-Critic网络、网络更新策略以及奖励函数几个部分,强化学习模块的设计如下:
定义强化学习模块的观测状态为横摆角偏差、横向偏差,动作集为横向误差权重以及横摆角误差权重。
如图2所示,搭建Actor网络。Actor网络包括一个三维状态输入层,两个全连接层作为隐藏层,一个二维动作输出层。其中状态输入层之后为第一隐藏层,由200个神经元组成,为全连接层;第一层之后为第二隐藏层,由128个神经元组成,也是全连接层;第二隐藏层之后连接二维动作输出层。Actor网络动作的输出层激活函数为双曲正切函数(Tanh)。
如图3所示,搭建Critic网络。Critic网络由两个输入层、两个全连接层和一个输出层组成。其中在二维状态输入层之后为第一隐藏层,由200个神经元组成,为全连接层;二维动作输入层与第一隐藏层连接到第二隐藏层,该层由128个神经元组成,也为全连接层;第二隐藏层一维连接输出层,输出层输出动作的价值函数。动作价值函数输出层的激活函数采用恒等变换(identity)。
Actor网络更新策略为确定性策略梯度加Omstein-Uhlenbeck(1930)过程噪声,增加随机探索性;Critic网络基于价值函数,通过最小化loss函数更新Critic网络。
奖励函数设置分成横向误差范围与横摆角误差范围,根据表1可以看到划分的误差范围以及奖励值情况。横向误差范围分成小于0.05m、小于0.10m、小于0.15m、小于0.20m、小于0.30m、大于0.40m、大于1.00m、大于3.00m;横摆角误差范围分成小于0.05rad、小于0.10rad、小于0.20rad、小于0.25rad、大于0.30rad、大于0.40rad、大于0.50rad。
表1奖励分配表
Figure BDA0003591660410000171
强化学习模块的神经网络的更新步骤如下:
步骤5-1、在观测状态st下,遵循加入噪声过程的策略选取动作at,进入到下一个时刻的状态st+1,并且得到奖励值Rt+1
步骤5-2、将序列(st,at,Rt+1,st+1)储存在经验回放池里,并随机采样n组序列(st,at,Rt+1,st+1);
步骤5-3、设置价值函数的目标值yt=r(st,at)+γQ′(st+1,μ′(st+1)|ω′),其中r、γ、Q′、μ′、ω′分别表示t时刻的奖励、折扣因子、t+1时刻的Q值、目标actor网络以及目标critic网络;
步骤5-4、通过最小化loss函数更新Critic网络,表达式如下:
Figure BDA0003591660410000181
步骤5-5、以采样梯度更新Actor网络,表达式如下:
Figure BDA0003591660410000182
步骤5-6、更新目标Actor网络与Critic网络:θQ′←τθQ+(1-τ)θQ′,θμ′←τθμ+(1-τ)θμ′,τ<<1
其中,
Figure BDA0003591660410000183
ω、yt分别表示当前Critic网络与另一个Critic网络β时之间损失函数的期望值、当前Critic网络的网络参数、另一个Critic网络β的计算价值,
Figure BDA0003591660410000184
a=μ(st)、
Figure BDA0003591660410000185
分别表示当前actor网络的损失函数期望值、当前价值的梯度、基于当前st通过actor网络计算得到的动作值a、当前actor网络选择动作的策略梯度,θQ′、θμ′分别表示目标Critic网络和目标Actor网络,θQ表示当前Critic网络,θμ表示当前Actor网络,τ为更新率。
本发明采用规划模块规划局部参考轨迹,控制器的预测模型预测未来预测时域内的行驶轨迹,预测轨迹结合规划模块的参考轨迹输入给优化求解模块,优化求解模块对目标函数+约束条件模块进行求解,计算出最优控制量,发送给被控车辆执行;车辆执行控制命令之后得到的状态量反馈给状态估计模块、规划模块、强化学习模块;状态估计模块根据反馈状态量修正预测模型误差,预测模型修正误差后再次预测未来预测时域内的行驶轨迹并将预测轨迹输入给优化求解模块;规划模块再次进行局部路径规划并将重新规划的参考轨迹输入给优化求解模块和强化学习模块(优化求解模块能够根据重新输入的预测轨迹和参考轨迹对目标函数+约束条件模块进行再次求解);强化学习模块根据参考轨迹与实际车辆位置差值进行调整车辆MPC控制误差权重参数,适配行驶道路与轨迹,提高控制精度。
除上述实施例外,本发明还可以有其他实施方式。凡采用等同替换或等效变换形成的技术方案,均落在本发明要求的保护范围。

Claims (8)

1.一种基于强化学习的模型预测控制轨迹跟踪控制系统,其特征在于:包括线性时变模型预测控制器、规划模块、状态估计模块以及强化学习模块,所述线性时变模型预测控制器包括预测模型、优化求解模块和目标函数+约束条件模块;所述预测模块,用来表征车辆并预测其在未来预测时域内的行驶轨迹;
所述优化求解模块,用来对目标函数+约束条件模块进行求解,计算出最优控制量,发送给被控车辆执行;
所述目标函数+约束条件模块,用来确定MPC控制器控制车辆进行轨迹跟踪时,计算下发的最优控制量的数值范围以及相隔控制时域内控制量的增量大小;
所述规划模块,用来根据车辆反馈的状态量及时发布局部规划路径轨迹给线性时变模型预测控制器;
所述状态估计模块,用来矫正理论建立的车辆动力学模型与实际车辆模型之间的模型误差,使理论模型逼近于实际车辆的动力学特性;
所述强化学习模块,用来根据车辆与参考轨迹之间的控制误差,及时调整线性时变模型预测控制器的误差权重参数,适配行驶道路与轨迹,提高控制精度。
2.一种基于强化学习的模型预测控制轨迹跟踪控制方法,其特征在于,包括以下步骤:
步骤1、获取车辆初始位置信息,规划模块规划局部参考轨迹,并将轨迹的对地坐标系绝对坐标值数据发送给线性时变模型预测控制器;
步骤2、线性时变模型预测控制器的优化求解模块根据目标函数以及约束条件求解出最优的车辆前轮转角控制量;
步骤3、将最优的车辆前轮转角控制量发送给被控车辆的执行器,车辆执行之后将下一时刻的状态信息反馈到状态估计模块、强化学习模块和规划模块;
步骤4、状态估计模块计算系统参考模型与车辆实际的模型之间的偏差,并将计算结果输入给线性时变模型预测控制器,以修正其预测模型的误差;
步骤5、规划模块根据下一时刻的状态信息重新规划车辆参考轨迹,强化学习模块根据实际的车辆轨迹状态与规划模块重新规划的参考轨迹之间的差值来调整线性时变模型预测控制器中的误差权重参数。
3.根据权利要求2所述一种基于强化学习的模型预测控制轨迹跟踪控制方法,其特征在于,所述步骤2中,目标函数的定义如下:
Figure FDA0003591660400000021
式中,Q表示输出权重的正定矩阵,R表示控制权重的正定矩阵,ρ是松弛因子权重,ε是松弛因子,
Figure FDA0003591660400000022
表示t时刻的状态量,ΔU(t)表示t时刻的控制增量,Np表示预测时域,Nc表示控制时域,η表示t时刻预测的t至t+i时刻之间的系统输出序列,Δu表示t时刻预测的t至t+i时刻之间的控制增量序列;
目标函数中的控制权重矩阵R是一个一维矩阵,输出权重矩阵Q是二维的矩阵,其形式如下:
Figure FDA0003591660400000023
式中,qlat表示横向误差权重,qψ表示横摆角误差权重。
4.根据权利要求2所述一种基于强化学习的模型预测控制轨迹跟踪控制方法,其特征在于,所述步骤2中,约束条件的定义如下:
(1)行车稳定性约束
Figure FDA0003591660400000031
Figure FDA0003591660400000032
式中,δ代表前轮转角变量,δH为良好附着系数下的前轮转角极限值,δL为低附着系数下的前轮转角极限值,lf表示车辆的前轴到车辆质心间的距离,lr表示车辆的后轴到车辆质心间的距离,βH表示在良好附着系数情况下的质心侧偏角,βL表示在低附着系数情况下的质心侧偏角;
(2)前轮摆动约束
Figure FDA0003591660400000033
式中,δmin为车辆前轮最小转角,δmax为车辆前轮最大转角,Δδmin为车辆前轮单位时间内最小的增量,Δδmax为车辆前轮单位时间内最大的增量,Δδ表示车辆前轮在单位时间内的增量;
(3)输出状态约束
Figure FDA0003591660400000034
式中,elat min为车辆最小的横向轨迹误差,elat max为车辆最大的横向轨迹误差,eψmin为车辆最小的横摆角误差,eψmax为车辆最大的横摆角误差,elat表示车辆的横向轨迹误差,eψ为车辆的横摆角误差。
5.根据权利要求2所述一种基于强化学习的模型预测控制轨迹跟踪控制方法,其特征在于,所述步骤2中,优化求解模块求解最优车辆前轮转角控制量的过程如下:
步骤2-1、定义矩阵Qe与Re
Figure FDA0003591660400000041
Figure FDA0003591660400000042
式中,
Figure FDA0003591660400000043
为克罗内积运算符,INp为维度为Np的单位矩阵,INc为维度为Nc的单位矩阵;
步骤22、将目标函数表达式改写为:
Figure FDA0003591660400000044
Figure FDA0003591660400000045
式中,Y表示t时刻预测的t至t+i时刻之间的系统输出序列矩阵,ΔU表示t时刻预测的t至t+i时刻之间的控制增量序列矩阵,
Figure FDA0003591660400000046
均为系数矩阵,Ht为表征Qe的过程矩阵,
Figure FDA0003591660400000047
为表征Re的过程矩阵,Pt为常数项;
步骤2-3、将MPC控制问题转换成二次规划问题,重写目标函数与约束条件如下:
Figure FDA0003591660400000051
st.ΔUmin≤ΔU(t)≤ΔUmmax
Umin≤U(t)≤Ummax
Figure FDA0003591660400000052
Figure FDA0003591660400000053
其中,ΔUmin表示车辆控制量变化的最小值,ΔUmax表示车辆控制量变化的最大值,ΔU(t)为车辆控制量变化值;Umin为车辆控制量的最小值,Umax为车辆控制量的最大值,U(t)为车辆控制量;Yc min为系统状态量的最小硬约束,Yc max为系统状态量的最大硬约束;Ysc min为系统状态量的最小软约束,Ysc max为系统状态量的最大软约束。
6.根据权利要求2所述一种基于强化学习的模型预测控制轨迹跟踪控制方法,其特征在于,所述步骤3中,控制器控制量U(t)为车辆前轮转角δ,状态量
Figure FDA0003591660400000054
包括车辆坐标XY值、车辆横向速度、车辆纵向速度、车辆横摆角、车辆横摆角速度,以及预测模型输出车辆横向误差与横摆角误差。
7.根据权利要求2所述一种基于强化学习的模型预测控制轨迹跟踪控制方法,其特征在于,所述步骤5中,强化学习模块的设计如下:
定义强化学习模块的观测状态为横摆角偏差、横向偏差,动作集为横向误差权重以及横摆角误差权重;
搭建Actor网络,Actor网络包括一个三维状态输入层,两个全连接层,一个二维动作输出层;其中状态输入层之后为第一隐藏层,由200个神经元组成,为全连接层;第一层之后为第二隐藏层,由128个神经元组成,也是全连接层;第二隐藏层之后连接二维动作输出层;
搭建Critic网络,Critic网络由两个输入层、两个全连接层和一个输出层组成;其中在二维状态输入层之后为第一隐藏层,由200个神经元组成,为全连接层;二维动作输入层与第一隐藏层连接到第二隐藏层,该层由128个神经元组成,也为全连接层;第二隐藏层一维连接输出层,输出层输出动作的价值函数;
Actor网络更新策略为确定性策略梯度加Ornstein-Uhlenbeck过程噪声,增加随机探索性;Critic网络基于价值函数,通过最小化loss函数更新Critic网络;
奖励函数设置分成横向误差范围与横摆角误差范围,横向误差范围分成小于0.05m、小于0.10m、小于0.15m、小于0.20m、小于0.30m、大于0.40m、大于1.00m、大于3.00m;横摆角误差范围分成小于0.05rad、小于0.10rad、小于0.20rad、小于0.25rad、大于0.30rad、大于0.40rad、大于0.50rad。
8.根据权利要求2所述一种基于强化学习的模型预测控制轨迹跟踪控制方法,其特征在于,所述步骤5中,强化学习模块神经网络的更新步骤如下:
步骤5-1、在观测状态st下,遵循加入噪声过程的策略选取动作at,进入到下一个时刻的状态st+1,并且得到奖励值Rt+1
步骤5-2、将序列(st,at,Rt+1,st+1)储存在经验回放池里,并随机采样n组序列(st,at,Rt+1,st+1);
步骤5-3、设置价值函数的目标值yt=r(st,at)+γQ′(st+1,μ′(st+1)|ω′),其中r表示t时刻的奖励,γ表示t时刻的折扣因子,Q′表示t+1时刻的Q值,μ′表示t+1时刻的目标actor网络,ω′表示t+1时刻的目标critic网络;
步骤5-4、通过最小化loss函数更新Critic网络,表达式如下:
Figure FDA0003591660400000071
步骤5-5、以采样梯度更新Actor网络,表达式如下:
Figure FDA0003591660400000072
步骤5-6、更新目标Actor网络与Critic网络:θQ′←τθQ+(1-τ)θQ′,θμ′←τθμ+(1-τ)θμ,τ<<1
其中,
Figure FDA0003591660400000073
表示当前Critic网络与另一个Critic网络β时之间损失函数的期望值,ω表示当前Critic网络的网络参数,yt表示另一个Critic网络β的计算价值,
Figure FDA0003591660400000074
表示当前actor网络的损失函数期望值,
Figure FDA0003591660400000075
表示当前价值的梯度,a=μ(st)表示基于当前st通过actor网络计算得到的动作值a,
Figure FDA0003591660400000076
表示当前actor网络选择动作的策略梯度,θQ′表示目标Critic网络,θμ表示目标Actor网络,θQ表示当前Critic网络,θμ表示当前Actor网络,τ为更新率。
CN202210379484.XA 2022-04-12 2022-04-12 基于强化学习的模型预测控制轨迹跟踪控制系统及方法方法 Pending CN114967676A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210379484.XA CN114967676A (zh) 2022-04-12 2022-04-12 基于强化学习的模型预测控制轨迹跟踪控制系统及方法方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210379484.XA CN114967676A (zh) 2022-04-12 2022-04-12 基于强化学习的模型预测控制轨迹跟踪控制系统及方法方法

Publications (1)

Publication Number Publication Date
CN114967676A true CN114967676A (zh) 2022-08-30

Family

ID=82977430

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210379484.XA Pending CN114967676A (zh) 2022-04-12 2022-04-12 基于强化学习的模型预测控制轨迹跟踪控制系统及方法方法

Country Status (1)

Country Link
CN (1) CN114967676A (zh)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115687764A (zh) * 2022-11-01 2023-02-03 北京百度网讯科技有限公司 车辆轨迹评估模型的训练方法、车辆轨迹评估方法和装置
CN116069041A (zh) * 2023-03-20 2023-05-05 北京集度科技有限公司 轨迹规划方法、装置、车辆及介质
CN116088307A (zh) * 2022-12-28 2023-05-09 中南大学 基于误差触发自适应稀疏辨识的多工况工业过程预测控制方法、装置、设备及介质
CN116300977A (zh) * 2023-05-22 2023-06-23 北京科技大学 一种依托强化学习的铰接车轨迹跟踪控制方法及装置
CN116540527A (zh) * 2023-05-12 2023-08-04 中国矿业大学 一种矿用卡车模型预测变速轨迹跟踪控制方法
CN116560241A (zh) * 2023-07-10 2023-08-08 北京科技大学 面向铰接车的显式循环模型预测控制轨迹跟踪方法和装置
CN117360544A (zh) * 2023-11-14 2024-01-09 海南大学 一种基于drl-mpc的自动驾驶车辆横向控制方法
CN117850244A (zh) * 2024-03-04 2024-04-09 海克斯康制造智能技术(青岛)有限公司 一种视觉测量控制系统及方法

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115687764A (zh) * 2022-11-01 2023-02-03 北京百度网讯科技有限公司 车辆轨迹评估模型的训练方法、车辆轨迹评估方法和装置
CN115687764B (zh) * 2022-11-01 2023-12-01 北京百度网讯科技有限公司 车辆轨迹评估模型的训练方法、车辆轨迹评估方法和装置
CN116088307B (zh) * 2022-12-28 2024-01-30 中南大学 基于误差触发自适应稀疏辨识的多工况工业过程预测控制方法、装置、设备及介质
CN116088307A (zh) * 2022-12-28 2023-05-09 中南大学 基于误差触发自适应稀疏辨识的多工况工业过程预测控制方法、装置、设备及介质
CN116069041A (zh) * 2023-03-20 2023-05-05 北京集度科技有限公司 轨迹规划方法、装置、车辆及介质
CN116540527A (zh) * 2023-05-12 2023-08-04 中国矿业大学 一种矿用卡车模型预测变速轨迹跟踪控制方法
CN116540527B (zh) * 2023-05-12 2024-02-06 中国矿业大学 一种矿用卡车模型预测变速轨迹跟踪控制方法
CN116300977A (zh) * 2023-05-22 2023-06-23 北京科技大学 一种依托强化学习的铰接车轨迹跟踪控制方法及装置
CN116300977B (zh) * 2023-05-22 2023-07-21 北京科技大学 一种依托强化学习的铰接车轨迹跟踪控制方法及装置
CN116560241A (zh) * 2023-07-10 2023-08-08 北京科技大学 面向铰接车的显式循环模型预测控制轨迹跟踪方法和装置
CN116560241B (zh) * 2023-07-10 2023-09-15 北京科技大学 面向铰接车的显式循环模型预测控制轨迹跟踪方法和装置
CN117360544A (zh) * 2023-11-14 2024-01-09 海南大学 一种基于drl-mpc的自动驾驶车辆横向控制方法
CN117850244A (zh) * 2024-03-04 2024-04-09 海克斯康制造智能技术(青岛)有限公司 一种视觉测量控制系统及方法
CN117850244B (zh) * 2024-03-04 2024-05-07 海克斯康制造智能技术(青岛)有限公司 一种视觉测量控制系统及方法

Similar Documents

Publication Publication Date Title
CN114967676A (zh) 基于强化学习的模型预测控制轨迹跟踪控制系统及方法方法
Chatzikomis et al. Comparison of path tracking and torque-vectoring controllers for autonomous electric vehicles
Xu et al. Preview path tracking control with delay compensation for autonomous vehicles
US20200278686A1 (en) Iterative Feedback Motion Planning
CN110262229B (zh) 基于mpc的车辆自适应路径追踪方法
Awad et al. Model predictive control with fuzzy logic switching for path tracking of autonomous vehicles
Lopez et al. Game-theoretic lane-changing decision making and payoff learning for autonomous vehicles
CN111538328B (zh) 一种用于自主驾驶车辆避障轨迹规划与跟踪控制的优先级分层预测控制方法
CN108791290A (zh) 基于在线增量式dhp的双车协同自适应巡航控制方法
CN110989597A (zh) 一种集成模糊神经网络的自适应路径跟踪方法
CN113467470B (zh) 一种无人自主小车的轨迹跟踪控制方法
CN112937571B (zh) 一种智能汽车轨迹跟踪控制方法及系统
Zhu et al. An adaptive path tracking method for autonomous land vehicle based on neural dynamic programming
Kebbati et al. Lateral control for autonomous wheeled vehicles: A technical review
CN114942642A (zh) 一种无人驾驶汽车轨迹规划方法
CN115202341B (zh) 一种自动驾驶车辆横向运动控制方法及系统
Chen et al. Rhonn modelling-enabled nonlinear predictive control for lateral dynamics stabilization of an in-wheel motor driven vehicle
Qie et al. An improved model predictive control-based trajectory planning method for automated driving vehicles under uncertainty environments
CN115598983A (zh) 一种考虑时变时延的无人车横纵向协同控制方法及装置
CN112462608B (zh) 一种高速列车离散滑模轨迹及速度跟踪控制方法
CN115167135A (zh) 反馈与模型前馈串级的无人驾驶车辆自趋优位姿控制系统
Chen et al. Path tracking controller design of automated parking systems via NMPC with an instructible solution
CN114779641A (zh) 基于新航向误差定义的环境自适应mpc路径追踪控制方法
Cai et al. Trajectory tracking control for autonomous parking based on adaptive reduced-horizon model predictive control
Zhang et al. Model predictive control for path following of autonomous vehicle considering model parameter uncertainties

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination