CN115489320A - 一种基于深度强化学习的列车受电弓智能控制方法 - Google Patents
一种基于深度强化学习的列车受电弓智能控制方法 Download PDFInfo
- Publication number
- CN115489320A CN115489320A CN202211162760.3A CN202211162760A CN115489320A CN 115489320 A CN115489320 A CN 115489320A CN 202211162760 A CN202211162760 A CN 202211162760A CN 115489320 A CN115489320 A CN 115489320A
- Authority
- CN
- China
- Prior art keywords
- pantograph
- network
- strategy
- train
- reinforcement learning
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000002787 reinforcement Effects 0.000 title claims abstract description 33
- 238000000034 method Methods 0.000 title claims abstract description 32
- 230000009471 action Effects 0.000 claims abstract description 32
- 230000001105 regulatory effect Effects 0.000 claims abstract description 16
- 230000006399 behavior Effects 0.000 claims abstract description 8
- 230000002452 interceptive effect Effects 0.000 claims abstract description 8
- 230000003993 interaction Effects 0.000 claims abstract description 4
- 238000011156 evaluation Methods 0.000 claims description 17
- 230000006870 function Effects 0.000 claims description 15
- 238000012549 training Methods 0.000 claims description 15
- 230000008569 process Effects 0.000 claims description 10
- 230000001133 acceleration Effects 0.000 claims description 3
- 230000001276 controlling effect Effects 0.000 claims description 3
- 230000009467 reduction Effects 0.000 claims description 3
- 238000005070 sampling Methods 0.000 claims description 3
- 230000000630 rising effect Effects 0.000 claims description 2
- 238000005299 abrasion Methods 0.000 abstract description 2
- 238000011217 control strategy Methods 0.000 description 18
- 230000000694 effects Effects 0.000 description 7
- 238000005457 optimization Methods 0.000 description 4
- OKTJSMMVPCPJKN-UHFFFAOYSA-N Carbon Chemical compound [C] OKTJSMMVPCPJKN-UHFFFAOYSA-N 0.000 description 3
- 229910052799 carbon Inorganic materials 0.000 description 3
- 238000010586 diagram Methods 0.000 description 3
- 238000011161 development Methods 0.000 description 2
- 238000012795 verification Methods 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000008878 coupling Effects 0.000 description 1
- 238000010168 coupling process Methods 0.000 description 1
- 238000005859 coupling reaction Methods 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 230000002035 prolonged effect Effects 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60L—PROPULSION OF ELECTRICALLY-PROPELLED VEHICLES; SUPPLYING ELECTRIC POWER FOR AUXILIARY EQUIPMENT OF ELECTRICALLY-PROPELLED VEHICLES; ELECTRODYNAMIC BRAKE SYSTEMS FOR VEHICLES IN GENERAL; MAGNETIC SUSPENSION OR LEVITATION FOR VEHICLES; MONITORING OPERATING VARIABLES OF ELECTRICALLY-PROPELLED VEHICLES; ELECTRIC SAFETY DEVICES FOR ELECTRICALLY-PROPELLED VEHICLES
- B60L5/00—Current collectors for power supply lines of electrically-propelled vehicles
- B60L5/18—Current collectors for power supply lines of electrically-propelled vehicles using bow-type collectors in contact with trolley wire
- B60L5/22—Supporting means for the contact bow
- B60L5/28—Devices for lifting and resetting the collector
- B60L5/32—Devices for lifting and resetting the collector using fluid pressure
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60L—PROPULSION OF ELECTRICALLY-PROPELLED VEHICLES; SUPPLYING ELECTRIC POWER FOR AUXILIARY EQUIPMENT OF ELECTRICALLY-PROPELLED VEHICLES; ELECTRODYNAMIC BRAKE SYSTEMS FOR VEHICLES IN GENERAL; MAGNETIC SUSPENSION OR LEVITATION FOR VEHICLES; MONITORING OPERATING VARIABLES OF ELECTRICALLY-PROPELLED VEHICLES; ELECTRIC SAFETY DEVICES FOR ELECTRICALLY-PROPELLED VEHICLES
- B60L5/00—Current collectors for power supply lines of electrically-propelled vehicles
- B60L5/18—Current collectors for power supply lines of electrically-propelled vehicles using bow-type collectors in contact with trolley wire
- B60L5/22—Supporting means for the contact bow
- B60L5/28—Devices for lifting and resetting the collector
Landscapes
- Engineering & Computer Science (AREA)
- Power Engineering (AREA)
- Transportation (AREA)
- Mechanical Engineering (AREA)
- Physics & Mathematics (AREA)
- Fluid Mechanics (AREA)
- Current-Collector Devices For Electrically Propelled Vehicles (AREA)
- Electric Propulsion And Braking For Vehicles (AREA)
Abstract
本发明公开了一种基于深度强化学习的列车受电弓智能控制方法,具体为:信息采集单元获取受电弓状态信息、列车运行信息和接触网信息;建立控制器控制动作与接触网交互样本数据集;基于所建立的交互样本数据集采用确定性策略梯度DDPG深度强化学习网络学习最优行为策略;根据最优行为策略作为控制器,将控制器补偿动作输出受电弓气阀板上的精密调压阀从而控制气囊压强。本发明能有效对高铁受电弓的精准、提前控制,保证受电弓和接触网的良好接触,提升列车的受流质量,降低接触部件的磨损、提升服役寿命。
Description
技术领域
本发明属于高速铁路受电弓的智能控制技术领域,尤其涉及一种基于深度强化学习的列车受电弓智能控制方法。
背景技术
高速铁路的快速发展,对牵引供电系统的运行安全性提出了更高的要求。随着我国铁路往重载化和高速化方向发展,受电弓与接触网系统的耦合性能随着振动加剧现象日益恶化。受电弓-接触网系统是一个复杂的动力学系统。传统的优化方式主要从受电弓结构优化、接触网性能优化和弓网参数匹配等角度出发,但是花费的经济成本巨大难以推动。受电弓的主动控制是一项弓网性能优化技术。当受电弓与接触网接触力过大时,会导致接触线和受电弓碳滑板过度磨损,影响产品服务寿命。当受电弓与接触网接触力过小时,会导致受电弓与接触网脱离接触,造成离线电弧,灼伤受电弓碳滑板,并且产生谐波影响电流质量。
发明内容
为实现对受电弓进行快速的智能控制,避免接触线和受电弓碳滑板过度磨损,提高列车受流质量,保障列车安全。本发明提供一种基于深度强化学习的列车受电弓智能控制方法。
本发明的一种基于深度强化学习的列车受电弓智能控制方法,控制系统包括气囊、供气源、精密调压阀、控制器和信息采集单元;供气源连接气囊用于提供稳定气压,精密调压阀用于精确控制气囊压强,控制单元连接精密调压阀用于输出控制信号,信息采集单元用于采集控制器决策所用信息。控制方法具体包括以下步骤:
步骤1:信息采集单元获取受电弓状态信息、列车运行信息和接触网信息。
步骤2:建立控制器控制动作与接触网交互样本数据集。
步骤3:基于步骤2所建立的交互样本数据集,采用深度强化学习网络学习最优行为策略。
步骤4:根据步骤3的最优行为策略作为控制器,将控制器补偿动作输出受电弓气阀板上的精密调压阀从而控制气囊压强。
进一步的,步骤1中的受电弓状态信息包括受电弓升弓高度、弓头垂向速度、弓头垂向加速度和开闭口方向;列车运行信息包括列车运行速度和运行方向;接触网信息包括接触网的刚度、跨度和吊弦分布信息。
进一步的,步骤2具体为:
步骤21:定义深度强化学习马尔可夫决策环境关键要素:状态空间,动作空间和奖励函数:
1)状态空间:状态空间包含所有步骤1的状态信息,其表示为:
S={s|st=(spantograph,scatenary,strain)}
其中,spantograph表示受电弓状态信息,scatenary表示接触网信息,strain表示列车运行信息。
2)动作空间:动作空间包含气囊气压变化的范围,其表示为:
A={a|amin≤at≤amax}
其中,amin表示气囊最小设定气压,amax表示气囊最大设定气压。
3)奖励函数:奖励函数用于奖励策略网络向最优策略收敛;
rt=-|Fr-Fpc(t)|
其中,Fr表示最优弓网接触力,Fpc(t)表示实际弓网接触力。
步骤22:以运行线路参数和受电弓参数建立虚拟仿真平台生成虚拟仿真样本库。
步骤23:步骤22样本获取过程如下:
深度强化学习网络获得当前时间步状态st并生成动作at给受电弓气阀板,气阀板执行控制后,深度强化学习网络获得奖励rt和下一时间步受电弓状态st+1。这产生样本(st,at,rt,st+1)并存储在数据库中,重复以上步骤直至训练结束。
步骤24:以运行线路参数和实际受电弓建立半实物半虚拟平台建立平台样本库,样本获取过程同步骤23。
步骤25:收集实际在线运营列车受电弓和实际铁路线路接触网交互数据建立实际样本库,样本获取过程同步骤23。
进一步的,步骤3具体为:
步骤31:利用步骤2产生的3个样本库,轮流训练深度强化学习网络。
步骤32:步骤31的深度强化学习网络具有1个策略网络和4个评估网络;策略网络用于输出最优动作,评估网络用于评估策略网络输出的策略是否优秀,并指导其生成最优策略。
步骤33:步骤32的策略网络输入状态信息,输出最优动作;使用π表示策略网络,φ表示策略网络的参数。从数据库中采样一批样本(st,at,rt,st+1)训练策略网络,其损失函数写为:
其中m表示采样样本的数量,Qi(st,at)i=1,2表示两个评估网络,st,at表示样本中状态和动作值。
步骤34:步骤33的评估网络输入状态信息和动作,输出状态动作价值,有两种策略网络,使用Q表示当前策略网络,使用θ表示其参数;使用Qtarget目标策略网络,使用表示其参数;每种网络训练两个网络用于减少方差和稳定训练,使用θ1和θ2表示。
当前评估网络参数的损失函数写为:
Q(st+1,at+1)=min(Q1(st+1,at+1),Q2(st+1,at+1))
Qtarget(st+1,at+1)=min(Q1 target(st+1,at+1),Q2 target(st+1,at+1))
目标策略网络通过当前评估网络参数定期软更新:
其中τ表示软更新的速度。
进一步的,步骤4具体为:接受控制器输出的设定气囊气压,并将设定气囊气压设定于受电弓气阀板上的精密调压阀从而控制气囊压强。
本发明的有益技术效果为:
1.本发明通过深度强化学习方法对高铁受电弓的精准、提前控制,保证受电弓和接触网的良好接触,提升列车的受流质量,降低接触部件的磨损、提升服役寿命。
2.本发明受电弓与接触网的长期运行特征,利用深度强化学习方法智能化地学习最优控制策略。
3.本发明方法能够有效利用的具体线路在线运行的数据样本,持续性地优化具体线路的控制策略,优化列车受流条件。
附图说明
图1为本发明方法处理过程框图。
图2为本发明马尔可夫决策过程环境定义。
图3为本发明马尔可夫决策过程。
图4为本发明的深度强化学习网络结构。
图5为本发明在建立虚拟仿真平台时所使用的受电弓模型。
图6为本发明在建立虚拟仿真平台时所使用的接触网模型。
图7为本发明建立平台样本库所建立的半实物半虚拟平台。
图8为本发明持续性地在线优化具体线路的控制方法,优化列车受流条件的流程图。
图9为本发明控制策略在所建立虚拟仿真平台时验证的控制效果。
图10为控制器输出的控制力时域和频域波形。
图11为本发明控制策略在所建立半实物半虚拟平台验证的控制效果。
图12为本发明控制策略在所建立半实物半虚拟平台验证的控制效果统计。
具体实施方式
下面结合附图和具体实施例对本发明做进一步详细说明。
本发明的一种基于深度强化学习的列车受电弓智能控制方法,控制系统包括气囊、供气源、精密调压阀、控制器和信息采集单元;供气源连接气囊用于提供稳定气压,精密调压阀用于精确控制气囊压强,控制单元连接精密调压阀用于输出控制信号,信息采集单元用于采集控制器决策所用信息。控制方法流程如图1所示,具体包括以下步骤:
步骤1:信息采集单元获取受电弓状态信息、列车运行信息和接触网信息。
受电弓状态信息包括受电弓升弓高度、弓头垂向速度、弓头垂向加速度和开闭口方向;列车运行信息包括列车运行速度和运行方向;接触网信息包括接触网的刚度、跨度和吊弦分布信息。
步骤2:建立控制器控制动作与接触网交互样本数据集。
步骤21:定义深度强化学习马尔可夫决策环境关键要素:状态空间,动作空间和奖励函数。
1)状态空间:状态空间包含所有步骤1的状态信息,其表示为:
S={s|st=(spantograph,scatenary,strain)}
其中,spantograph表示受电弓状态信息,scatenary表示接触网信息,strain表示列车运行信息。
2)动作空间:动作空间包含气囊气压变化的范围,其表示为:
A={a|amin≤at≤amax}
其中,amin表示气囊最小设定气压,amax表示气囊最大设定气压。
3)奖励函数:奖励函数用于奖励策略网络向最优策略收敛;
rt=-|Fr-Fpc(t)|
其中,Fr表示最优弓网接触力,Fpc(t)表示实际弓网接触力。
图2为本发明所述的马尔可夫决策过程环境定义,图3本发明所述的马尔可夫决策过程。
步骤22:以运行线路参数和受电弓参数建立虚拟仿真平台生成虚拟仿真样本库。
步骤23:以运行线路参数和实际受电弓建立半实物半虚拟平台建立平台样本库。
步骤24:收集实际在线运营列车受电弓和实际铁路线路接触网交互数据建立实际样本库。
步骤3:基于步骤2所建立的交互样本数据集,采用深度强化学习网络学习最优行为策略。
步骤31:利用步骤2产生的3个样本库,轮流训练深度强化学习网络。
步骤32:如图4所示,步骤31的深度强化学习网络具有1个策略网络和4个评估网络;策略网络用于输出最优动作,评估网络用于评估策略网络输出的策略是否优秀,并指导其生成最优策略。
步骤33:步骤32的策略网络输入状态信息,输出最优动作;使用π表示策略网络,φ表示策略网络的参数。从数据库中采样一批样本(st,at,rt,st+1)训练策略网络,其损失函数写为:
其中,m表示采样样本的数量,Qi(st,at)i=1,2表示两个评估网络,st,at表示样本中状态和动作值。
步骤34:步骤33的评估网络输入状态信息和动作,输出状态动作价值,有两种策略网络,使用Q表示当前策略网络,使用θ表示其参数;使用Qtarget目标策略网络,使用表示其参数;每种网络训练两个网络用于减少方差和稳定训练,使用θ1和θ2表示;
当前评估网络参数的损失函数写为:
Q(st+1,at+1)=min(Q1(st+1,at+1),Q2(st+1,at+1))
Qtarget(st+1,at+1)=min(Q1 target(st+1,at+1),Q2 target(st+1,at+1))
目标策略网络通过当前评估网络参数定期软更新:
其中τ表示软更新的速度。
步骤4:根据步骤3的最优行为策略作为控制器,将控制器补偿动作输出受电弓气阀板上的精密调压阀从而控制气囊压强。
接受控制器输出的设定气囊气压,并将设定气囊气压设定于受电弓气阀板上的精密调压阀从而控制气囊压强。
实施案例:
1、数据样本集建立。如图5、6所示,利用模型建立虚拟仿真平台,收集虚拟仿真样本库。如图7所示,以运行线路参数和实际受电弓建立半实物半虚拟平台,收集平台样本库。收集实际在线运营列车受电弓和实际铁路线路接触网交互数据建立实际样本库。
2、虚拟仿真平台控制策略训练。根据如上建立的数据样本,利用深度强化学习方法训练最优控制策略。
3、半实物半虚拟平台控制策略优化。将步骤2所训练的控制策略部署至半实物半虚拟平台,并利用半实物半虚拟平台所产生的平台样本库继续训练最优控制策略。
4、控制策略在线运行微调。控制策略部署至实际线路后,根据运行数据建立实际样本库。控制策略从实际样本库中学习经验,并逐步微调控制策略,直至生成最优控制策略。整个控制策略训练流程图如图8所示。本发明控制策略在所建立虚拟仿真平台时验证的控制效果如图9所示,控制器输出的控制力时域和频域波形如图10所示。本发明控制策略在所建立半实物半虚拟平台验证的控制效果如图11所示,控制效果统计如图12所示。
Claims (5)
1.一种基于深度强化学习的列车受电弓智能控制方法,其特征在于,控制系统包括气囊、供气源、精密调压阀、控制器和信息采集单元;供气源连接气囊用于提供稳定气压,精密调压阀用于精确控制气囊压强,控制单元连接精密调压阀用于输出控制信号,信息采集单元用于采集控制器决策所用信息;控制方法具体包括以下步骤:
步骤1:信息采集单元获取受电弓状态信息、列车运行信息和接触网信息;
步骤2:建立控制器控制动作与接触网交互样本数据集;
步骤3:基于步骤2所建立的交互样本数据集,采用深度强化学习网络学习最优行为策略;
步骤4:根据步骤3的最优行为策略作为控制器,将控制器补偿动作输出受电弓气阀板上的精密调压阀从而控制气囊压强。
2.根据权利要求1所述的一种基于深度强化学习的列车受电弓智能控制方法,其特征在于,所述步骤1中的受电弓状态信息包括受电弓升弓高度、弓头垂向速度、弓头垂向加速度和开闭口方向;列车运行信息包括列车运行速度和运行方向;接触网信息包括接触网的刚度、跨度和吊弦分布信息。
3.根据权利要求2所述的一种基于深度强化学习的列车受电弓智能控制方法,其特征在于,所述步骤2具体为:
步骤21:定义深度强化学习马尔可夫决策环境关键要素:状态空间,动作空间和奖励函数:
1)状态空间:状态空间包含所有步骤1的状态信息,其表示为:
S={s|st=(spantograph,scatenary,strain)}
其中,spantograph表示受电弓状态信息,scatenary表示接触网信息,strain表示列车运行信息;
2)动作空间:动作空间包含气囊气压变化的范围,其表示为:
A={a|amin≤at≤amax}
其中,amin表示气囊最小设定气压,amax表示气囊最大设定气压;
3)奖励函数:奖励函数用于奖励策略网络向最优策略收敛;
rt=-|Fr-Fpc(t)|
其中,Fr表示最优弓网接触力,Fpc(t)表示实际弓网接触力;
步骤22:以运行线路参数和受电弓参数建立虚拟仿真平台生成虚拟仿真样本库;
步骤23:步骤22样本获取过程如下:深度强化学习网络获得当前时间步状态st并生成动作at给受电弓气阀板,气阀板执行控制后,深度强化学习网络获得奖励rt和下一时间步受电弓状态st+1;这产生样本(st,at,rt,st+1)并存储在数据库中,重复以上步骤直至训练结束;
步骤24:以运行线路参数和实际受电弓建立半实物半虚拟平台建立平台样本库,样本获取过程同步骤23;
步骤25:收集实际在线运营列车受电弓和实际铁路线路接触网交互数据建立实际样本库,样本获取过程同步骤23。
4.根据权利要求3所述的一种基于深度强化学习的列车受电弓智能控制方法,其特征在于,所述步骤3具体为:
步骤31:利用步骤2产生的3个样本库,轮流训练深度强化学习网络;
步骤32:步骤31的深度强化学习网络具有1个策略网络和4个评估网络;策略网络用于输出最优动作,评估网络用于评估策略网络输出的策略是否优秀,并指导其生成最优策略;策略网络和评估网络使用数据库中的样本训练;
步骤33:步骤32的策略网络输入状态信息,输出最优动作;使用π表示策略网络,φ表示策略网络的参数。从数据库中采样一批样本(st,at,rt,st+1)训练策略网络,其损失函数写为:
其中,m表示采样样本的数量,Qi(st,at)i=1,2表示两个评估网络,st,at表示样本中状态和动作值;
步骤34:步骤33的评估网络输入状态信息和动作,输出状态动作价值,有两种策略网络,使用Q表示当前策略网络,使用θ表示其参数;使用Qtarget目标策略网络,使用表示其参数;每种网络训练两个网络用于减少方差和稳定训练,使用θ1和θ2表示;
当前评估网络参数的损失函数写为:
Q(st+1,at+1)=min(Q1(st+1,at+1),Q2(st+1,at+1))
Qtarget(st+1,at+1)=min(Q1 target(st+1,at+1),Q2 target(st+1,at+1))
目标策略网络通过当前评估网络参数定期软更新:
其中τ表示软更新的速度。
5.根据权利要求4所述的一种基于深度强化学习的列车受电弓智能控制方法,其特征在于,所述步骤4具体为:接受控制器输出的设定气囊气压,并将设定气囊气压设定于受电弓气阀板上的精密调压阀从而控制气囊压强。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211162760.3A CN115489320B (zh) | 2022-09-23 | 2022-09-23 | 一种基于深度强化学习的列车受电弓智能控制方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211162760.3A CN115489320B (zh) | 2022-09-23 | 2022-09-23 | 一种基于深度强化学习的列车受电弓智能控制方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN115489320A true CN115489320A (zh) | 2022-12-20 |
CN115489320B CN115489320B (zh) | 2024-06-18 |
Family
ID=84470755
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202211162760.3A Active CN115489320B (zh) | 2022-09-23 | 2022-09-23 | 一种基于深度强化学习的列车受电弓智能控制方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115489320B (zh) |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106476629A (zh) * | 2016-12-23 | 2017-03-08 | 中南大学 | 一种基于empc的高速铁路受电弓的主动控制方法及系统 |
CN107895960A (zh) * | 2017-11-01 | 2018-04-10 | 北京交通大学长三角研究院 | 基于强化学习的城轨交通地面式超级电容储能系统能量管理方法 |
CN110850716A (zh) * | 2019-11-13 | 2020-02-28 | 兰州交通大学 | 基于接触网先验信息的受电弓神经网络滑模变结构主动控制方法 |
CN111934335A (zh) * | 2020-08-18 | 2020-11-13 | 华北电力大学 | 一种基于深度强化学习的集群电动汽车充电行为优化方法 |
US20200372410A1 (en) * | 2019-05-23 | 2020-11-26 | Uber Technologies, Inc. | Model based reinforcement learning based on generalized hidden parameter markov decision processes |
CN112116156A (zh) * | 2020-09-18 | 2020-12-22 | 中南大学 | 基于深度强化学习的混动列车的能量管理方法及系统 |
WO2021103834A1 (zh) * | 2019-11-27 | 2021-06-03 | 初速度(苏州)科技有限公司 | 换道决策模型生成方法和无人车换道决策方法及装置 |
WO2021103929A1 (zh) * | 2019-11-29 | 2021-06-03 | 比亚迪股份有限公司 | 车辆供电装置 |
DE102020200449A1 (de) * | 2020-01-15 | 2021-07-15 | Volkswagen Aktiengesellschaft | Straßengeführtes Kraftfahrzeug und Verfahren zum Anbügeln eines Stromabnehmers eines straßengeführten Kraftfahrzeuges |
CN114880770A (zh) * | 2022-04-29 | 2022-08-09 | 西南交通大学 | 一种基于参考深度强化学习的列车协同运行控制方法 |
-
2022
- 2022-09-23 CN CN202211162760.3A patent/CN115489320B/zh active Active
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106476629A (zh) * | 2016-12-23 | 2017-03-08 | 中南大学 | 一种基于empc的高速铁路受电弓的主动控制方法及系统 |
CN107895960A (zh) * | 2017-11-01 | 2018-04-10 | 北京交通大学长三角研究院 | 基于强化学习的城轨交通地面式超级电容储能系统能量管理方法 |
US20200372410A1 (en) * | 2019-05-23 | 2020-11-26 | Uber Technologies, Inc. | Model based reinforcement learning based on generalized hidden parameter markov decision processes |
CN110850716A (zh) * | 2019-11-13 | 2020-02-28 | 兰州交通大学 | 基于接触网先验信息的受电弓神经网络滑模变结构主动控制方法 |
WO2021103834A1 (zh) * | 2019-11-27 | 2021-06-03 | 初速度(苏州)科技有限公司 | 换道决策模型生成方法和无人车换道决策方法及装置 |
WO2021103929A1 (zh) * | 2019-11-29 | 2021-06-03 | 比亚迪股份有限公司 | 车辆供电装置 |
DE102020200449A1 (de) * | 2020-01-15 | 2021-07-15 | Volkswagen Aktiengesellschaft | Straßengeführtes Kraftfahrzeug und Verfahren zum Anbügeln eines Stromabnehmers eines straßengeführten Kraftfahrzeuges |
CN111934335A (zh) * | 2020-08-18 | 2020-11-13 | 华北电力大学 | 一种基于深度强化学习的集群电动汽车充电行为优化方法 |
CN112116156A (zh) * | 2020-09-18 | 2020-12-22 | 中南大学 | 基于深度强化学习的混动列车的能量管理方法及系统 |
CN114880770A (zh) * | 2022-04-29 | 2022-08-09 | 西南交通大学 | 一种基于参考深度强化学习的列车协同运行控制方法 |
Non-Patent Citations (5)
Title |
---|
ZHAO XU;YANG SONG;ZHIGANG LIU: "Effective Measures to Improve Current Collection Quality for Double Pantographs and Catenary Based on Wave Propagation Analysis", IEEE TRANSACTIONS ON VEHICULAR TECHNOLOGY, vol. 69, no. 6, 31 December 2020 (2020-12-31) * |
李志航;: "基于深度递归强化学习的无人自主驾驶策略研究", 工业控制计算机, no. 04, 25 April 2020 (2020-04-25) * |
苗海涛;张卫华;梅桂明;李文韬;: "基于两级气压伺服系统的高速受电弓主动控制研究", 机械, no. 08, 25 August 2012 (2012-08-25) * |
鲁小兵;刘志刚;: "高速铁路受电弓主动控制算法适用性研究", 西南交通大学学报, no. 02, 15 April 2015 (2015-04-15) * |
鲁小兵;刘志刚;宋洋;: "基于磁流变阻尼器的受电弓主动控制分析与验证", 仪器仪表学报, no. 01, 15 January 2015 (2015-01-15) * |
Also Published As
Publication number | Publication date |
---|---|
CN115489320B (zh) | 2024-06-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Tang et al. | Robust stochastic control for high-speed trains with nonlinearity, parametric uncertainty, and multiple time-varying delays | |
CN110850716B (zh) | 基于接触网先验信息的受电弓神经网络滑模变结构主动控制方法 | |
CN111237988B (zh) | 地铁车载空调机组控制方法及系统 | |
CN106503362A (zh) | 一种高速受电弓多目标鲁棒h∞控制器设计方法 | |
CN112541228B (zh) | 接触力长短时记忆网络预测的受电弓主动控制方法 | |
CN111555297B (zh) | 一种具有三态能源单元的统一时间尺度电压控制方法 | |
Wang et al. | Deep reinforcement learning based active pantograph control strategy in high-speed railway | |
CN112528565B (zh) | 一种考虑电弧随机特性的弓网电弧建模方法和仿真回路 | |
CN112249099A (zh) | 一种基于预测控制的高速列车节能运行曲线在线计算方法 | |
CN115489320A (zh) | 一种基于深度强化学习的列车受电弓智能控制方法 | |
KR20210066534A (ko) | 에너지 사용량 데이터의 비지도 학습 기반 부하 모니터링 방법 | |
CN112158233A (zh) | 基于自学习的ato控车方法及装置 | |
Song et al. | Robust adaptive contact force control of pantograph–catenary system: An accelerated output feedback approach | |
CN110443498A (zh) | 基于自适应学习的仿真培训智慧评价系统 | |
CN112947056A (zh) | 基于igwo-bp-pid的磁浮列车位移速度跟踪控制方法 | |
CN106842924B (zh) | 基于多工况anfis模型的动车组优化控制方法 | |
CN111612212A (zh) | 一种磨煤机煤粉细度的在线优化模型更新方法 | |
CN116316755A (zh) | 一种基于强化学习的电气化铁路储能系统能量管理方法 | |
CN115056825A (zh) | 自适应性能的列车加速方法 | |
CN116577991A (zh) | 一种基于元强化学习的列车受电弓自适应控制方法 | |
CN116027667A (zh) | 一种基于深度强化学习的重联-动车组双弓协同控制方法 | |
Wang et al. | A Hierarchical Control Strategy for Active Pantograph in High-speed Railway | |
CN108319149B (zh) | 一种具有自学习控制模式的电磁开关智慧控制系统 | |
Yin et al. | An intelligent train operation algorithm via gradient descent method and driver's experience | |
CN116599061B (zh) | 一种基于强化学习的电网运行控制方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant |