CN115489320A - 一种基于深度强化学习的列车受电弓智能控制方法 - Google Patents

一种基于深度强化学习的列车受电弓智能控制方法 Download PDF

Info

Publication number
CN115489320A
CN115489320A CN202211162760.3A CN202211162760A CN115489320A CN 115489320 A CN115489320 A CN 115489320A CN 202211162760 A CN202211162760 A CN 202211162760A CN 115489320 A CN115489320 A CN 115489320A
Authority
CN
China
Prior art keywords
pantograph
network
strategy
train
reinforcement learning
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202211162760.3A
Other languages
English (en)
Other versions
CN115489320B (zh
Inventor
刘志刚
王惠
韩志伟
宋洋
段甫川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Southwest Jiaotong University
Original Assignee
Southwest Jiaotong University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Southwest Jiaotong University filed Critical Southwest Jiaotong University
Priority to CN202211162760.3A priority Critical patent/CN115489320B/zh
Publication of CN115489320A publication Critical patent/CN115489320A/zh
Application granted granted Critical
Publication of CN115489320B publication Critical patent/CN115489320B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60LPROPULSION OF ELECTRICALLY-PROPELLED VEHICLES; SUPPLYING ELECTRIC POWER FOR AUXILIARY EQUIPMENT OF ELECTRICALLY-PROPELLED VEHICLES; ELECTRODYNAMIC BRAKE SYSTEMS FOR VEHICLES IN GENERAL; MAGNETIC SUSPENSION OR LEVITATION FOR VEHICLES; MONITORING OPERATING VARIABLES OF ELECTRICALLY-PROPELLED VEHICLES; ELECTRIC SAFETY DEVICES FOR ELECTRICALLY-PROPELLED VEHICLES
    • B60L5/00Current collectors for power supply lines of electrically-propelled vehicles
    • B60L5/18Current collectors for power supply lines of electrically-propelled vehicles using bow-type collectors in contact with trolley wire
    • B60L5/22Supporting means for the contact bow
    • B60L5/28Devices for lifting and resetting the collector
    • B60L5/32Devices for lifting and resetting the collector using fluid pressure
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60LPROPULSION OF ELECTRICALLY-PROPELLED VEHICLES; SUPPLYING ELECTRIC POWER FOR AUXILIARY EQUIPMENT OF ELECTRICALLY-PROPELLED VEHICLES; ELECTRODYNAMIC BRAKE SYSTEMS FOR VEHICLES IN GENERAL; MAGNETIC SUSPENSION OR LEVITATION FOR VEHICLES; MONITORING OPERATING VARIABLES OF ELECTRICALLY-PROPELLED VEHICLES; ELECTRIC SAFETY DEVICES FOR ELECTRICALLY-PROPELLED VEHICLES
    • B60L5/00Current collectors for power supply lines of electrically-propelled vehicles
    • B60L5/18Current collectors for power supply lines of electrically-propelled vehicles using bow-type collectors in contact with trolley wire
    • B60L5/22Supporting means for the contact bow
    • B60L5/28Devices for lifting and resetting the collector

Landscapes

  • Engineering & Computer Science (AREA)
  • Power Engineering (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Physics & Mathematics (AREA)
  • Fluid Mechanics (AREA)
  • Current-Collector Devices For Electrically Propelled Vehicles (AREA)
  • Electric Propulsion And Braking For Vehicles (AREA)

Abstract

本发明公开了一种基于深度强化学习的列车受电弓智能控制方法,具体为:信息采集单元获取受电弓状态信息、列车运行信息和接触网信息;建立控制器控制动作与接触网交互样本数据集;基于所建立的交互样本数据集采用确定性策略梯度DDPG深度强化学习网络学习最优行为策略;根据最优行为策略作为控制器,将控制器补偿动作输出受电弓气阀板上的精密调压阀从而控制气囊压强。本发明能有效对高铁受电弓的精准、提前控制,保证受电弓和接触网的良好接触,提升列车的受流质量,降低接触部件的磨损、提升服役寿命。

Description

一种基于深度强化学习的列车受电弓智能控制方法
技术领域
本发明属于高速铁路受电弓的智能控制技术领域,尤其涉及一种基于深度强化学习的列车受电弓智能控制方法。
背景技术
高速铁路的快速发展,对牵引供电系统的运行安全性提出了更高的要求。随着我国铁路往重载化和高速化方向发展,受电弓与接触网系统的耦合性能随着振动加剧现象日益恶化。受电弓-接触网系统是一个复杂的动力学系统。传统的优化方式主要从受电弓结构优化、接触网性能优化和弓网参数匹配等角度出发,但是花费的经济成本巨大难以推动。受电弓的主动控制是一项弓网性能优化技术。当受电弓与接触网接触力过大时,会导致接触线和受电弓碳滑板过度磨损,影响产品服务寿命。当受电弓与接触网接触力过小时,会导致受电弓与接触网脱离接触,造成离线电弧,灼伤受电弓碳滑板,并且产生谐波影响电流质量。
发明内容
为实现对受电弓进行快速的智能控制,避免接触线和受电弓碳滑板过度磨损,提高列车受流质量,保障列车安全。本发明提供一种基于深度强化学习的列车受电弓智能控制方法。
本发明的一种基于深度强化学习的列车受电弓智能控制方法,控制系统包括气囊、供气源、精密调压阀、控制器和信息采集单元;供气源连接气囊用于提供稳定气压,精密调压阀用于精确控制气囊压强,控制单元连接精密调压阀用于输出控制信号,信息采集单元用于采集控制器决策所用信息。控制方法具体包括以下步骤:
步骤1:信息采集单元获取受电弓状态信息、列车运行信息和接触网信息。
步骤2:建立控制器控制动作与接触网交互样本数据集。
步骤3:基于步骤2所建立的交互样本数据集,采用深度强化学习网络学习最优行为策略。
步骤4:根据步骤3的最优行为策略作为控制器,将控制器补偿动作输出受电弓气阀板上的精密调压阀从而控制气囊压强。
进一步的,步骤1中的受电弓状态信息包括受电弓升弓高度、弓头垂向速度、弓头垂向加速度和开闭口方向;列车运行信息包括列车运行速度和运行方向;接触网信息包括接触网的刚度、跨度和吊弦分布信息。
进一步的,步骤2具体为:
步骤21:定义深度强化学习马尔可夫决策环境关键要素:状态空间,动作空间和奖励函数:
1)状态空间:状态空间包含所有步骤1的状态信息,其表示为:
S={s|st=(spantograph,scatenary,strain)}
其中,spantograph表示受电弓状态信息,scatenary表示接触网信息,strain表示列车运行信息。
2)动作空间:动作空间包含气囊气压变化的范围,其表示为:
A={a|amin≤at≤amax}
其中,amin表示气囊最小设定气压,amax表示气囊最大设定气压。
3)奖励函数:奖励函数用于奖励策略网络向最优策略收敛;
rt=-|Fr-Fpc(t)|
其中,Fr表示最优弓网接触力,Fpc(t)表示实际弓网接触力。
步骤22:以运行线路参数和受电弓参数建立虚拟仿真平台生成虚拟仿真样本库。
步骤23:步骤22样本获取过程如下:
深度强化学习网络获得当前时间步状态st并生成动作at给受电弓气阀板,气阀板执行控制后,深度强化学习网络获得奖励rt和下一时间步受电弓状态st+1。这产生样本(st,at,rt,st+1)并存储在数据库中,重复以上步骤直至训练结束。
步骤24:以运行线路参数和实际受电弓建立半实物半虚拟平台建立平台样本库,样本获取过程同步骤23。
步骤25:收集实际在线运营列车受电弓和实际铁路线路接触网交互数据建立实际样本库,样本获取过程同步骤23。
进一步的,步骤3具体为:
步骤31:利用步骤2产生的3个样本库,轮流训练深度强化学习网络。
步骤32:步骤31的深度强化学习网络具有1个策略网络和4个评估网络;策略网络用于输出最优动作,评估网络用于评估策略网络输出的策略是否优秀,并指导其生成最优策略。
步骤33:步骤32的策略网络输入状态信息,输出最优动作;使用π表示策略网络,φ表示策略网络的参数。从数据库中采样一批样本(st,at,rt,st+1)训练策略网络,其损失函数写为:
Figure BDA0003860835350000021
其中m表示采样样本的数量,Qi(st,at)i=1,2表示两个评估网络,st,at表示样本中状态和动作值。
步骤34:步骤33的评估网络输入状态信息和动作,输出状态动作价值,有两种策略网络,使用Q表示当前策略网络,使用θ表示其参数;使用Qtarget目标策略网络,使用
Figure BDA0003860835350000033
表示其参数;每种网络训练两个网络用于减少方差和稳定训练,使用θ1和θ2表示。
当前评估网络参数的损失函数写为:
Figure BDA0003860835350000031
Q(st+1,at+1)=min(Q1(st+1,at+1),Q2(st+1,at+1))
Qtarget(st+1,at+1)=min(Q1 target(st+1,at+1),Q2 target(st+1,at+1))
目标策略网络通过当前评估网络参数定期软更新:
Figure BDA0003860835350000032
其中τ表示软更新的速度。
进一步的,步骤4具体为:接受控制器输出的设定气囊气压,并将设定气囊气压设定于受电弓气阀板上的精密调压阀从而控制气囊压强。
本发明的有益技术效果为:
1.本发明通过深度强化学习方法对高铁受电弓的精准、提前控制,保证受电弓和接触网的良好接触,提升列车的受流质量,降低接触部件的磨损、提升服役寿命。
2.本发明受电弓与接触网的长期运行特征,利用深度强化学习方法智能化地学习最优控制策略。
3.本发明方法能够有效利用的具体线路在线运行的数据样本,持续性地优化具体线路的控制策略,优化列车受流条件。
附图说明
图1为本发明方法处理过程框图。
图2为本发明马尔可夫决策过程环境定义。
图3为本发明马尔可夫决策过程。
图4为本发明的深度强化学习网络结构。
图5为本发明在建立虚拟仿真平台时所使用的受电弓模型。
图6为本发明在建立虚拟仿真平台时所使用的接触网模型。
图7为本发明建立平台样本库所建立的半实物半虚拟平台。
图8为本发明持续性地在线优化具体线路的控制方法,优化列车受流条件的流程图。
图9为本发明控制策略在所建立虚拟仿真平台时验证的控制效果。
图10为控制器输出的控制力时域和频域波形。
图11为本发明控制策略在所建立半实物半虚拟平台验证的控制效果。
图12为本发明控制策略在所建立半实物半虚拟平台验证的控制效果统计。
具体实施方式
下面结合附图和具体实施例对本发明做进一步详细说明。
本发明的一种基于深度强化学习的列车受电弓智能控制方法,控制系统包括气囊、供气源、精密调压阀、控制器和信息采集单元;供气源连接气囊用于提供稳定气压,精密调压阀用于精确控制气囊压强,控制单元连接精密调压阀用于输出控制信号,信息采集单元用于采集控制器决策所用信息。控制方法流程如图1所示,具体包括以下步骤:
步骤1:信息采集单元获取受电弓状态信息、列车运行信息和接触网信息。
受电弓状态信息包括受电弓升弓高度、弓头垂向速度、弓头垂向加速度和开闭口方向;列车运行信息包括列车运行速度和运行方向;接触网信息包括接触网的刚度、跨度和吊弦分布信息。
步骤2:建立控制器控制动作与接触网交互样本数据集。
步骤21:定义深度强化学习马尔可夫决策环境关键要素:状态空间,动作空间和奖励函数。
1)状态空间:状态空间包含所有步骤1的状态信息,其表示为:
S={s|st=(spantograph,scatenary,strain)}
其中,spantograph表示受电弓状态信息,scatenary表示接触网信息,strain表示列车运行信息。
2)动作空间:动作空间包含气囊气压变化的范围,其表示为:
A={a|amin≤at≤amax}
其中,amin表示气囊最小设定气压,amax表示气囊最大设定气压。
3)奖励函数:奖励函数用于奖励策略网络向最优策略收敛;
rt=-|Fr-Fpc(t)|
其中,Fr表示最优弓网接触力,Fpc(t)表示实际弓网接触力。
图2为本发明所述的马尔可夫决策过程环境定义,图3本发明所述的马尔可夫决策过程。
步骤22:以运行线路参数和受电弓参数建立虚拟仿真平台生成虚拟仿真样本库。
步骤23:以运行线路参数和实际受电弓建立半实物半虚拟平台建立平台样本库。
步骤24:收集实际在线运营列车受电弓和实际铁路线路接触网交互数据建立实际样本库。
步骤3:基于步骤2所建立的交互样本数据集,采用深度强化学习网络学习最优行为策略。
步骤31:利用步骤2产生的3个样本库,轮流训练深度强化学习网络。
步骤32:如图4所示,步骤31的深度强化学习网络具有1个策略网络和4个评估网络;策略网络用于输出最优动作,评估网络用于评估策略网络输出的策略是否优秀,并指导其生成最优策略。
步骤33:步骤32的策略网络输入状态信息,输出最优动作;使用π表示策略网络,φ表示策略网络的参数。从数据库中采样一批样本(st,at,rt,st+1)训练策略网络,其损失函数写为:
Figure BDA0003860835350000053
其中,m表示采样样本的数量,Qi(st,at)i=1,2表示两个评估网络,st,at表示样本中状态和动作值。
步骤34:步骤33的评估网络输入状态信息和动作,输出状态动作价值,有两种策略网络,使用Q表示当前策略网络,使用θ表示其参数;使用Qtarget目标策略网络,使用
Figure BDA0003860835350000054
表示其参数;每种网络训练两个网络用于减少方差和稳定训练,使用θ1和θ2表示;
当前评估网络参数的损失函数写为:
Figure BDA0003860835350000051
Q(st+1,at+1)=min(Q1(st+1,at+1),Q2(st+1,at+1))
Qtarget(st+1,at+1)=min(Q1 target(st+1,at+1),Q2 target(st+1,at+1))
目标策略网络通过当前评估网络参数定期软更新:
Figure BDA0003860835350000052
其中τ表示软更新的速度。
步骤4:根据步骤3的最优行为策略作为控制器,将控制器补偿动作输出受电弓气阀板上的精密调压阀从而控制气囊压强。
接受控制器输出的设定气囊气压,并将设定气囊气压设定于受电弓气阀板上的精密调压阀从而控制气囊压强。
实施案例:
1、数据样本集建立。如图5、6所示,利用模型建立虚拟仿真平台,收集虚拟仿真样本库。如图7所示,以运行线路参数和实际受电弓建立半实物半虚拟平台,收集平台样本库。收集实际在线运营列车受电弓和实际铁路线路接触网交互数据建立实际样本库。
2、虚拟仿真平台控制策略训练。根据如上建立的数据样本,利用深度强化学习方法训练最优控制策略。
3、半实物半虚拟平台控制策略优化。将步骤2所训练的控制策略部署至半实物半虚拟平台,并利用半实物半虚拟平台所产生的平台样本库继续训练最优控制策略。
4、控制策略在线运行微调。控制策略部署至实际线路后,根据运行数据建立实际样本库。控制策略从实际样本库中学习经验,并逐步微调控制策略,直至生成最优控制策略。整个控制策略训练流程图如图8所示。本发明控制策略在所建立虚拟仿真平台时验证的控制效果如图9所示,控制器输出的控制力时域和频域波形如图10所示。本发明控制策略在所建立半实物半虚拟平台验证的控制效果如图11所示,控制效果统计如图12所示。

Claims (5)

1.一种基于深度强化学习的列车受电弓智能控制方法,其特征在于,控制系统包括气囊、供气源、精密调压阀、控制器和信息采集单元;供气源连接气囊用于提供稳定气压,精密调压阀用于精确控制气囊压强,控制单元连接精密调压阀用于输出控制信号,信息采集单元用于采集控制器决策所用信息;控制方法具体包括以下步骤:
步骤1:信息采集单元获取受电弓状态信息、列车运行信息和接触网信息;
步骤2:建立控制器控制动作与接触网交互样本数据集;
步骤3:基于步骤2所建立的交互样本数据集,采用深度强化学习网络学习最优行为策略;
步骤4:根据步骤3的最优行为策略作为控制器,将控制器补偿动作输出受电弓气阀板上的精密调压阀从而控制气囊压强。
2.根据权利要求1所述的一种基于深度强化学习的列车受电弓智能控制方法,其特征在于,所述步骤1中的受电弓状态信息包括受电弓升弓高度、弓头垂向速度、弓头垂向加速度和开闭口方向;列车运行信息包括列车运行速度和运行方向;接触网信息包括接触网的刚度、跨度和吊弦分布信息。
3.根据权利要求2所述的一种基于深度强化学习的列车受电弓智能控制方法,其特征在于,所述步骤2具体为:
步骤21:定义深度强化学习马尔可夫决策环境关键要素:状态空间,动作空间和奖励函数:
1)状态空间:状态空间包含所有步骤1的状态信息,其表示为:
S={s|st=(spantograph,scatenary,strain)}
其中,spantograph表示受电弓状态信息,scatenary表示接触网信息,strain表示列车运行信息;
2)动作空间:动作空间包含气囊气压变化的范围,其表示为:
A={a|amin≤at≤amax}
其中,amin表示气囊最小设定气压,amax表示气囊最大设定气压;
3)奖励函数:奖励函数用于奖励策略网络向最优策略收敛;
rt=-|Fr-Fpc(t)|
其中,Fr表示最优弓网接触力,Fpc(t)表示实际弓网接触力;
步骤22:以运行线路参数和受电弓参数建立虚拟仿真平台生成虚拟仿真样本库;
步骤23:步骤22样本获取过程如下:深度强化学习网络获得当前时间步状态st并生成动作at给受电弓气阀板,气阀板执行控制后,深度强化学习网络获得奖励rt和下一时间步受电弓状态st+1;这产生样本(st,at,rt,st+1)并存储在数据库中,重复以上步骤直至训练结束;
步骤24:以运行线路参数和实际受电弓建立半实物半虚拟平台建立平台样本库,样本获取过程同步骤23;
步骤25:收集实际在线运营列车受电弓和实际铁路线路接触网交互数据建立实际样本库,样本获取过程同步骤23。
4.根据权利要求3所述的一种基于深度强化学习的列车受电弓智能控制方法,其特征在于,所述步骤3具体为:
步骤31:利用步骤2产生的3个样本库,轮流训练深度强化学习网络;
步骤32:步骤31的深度强化学习网络具有1个策略网络和4个评估网络;策略网络用于输出最优动作,评估网络用于评估策略网络输出的策略是否优秀,并指导其生成最优策略;策略网络和评估网络使用数据库中的样本训练;
步骤33:步骤32的策略网络输入状态信息,输出最优动作;使用π表示策略网络,φ表示策略网络的参数。从数据库中采样一批样本(st,at,rt,st+1)训练策略网络,其损失函数写为:
Figure FDA0003860835340000021
其中,m表示采样样本的数量,Qi(st,at)i=1,2表示两个评估网络,st,at表示样本中状态和动作值;
步骤34:步骤33的评估网络输入状态信息和动作,输出状态动作价值,有两种策略网络,使用Q表示当前策略网络,使用θ表示其参数;使用Qtarget目标策略网络,使用
Figure FDA0003860835340000022
表示其参数;每种网络训练两个网络用于减少方差和稳定训练,使用θ1和θ2表示;
当前评估网络参数的损失函数写为:
Figure FDA0003860835340000023
Q(st+1,at+1)=min(Q1(st+1,at+1),Q2(st+1,at+1))
Qtarget(st+1,at+1)=min(Q1 target(st+1,at+1),Q2 target(st+1,at+1))
目标策略网络通过当前评估网络参数定期软更新:
Figure FDA0003860835340000024
其中τ表示软更新的速度。
5.根据权利要求4所述的一种基于深度强化学习的列车受电弓智能控制方法,其特征在于,所述步骤4具体为:接受控制器输出的设定气囊气压,并将设定气囊气压设定于受电弓气阀板上的精密调压阀从而控制气囊压强。
CN202211162760.3A 2022-09-23 2022-09-23 一种基于深度强化学习的列车受电弓智能控制方法 Active CN115489320B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202211162760.3A CN115489320B (zh) 2022-09-23 2022-09-23 一种基于深度强化学习的列车受电弓智能控制方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202211162760.3A CN115489320B (zh) 2022-09-23 2022-09-23 一种基于深度强化学习的列车受电弓智能控制方法

Publications (2)

Publication Number Publication Date
CN115489320A true CN115489320A (zh) 2022-12-20
CN115489320B CN115489320B (zh) 2024-06-18

Family

ID=84470755

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202211162760.3A Active CN115489320B (zh) 2022-09-23 2022-09-23 一种基于深度强化学习的列车受电弓智能控制方法

Country Status (1)

Country Link
CN (1) CN115489320B (zh)

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106476629A (zh) * 2016-12-23 2017-03-08 中南大学 一种基于empc的高速铁路受电弓的主动控制方法及系统
CN107895960A (zh) * 2017-11-01 2018-04-10 北京交通大学长三角研究院 基于强化学习的城轨交通地面式超级电容储能系统能量管理方法
CN110850716A (zh) * 2019-11-13 2020-02-28 兰州交通大学 基于接触网先验信息的受电弓神经网络滑模变结构主动控制方法
CN111934335A (zh) * 2020-08-18 2020-11-13 华北电力大学 一种基于深度强化学习的集群电动汽车充电行为优化方法
US20200372410A1 (en) * 2019-05-23 2020-11-26 Uber Technologies, Inc. Model based reinforcement learning based on generalized hidden parameter markov decision processes
CN112116156A (zh) * 2020-09-18 2020-12-22 中南大学 基于深度强化学习的混动列车的能量管理方法及系统
WO2021103834A1 (zh) * 2019-11-27 2021-06-03 初速度(苏州)科技有限公司 换道决策模型生成方法和无人车换道决策方法及装置
WO2021103929A1 (zh) * 2019-11-29 2021-06-03 比亚迪股份有限公司 车辆供电装置
DE102020200449A1 (de) * 2020-01-15 2021-07-15 Volkswagen Aktiengesellschaft Straßengeführtes Kraftfahrzeug und Verfahren zum Anbügeln eines Stromabnehmers eines straßengeführten Kraftfahrzeuges
CN114880770A (zh) * 2022-04-29 2022-08-09 西南交通大学 一种基于参考深度强化学习的列车协同运行控制方法

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106476629A (zh) * 2016-12-23 2017-03-08 中南大学 一种基于empc的高速铁路受电弓的主动控制方法及系统
CN107895960A (zh) * 2017-11-01 2018-04-10 北京交通大学长三角研究院 基于强化学习的城轨交通地面式超级电容储能系统能量管理方法
US20200372410A1 (en) * 2019-05-23 2020-11-26 Uber Technologies, Inc. Model based reinforcement learning based on generalized hidden parameter markov decision processes
CN110850716A (zh) * 2019-11-13 2020-02-28 兰州交通大学 基于接触网先验信息的受电弓神经网络滑模变结构主动控制方法
WO2021103834A1 (zh) * 2019-11-27 2021-06-03 初速度(苏州)科技有限公司 换道决策模型生成方法和无人车换道决策方法及装置
WO2021103929A1 (zh) * 2019-11-29 2021-06-03 比亚迪股份有限公司 车辆供电装置
DE102020200449A1 (de) * 2020-01-15 2021-07-15 Volkswagen Aktiengesellschaft Straßengeführtes Kraftfahrzeug und Verfahren zum Anbügeln eines Stromabnehmers eines straßengeführten Kraftfahrzeuges
CN111934335A (zh) * 2020-08-18 2020-11-13 华北电力大学 一种基于深度强化学习的集群电动汽车充电行为优化方法
CN112116156A (zh) * 2020-09-18 2020-12-22 中南大学 基于深度强化学习的混动列车的能量管理方法及系统
CN114880770A (zh) * 2022-04-29 2022-08-09 西南交通大学 一种基于参考深度强化学习的列车协同运行控制方法

Non-Patent Citations (5)

* Cited by examiner, † Cited by third party
Title
ZHAO XU;YANG SONG;ZHIGANG LIU: "Effective Measures to Improve Current Collection Quality for Double Pantographs and Catenary Based on Wave Propagation Analysis", IEEE TRANSACTIONS ON VEHICULAR TECHNOLOGY, vol. 69, no. 6, 31 December 2020 (2020-12-31) *
李志航;: "基于深度递归强化学习的无人自主驾驶策略研究", 工业控制计算机, no. 04, 25 April 2020 (2020-04-25) *
苗海涛;张卫华;梅桂明;李文韬;: "基于两级气压伺服系统的高速受电弓主动控制研究", 机械, no. 08, 25 August 2012 (2012-08-25) *
鲁小兵;刘志刚;: "高速铁路受电弓主动控制算法适用性研究", 西南交通大学学报, no. 02, 15 April 2015 (2015-04-15) *
鲁小兵;刘志刚;宋洋;: "基于磁流变阻尼器的受电弓主动控制分析与验证", 仪器仪表学报, no. 01, 15 January 2015 (2015-01-15) *

Also Published As

Publication number Publication date
CN115489320B (zh) 2024-06-18

Similar Documents

Publication Publication Date Title
Tang et al. Robust stochastic control for high-speed trains with nonlinearity, parametric uncertainty, and multiple time-varying delays
CN110850716B (zh) 基于接触网先验信息的受电弓神经网络滑模变结构主动控制方法
CN111237988B (zh) 地铁车载空调机组控制方法及系统
CN106503362A (zh) 一种高速受电弓多目标鲁棒h∞控制器设计方法
CN112541228B (zh) 接触力长短时记忆网络预测的受电弓主动控制方法
CN111555297B (zh) 一种具有三态能源单元的统一时间尺度电压控制方法
Wang et al. Deep reinforcement learning based active pantograph control strategy in high-speed railway
CN112528565B (zh) 一种考虑电弧随机特性的弓网电弧建模方法和仿真回路
CN112249099A (zh) 一种基于预测控制的高速列车节能运行曲线在线计算方法
CN115489320A (zh) 一种基于深度强化学习的列车受电弓智能控制方法
KR20210066534A (ko) 에너지 사용량 데이터의 비지도 학습 기반 부하 모니터링 방법
CN112158233A (zh) 基于自学习的ato控车方法及装置
Song et al. Robust adaptive contact force control of pantograph–catenary system: An accelerated output feedback approach
CN110443498A (zh) 基于自适应学习的仿真培训智慧评价系统
CN112947056A (zh) 基于igwo-bp-pid的磁浮列车位移速度跟踪控制方法
CN106842924B (zh) 基于多工况anfis模型的动车组优化控制方法
CN111612212A (zh) 一种磨煤机煤粉细度的在线优化模型更新方法
CN116316755A (zh) 一种基于强化学习的电气化铁路储能系统能量管理方法
CN115056825A (zh) 自适应性能的列车加速方法
CN116577991A (zh) 一种基于元强化学习的列车受电弓自适应控制方法
CN116027667A (zh) 一种基于深度强化学习的重联-动车组双弓协同控制方法
Wang et al. A Hierarchical Control Strategy for Active Pantograph in High-speed Railway
CN108319149B (zh) 一种具有自学习控制模式的电磁开关智慧控制系统
Yin et al. An intelligent train operation algorithm via gradient descent method and driver's experience
CN116599061B (zh) 一种基于强化学习的电网运行控制方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant