CN112116125A - 一种基于深度强化学习的电动汽车充电导航方法 - Google Patents
一种基于深度强化学习的电动汽车充电导航方法 Download PDFInfo
- Publication number
- CN112116125A CN112116125A CN202010820764.0A CN202010820764A CN112116125A CN 112116125 A CN112116125 A CN 112116125A CN 202010820764 A CN202010820764 A CN 202010820764A CN 112116125 A CN112116125 A CN 112116125A
- Authority
- CN
- China
- Prior art keywords
- electric vehicle
- charging
- vehicle charging
- charging station
- reinforcement learning
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 62
- 230000002787 reinforcement Effects 0.000 title claims abstract description 21
- 230000008569 process Effects 0.000 claims abstract description 22
- 238000012549 training Methods 0.000 claims abstract description 18
- 230000005611 electricity Effects 0.000 claims abstract description 13
- 230000008901 benefit Effects 0.000 claims abstract description 12
- 239000013598 vector Substances 0.000 claims description 17
- 238000005265 energy consumption Methods 0.000 claims description 12
- 238000013528 artificial neural network Methods 0.000 claims description 9
- 230000006870 function Effects 0.000 claims description 8
- 230000009471 action Effects 0.000 claims description 5
- 238000011478 gradient descent method Methods 0.000 claims description 4
- 238000012546 transfer Methods 0.000 claims description 4
- 238000011161 development Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 230000007547 defect Effects 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 230000003044 adaptive effect Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 230000014759 maintenance of location Effects 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 238000012827 research and development Methods 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q10/00—Administration; Management
- G06Q10/04—Forecasting or optimisation specially adapted for administrative or management purposes, e.g. linear programming or "cutting stock problem"
- G06Q10/047—Optimisation of routes or paths, e.g. travelling salesman problem
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F30/00—Computer-aided design [CAD]
- G06F30/20—Design optimisation, verification or simulation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q10/00—Administration; Management
- G06Q10/06—Resources, workflows, human or project management; Enterprise or organisation planning; Enterprise or organisation modelling
- G06Q10/063—Operations research, analysis or management
- G06Q10/0631—Resource planning, allocation, distributing or scheduling for enterprises or organisations
- G06Q10/06315—Needs-based resource requirements planning or analysis
Landscapes
- Engineering & Computer Science (AREA)
- Business, Economics & Management (AREA)
- Human Resources & Organizations (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Strategic Management (AREA)
- Economics (AREA)
- General Engineering & Computer Science (AREA)
- Entrepreneurship & Innovation (AREA)
- Evolutionary Computation (AREA)
- Software Systems (AREA)
- Development Economics (AREA)
- Molecular Biology (AREA)
- General Health & Medical Sciences (AREA)
- Mathematical Physics (AREA)
- Data Mining & Analysis (AREA)
- Computational Linguistics (AREA)
- General Business, Economics & Management (AREA)
- Tourism & Hospitality (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Computing Systems (AREA)
- Artificial Intelligence (AREA)
- Quality & Reliability (AREA)
- Life Sciences & Earth Sciences (AREA)
- Game Theory and Decision Science (AREA)
- Health & Medical Sciences (AREA)
- Marketing (AREA)
- Operations Research (AREA)
- Educational Administration (AREA)
- Geometry (AREA)
- Computer Hardware Design (AREA)
- Navigation (AREA)
Abstract
一种基于深度强化学习的电动汽车充电导航规划方法,采集电动汽车充电导航的历史数据;利用确定性电动汽车充电导航模型对历史数据降维并抽取特征数据;根据特征数据,建立马尔科夫决策过程模型,然后以特征数据为训练样本,训练初始化后的深度Q值网络;根据实际的各道路的平均行驶速度、各充电站的等待时间和各充电站的充电电价,利用深度Q值网络,得到综合成本最小的电动汽车充电站选择,再利用确定性电动汽车充电导航模型,得到路线规划。本发明能全面反映电动汽车在充电导航过程中的各种成本与随机性。相比已有方法,本发明更加全面完整地刻画了电动汽车充电导航问题,并通过深度强化学习的方法很好地处理了随机性,优势显著。
Description
技术领域
本发明属于电力系统领域,涉及一种基于深度强化学习的电动汽车充电导航方法。
背景技术
随着电动汽车的快速发展和普及,电力网和交通网的联系日益紧密。电动汽车车主在面临充电需求时,可根据电网与交通网的实时数据规划总体成本最小的充电方案。这些数据包括各条道路的行驶时间,各充电站的等待时间和充电价格。然而,这些数据数量巨大且具有一定的随机性,这为电动汽车车主规划最优充电导航方案带来了挑战。
目前的电动汽车充电规划主要分为两类:一类是静态充电,即不考虑交通网信息的电动汽车充电计划安排,这种场景多发生在住宅区和大型车库中,主要考虑的是充电电价的不确定性。另一类是确定性的充电导航,即认为道路的行驶时间、各充电站的等待时间和充电价格是已知且确定的。这两类规划都未能很好地解决电动汽车车主在实际场景中的充电导航问题。
随着深度强化学习技术的迅猛发展,深度Q值网络技术被运用在越来越来的研究领域中,并由于其强大的自适应能力,使其能较好地从具有随机性的数据中提取信息和识别特征。此外,与传统的基于模型的方法相比,深度Q值网络具有更好的泛化能力,不依赖具体的先验概率信息。
综上,在电动汽车保有率持续增加的背景下,基于深度强化学习的电动汽车充电导航研究充分适配电动汽车车主实际中的充电导航规划需求,并能很好地处理数据的随机性,对电动汽车投入大规模应用有基础性的作用,能填补已有研究尚未关注的空白。
发明内容
本发明的目的在于提供一种基于深度强化学习的电动汽车充电导航方法,以填补现有电动汽车充电规划方法的不足:充分考虑电网与交通网的历史数据,首先通过确定性的充电导航模型对高维数据降维,再利用深度Q值神经网络处理数据的随机性,为电动汽车车主提供综合成本最小的充电导航服务。
为了实现上述目的,本发明采用如下技术方案:
一种基于深度强化学习的电动汽车充电导航规划方法,包括以下步骤:
步骤一:采集电动汽车充电导航的历史数据;
步骤二:利用确定性电动汽车充电导航模型对历史数据降维并抽取特征数据;
步骤三:根据步骤二中的特征数据,建立马尔科夫决策过程模型;
步骤四:利用马尔科夫决策过程模型,以特征数据为训练样本,训练初始化后的深度Q值网络;
步骤五,根据实际的各道路数据,利用完成训练的深度Q值网络,得到综合成本最小的电动汽车充电站选择,再利用确定性电动汽车充电导航模型,得到路线规划。
本发明进一步的改进在于,步骤一中,历史数据包括:各道路的平均行驶速度、各充电站的等待时间和各充电站的充电电价。
本发明进一步的改进在于,确定性电动汽车充电导航模型如下:
模型约束为:
eend≥emin (4)
其中,为行驶耗能成本,为行驶时间成本,为等待时间成本,为充电耗能成本,为到充电站k充电的除等待时间成本以外的成本之和,α为单位行驶距离耗电量,λe为单位电价,dij为交通节点i到j的距离,eend为电动汽车最终荷电状态,eini为电动汽车的初始荷电状态,Emax为电动汽车的最大电池容量,emax为电动汽车最大荷电状态,为充电站k的充电价格,vij为交通节点i到j的通行速度;yi为代表充电站位置的0-1变量。
本发明进一步的改进在于,步骤三中,马尔科夫决策过程模型包括:状态向量st、动作向量at、状态转移函数f(st,at,ωt)以及收益rt,其中,ωt为随机变量。
本发明进一步的改进在于,步骤三中,根据特征数据,利用公式(9)-(11),建立马尔科夫决策过程模型;
其中,st为状态向量,nt为当前地点、et为当前电量,为各个充电站的特征数值向量,上标*表示模型求解的最优变量,at为动作向量,k为充电站的标号,分别表示前往充电站k路径上的第一个和第二个交通节点,上标true表示真实的数据,rt为收益。
本发明进一步的改进在于,当电动汽车还在行驶中时,收益为行驶到充电站的行驶时间成本与行驶耗能成本;当电动汽车到充电站后,收益为充电耗能成本与充电等待时间成本。
本发明进一步的改进在于,Q值通过下式计算:
其中,Qψ(s,a)为给定状态s和动作a,在神经网络参数ψ下的Q值;γ为折现率,k为时段数,rt+k为在时段t+k下获得的收益,上标*表示最优的Q函数。
本发明进一步的改进在于,步骤四中,利用梯度下降法训练初始化后的深度Q值网络。
本发明进一步的改进在于,步骤五中,实际的各道路数据包括:各道路的平均行驶速度、各充电站的等待时间和各充电站的充电电价。
相对于现有电动汽车充电规划方法相比,本发明具有以下有益效果:本发明从电动汽车在驾驶电动汽车时遇到的实际需求出发,考虑数据的随机性,利用非线性混合整数规划的确定性电动汽车充电导航模型得到特征数据,再将电动汽车充电导航问题建模为马尔可夫过程模型,利用深度强化学习方法,能全面反映电动汽车在充电导航过程中的各种成本与随机性。相比已有方法,本发明更加全面完整地刻画了电动汽车充电导航问题,并通过深度强化学习的方法很好地处理了随机性,优势显著。
附图说明
图1为本发明的整体流程。
图2为本发明的具体训练过程图。
图3为交通网说明图。
图4为本发明的训练过程图。
图5为本发明与传统方法效果对比图。
具体实施方式
下面结合附图对本发明进行详细描述。
参见图1,本发明的一种基于深度强化学习的电动汽车充电导航规划方法,具体包括以下步骤:
步骤一:对电动汽车车主规划充电导航所需要的历史数据进行整理,包括:各道路的平均行驶速度、各充电站的等待时间和各充电站的充电电价。通过收集的历史数据拟合出每类数据服从的概率分布,为接下来的神经网络的训练过程做准备。
步骤二:利用非线性混合整数规划的确定性电动汽车充电导航模型,对历史数据降维并抽取出特征数据,得到特征数据;具体的,非线性混合整数规划的确定性电动汽车充电导航模型如下:
模型约束为:
eend≥emin (4)
其中,目标函数为电动汽车车主的综合成本,包括:行驶耗能成本行驶时间成本等待时间成本和充电耗能成本 为到充电站k充电的除等待时间成本以外的成本之和,该项至于道路选择变量xij有关(xij为1时,表示规划路线包含道路(i,j);为0时则表示不包含)。约束(3)和(4)分别表示了电动汽车剩余电量始末状态的联系和最小剩余电量要求。约束(5-7)分别描述了行驶耗能成本、充电耗能成本和道路行驶成本与道路选择变量xij的具体关系表达式,其中α为单位行驶距离耗电量,λe为单位电价,dij为交通节点i到j的距离。eend为电动汽车最终荷电状态,eini为电动汽车的初始荷电状态,Emax为电动汽车的最大电池容量。emax为电动汽车最大荷电状态,为充电站k的充电价格,vij为交通节点i到j的通行速度。约束(8)限制了电动汽车的导航路线必须满足始末位置指定的要求,yi为代表充电站位置的0-1变量。
步骤三:根据步骤二中的特征数据,建立马尔科夫决策过程模型(MDP)。
马尔科夫决策过程模型包含四个要素:状态向量st、动作向量at、状态转移函数f(st,at,ωt),(ωt为不可控制的外来随机变量)及收益rt。
根据步骤二中的特征数据,利用公式(9)-(11),建立马尔科夫决策过程模型;
其中,状态向量st包括当前地点nt、当前电量et和各个充电站的特征数值向量动作向量at为当前选择的充电站的代号k。k为变量。分别表示前往充电站k路径上的第一个和第二个交通节点。上标true表示真实的数据。
状态转移函数即式(11)更新来自电网与交通网的数据,以及当前新的位置和剩余电量。
收益rt分为两种情况:当电动汽车还在行驶中时,每一步的收益为行驶到充电站的行驶时间成本与行驶耗能成本;当电动汽车到充电站后,收益为充电耗能成本与充电等待时间成本。
其中,Qψ(s,a)为给定状态s和动作a,在神经网络参数ψ下的Q值;γ为折现率,k为时段数,rt+k为在时段t+k下获得的收益,上标*表示最优的Q函数。
代入公式(9)-(12),得到公式(13)即计算Q值的表达式,为评估当前策略好坏的标准:在当前状态下,按照策略Ψ执行动作at所获得的收益。而公式(14)则阐述了Q值策略的更新方式:即每次选择当前受益最大(或成本最小)的动作。
步骤四:建立并初始化深度Q值网络。根据步骤一中由历史数据得到的概率分布进行数据抽样,再基于步骤二中的确定性充电导航模型得到特征数据。利用步骤三建立的MDP模型,以特征数据为训练样本得到状态向量,利用梯度下降法训练初始化后深度Q值网络,整体框架如图2所示;
步骤五,根据实际数据,即各道路的平均行驶速度、各充电站的等待时间和各充电站的充电电价,利用完成训练的深度Q值网络,得到综合成本最小的电动汽车充电站选择,利用步骤二中的非线性混合整数规划的确定性电动汽车充电导航模型,得到路线规划,从而实现导航。
下面以一个简单的算例说明本方法实施流程。
该实例以西安市城区部分道路为基础背景,如图3所示。道路的行驶速度、充电的等待时间和充电价格的历史数据满足如表1所示的概率分布。
表1历史数据的概率分布
利用本发明的方法,依据各步骤具体实施,可以得到训练结果(如图4)与方法对比结构(如图5)。从图4和图5,可以看到,该方法训练效果优异,且综合成本比传统确定性导航方法显著减少。
本发明通过对电动汽车充电导航数据进行整理,得到各条道路行驶速度,充电站等待时间和充点电价的历史数据并拟合出相应的概率分布;利用基于非线性混合整数规划的确定性充电导航模型对历史数据降维,从中抽取出特征数据;根据步骤二中数据降维与特征抽取的结果,将电动汽车充电导航规划建模为马尔科夫决策过程问题(MDP);建立并初始化深度Q值神经网络。基于步骤三中建立的MDP模型,以抽取出的特征数据为训练样本,利用梯度下降法训练深度Q值神经网络;基于实际电网与交通网数据,利用完成训练的深度Q值神经网络,得到综合成本最小的电动汽车充电站选择和路线规划方案。本发明中填补了现有电动汽车充电规划方法的不足,充分考虑电网与交通网的历史数据,首先通过确定性的充电导航模型对高维数据降维,再利用深度Q值神经网络处理数据的随机性,为电动汽车车主提供综合成本最小的充电导航服务。
最后应当说明的是:以上实施例仅用以说明本发明的技术方案,本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的范围内,根据本发明的技术方案及其发明构思加以等同替换或改变,都属于本发明的保护范围。
Claims (9)
1.一种基于深度强化学习的电动汽车充电导航规划方法,其特征在于,包括以下步骤:
步骤一:采集电动汽车充电导航的历史数据;
步骤二:利用确定性电动汽车充电导航模型对历史数据降维并抽取特征数据;
步骤三:根据步骤二中的特征数据,建立马尔科夫决策过程模型;
步骤四:利用马尔科夫决策过程模型,以特征数据为训练样本,训练初始化后的深度Q值网络;
步骤五,根据实际的各道路数据,利用完成训练的深度Q值网络,得到综合成本最小的电动汽车充电站选择,再利用确定性电动汽车充电导航模型,得到路线规划。
2.根据权利要求1所述的一种基于深度强化学习的电动汽车充电导航规划方法,其特征在于,步骤一中,历史数据包括:各道路的平均行驶速度、各充电站的等待时间和各充电站的充电电价。
4.根据权利要求1所述的一种基于深度强化学习的电动汽车充电导航规划方法,其特征在于,步骤三中,马尔科夫决策过程模型包括:状态向量st、动作向量at、状态转移函数f(st,at,ωt)以及收益rt,其中,ωt为随机变量。
6.根据权利要求4或5所述的一种基于深度强化学习的电动汽车充电导航规划方法,其特征在于,当电动汽车还在行驶中时,收益为行驶到充电站的行驶时间成本与行驶耗能成本;当电动汽车到充电站后,收益为充电耗能成本与充电等待时间成本。
8.根据权利要求1所述的一种基于深度强化学习的电动汽车充电导航规划方法,其特征在于,步骤四中,利用梯度下降法训练初始化后的深度Q值网络。
9.根据权利要求1所述的一种基于深度强化学习的电动汽车充电导航规划方法,其特征在于,步骤五中,实际的各道路数据包括:各道路的平均行驶速度、各充电站的等待时间和各充电站的充电电价。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010820764.0A CN112116125A (zh) | 2020-08-14 | 2020-08-14 | 一种基于深度强化学习的电动汽车充电导航方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010820764.0A CN112116125A (zh) | 2020-08-14 | 2020-08-14 | 一种基于深度强化学习的电动汽车充电导航方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN112116125A true CN112116125A (zh) | 2020-12-22 |
Family
ID=73804701
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010820764.0A Pending CN112116125A (zh) | 2020-08-14 | 2020-08-14 | 一种基于深度强化学习的电动汽车充电导航方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112116125A (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112508312A (zh) * | 2021-02-05 | 2021-03-16 | 北京电信易通信息技术股份有限公司 | 一种电动汽车节能导航的方法及系统 |
CN112784481A (zh) * | 2021-01-15 | 2021-05-11 | 中国人民解放军国防科技大学 | 一种用于中继充电路径规划的深度强化学习方法及系统 |
CN114459498A (zh) * | 2022-03-14 | 2022-05-10 | 南京理工大学 | 基于强化学习的新能源车充电站选择及自适应导航方法 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108955711A (zh) * | 2018-08-24 | 2018-12-07 | 广东工业大学 | 一种应用于电动汽车智能充放电的导航方法 |
-
2020
- 2020-08-14 CN CN202010820764.0A patent/CN112116125A/zh active Pending
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108955711A (zh) * | 2018-08-24 | 2018-12-07 | 广东工业大学 | 一种应用于电动汽车智能充放电的导航方法 |
Non-Patent Citations (1)
Title |
---|
TAO QIAN ETAL.: "Deep Reinforcement Learning for EV Charging Navigation by Coordinating Smart Grid and Intelligent Transportation System", 《IEEE TRANSACTIONS ON SMART GRID》, vol. 11, no. 02 * |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112784481A (zh) * | 2021-01-15 | 2021-05-11 | 中国人民解放军国防科技大学 | 一种用于中继充电路径规划的深度强化学习方法及系统 |
CN112508312A (zh) * | 2021-02-05 | 2021-03-16 | 北京电信易通信息技术股份有限公司 | 一种电动汽车节能导航的方法及系统 |
CN114459498A (zh) * | 2022-03-14 | 2022-05-10 | 南京理工大学 | 基于强化学习的新能源车充电站选择及自适应导航方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112116125A (zh) | 一种基于深度强化学习的电动汽车充电导航方法 | |
Lin et al. | Velocity prediction using Markov Chain combined with driving pattern recognition and applied to Dual-Motor Electric Vehicle energy consumption evaluation | |
CN110751314B (zh) | 考虑用户充电行为特征数据驱动的电动汽车负荷预测方法 | |
CN105160428A (zh) | 高速公路电动汽车快速充电站的规划方法 | |
CN108932561B (zh) | 一种考虑非线性充电函数的电动汽车充电路径选择方法 | |
CN112347615A (zh) | 一种计及光储快充一体站的配电网混合优化调度方法 | |
CN110189025B (zh) | 考虑不同负荷增长的电动汽车充电站规划方案获取方法 | |
Kim et al. | Idle vehicle relocation strategy through deep learning for shared autonomous electric vehicle system optimization | |
CN107274665A (zh) | 巴士运力资源规划方法及系统 | |
CN108288110B (zh) | 一种基于电动汽车真实行驶数据的充电桩优化布局方法 | |
CN112097783B (zh) | 基于深度强化学习的电动出租车充电导航路径规划方法 | |
CN107730049A (zh) | 电动汽车快速充电最优位置选择方法 | |
CN114707292B (zh) | 含电动汽车配电网电压稳定性分析方法 | |
CN111222705A (zh) | 一种非线性充电车辆路径优化方法 | |
CN114312845A (zh) | 基于地图数据的深度强化学习型混合动力汽车控制方法 | |
CN111680413B (zh) | 基于双层算法的有轨电车定时节能运行优化方法及其系统 | |
CN114169609A (zh) | 一种考虑光伏耦合的电动汽车充电站规划方法 | |
CN108133329B (zh) | 考虑充电反馈效应的电动汽车出行与充电需求分析方法 | |
CN110738356A (zh) | 一种基于sdn增强网络的电动汽车充电智能调度方法 | |
Lin et al. | AER adaptive control strategy via energy prediction for PHEV | |
CN117056765A (zh) | 一种车速多时间尺度预测方法、系统、设备、介质及终端 | |
CN115099702A (zh) | 基于拉格朗日松弛算法的电动公交日间运行充电优化方法 | |
CN114444400A (zh) | 一种自主代客泊车群车库位分配方法 | |
CN115470700A (zh) | 基于强化学习训练网络模型的混动车辆能量管理方法 | |
Cussigh et al. | An all-electric alpine crossing: time-optimal strategy calculation via fleet-based vehicle data |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |