CN112116125A - 一种基于深度强化学习的电动汽车充电导航方法 - Google Patents

一种基于深度强化学习的电动汽车充电导航方法 Download PDF

Info

Publication number
CN112116125A
CN112116125A CN202010820764.0A CN202010820764A CN112116125A CN 112116125 A CN112116125 A CN 112116125A CN 202010820764 A CN202010820764 A CN 202010820764A CN 112116125 A CN112116125 A CN 112116125A
Authority
CN
China
Prior art keywords
electric vehicle
charging
vehicle charging
charging station
reinforcement learning
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202010820764.0A
Other languages
English (en)
Inventor
邵成成
钱涛
李徐亮
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Xian Jiaotong University
Original Assignee
Xian Jiaotong University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Xian Jiaotong University filed Critical Xian Jiaotong University
Priority to CN202010820764.0A priority Critical patent/CN112116125A/zh
Publication of CN112116125A publication Critical patent/CN112116125A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/04Forecasting or optimisation specially adapted for administrative or management purposes, e.g. linear programming or "cutting stock problem"
    • G06Q10/047Optimisation of routes or paths, e.g. travelling salesman problem
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F30/00Computer-aided design [CAD]
    • G06F30/20Design optimisation, verification or simulation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/06Resources, workflows, human or project management; Enterprise or organisation planning; Enterprise or organisation modelling
    • G06Q10/063Operations research, analysis or management
    • G06Q10/0631Resource planning, allocation, distributing or scheduling for enterprises or organisations
    • G06Q10/06315Needs-based resource requirements planning or analysis

Landscapes

  • Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Human Resources & Organizations (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Strategic Management (AREA)
  • Economics (AREA)
  • General Engineering & Computer Science (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Evolutionary Computation (AREA)
  • Software Systems (AREA)
  • Development Economics (AREA)
  • Molecular Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Mathematical Physics (AREA)
  • Data Mining & Analysis (AREA)
  • Computational Linguistics (AREA)
  • General Business, Economics & Management (AREA)
  • Tourism & Hospitality (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Computing Systems (AREA)
  • Artificial Intelligence (AREA)
  • Quality & Reliability (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Game Theory and Decision Science (AREA)
  • Health & Medical Sciences (AREA)
  • Marketing (AREA)
  • Operations Research (AREA)
  • Educational Administration (AREA)
  • Geometry (AREA)
  • Computer Hardware Design (AREA)
  • Navigation (AREA)

Abstract

一种基于深度强化学习的电动汽车充电导航规划方法,采集电动汽车充电导航的历史数据;利用确定性电动汽车充电导航模型对历史数据降维并抽取特征数据;根据特征数据,建立马尔科夫决策过程模型,然后以特征数据为训练样本,训练初始化后的深度Q值网络;根据实际的各道路的平均行驶速度、各充电站的等待时间和各充电站的充电电价,利用深度Q值网络,得到综合成本最小的电动汽车充电站选择,再利用确定性电动汽车充电导航模型,得到路线规划。本发明能全面反映电动汽车在充电导航过程中的各种成本与随机性。相比已有方法,本发明更加全面完整地刻画了电动汽车充电导航问题,并通过深度强化学习的方法很好地处理了随机性,优势显著。

Description

一种基于深度强化学习的电动汽车充电导航方法
技术领域
本发明属于电力系统领域,涉及一种基于深度强化学习的电动汽车充电导航方法。
背景技术
随着电动汽车的快速发展和普及,电力网和交通网的联系日益紧密。电动汽车车主在面临充电需求时,可根据电网与交通网的实时数据规划总体成本最小的充电方案。这些数据包括各条道路的行驶时间,各充电站的等待时间和充电价格。然而,这些数据数量巨大且具有一定的随机性,这为电动汽车车主规划最优充电导航方案带来了挑战。
目前的电动汽车充电规划主要分为两类:一类是静态充电,即不考虑交通网信息的电动汽车充电计划安排,这种场景多发生在住宅区和大型车库中,主要考虑的是充电电价的不确定性。另一类是确定性的充电导航,即认为道路的行驶时间、各充电站的等待时间和充电价格是已知且确定的。这两类规划都未能很好地解决电动汽车车主在实际场景中的充电导航问题。
随着深度强化学习技术的迅猛发展,深度Q值网络技术被运用在越来越来的研究领域中,并由于其强大的自适应能力,使其能较好地从具有随机性的数据中提取信息和识别特征。此外,与传统的基于模型的方法相比,深度Q值网络具有更好的泛化能力,不依赖具体的先验概率信息。
综上,在电动汽车保有率持续增加的背景下,基于深度强化学习的电动汽车充电导航研究充分适配电动汽车车主实际中的充电导航规划需求,并能很好地处理数据的随机性,对电动汽车投入大规模应用有基础性的作用,能填补已有研究尚未关注的空白。
发明内容
本发明的目的在于提供一种基于深度强化学习的电动汽车充电导航方法,以填补现有电动汽车充电规划方法的不足:充分考虑电网与交通网的历史数据,首先通过确定性的充电导航模型对高维数据降维,再利用深度Q值神经网络处理数据的随机性,为电动汽车车主提供综合成本最小的充电导航服务。
为了实现上述目的,本发明采用如下技术方案:
一种基于深度强化学习的电动汽车充电导航规划方法,包括以下步骤:
步骤一:采集电动汽车充电导航的历史数据;
步骤二:利用确定性电动汽车充电导航模型对历史数据降维并抽取特征数据;
步骤三:根据步骤二中的特征数据,建立马尔科夫决策过程模型;
步骤四:利用马尔科夫决策过程模型,以特征数据为训练样本,训练初始化后的深度Q值网络;
步骤五,根据实际的各道路数据,利用完成训练的深度Q值网络,得到综合成本最小的电动汽车充电站选择,再利用确定性电动汽车充电导航模型,得到路线规划。
本发明进一步的改进在于,步骤一中,历史数据包括:各道路的平均行驶速度、各充电站的等待时间和各充电站的充电电价。
本发明进一步的改进在于,确定性电动汽车充电导航模型如下:
Figure BDA0002634343400000021
Figure BDA0002634343400000022
模型约束为:
Figure BDA0002634343400000023
eend≥emin (4)
Figure BDA0002634343400000024
Figure BDA0002634343400000025
Figure BDA0002634343400000031
Figure BDA0002634343400000032
其中,
Figure BDA0002634343400000033
为行驶耗能成本,为
Figure BDA0002634343400000034
行驶时间成本,
Figure BDA0002634343400000035
为等待时间成本,
Figure BDA0002634343400000036
为充电耗能成本,
Figure BDA0002634343400000037
为到充电站k充电的除等待时间成本以外的成本之和,α为单位行驶距离耗电量,λe为单位电价,dij为交通节点i到j的距离,eend为电动汽车最终荷电状态,eini为电动汽车的初始荷电状态,Emax为电动汽车的最大电池容量,emax为电动汽车最大荷电状态,
Figure BDA0002634343400000038
为充电站k的充电价格,vij为交通节点i到j的通行速度;yi为代表充电站位置的0-1变量。
本发明进一步的改进在于,步骤三中,马尔科夫决策过程模型包括:状态向量st、动作向量at、状态转移函数f(st,att)以及收益rt,其中,ωt为随机变量。
本发明进一步的改进在于,步骤三中,根据特征数据,利用公式(9)-(11),建立马尔科夫决策过程模型;
Figure BDA0002634343400000039
Figure BDA00026343434000000310
Figure BDA00026343434000000311
Figure BDA00026343434000000312
其中,st为状态向量,nt为当前地点、et为当前电量,
Figure BDA00026343434000000313
为各个充电站的特征数值向量,上标*表示模型求解的最优变量,at为动作向量,k为充电站的标号,
Figure BDA00026343434000000314
分别表示前往充电站k路径上的第一个和第二个交通节点,上标true表示真实的数据,rt为收益。
本发明进一步的改进在于,当电动汽车还在行驶中时,收益为行驶到充电站的行驶时间成本与行驶耗能成本;当电动汽车到充电站后,收益为充电耗能成本与充电等待时间成本。
本发明进一步的改进在于,Q值通过下式计算:
Figure BDA0002634343400000041
Figure BDA0002634343400000042
其中,Qψ(s,a)为给定状态s和动作a,在神经网络参数ψ下的Q值;γ为折现率,k为时段数,rt+k为在时段t+k下获得的收益,上标*表示最优的Q函数。
本发明进一步的改进在于,步骤四中,利用梯度下降法训练初始化后的深度Q值网络。
本发明进一步的改进在于,步骤五中,实际的各道路数据包括:各道路的平均行驶速度、各充电站的等待时间和各充电站的充电电价。
相对于现有电动汽车充电规划方法相比,本发明具有以下有益效果:本发明从电动汽车在驾驶电动汽车时遇到的实际需求出发,考虑数据的随机性,利用非线性混合整数规划的确定性电动汽车充电导航模型得到特征数据,再将电动汽车充电导航问题建模为马尔可夫过程模型,利用深度强化学习方法,能全面反映电动汽车在充电导航过程中的各种成本与随机性。相比已有方法,本发明更加全面完整地刻画了电动汽车充电导航问题,并通过深度强化学习的方法很好地处理了随机性,优势显著。
附图说明
图1为本发明的整体流程。
图2为本发明的具体训练过程图。
图3为交通网说明图。
图4为本发明的训练过程图。
图5为本发明与传统方法效果对比图。
具体实施方式
下面结合附图对本发明进行详细描述。
参见图1,本发明的一种基于深度强化学习的电动汽车充电导航规划方法,具体包括以下步骤:
步骤一:对电动汽车车主规划充电导航所需要的历史数据进行整理,包括:各道路的平均行驶速度、各充电站的等待时间和各充电站的充电电价。通过收集的历史数据拟合出每类数据服从的概率分布,为接下来的神经网络的训练过程做准备。
步骤二:利用非线性混合整数规划的确定性电动汽车充电导航模型,对历史数据降维并抽取出特征数据,得到特征数据;具体的,非线性混合整数规划的确定性电动汽车充电导航模型如下:
Figure BDA0002634343400000051
Figure BDA0002634343400000052
模型约束为:
Figure BDA0002634343400000053
eend≥emin (4)
Figure BDA0002634343400000054
Figure BDA0002634343400000055
Figure BDA0002634343400000056
Figure BDA0002634343400000057
其中,目标函数为电动汽车车主的综合成本,包括:行驶耗能成本
Figure BDA0002634343400000058
行驶时间成本
Figure BDA0002634343400000059
等待时间成本
Figure BDA00026343434000000510
和充电耗能成本
Figure BDA00026343434000000511
Figure BDA00026343434000000512
为到充电站k充电的除等待时间成本以外的成本之和,该项至于道路选择变量xij有关(xij为1时,表示规划路线包含道路(i,j);为0时则表示不包含)。约束(3)和(4)分别表示了电动汽车剩余电量始末状态的联系和最小剩余电量要求。约束(5-7)分别描述了行驶耗能成本、充电耗能成本和道路行驶成本与道路选择变量xij的具体关系表达式,其中α为单位行驶距离耗电量,λe为单位电价,dij为交通节点i到j的距离。eend为电动汽车最终荷电状态,eini为电动汽车的初始荷电状态,Emax为电动汽车的最大电池容量。emax为电动汽车最大荷电状态,
Figure BDA0002634343400000061
为充电站k的充电价格,vij为交通节点i到j的通行速度。约束(8)限制了电动汽车的导航路线必须满足始末位置指定的要求,yi为代表充电站位置的0-1变量。
综上,这是一个确定性的充电导航模型,可以为提供历史数据下的特征数据,即每个充电汽车的最小成本向量
Figure BDA0002634343400000062
上标*表示模型求解的最优变量。
步骤三:根据步骤二中的特征数据,建立马尔科夫决策过程模型(MDP)。
马尔科夫决策过程模型包含四个要素:状态向量st、动作向量at、状态转移函数f(st,att),(ωt为不可控制的外来随机变量)及收益rt
根据步骤二中的特征数据,利用公式(9)-(11),建立马尔科夫决策过程模型;
Figure BDA0002634343400000063
Figure BDA0002634343400000064
Figure BDA0002634343400000065
Figure BDA0002634343400000066
其中,状态向量st包括当前地点nt、当前电量et和各个充电站的特征数值向量
Figure BDA0002634343400000067
动作向量at为当前选择的充电站的代号k。k为变量。
Figure BDA0002634343400000068
分别表示前往充电站k路径上的第一个和第二个交通节点。上标true表示真实的数据。
状态转移函数即式(11)更新来自电网与交通网的数据,以及当前新的位置和剩余电量。
收益rt分为两种情况:当电动汽车还在行驶中时,每一步的收益为行驶到充电站的行驶时间成本与行驶耗能成本;当电动汽车到充电站后,收益为充电耗能成本与充电等待时间成本。
Figure BDA0002634343400000071
Figure BDA0002634343400000072
其中,Qψ(s,a)为给定状态s和动作a,在神经网络参数ψ下的Q值;γ为折现率,k为时段数,rt+k为在时段t+k下获得的收益,上标*表示最优的Q函数。
代入公式(9)-(12),得到公式(13)即计算Q值的表达式,为评估当前策略好坏的标准:在当前状态下,按照策略Ψ执行动作at所获得的收益。而公式(14)则阐述了Q值策略的更新方式:即每次选择当前受益最大(或成本最小)的动作。
步骤四:建立并初始化深度Q值网络。根据步骤一中由历史数据得到的概率分布进行数据抽样,再基于步骤二中的确定性充电导航模型得到特征数据。利用步骤三建立的MDP模型,以特征数据为训练样本得到状态向量,利用梯度下降法训练初始化后深度Q值网络,整体框架如图2所示;
步骤五,根据实际数据,即各道路的平均行驶速度、各充电站的等待时间和各充电站的充电电价,利用完成训练的深度Q值网络,得到综合成本最小的电动汽车充电站选择,利用步骤二中的非线性混合整数规划的确定性电动汽车充电导航模型,得到路线规划,从而实现导航。
下面以一个简单的算例说明本方法实施流程。
该实例以西安市城区部分道路为基础背景,如图3所示。道路的行驶速度、充电的等待时间和充电价格的历史数据满足如表1所示的概率分布。
表1历史数据的概率分布
Figure BDA0002634343400000081
利用本发明的方法,依据各步骤具体实施,可以得到训练结果(如图4)与方法对比结构(如图5)。从图4和图5,可以看到,该方法训练效果优异,且综合成本比传统确定性导航方法显著减少。
本发明通过对电动汽车充电导航数据进行整理,得到各条道路行驶速度,充电站等待时间和充点电价的历史数据并拟合出相应的概率分布;利用基于非线性混合整数规划的确定性充电导航模型对历史数据降维,从中抽取出特征数据;根据步骤二中数据降维与特征抽取的结果,将电动汽车充电导航规划建模为马尔科夫决策过程问题(MDP);建立并初始化深度Q值神经网络。基于步骤三中建立的MDP模型,以抽取出的特征数据为训练样本,利用梯度下降法训练深度Q值神经网络;基于实际电网与交通网数据,利用完成训练的深度Q值神经网络,得到综合成本最小的电动汽车充电站选择和路线规划方案。本发明中填补了现有电动汽车充电规划方法的不足,充分考虑电网与交通网的历史数据,首先通过确定性的充电导航模型对高维数据降维,再利用深度Q值神经网络处理数据的随机性,为电动汽车车主提供综合成本最小的充电导航服务。
最后应当说明的是:以上实施例仅用以说明本发明的技术方案,本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的范围内,根据本发明的技术方案及其发明构思加以等同替换或改变,都属于本发明的保护范围。

Claims (9)

1.一种基于深度强化学习的电动汽车充电导航规划方法,其特征在于,包括以下步骤:
步骤一:采集电动汽车充电导航的历史数据;
步骤二:利用确定性电动汽车充电导航模型对历史数据降维并抽取特征数据;
步骤三:根据步骤二中的特征数据,建立马尔科夫决策过程模型;
步骤四:利用马尔科夫决策过程模型,以特征数据为训练样本,训练初始化后的深度Q值网络;
步骤五,根据实际的各道路数据,利用完成训练的深度Q值网络,得到综合成本最小的电动汽车充电站选择,再利用确定性电动汽车充电导航模型,得到路线规划。
2.根据权利要求1所述的一种基于深度强化学习的电动汽车充电导航规划方法,其特征在于,步骤一中,历史数据包括:各道路的平均行驶速度、各充电站的等待时间和各充电站的充电电价。
3.根据权利要求1所述的一种基于深度强化学习的电动汽车充电导航规划方法,其特征在于,确定性电动汽车充电导航模型如下:
Figure FDA0002634343390000011
Figure FDA0002634343390000012
模型约束为:
Figure FDA0002634343390000013
eend≥emin (4)
Figure FDA0002634343390000014
Figure FDA0002634343390000015
Figure FDA0002634343390000016
Figure FDA0002634343390000021
其中,
Figure FDA0002634343390000022
为行驶耗能成本,为
Figure FDA0002634343390000023
行驶时间成本,
Figure FDA0002634343390000024
为等待时间成本,
Figure FDA0002634343390000025
为充电耗能成本,
Figure FDA0002634343390000026
为到充电站k充电的除等待时间成本以外的成本之和,α为单位行驶距离耗电量,λe为单位电价,dij为交通节点i到j的距离,eend为电动汽车最终荷电状态,eini为电动汽车的初始荷电状态,Emax为电动汽车的最大电池容量,emax为电动汽车最大荷电状态,
Figure FDA0002634343390000027
为充电站k的充电价格,vij为交通节点i到j的通行速度;yi为代表充电站位置的0-1变量。
4.根据权利要求1所述的一种基于深度强化学习的电动汽车充电导航规划方法,其特征在于,步骤三中,马尔科夫决策过程模型包括:状态向量st、动作向量at、状态转移函数f(st,att)以及收益rt,其中,ωt为随机变量。
5.根据权利要求1所述的一种基于深度强化学习的电动汽车充电导航规划方法,其特征在于,步骤三中,根据特征数据,利用公式(9)-(11),建立马尔科夫决策过程模型;
Figure FDA0002634343390000028
Figure FDA0002634343390000029
Figure FDA00026343433900000210
Figure FDA00026343433900000211
其中,st为状态向量,nt为当前地点、et为当前电量,
Figure FDA00026343433900000212
为各个充电站的特征数值向量,上标*表示模型求解的最优变量,at为动作向量,k为充电站的标号,
Figure FDA00026343433900000213
分别表示前往充电站k路径上的第一个和第二个交通节点,上标true表示真实的数据,rt为收益。
6.根据权利要求4或5所述的一种基于深度强化学习的电动汽车充电导航规划方法,其特征在于,当电动汽车还在行驶中时,收益为行驶到充电站的行驶时间成本与行驶耗能成本;当电动汽车到充电站后,收益为充电耗能成本与充电等待时间成本。
7.根据权利要求5所述的一种基于深度强化学习的电动汽车充电导航规划方法,其特征在于,Q值通过下式计算:
Figure FDA0002634343390000031
Figure FDA0002634343390000032
其中,Qψ(s,a)为给定状态s和动作a,在神经网络参数ψ下的Q值;γ为折现率,k为时段数,rt+k为在时段t+k下获得的收益,上标*表示最优的Q函数。
8.根据权利要求1所述的一种基于深度强化学习的电动汽车充电导航规划方法,其特征在于,步骤四中,利用梯度下降法训练初始化后的深度Q值网络。
9.根据权利要求1所述的一种基于深度强化学习的电动汽车充电导航规划方法,其特征在于,步骤五中,实际的各道路数据包括:各道路的平均行驶速度、各充电站的等待时间和各充电站的充电电价。
CN202010820764.0A 2020-08-14 2020-08-14 一种基于深度强化学习的电动汽车充电导航方法 Pending CN112116125A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010820764.0A CN112116125A (zh) 2020-08-14 2020-08-14 一种基于深度强化学习的电动汽车充电导航方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010820764.0A CN112116125A (zh) 2020-08-14 2020-08-14 一种基于深度强化学习的电动汽车充电导航方法

Publications (1)

Publication Number Publication Date
CN112116125A true CN112116125A (zh) 2020-12-22

Family

ID=73804701

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010820764.0A Pending CN112116125A (zh) 2020-08-14 2020-08-14 一种基于深度强化学习的电动汽车充电导航方法

Country Status (1)

Country Link
CN (1) CN112116125A (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112508312A (zh) * 2021-02-05 2021-03-16 北京电信易通信息技术股份有限公司 一种电动汽车节能导航的方法及系统
CN112784481A (zh) * 2021-01-15 2021-05-11 中国人民解放军国防科技大学 一种用于中继充电路径规划的深度强化学习方法及系统
CN114459498A (zh) * 2022-03-14 2022-05-10 南京理工大学 基于强化学习的新能源车充电站选择及自适应导航方法

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108955711A (zh) * 2018-08-24 2018-12-07 广东工业大学 一种应用于电动汽车智能充放电的导航方法

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108955711A (zh) * 2018-08-24 2018-12-07 广东工业大学 一种应用于电动汽车智能充放电的导航方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
TAO QIAN ETAL.: "Deep Reinforcement Learning for EV Charging Navigation by Coordinating Smart Grid and Intelligent Transportation System", 《IEEE TRANSACTIONS ON SMART GRID》, vol. 11, no. 02 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112784481A (zh) * 2021-01-15 2021-05-11 中国人民解放军国防科技大学 一种用于中继充电路径规划的深度强化学习方法及系统
CN112508312A (zh) * 2021-02-05 2021-03-16 北京电信易通信息技术股份有限公司 一种电动汽车节能导航的方法及系统
CN114459498A (zh) * 2022-03-14 2022-05-10 南京理工大学 基于强化学习的新能源车充电站选择及自适应导航方法

Similar Documents

Publication Publication Date Title
CN112116125A (zh) 一种基于深度强化学习的电动汽车充电导航方法
Lin et al. Velocity prediction using Markov Chain combined with driving pattern recognition and applied to Dual-Motor Electric Vehicle energy consumption evaluation
CN110751314B (zh) 考虑用户充电行为特征数据驱动的电动汽车负荷预测方法
CN105160428A (zh) 高速公路电动汽车快速充电站的规划方法
CN108932561B (zh) 一种考虑非线性充电函数的电动汽车充电路径选择方法
CN112347615A (zh) 一种计及光储快充一体站的配电网混合优化调度方法
CN110189025B (zh) 考虑不同负荷增长的电动汽车充电站规划方案获取方法
Kim et al. Idle vehicle relocation strategy through deep learning for shared autonomous electric vehicle system optimization
CN107274665A (zh) 巴士运力资源规划方法及系统
CN108288110B (zh) 一种基于电动汽车真实行驶数据的充电桩优化布局方法
CN112097783B (zh) 基于深度强化学习的电动出租车充电导航路径规划方法
CN107730049A (zh) 电动汽车快速充电最优位置选择方法
CN114707292B (zh) 含电动汽车配电网电压稳定性分析方法
CN111222705A (zh) 一种非线性充电车辆路径优化方法
CN114312845A (zh) 基于地图数据的深度强化学习型混合动力汽车控制方法
CN111680413B (zh) 基于双层算法的有轨电车定时节能运行优化方法及其系统
CN114169609A (zh) 一种考虑光伏耦合的电动汽车充电站规划方法
CN108133329B (zh) 考虑充电反馈效应的电动汽车出行与充电需求分析方法
CN110738356A (zh) 一种基于sdn增强网络的电动汽车充电智能调度方法
Lin et al. AER adaptive control strategy via energy prediction for PHEV
CN117056765A (zh) 一种车速多时间尺度预测方法、系统、设备、介质及终端
CN115099702A (zh) 基于拉格朗日松弛算法的电动公交日间运行充电优化方法
CN114444400A (zh) 一种自主代客泊车群车库位分配方法
CN115470700A (zh) 基于强化学习训练网络模型的混动车辆能量管理方法
Cussigh et al. An all-electric alpine crossing: time-optimal strategy calculation via fleet-based vehicle data

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination