CN113554300A - 一种基于深度强化学习的共享车位实时分配方法 - Google Patents

一种基于深度强化学习的共享车位实时分配方法 Download PDF

Info

Publication number
CN113554300A
CN113554300A CN202110814809.8A CN202110814809A CN113554300A CN 113554300 A CN113554300 A CN 113554300A CN 202110814809 A CN202110814809 A CN 202110814809A CN 113554300 A CN113554300 A CN 113554300A
Authority
CN
China
Prior art keywords
parking
parking space
time
state
space
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202110814809.8A
Other languages
English (en)
Inventor
苑明海
张晨希
周凯文
裴凤雀
顾文斌
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hohai University HHU
Original Assignee
Hohai University HHU
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hohai University HHU filed Critical Hohai University HHU
Priority to CN202110814809.8A priority Critical patent/CN113554300A/zh
Publication of CN113554300A publication Critical patent/CN113554300A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/06Resources, workflows, human or project management; Enterprise or organisation planning; Enterprise or organisation modelling
    • G06Q10/063Operations research, analysis or management
    • G06Q10/0631Resource planning, allocation, distributing or scheduling for enterprises or organisations
    • G06Q10/06315Needs-based resource requirements planning or analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/06Buying, selling or leasing transactions
    • G06Q30/0645Rental transactions; Leasing transactions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06Q50/26Government or public services

Landscapes

  • Business, Economics & Management (AREA)
  • Engineering & Computer Science (AREA)
  • Human Resources & Organizations (AREA)
  • Theoretical Computer Science (AREA)
  • Economics (AREA)
  • Strategic Management (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Marketing (AREA)
  • General Business, Economics & Management (AREA)
  • Tourism & Hospitality (AREA)
  • Development Economics (AREA)
  • Accounting & Taxation (AREA)
  • Finance (AREA)
  • Educational Administration (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Software Systems (AREA)
  • Operations Research (AREA)
  • Quality & Reliability (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Primary Health Care (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Medical Informatics (AREA)
  • Game Theory and Decision Science (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Traffic Control Systems (AREA)

Abstract

本发明公开一种基于深度强化学习的共享车位实时分配方法,包括:首先确定共享车位分配的强化学习目标;收集一个社区共享停车场的静态信息;利用静态信息构建基于马尔可夫决策过程的共享车位实时分配模型;利用深度强化学习算法训练共享车位实时分配模型;利用训练完成的共享车位实时分配模型进行实际车位分配。本发明为异质性共享车位的实时分配问题提供了有效的解决方案,能够有效减少用户停车后的平均行走距离,提高用户的满意度。

Description

一种基于深度强化学习的共享车位实时分配方法
技术领域
本发明涉及共享停车技术领域,具体为一种基于深度强化学习的共享车位实时分配方法。
背景技术
根据公安部交通管理局数据显示,截止到2020年,我国机动车保有量达3.72亿辆,其中汽车保有量为2.81亿辆,但是我国停车位个数仅为1.19亿个,面对如此巨大的缺口,不能光靠增加停车位来解决,更要提高对已有停车位的利用效率。所以,为了缓解停车难问题,在物联网、大数据等信息技术的支持下,可将社区内由于居民上班等原因长期闲置的私家车位在空闲时段进行共享,供需求者使用,实现错时停车。但是相对于专业停车场,社区占地面积较大,停车位分布稀疏,且每个共享车位的共享时段不同,因而产生了如车位分配、车位定价等问题。
过去国内外学者们关于共享停车的研究集中在两个方面:1)通过分析停车泊位需求,来预测共享停车场未来状态,这方面主要包括停车者行为分析和停车选择预测。具体实现模型和方法如面向链式结构和环式结构的双层规划模型,向量自回归预测模型以及基于停车者视角,研究和分析了影响单位共享泊位的因素;2)基于不同优化目标,对车位资源构建优化配置模型并求解。如以停车场利润为优化目标的动态定价策略,以用户效益为目标的跨区域分配模型,以泊位资源最大化利用为目标的构建共享车位资源配置模型等,常用的求解方法有蚁群算法、粒子群算法、动态规划等。
虽然上述文献对车位共享平台下的车位分配问题进行了研究,但是共享停车相对于专业停车场,车位分布更加稀疏,同一社区内的共享车位位置差异性较大,用不同的车位位置去满足顾客,将会影响顾客停车后的行走距离,从而极大地影响顾客满意度,最终影响平台的收益。所以车位分配决策应该考虑车位的异质性。而且如今大部分车位分配系统是基于车位预约进行的,而不是实时分配,没有将停车需求分析和预测与泊位资源配置相结合。
近年来,随着人工智能研究的不断深入,机器学习技术已经在很多领域打破了传统方法的壁垒。强化学习作为机器学习中的一个分支,被广泛认定是解决马尔可夫决策问题的有力途径。尤其地,深度Q网络(DeepQ-Network,DQN)将深度神经网络与传统强化学习中的Q学习算法相结合,借助神经网络强大的表征能力去拟合策略,解决了连续状态空间的马尔可夫决策过程,使强化学习能够用在更广泛的领域。
因此本发明以共享停车为背景,借助深度强化学习,提出一种基于强化学习的共享车位实时分配方法,旨在充分提高用户停车满意度,为共享平台的车位分配提供决策支持。
发明内容
为克服上述现有技术的不足,本发明提供一种基于深度强化学习的共享车位实时分配方法,该方法能够通过合理分配社区共享车位,充分降低用户停车后平均行走距离,从而提高用户停车满意度。
本发明是通过以下技术方案予以实现的:
一种基于深度强化学习的共享车位实时分配方法,包括以下步骤,
步骤S1,确定共享车位分配的强化学习目标;
步骤S2,收集一个社区共享停车场的静态信息;
步骤S3,利用静态信息构建基于马尔可夫决策过程的共享车位实时分配模型;
步骤S4,利用深度强化学习算法训练共享车位实时分配模型;
步骤S5,利用训练完成的共享车位实时分配模型进行实际车位分配。
更优选地,所述步骤S1中,社区共享停车场相对于专业停车场占地面积更大,车位分布稀疏,不同车位距离目标点距离不同,而用户步行到目标点的距离会极大地影响用户的满意度,因此强化学习的目标就是最大化用户满意度,即最小化用户停车后平均行走距离。
更优选地,所述步骤S2中的停车场静态信息具体包括:
共享车位的数量,各共享车位与各目标点的距离关系以及各车位的共享时间段。
更优选地,所述步骤S3中的共享车位实时分配模型包括:
共享车位实时环境,智能体和经验池;
所述共享车位实时环境会根据智能体的动作,反馈给智能体奖惩值和状态转移信息。
所述智能体用于根据环境反馈的状态选择出最优的共享车位进行分配,并把动作作用于共享车位实时环境;其输入的状态包含于环境的状态空间,其输出的动作包含于环境的动作空间。
所述经验池用于存储智能体与共享车位实时环境交互得到的样本,在训练时,每次从经验池中随机抽取小批量的样本进行学习。
更优选地,所述共享车位实时环境包括:
状态空间、动作空间、回报函数、状态转移模块;
状态空间是环境中所有车位以及订单状态信息的集合,智能体依据状态信息进行车位分配;
动作空间是智能体是在当前状态所有可能动作的集合;
回报函数是智能体在某一状态下执行动作后收到的奖惩值,所述回报函数根据强化学习目标确定;
状态转移模块根据前一时刻状态和智能体当前执行的动作输出下一时刻的状态,其中涉及的状态都包含于状态空间。
更优选地,所述状态空间包括:
每个停车区域的剩余共享车位数量;当前订单的信息,包括目标点和需求停车时间;当前时间点。
更优选地,所述停车区域的划分规则如下:
对每个目标点,分别将距离目标点[0,50]、[50,100]、[100,200]米的车位划分成三个优势区域;对于同时符合多个优势区域划分标准的车位,划分给距离最近目标点的优势区域;将不属于任何优势区域的车位划分为同一个区域。
更优选地,所述动作空间包括:
第一部分选择某一个停车区域,为了保证动作空间的合法性,需要对选择停车区域的范围进行过滤,过滤条件包括选择的区域必须存在空闲车位且剩余共享时长能满足停车需求;第二部分为从已选区域中选择某种分配策略进行选取车位。
更优选地,所述分配策略包括:
最短步行距离策略,选择区域内距离目标点最近的车位;剩余共享时间最少策略,选择区域内剩余共享时间最少的车位;随机策略,随机选择区域内一个车位。
更优选地,所述回报函数表示为:
Figure BDA0003169637890000041
其中可变系数
Figure BDA0003169637890000042
Tnow为环境当前时间,Ti为车位共享停止时间,Tst为车位共享开始时间,
Figure BDA0003169637890000043
为用户行走距离。
更优选地,所述状态转移模块的内部逻辑为:
输入上一状态信息和动作,根据动作中选取的区域和策略得到所选车位,分配车位给当前订单;更新当前时间,计算各停车区域的车位数量,接收下一个停车订单,将这三个信息作为下一状态。
更优选地,所述步骤S4具体包括:
智能体根据当前状态信息st选到最优的停车区域和停车策略作为当前动作at,并执行动作;共享车位实时环境的状态转移模块根据上一状态信息st和当前动作输出下一状态st+1,回报函数输出奖惩值rt;将上述样本et=(st,at,rt,st+1)存储到经验池中;智能体每隔指定时间,每次从经验池中随机抽取小批量的样本进行训练学习,如此不断迭代,直到模型收敛。
与现有技术相比,本发明的有益效果在于:本发明的方法中对停车场划分了多个停车区域,大量降低了状态空间的维度,能够有效抽象复杂且庞大的共享停车场状态信息,适用于不同规模场景下的分配需求;本发明的共享车位实时分配模型中的回报函数纳入了可变系数,使模型训练时前期注重探索,后期注重性能,加快了训练算法的收敛速度;训练完成的模型进行实际车位分配时,可以根据实时的停车订单以及停车场状态,给出最优的车位分配方案,使共享停车更加合理。
附图说明
图1为根据本发明实施例的一种基于深度强化学习的共享车位实时分配方法总体流程图。
图2为根据本发明实施例的共享车位实时分配模型的架构图。
图3为根据本发明实施例的共享停车区域划分图。
图4为根据本发明实施例用于强化学习模型训练的算法伪代码示意图。
具体实施方式
以下将结合附图对本发明各实施例的技术方案进行清楚、完整的描述,显然,所描述发实施例仅仅是本发明的一部分实施例,而不是全部的实施例。基于本发明的实施例,本领域普通技术人员在没有做出创造性劳动的前提下所得到的所有其它实施例,都属于本发明所保护的范围。
本发明提供一种基于深度强化学习的共享车位实时分配方法,其方法的总体流程如图1所示,包括以下步骤:
步骤S1,确定共享车位分配的强化学习目标。
由于社区共享停车场相对于专业停车场占地面积更大,车位分布稀疏,不同车位距离目标点距离不同,而用户步行到目标点的距离会极大地影响用户的满意度,因此强化学习的目标就是最大化用户满意度,即最小化用户停车后平均行走距离。
步骤S2,收集一个社区共享停车场的静态信息,其静态信息具体包括:共享车位的数量,各共享车位与各目标点的距离关系以及各车位的共享时间段。
步骤S3,利用静态信息构建基于马尔可夫决策过程的共享车位实时分配模型。
如图2所示,共享车位实时分配模型包括:共享车位实时环境用于根据智能体的动作,输出给智能体奖惩值和状态转移信息;智能体用于根据环境反馈的状态选择出最优的共享车位进行分配,并把动作作用于共享车位实时环境;经验池用于存储智能体与共享车位实时环境交互得到的样本,在训练时,每次从经验池中随机抽取小批量的样本进行学习。
其中共享车位实时环境包括:状态空间、动作空间、回报函数、状态转移模块。
状态空间是环境中所有车位以及订单状态信息的集合,智能体依据状态信息进行车位分配。状态空间包括:每个停车区域的剩余共享车位数量;当前订单的信息,包括目标点和需求停车时间;当前时间点。
如图3所示为一个停车场的停车区域划分,具体划分规则为:对每个目标点,分别将距离目标点[0,50]、[50,100]、[100,200]米的车位划分成三个优势区域;对于同时符合多个优势区域划分标准的车位,划分给距离最近目标点的优势区域;将不属于任何优势区域的车位划分为同一个区域。
动作空间是智能体是在当前状态所有可能动作的集合。动作空间包括:第一部分选择某一个停车区域,为了保证动作空间的合法性,需要对选择停车区域的范围进行过滤,过滤条件包括选择的区域必须存在空闲车位且剩余共享时长能满足停车需求;第二部分为从已选区域中选择某种分配策略进行选取车位。
动作空间的分配策略包括:最短步行距离策略,选择区域内距离目标点最近的车位;剩余共享时间最少策略,选择区域内剩余共享时间最少的车位;随机策略,随机选择区域内一个车位。
回报函数是智能体在某一状态下执行动作后收到的奖惩值。回报函数根据强化学习目标确定,所以回报函数表示为:
Figure BDA0003169637890000061
其中可变系数
Figure BDA0003169637890000062
Tnow为环境当前时间,Ti为车位共享停止时间,Tst为车位共享开始时间,
Figure BDA0003169637890000063
为用户行走距离。
状态转移模块根据前一时刻状态和智能体当前执行的动作输出下一时刻的状态,其中涉及的状态都包含于状态空间。状态转移模块的内部逻辑为:输入上一状态信息和动作,根据动作中选取的区域和策略得到所选车位,分配车位给当前订单;更新当前时间,计算各停车区域的车位数量,接收下一个停车订单,将这三个信息作为下一状态。
步骤S4,利用深度强化学习算法训练共享车位实时分配模型。
具体训练步骤如图4所示,智能体根据当前状态信息st选到最优的停车区域和停车策略作为当前动作at,并执行动作;共享车位实时环境的状态转移模块根据上一状态信息st和当前动作输出下一状态st+1,回报函数输出奖惩值rt;将上述样本et=(st,at,rt,st+1)存储到经验池中;智能体每隔指定时间,每次从经验池中随机抽取小批量的样本进行训练学习,如此不断迭代,直到模型收敛。
步骤S5,利用训练完成的共享车位实时分配模型进行实际车位分配,训练完成的模型可以根据实时的停车订单以及停车场状态,给出最优的车位分配方案。
最后应说明的是:以上实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述实施例所记载的技术方案进行修改,或者对其中部分或者全部技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明实施例技术方案。

Claims (10)

1.一种基于深度强化学习的共享车位实时分配方法,其特征在于,
确定共享车位分配的强化学习目标;
收集一个社区共享停车场的静态信息;
利用静态信息构建基于马尔可夫决策过程的共享车位实时分配模型;
利用深度强化学习算法训练共享车位实时分配模型;
利用训练完成的共享车位实时分配模型进行实际车位分配。
2.根据权利要求1所述一种基于深度强化学习的共享车位实时分配方法,其特征在于,所述共享车位分配的强化学习目标为最小化用户停车后平均行走距离。
3.根据权利要求1所述一种基于深度强化学习的共享车位实时分配方法,其特征在于,所述社区共享停车场的静态信息包括:共享车位的数量,各共享车位与各目标点的距离关系以及各车位的共享时间段。
4.根据权利要求1所述一种基于深度强化学习的共享车位实时分配方法,其特征在于,所述共享车位实时分配模型包括:共享车位实时环境,智能体和经验池;其中,
所述共享车位实时环境根据智能体的动作,反馈给智能体奖惩值和状态转移信息;
所述智能体用于根据环境反馈的状态选择出最优的共享车位进行分配,并把动作作用于共享车位实时环境;其输入的状态包含于环境的状态空间,其输出的动作包含于环境的动作空间;
所述经验池用于存储智能体与共享车位实时环境交互得到的样本,在训练时,每次从经验池中随机抽取小批量的样本进行学习。
5.根据权利要求4所述一种基于深度强化学习的共享车位实时分配方法,其特征在于,所述共享车位实时环境包括:状态空间、动作空间、回报函数和状态转移模块;其中,
所述状态空间是环境中所有车位以及订单状态信息的集合,智能体依据状态信息进行车位分配;
所述动作空间是智能体在当前状态所有可能动作的集合;
所述回报函数是智能体在某一状态下执行动作后收到的奖惩值,所述回报函数根据强化学习目标确定;
所述状态转移模块根据前一时刻状态和智能体当前执行的动作输出下一时刻的状态,其中涉及的状态都包含于状态空间。
6.根据权利要求5所述一种基于深度强化学习的共享车位实时分配方法,其特征在于,所述状态空间包括:每个停车区域的剩余共享车位数量;当前订单的信息,包括目标点和需求停车时间;当前时间点。
7.根据权利要求5所述一种基于深度强化学习的共享车位实时分配方法,其特征在于,所述动作空间包括:第一部分选择某一个停车区域,对选择停车区域的范围进行过滤,过滤条件包括选择的区域必须存在空闲车位且剩余共享时长能满足停车需求;第二部分为从已选区域中选择某种分配策略进行选取车位。
8.根据权利要求7所述一种基于深度强化学习的共享车位实时分配方法,其特征在于,所述分配策略包括:最短步行距离策略,选择区域内距离目标点最近的车位;剩余共享时间最少策略,选择区域内剩余共享时间最少的车位;随机策略,随机选择区域内一个车位。
9.根据权利要求5所述的一种基于深度强化学习的共享车位实时分配方法,其特征在于,所述状态转移模块的内部逻辑为:
输入上一状态信息和动作,根据动作中选取的区域和策略得到所选车位,分配车位给当前订单;更新当前时间,计算各停车区域的车位数量,接收下一个停车订单,将这三个信息作为下一状态。
10.根据权利要求4所述的一种基于深度强化学习的共享车位实时分配方法,其特征在于,利用深度强化学习算法训练共享车位实时分配模型的步骤进一步包括:
智能体根据当前状态信息选到最优的停车区域和停车策略作为当前动作,并执行动作;共享车位实时环境的状态转移模块根据上一状态信息和当前动作输出下一状态,回报函数输出奖惩值;将上述样本存储到经验池中;智能体每隔指定时间,每次从经验池中随机抽取小批量的样本进行训练学习,如此不断迭代,直到模型收敛。
CN202110814809.8A 2021-07-19 2021-07-19 一种基于深度强化学习的共享车位实时分配方法 Pending CN113554300A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110814809.8A CN113554300A (zh) 2021-07-19 2021-07-19 一种基于深度强化学习的共享车位实时分配方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110814809.8A CN113554300A (zh) 2021-07-19 2021-07-19 一种基于深度强化学习的共享车位实时分配方法

Publications (1)

Publication Number Publication Date
CN113554300A true CN113554300A (zh) 2021-10-26

Family

ID=78132129

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110814809.8A Pending CN113554300A (zh) 2021-07-19 2021-07-19 一种基于深度强化学习的共享车位实时分配方法

Country Status (1)

Country Link
CN (1) CN113554300A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117953718A (zh) * 2023-12-30 2024-04-30 佛山市佛盈盘古信息科技有限公司 一种医院车辆停车调度方法、系统及设备

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108600379A (zh) * 2018-04-28 2018-09-28 中国科学院软件研究所 一种基于深度确定性策略梯度的异构多智能体协同决策方法
CN109947098A (zh) * 2019-03-06 2019-06-28 天津理工大学 一种基于机器学习策略的距离优先最佳路径选择方法
CN110136481A (zh) * 2018-09-20 2019-08-16 初速度(苏州)科技有限公司 一种基于深度强化学习的停车策略
CN111061277A (zh) * 2019-12-31 2020-04-24 歌尔股份有限公司 一种无人车全局路径规划方法和装置
CN111098852A (zh) * 2019-12-02 2020-05-05 北京交通大学 一种基于强化学习的泊车路径规划方法
CN112068515A (zh) * 2020-08-27 2020-12-11 宁波工程学院 一种基于深度强化学习的全自动停车场调度方法
CN112286203A (zh) * 2020-11-11 2021-01-29 大连理工大学 一种基于蚁群算法的多智能体强化学习路径规划方法
CN112356830A (zh) * 2020-11-25 2021-02-12 同济大学 一种基于模型强化学习的智能泊车方法
CN113095500A (zh) * 2021-03-31 2021-07-09 南开大学 一种基于多智能体强化学习的机器人追捕方法

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108600379A (zh) * 2018-04-28 2018-09-28 中国科学院软件研究所 一种基于深度确定性策略梯度的异构多智能体协同决策方法
CN110136481A (zh) * 2018-09-20 2019-08-16 初速度(苏州)科技有限公司 一种基于深度强化学习的停车策略
CN109947098A (zh) * 2019-03-06 2019-06-28 天津理工大学 一种基于机器学习策略的距离优先最佳路径选择方法
CN111098852A (zh) * 2019-12-02 2020-05-05 北京交通大学 一种基于强化学习的泊车路径规划方法
CN111061277A (zh) * 2019-12-31 2020-04-24 歌尔股份有限公司 一种无人车全局路径规划方法和装置
CN112068515A (zh) * 2020-08-27 2020-12-11 宁波工程学院 一种基于深度强化学习的全自动停车场调度方法
CN112286203A (zh) * 2020-11-11 2021-01-29 大连理工大学 一种基于蚁群算法的多智能体强化学习路径规划方法
CN112356830A (zh) * 2020-11-25 2021-02-12 同济大学 一种基于模型强化学习的智能泊车方法
CN113095500A (zh) * 2021-03-31 2021-07-09 南开大学 一种基于多智能体强化学习的机器人追捕方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
张利凤等: ""考虑车位异质性的共享停车平台最优分配机制研究"", 《技术经济》, 25 September 2020 (2020-09-25), pages 31 - 43 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117953718A (zh) * 2023-12-30 2024-04-30 佛山市佛盈盘古信息科技有限公司 一种医院车辆停车调度方法、系统及设备

Similar Documents

Publication Publication Date Title
Hu et al. Federated region-learning: An edge computing based framework for urban environment sensing
CN113282368A (zh) 一种用于变电站巡视的边缘计算资源调度方法
CN112230675B (zh) 在协同搜救中考虑运行环境和性能的无人机任务分配方法
CN112650248A (zh) 基于改进遗传算法的巡检机器人路径规划方法及系统
CN114548644A (zh) 基于电动汽车与充电设施动态匹配的配电网双层调度方法及系统
CN112182951A (zh) 一种考虑多重不确定性的土地利用规划方法
CN114580762A (zh) 一种基于XGBoost的水文预报误差校正方法
CN113554300A (zh) 一种基于深度强化学习的共享车位实时分配方法
CN104933473A (zh) 基于变邻域搜索蚁群算法的城市智能交通调度方法
CN114139794A (zh) 基于停车大数据的区域公共停车场充电需求预测方法
Liu et al. Spatio-temporal hierarchical adaptive dispatching for ridesharing systems
CN108564810B (zh) 一种车位共享系统及其方法
CN117097619B (zh) 一种车路云协同的通算存资源优化配置方法及系统
Jia et al. Robust ocean zoning for conservation, fishery and marine renewable energy with co-location strategy
CN113159371B (zh) 基于跨模态数据融合的未知目标特征建模与需求预测方法
Miao et al. A queue hybrid neural network with weather weighted factor for traffic flow prediction
CN117827434A (zh) 基于多维资源预测的混合弹性伸缩方法
CN116620088A (zh) 一种充电桩功率的分配方法、装置、充电桩及介质
CN114119075B (zh) 一种大型综合体配建停车场内差异化定价策略制定方法
Cao et al. Research On Regional Traffic Flow Prediction Based On MGCN-WOALSTM
CN1754164A (zh) 用于生成具体多准则优化问题的解决方案的方法
Zhang et al. Learned Unmanned Vehicle Scheduling for Large-Scale Urban Logistics
Chu et al. Application of IoT and artificial intelligence technology in smart parking management
Gu et al. Reinforcement learning multi-agent using unsupervised learning in a distributed cloud environment
Zhao et al. Location planning of smart charging station based on fuzzy TOPSIS method

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination