CN113380054A - 一种基于强化学习的交通信号灯控制方法及系统 - Google Patents
一种基于强化学习的交通信号灯控制方法及系统 Download PDFInfo
- Publication number
- CN113380054A CN113380054A CN202110644486.2A CN202110644486A CN113380054A CN 113380054 A CN113380054 A CN 113380054A CN 202110644486 A CN202110644486 A CN 202110644486A CN 113380054 A CN113380054 A CN 113380054A
- Authority
- CN
- China
- Prior art keywords
- signal lamp
- agent
- action
- state
- traffic
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/07—Controlling traffic signals
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/01—Detecting movement of traffic to be counted or controlled
- G08G1/0104—Measuring and analyzing of parameters relative to traffic conditions
- G08G1/0125—Traffic data processing
Abstract
本发明公开了一种基于强化学习的交通信号灯控制方法及系统,首先建立信号灯控制Agent模型,其次建立道路及道路交叉口模型,将道路交通状态信息表示成速度、位置和当前信号灯状态矩阵,然后在传统Q‑Learning的基础上根据道路环境信息建立基于Deep Q Network(DQN)的交通信号灯控制算法;最后通过Agent与环境交互获取实时的路况信息,在行为空间进行搜索自学习,估计当前状态下执行所有可能动作的Q值,利用ε‑greedy策略选择Q较大的动作执行。本发明改进了现有的交通信号灯控制方法,最小化路口车辆的等待时间,最大化信号控制周期有效绿灯时间,助力车辆快速通过路口,有最短的通行时间,同时使路口有最大车流量,从而达到缓解交通拥堵的目的,实现交通信号灯的自适应控制。
Description
技术领域
本发明涉及智能交通控制技术领域,具体是一种基于强化学习的交通信号灯控制方法及系统。
背景技术
随着机动车保有量的快速增长,城市道路交通的承载能力明显不足,交通拥堵问题日益凸显。在城市道路交通系统中,各交叉口处的交通流是相互关联和影响的,任何一个交叉口某相位的交通拥堵都会导致与之相邻的相位也会发生拥堵,接着导致相邻的路口和区域也会发生拥堵。近年来交通拥堵越来越引起人们的关注,现有的缓解交通拥堵的途径主要有两种:一是加强基础设施建设,如提高路网的通行能力、扩建桥梁与道路等外延设施,这种方式成本高且不易实施。二是采用先进、有效的智能决策控制方法,合理使用现有交通设施,充分发挥其能力,该方式主要体现在交通信号灯的自适应控制,这也符合我国提出的数字城市与智慧城市发展理念。
传统的交通信号灯,在交叉路口的每个方向,无论车辆数目如何变化,信号时间间隔都是不变的,这就很容易导致交通设施的低效运用。比如,在车流高峰时间段,过短的绿灯会导致车辆拥堵情况的加剧;在车辆较少的时间段,过长的绿灯又会造成行人通行延缓。为了能够让车辆在交叉路口的通行更加通畅,人们利用智能系统将交通信号灯的周期与道路上汽车数量结合起来,设计出可以根据道路实际情况调控交通信号配时方案的自适应交通信号灯控制系统。
现有的自适应交通信号灯控制系统大多根据历史交通数据预测道路车流量,根据预测的车流数量,改变信号灯的状态和周期,对历史数据、模型依赖严重并且人为干预因素较大,并非真正的自适应控制。强化学习方法不需要外部环境的数学模型,对环境的先验知识要求低,可在大空间、复杂的非线性系统中取得良好的学习性能。因此,结合道路状态信息,设计基于强化学习的交通信号灯控制方法及系统具有重要研究意义。
发明内容
本发明针对现有自适应交通信号灯控制方法及系统对历史数据、模型依赖严重并且人为干预因素大,并非真正的自适应控制问题,提出了一种基于强化学习的自适应交通信号灯控制方法及系统。
本发明的技术方案如下:
一方面,一种基于强化学习的交通信号灯控制方法,包括以下几个步骤:
步骤1:建立信号灯控制Agent模型;
以道路交叉口车道上的所有车辆等待时间最小作为信号灯控制Agent的信念;以道路交叉口上的红绿灯在一个信号控制周期内的有效绿灯时间最长作为信号灯控制Agent的愿望;以道路交叉口上的红绿灯信号状态的切换操作作为信号灯控制Agent的意图;
基于信念-愿望-意图(Belief-Desire-Intention,BDI)理论的混合型信号灯控制Agent模型,能够实时地、动态地、自主地与不断变化着的外部环境进行交互,感知并作用于环境,并且通过自己行为的执行而达到缓解交通拥堵的目的。
首先,Agent观察交通环境,记录路口每条道路上每个车道的车辆位置、速度以及路口信号灯相位,作为控制算法的输入;然后,利用经验回放机制进行自学习,得出下一时刻的动作,用于指导制定信号灯的信号切换策略,完成信号切换;最后,交通环境进入一个新的状态并给Agent行为一个奖励,Agent再次观察环境信息,完成学习与决策;
步骤2:建立包含道路交叉口、道路、信号灯的路网模型;
路网模型使用SUMO的附带软件netedit 1.7.0搭建;
道路交叉口由东、南、西、北四条路组成,交汇处设有一个交通信号灯;每条路长250米,分三条驶入车道和三条驶出车道(本方案的交通信号灯控制中只关注驶入车道的信息,驶出车道上的车辆已通过路口,对当前路口的信号控制不产生影响),分别为左转、直行、右转;12条驶入车道对应12个控制信号,驶入车道信号灯相位pi={l1,l2,l3,l4,l5,l6,l7,l8,l9,l10,l11,l12},{l1,l2,l3}、{l4,l5,l6}、{l7,l8,l9}以及{l10,l11,l12}依次为南向、东向、北向以及西向的左转、直行、右转驶入车道控制信号;左转车道信号灯控制优先级低于直行车道绿灯控制优先级;交通信号灯相位之间的切换按照设定顺序依次切换;
为了防止直接切换与实际情况产生冲突,引发交通事故,核心相位间的切换需要包含一系列其他过渡相位的切换。
步骤3:构建基于强化学习的交通信号灯控制三要素状态空间State,动作空间Action以及奖励函数Reward;
所述状态空间State包含车辆位置、速度和当前信号灯相位;所述动作空间Action表示信号灯控制Agent模型执行的信号控制动作集合;所述奖励函数Reward表示信号灯控制Agent执行信号控制动作,按照设置的信号灯切换策略进行信号灯相位切换后得到的奖励函数值R;
设定一辆车的长度加上安全距离为一个单元长度。每条车道划分为N个单元,一共有12条车道,所以共有12×N个单元。用两个这样的矩阵来表示路网状态,即位置矩阵D和速度矩阵V。位置矩阵D记录该单元内是否有车,有车就记为1,否则记为0。速度矩阵V用来记录车辆的行驶速度,为了方便记录,此处记录的是当前车辆行驶速度与最大速度的比值,即,当车辆为最大速度时记为1,当车辆在减速状态且车速为最大车速一半时,记为0.5。通过这个矩阵,可以判断出哪些车辆正在等红灯。除了这两个矩阵外,还要包含当前信号灯的相位p,也将其记录为矩阵形式。在实验中,交通环境状态记为一个列表,表示为s=[D,V,pi];
R=T-TW;T和TW分别表示信号灯相位切换开始到结束的时间内所有车辆总行驶时间以及总等待时间;
步骤4:构建基于DQN的信号灯控制网络模型;
输入信息为路网当前状态,输出信息为两种动作的Q值;所述Q值是指基于Q-Learning算法对所述Agent执行动作得到的奖励值的评估值;
步骤5:基于DQN的信号灯控制网络模型;
所述基于DQN的信号灯控制模型利用Q值的计算值与Q值的预估值之间的均方差作为损失函数,利用回放Replay机制和目标网络对所述卷积神经网络中的参数进行训练与更新;
步骤6:信号灯控制Agent选择Q值较大的动作,决策信号灯相位,输出交通信号灯的信号控制策略。
DQN的重要机制replay,模型中设置有记忆库,大小固定,Agent会把每个时间步与环境交互得到的信息(st,at,rt,st+1)存入到事先设定好的记忆单元中,要训练时就随机拿出一些来训练。每当有新的内容加入,最早的内容就会被丢弃,这样能够保证每次重新学习到的内容都是较新的内容。在完成重复训练后,神经网络也得到了更新,Agent开始准备下一轮的学习。
进一步地,基于当前时刻所述Agent的状态空间st和执行动作at,以及Agent执行完动作at得到的Q值,按照以下公式获得下一个时刻的Q值的计算值Q(st+1,a')和预估值T argetQ;
Q(st+1,a')=Q(st,at)+α[rt+γ×maxa'{Q(st+1,a';θ')}-Q(st,at)]
TargetQ=rt+γ×maxa'{Q(st+1,a';θ')}
其中,rt是t时刻的真实奖励,γ是折扣因子,表示未来动作对当前的状态的影响程度;a'是Agent学习中下个时刻执行的某个动作;st+1是Agent执行动作a'之后环境进入的新状态;Q值的初始值为0,θ和θ'分别是Agent基于当前时刻所述Agent的状态st和执行动作at进行自我学习前、后,基于DQN的信号灯控制网络模型参数向量。
进一步地,所述交通信号灯相位设有8个,分别为:p1仅南北通行,南北向的左转与直行信号灯均为绿灯;p2仅南北通行,南北向的左转信号灯为绿灯,直行信号灯为黄灯;p3仅南北通行,南北向的左转信号灯为绿灯,直行信号灯为红灯;p4仅南北通行,南北向的左转信号灯为黄灯,直行信号灯为绿灯;p5仅东西通行,东西向的左转与直行信号灯均为绿灯;p6仅东西通行,东西向的左转信号灯为绿灯,直行信号灯为黄灯,p7仅东西通行,左转绿灯直行红灯;p8仅东西通行,东西向的左转信号灯为黄灯,直行信号灯为绿灯。
进一步地,若当前Agent动作为a1南北放行,当前信号灯相位为p1,且Agent决策结果是a1南北放行,则信号灯相位保持p1不变,并延续时间10秒,即p1(30s)→p1(10s);若当前Agent动作为a1南北放行,当前信号灯相位为p1,且Agent决策结果是a2东西放行,则信号灯相位切换(从p1切换到p5),同时经过p2,p3,p4三个过渡相位,整个切换过程为p2(3s)→p3(3s)→p4(3s)→p5(30s);之后等待下次判断等待下次判断。
现有的方法持续绿灯是绿灯时长翻倍,造成某个方向上的绿灯时间浪费。比如,现在绿灯持续30秒,经过判断,下一次继续保持绿灯,相应的绿灯就会延长30秒。但是可能20秒的时间这个方向的车已经通行完了,剩下40秒的时间就属于无效的绿灯时间。本方案一次增加10秒绿灯时间,可以增加有效绿灯时间利用率,均衡各方向的车辆通行时间。
Agent根据Q值选择下个周期的动作,指导红绿等信号的切换。例如,若当前Agent动作为a1南北放行(对应信号灯相位p1),Agent决策结果是a2东西放行(对应信号灯相位p5),信号灯相位要从p1切换到目标相位p5。考虑到实际应用中的安全,这两个相位之间有过渡的切换相位,即从p1切换到相位p5中间有p2,p3,p4三个相位,p2南北通行,左转绿灯直行黄灯右转绿灯,p3南北通行,左转绿灯直行红灯右转绿灯,p4南北通行,左转黄灯直行红灯右转绿灯,持续时间均为3秒,该红绿灯相位转换过程可表述为p2(3s)→p3(3s)→p4(3s)→p5(30s),到p5时,东西方向车辆开始通行,执行周期结束后Agent观察记录交通环境状态,继续学习决策下个周期的动作。若当前Agent动作为a1南北放行(对应信号灯相位p1),Agent决策结果是a1南北放行(对应信号灯相位p1),信号灯相位要保持p1不变,为了保证有效绿灯的利用率,采用动态延续绿灯时间10秒,即p1(30s)→p1(10s),再次学习决策;
Agent执行动作后,环境会给予Agent奖励。本方案中的奖励定义为切换信号灯状态导致车辆运行时间与车辆等待时间的差。
T表示车辆总行驶时间,TW表示车辆总等待时间,tk表示车辆k通过该路口行驶的时间,twk表示车辆k通过该路口等待的时间。如果R大于0,则表示此次切换是正向调节,行驶车辆花费的时间大于等待车辆花费的时间,数值越大表示调节的效果越明显,因此奖励值也越大,鼓励Agent在今后的行为选择中继续寻找最大化奖励值的策略。如果R小于0,表示此次切换是反向调节,反而导致了整个路网总等待时间的增加,数值越小表示路网拥堵程度变得越严重,因此奖励值也变得越小,提示Agent这样的调节会起到反作用。
其中,l为道路长度,lc为一台车的长度,ld为停车时车辆间安全距离。
其中,Dij表示第i车道的第j个单元格上的车辆有无状态,其中1≤i≤12,1≤j≤N。
进一步地,所述基于DQN的信号灯控制网络模型中第一层卷积核数目为16,每个卷积核大小为4×4,步长为2;第二层卷积核数目为32,每个卷积核大小为2×2,步长为1;卷积层后依次设置有全连接层与输出层;
采取的损失函数为均方误差MSE(θ):
其中,rt是t时刻的真实奖励,γ是折扣因子,表示未来动作对当前的状态的影响程度;a'是Agent学习中下个时刻执行的某个动作;st+1是Agent执行动作a'之后环境进入的新状态;Q(st+1,a';θ')是t+1时刻执行动作a'的Q值,Q(st,at;θ)是t时刻的Q值,st是t时刻的状态,at是t时刻正在执行的动作,θ和θ'分别是Agent基于当前时刻所述Agent的状态st和执行动作at进行自我学习前、后,基于DQN的信号灯控制网络模型参数向量。
进一步地,信号灯控制Agent模型中的Agent利用ε-greedy策略选择Q值较大的动作,决策信号灯相位,输出交通信号灯的信号控制策略。
另一方面,一种基于强化学习的交通信号灯控制系统,包括:
路网信息采集模块,用于实时采集交通状态信息,包括车辆速度、位置以及当前路口信号灯状态;
数据预处理模块,用于将Agent与环境交互获取实时的路况信息转化成矩阵;
强化学习模块,将路网当前状态,基于权利要求1-8任一项所述的方法,通过卷积神经网络,计算当前状态下执行所有可能动作的Q值,选择Q值最大的动作执行,并在状态-动作空间进行搜索自学习更新;
信号灯控制模块,用于根据强化学习决策的Agent的动作,进行相应的信号灯相位切换,动态调整信号灯灯的状态和周期,实时按照决策结果调整该路口信号灯的状态及持续时间。
有益效果
本发明技术方案提供了一种基于强化学习的交通信号灯控制方法及系统,本发明技术方案使得交通信号灯可以根据实时的交通信息动态、自适应的调节状态,缓解交通拥堵。该方法首先对信号灯Agent、道路交叉口、道路、信号灯模型,其次设计适用于信号灯控制方法的强化学习三要素,然后建立基于DQN的交通信号灯控制模型,设计卷积神经网络,采用ε-greedy策略选择动作,最后,在SUMO平台完成该方法的是验证。
本方法在不依赖历史交通数据、不依赖先前交通信号灯控制模型、不需人为干预的情况下,信号灯控制Agent实时、动态、自主地与不断变化着的外部环境进行交互,感知并作用于环境。通过Agent的动作动态制定信号灯的切换策略,路口交通信号灯直行信号切换策略,最小化路口车辆的等待时间,最大化信号控制周期有效绿灯时间的利用率,从而达到缓解交通拥堵的目的,实现交通信号灯的自适应控制。
附图说明
图1基于BDI理论的信号灯控制Agent模型;
图2本发明所述方法具体实例的流程示意图;
图3信号灯控制系统结构框图;
图4路网模型图;
图5车道的划分及路况信息记录;
图6神经网络示意图;
图7利用本发明技术方案所述的基于DQN的信号灯控制算法对车辆进行控制示意图,其中,(a)为2230辆车,(b)为742辆车;
图8仿真对比效果示意图。
具体实施方式
下面将结合附图和实施例对本发明做进一步地说明。
一种基于强化学习的交通信号灯控制方法,如图2所示,,包括如下步骤:
步骤1:建立信号灯控制Agent模型,如图1所示。
基于信念-愿望-意图(Belief-Desire-Intention,BDI)理论的混合型信号灯控制Agent模型,能够实时地、动态地、自主地与不断变化着的外部环境进行交互,感知并作用于环境,并且通过自己行为的执行而达到缓解交通拥堵的目的。
步骤2:建立道路交叉口、道路、信号灯模型。
路网模型使用SUMO的附带软件netedit 1.7.0搭建。道路交叉口由东南西北四条路组成,交汇处有一个交通信号灯。每条路长250米,分三条驶入车道和三条驶出车道,分别为左转、直行、右转,如图4所示。
12条驶入车道对应12个控制信号,由于右转车道不与其他车道车辆产生冲突,所以右转车道一直为绿灯。为防止交通信号灯切换过程中行驶车辆发生碰撞,交通信号灯设计8种相位,记为P={p1,p2,p3,p4,p5,p6,p7,p8},分别为:p1仅南北通行,南北向的左转与直行信号灯均为绿灯;p2仅南北通行,南北向的左转信号灯为绿灯,直行信号灯为黄灯;p3仅南北通行,南北向的左转信号灯为绿灯,直行信号灯为红灯;p4仅南北通行,南北向的左转信号灯为黄灯,直行信号灯为绿灯;p5仅东西通行,东西向的左转与直行信号灯均为绿灯;p6仅东西通行,东西向的左转信号灯为绿灯,直行信号灯为黄灯,p7仅东西通行,左转绿灯直行红灯;p8仅东西通行,东西向的左转信号灯为黄灯,直行信号灯为绿灯。每个状态持续时间不同,各个信号持续时间如表1所示,其中G和g代表绿灯亮(G优先级高于g),r代表红灯亮,y代表绿灯亮。
表1信号灯持续时间
p1与p5的持续时间最长。这两个状态分别表示南北方向与东西方向通车的主要状态。在这两个状态时,对应的左转,直行,右转方向都为绿灯,需要注意的是,左转车道的车辆的行驶优先级(用g表示)低于直行车道的车辆(用G表示)。
步骤3:定义基于强化学习的交通信号灯控制算法中强化学习的三要素State,Action,Reward。
State空间的定义包含车辆位置、速度和当前信号灯状态。在此设计中,将衡量标准从道路细化到车辆。设定一辆车的长度加上安全距离为一个单元长度。假设每条车道被划分为12个单元,一共有12条车道,所以共有12×12个单元。因此用两个矩阵来表示路网状态,即位置矩阵D和速度矩阵V。位置矩阵D记录该单元内是否有车,有车就记为1,否则记为0。速度矩阵V用来记录车辆的行驶速度,为了方便记录,此处记录的是当前车辆行驶速度与最大速度的比值,即,当车辆为最大速度时记为1,当车辆在减速状态且车速为最大车速一半时,记为0.5。通过这个矩阵,可以判断出哪些车辆正在等红灯(当vij≤0.05时,认为该车停车等待红灯)。图5为西边驶入车道的划分情况,矩阵D为记录是否有车的矩阵,矩阵V为记录速度比。
除了这两个矩阵外,还要包含当前信号灯的状态pi,也将其记录为矩阵形式。在实验中,状态为一个列表,表示为s=[D,V,pi]。这样的状态设计优点在于能更直观具体的表示路网中车辆的状态。
Action空间的定义表示的是Agent执行的动作集合,记为A。该集合一共有两个元素:南北放行a1以及东西放行a2,分别对应交通信号灯核心状态p1与状态p5。为了防止直接切换与实际情况产生冲突,引发交通事故,核心状态间的切换需要包含一系列其他状态的切换。其切换过程如表2所示。当Agent判断的行为与信号灯当前状态一致,信号灯相位不需要改变,保持10秒后再次进行判断,从而增加有效绿灯时间的利用率;当Agent判断的行为与信号灯当前状态不一致,就需要经过一系列流程完成切换。
表2信号灯切换过程
当左转车辆遇到直行车辆时,需要礼让直行车辆先行。p2,p3,p4为从p1到p5的切换状态,目的是为了符合实际中交通灯“绿-黄-红-绿”的切换顺序。在p2时,直行车道变为黄灯,此时左转车道依旧为绿灯(g)。到了p3,直行车道变为红灯,左转车道变为优先绿灯(G)。这两个状态是为了停止直行车道车辆通过十字路口,同时让之前没能完全通过的左转车辆通过十字路口。最后的切换状态为p4,左转车道变为黄灯,提示来车减速,警示即将变为红灯。如此,就完成了p1到p5的切换,在p5时,东西方向的车辆可以开始通行。p6,p7,p8为从p5到p1的切换状态,切换步骤同上。
Reward空间的设计表示的是Agent执行动作后得到的奖励。在本发明方案中,使用动态奖励设计。在Agent选择行为后,信号灯开始根据行为进行切换。同时,Agent开始记录此时刻开始到整个切换流程结束的时间内所有车辆总行驶时间T以及总等待时间TW;最终的奖励值计算方法为:R=T-TW。
Agent根据Q值选择下个周期的动作,指导红绿等信号的切换。例如,若当前Agent动作为a1南北放行(对应信号灯相位p1),Agent决策结果是a2东西放行(对应信号灯相位p5),信号灯相位要从p1切换到目标相位p5。考虑到实际应用中的安全,这两个相位之间有过渡的切换相位,即从p1切换到相位p5中间有p2,p3,p4三个相位,p2南北通行,左转绿灯直行黄灯右转绿灯,p3南北通行,左转绿灯直行红灯右转绿灯,p4南北通行,左转黄灯直行红灯右转绿灯,持续时间均为3秒,该红绿灯相位转换过程可表述为p1(30s)→p2(3s)→p3(3s)→p4(3s)→p5(30s),到p5时,东西方向车辆开始通行,执行周期结束后Agent观察记录交通环境状态,继续学习决策下个周期的动作。若当前Agent动作为a1南北放行(对应信号灯相位p1),Agent决策结果是a1南北放行(对应信号灯相位p1),信号灯相位要保持p1不变,为了保证有效绿灯的利用率,我们动态延续绿灯时间10秒,即p1(30s)→p1(10s),再次学习决策;p6,p7,p8为从p5到p1的切换状态,切换步骤同上。
步骤4:设计基于DQN的信号灯控制模型。
所述基于DQN的信号灯控制模型的主干网络是卷积神经网络(ConvolutionalNeural Networks,CNN),包含两个卷积层,一个全连接层。其输入信息为路网当前状态,输出信息为两种行为的Q值。路网状态是一个列表s=[D,V,pi],其中包含三个元素,D表示当前位置是否存在车辆,V表示检测车辆速度比信息,pi为检测当前信号灯状态信息的列表。D,V两个列表大小为12×N×1,pi大小为2×1。第一层卷积核数目为16,每个卷积核大小为4×4,步长为2;第二层卷积核数目为32,每个卷积核大小为2×2,步长为1;在卷积层之后有两个是全连接层与输出层。最终输出两个动作分别对应的Q值。其结构如图6所示。
采取的误差函数为均方误差(MSE),计算公式为:
步骤5:数据准备。
采用宾夕法尼亚大学与上海交通大学控制团队发布的公开数据(https://traffic-signal-control.github.io/)进行仿真。数据内容为中国浙江省杭州市一个十字路口摄像机记录的车辆行驶信息。该数据集主要包括车辆信息、行驶道路、驶入时间,度数据文件进行处理,转化为仿真软件要求的格式。由于车辆基数大、车流随时间变化大,因此挑选涵盖多个时间段的数据集,选择4个数据集,时长均是1小时,其中两个为高峰时段,两个为平峰时段更精确的评估算法性能。
步骤6:实验仿真。
基于SUMO软件模拟车流运行。仿真时,每轮仿真50次,alpha=0.0002,gamma=0.9,epsilon=0.1,记忆库大小为200,batch大小为32。如图3所示Agent会首先初始化神经网络。然后获取当前的路网状态S,将状态S作为卷积神经网络的输入,输出两个行为的Q值,先进行贪心策略,如果生成的随机数大于事先设定的epsilon值,Agent就会挑选Q值较大的行为,反之随机选择。之后Agent会控制信号灯执行行为a,同时在行为进行中计算奖励值。随着行为结束,奖励值也计算完成。最后是DQN的重要机制replay,Agent会将这一次的训练内容存入到事先设定好的记忆库中,记忆库大小是固定的,每当有新的内容加入,最早的内容就会被丢弃,这样能够保证每次重新学习到的内容都是较新的内容。在完成重复训练后,神经网络也得到了更新,Agent开始准备下一轮的学习,如图2所示。
步骤7:评估设计。
评估Agent优化效果的依据为总等待时长TW;TW为整个训练过程中,所有车辆在十字楼口处红灯等待的时间总和。TW越大,表示十字路口越拥堵,TW越小,表示十字路口越通畅。
在实验仿真开始后,Agent会首先初始化神经网络。然后获取当前的交通环境状态S,将状态S作为卷积神经网络的输入,输出Agent两个动作的Q值;接着采用贪心策略ε-greedy决策Agent动作,如果生成的随机数大于事先设定的epsilon值,Agent选择Q值较大的动作执行,反之随机选择动作。再次Agent会控制信号灯执行动作at对应的切换策略,同时计算该动作的奖励值。随着动作结束,奖励值也计算完成。最后是DQN的重要机制replay,Agent会将这一次的训练内容存入到事先设定好的记忆库中,记忆库大小是固定的,每当有新的内容加入,最早的内容就会被丢弃,这样能够保证每次重新学习到的内容都是较新的内容。在完成重复训练后,神经网络也得到了更新,Agent开始准备下一轮的学习。
仿真实验表明,基于强化学习的Agent在任何情况下,都对路网调控有积极作用。随着数据量与训练次数的增加,优化效果逐渐增加,最后稳定在一个区间内,并且道路越拥堵,优化效果越明显,如图7所示。
从图8可以看出,基于DQN的信号灯控制算法优化效果优于基于固定时长的信号灯控制方法,与FT算法相比优化32.16%,这也证明了基于强化学习的交通灯自适应控制方法是传统交通控制策略的可行替代方案,能够有效减少道路上的交通拥堵。
基于上述方法,本发明实施例还提供一种基于强化学习的交通信号灯控制系统,包括:
路网信息采集模块,用于实时采集交通状态信息,包括车辆速度、位置以及当前路口信号灯状态;
数据预处理模块,用于将Agent与环境交互获取实时的路况信息转化成矩阵;
强化学习模块,将路网当前状态s,基于所述一种基于强化学习的交通信号灯控制的法,通过卷积神经网络,计算当前状态下执行所有可能动作的Q值,选择Q值最大的动作执行,并在状态-动作空间进行搜索自学习更新;
信号灯控制模块,用于根据强化学习决策的Agent的动作,进行相应的信号灯相位切换,动态调整信号灯灯的状态和周期,实时按照决策结果调整该路口信号灯的状态及持续时间。
应当理解,本发明各个实施例中的功能单元模块可以集中在一个处理单元中,也可以是各个单元模块单独物理存在,也可以是两个或两个以上的单元模块集成在一个单元模块中,可以采用硬件或软件的形式来实现。
本领域内的技术人员应明白,本申请的实施例可提供为方法、系统、或计算机程序产品。因此,本申请可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本申请可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本申请是参照根据本申请实施例的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
最后应当说明的是:以上实施例仅用以说明本发明的技术方案而非对其限制,尽管参照上述实施例对本发明进行了详细的说明,所属领域的普通技术人员应当理解:依然可以对本发明的具体实施方式进行修改或者等同替换,而未脱离本发明精神和范围的任何修改或者等同替换,其均应涵盖在本发明的权利要求保护范围之内。
Claims (10)
1.一种基于强化学习的交通信号灯控制方法,其特征在于,包括以下几个步骤:
步骤1:建立信号灯控制Agent模型;
步骤2:建立包含道路交叉口、道路、信号灯的路网模型;
步骤3:构建基于强化学习的交通信号灯控制三要素状态空间State,动作空间Action以及奖励函数Reward;
所述状态空间State包含车辆位置、速度和当前信号灯相位;所述动作空间Action表示信号灯控制Agent模型执行的信号控制动作集合;所述奖励函数Reward表示信号灯控制Agent执行信号控制动作,按照设置的信号灯切换策略进行信号灯相位切换后得到的奖励函数值R;
步骤4:构建基于DQN的信号灯控制网络模型;
输入信息为路网当前状态,输出信息为两种动作的Q值;所述Q值是指基于Q-Learning算法对所述Agent执行动作得到的奖励值的评估值;
步骤5:基于DQN的信号灯控制网络模型;
所述基于DQN的信号灯控制模型利用Q值的计算值与Q值的预估值之间的均方差作为损失函数,利用回放Replay机制和目标网络对所述卷积神经网络中的参数进行训练与更新;
步骤6:信号灯控制Agent选择Q值较大的动作,决策信号灯相位,输出交通信号灯的信号控制策略。
2.根据权利要求1所述的方法,其特征在于,基于当前时刻所述Agent的状态空间st和执行动作at,以及Agent执行完动作at得到的Q值,按照以下公式获得下一个时刻的Q值的计算值Q(st+1,a')和预估值TargetQ;
Q(st+1,a')=Q(st,at)+α[rt+γ×maxa'{Q(st+1,a';θ')}-Q(st,at)]
TargetQ=rt+γ×maxa'{Q(st+1,a';θ')}
其中,rt是t时刻的真实奖励,γ是折扣因子,表示未来动作对当前的状态的影响程度;a'是Agent学习中下个时刻执行的某个动作;st+1是Agent执行动作a'之后环境进入的新状态;Q值的初始值为0,θ'是Agent基于当前时刻所述Agent的状态st和执行动作at进行自我学习后,基于DQN的信号灯控制网络模型的参数向量。
3.权利要求1所述的基于强化学习的交通信号灯控制方法,其特征在于:所述交通信号灯相位设有8个,分别为:p1仅南北通行,南北向的左转与直行信号灯均为绿灯;p2仅南北通行,南北向的左转信号灯为绿灯,直行信号灯为黄灯;p3仅南北通行,南北向的左转信号灯为绿灯,直行信号灯为红灯;p4仅南北通行,南北向的左转信号灯为黄灯,直行信号灯为绿灯;p5仅东西通行,东西向的左转与直行信号灯均为绿灯;p6仅东西通行,东西向的左转信号灯为绿灯,直行信号灯为黄灯,p7仅东西通行,左转绿灯直行红灯;p8仅东西通行,东西向的左转信号灯为黄灯,直行信号灯为绿灯。
4.根据权利要求3所述的方法,其特征在于,若当前Agent动作为a1南北放行,当前信号灯相位为p1,且Agent决策结果是a1南北放行,则信号灯相位保持p1不变,并延续时间10秒,即p1(30s)→p1(10s);若当前Agent动作为a1南北放行,当前信号灯相位为p1,且Agent决策结果是a2东西放行,则信号灯相位切换(从p1切换到p5),同时经过p2,p3,p4三个过渡相位,整个切换过程为p2(3s)→p3(3s)→p4(3s)→p5(30s);之后等待下次判断。
8.权利要求1所述的基于强化学习的交通信号灯控制方法,其特征在于:所述基于DQN的信号灯控制网络模型中第一层卷积核数目为16,每个卷积核大小为4×4,步长为2;第二层卷积核数目为32,每个卷积核大小为2×2,步长为1;卷积层后依次设置有全连接层与输出层;
采取的损失函数为均方误差MSE(θ):
其中,rt是t时刻的真实奖励,γ是折扣因子,表示未来动作对当前的状态的影响程度;a'是Agent学习中下个时刻执行的某个动作;st+1是Agent执行动作a'之后环境进入的新状态;Q(st+1,a';θ')是t+1时刻执行动作a'的Q值,Q(st,at;θ)是t时刻的Q值,st是t时刻的状态,at是t时刻正在执行的动作,θ和θ'分别是Agent基于当前时刻所述Agent的状态st和执行动作at进行自我学习前、后,基于DQN的信号灯控制网络模型参数向量。
9.根据权利要求1所述的方法,其特征在于,信号灯控制Agent模型中的Agent利用ε-greedy策略选择Q值较大的动作,决策信号灯相位,输出交通信号灯的信号控制策略。
10.一种基于强化学习的交通信号灯控制系统,其特征在于,包括:
路网信息采集模块,用于实时采集交通状态信息,包括车辆速度、位置以及当前路口信号灯状态;
数据预处理模块,用于将Agent与环境交互获取实时的路况信息转化成矩阵;
强化学习模块,将路网当前状态,基于权利要求1-8任一项所述的方法,通过卷积神经网络,计算当前状态下执行所有可能动作的Q值,选择Q值最大的动作执行,并在状态-动作空间进行搜索自学习更新;
信号灯控制模块,用于根据强化学习决策的Agent的动作,进行相应的信号灯相位切换,动态调整信号灯灯的状态和周期,实时按照决策结果调整该路口信号灯的状态及持续时间。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110644486.2A CN113380054A (zh) | 2021-06-09 | 2021-06-09 | 一种基于强化学习的交通信号灯控制方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110644486.2A CN113380054A (zh) | 2021-06-09 | 2021-06-09 | 一种基于强化学习的交通信号灯控制方法及系统 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN113380054A true CN113380054A (zh) | 2021-09-10 |
Family
ID=77573326
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110644486.2A Pending CN113380054A (zh) | 2021-06-09 | 2021-06-09 | 一种基于强化学习的交通信号灯控制方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113380054A (zh) |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113838296A (zh) * | 2021-09-17 | 2021-12-24 | 中山大学 | 一种交通信号控制方法、装置、设备及存储介质 |
CN114038218A (zh) * | 2021-12-28 | 2022-02-11 | 江苏泰坦智慧科技有限公司 | 基于进出路况信息的链式反馈多路口信号灯决策系统及方法 |
CN114120670A (zh) * | 2021-11-25 | 2022-03-01 | 支付宝(杭州)信息技术有限公司 | 用于交通信号控制的方法和系统 |
CN114613170A (zh) * | 2022-03-10 | 2022-06-10 | 湖南大学 | 一种基于强化学习的交通信号灯路口协调控制方法 |
CN114926980A (zh) * | 2022-04-22 | 2022-08-19 | 阿里巴巴(中国)有限公司 | 交通数据挖掘方法、装置、电子设备及计算机程序产品 |
CN115083174A (zh) * | 2022-06-07 | 2022-09-20 | 杭州电子科技大学 | 一种基于合作式多智能体强化学习的交通信号灯控制方法 |
CN115457781A (zh) * | 2022-09-13 | 2022-12-09 | 内蒙古工业大学 | 一种基于多代理深度强化学习的智能交通信号灯控制方法 |
CN115662152A (zh) * | 2022-09-27 | 2023-01-31 | 哈尔滨理工大学 | 一种基于深度学习驱动的城市交通管理自适应系统 |
WO2023123906A1 (zh) * | 2021-12-31 | 2023-07-06 | 深圳云天励飞技术股份有限公司 | 交通信号灯控制方法及相关设备 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106910351A (zh) * | 2017-04-19 | 2017-06-30 | 大连理工大学 | 一种基于深度强化学习的交通信号自适应控制方法 |
CN109215355A (zh) * | 2018-08-09 | 2019-01-15 | 北京航空航天大学 | 一种基于深度强化学习的单点交叉口信号配时优化方法 |
CN109472984A (zh) * | 2018-12-27 | 2019-03-15 | 苏州科技大学 | 基于深度强化学习的信号灯控制方法、系统和存储介质 |
CN111243271A (zh) * | 2020-01-11 | 2020-06-05 | 多伦科技股份有限公司 | 一种基于深度循环q学习的单点交叉口信号控制方法 |
CN111243299A (zh) * | 2020-01-20 | 2020-06-05 | 浙江工业大学 | 一种基于3dqn_pser算法的单交叉口信号控制方法 |
CN111260937A (zh) * | 2020-02-24 | 2020-06-09 | 武汉大学深圳研究院 | 一种基于强化学习的十字路口交通信号灯控制方法 |
CN111696370A (zh) * | 2020-06-16 | 2020-09-22 | 西安电子科技大学 | 基于启发式深度q网络的交通灯控制方法 |
CN112669629A (zh) * | 2020-12-17 | 2021-04-16 | 北京建筑大学 | 一种基于深度强化学习的实时交通信号控制方法及装置 |
-
2021
- 2021-06-09 CN CN202110644486.2A patent/CN113380054A/zh active Pending
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106910351A (zh) * | 2017-04-19 | 2017-06-30 | 大连理工大学 | 一种基于深度强化学习的交通信号自适应控制方法 |
CN109215355A (zh) * | 2018-08-09 | 2019-01-15 | 北京航空航天大学 | 一种基于深度强化学习的单点交叉口信号配时优化方法 |
CN109472984A (zh) * | 2018-12-27 | 2019-03-15 | 苏州科技大学 | 基于深度强化学习的信号灯控制方法、系统和存储介质 |
CN111243271A (zh) * | 2020-01-11 | 2020-06-05 | 多伦科技股份有限公司 | 一种基于深度循环q学习的单点交叉口信号控制方法 |
CN111243299A (zh) * | 2020-01-20 | 2020-06-05 | 浙江工业大学 | 一种基于3dqn_pser算法的单交叉口信号控制方法 |
CN111260937A (zh) * | 2020-02-24 | 2020-06-09 | 武汉大学深圳研究院 | 一种基于强化学习的十字路口交通信号灯控制方法 |
CN111696370A (zh) * | 2020-06-16 | 2020-09-22 | 西安电子科技大学 | 基于启发式深度q网络的交通灯控制方法 |
CN112669629A (zh) * | 2020-12-17 | 2021-04-16 | 北京建筑大学 | 一种基于深度强化学习的实时交通信号控制方法及装置 |
Non-Patent Citations (2)
Title |
---|
马寿峰等: "一种基于Agent的单路口交通信号学习控制方法", 《系统工程学报》 * |
高丽颖等: "基于Agent控制器的单路口信号灯学习控制方法研究", 《交通与计算机》 * |
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113838296A (zh) * | 2021-09-17 | 2021-12-24 | 中山大学 | 一种交通信号控制方法、装置、设备及存储介质 |
CN114120670A (zh) * | 2021-11-25 | 2022-03-01 | 支付宝(杭州)信息技术有限公司 | 用于交通信号控制的方法和系统 |
CN114120670B (zh) * | 2021-11-25 | 2024-03-26 | 支付宝(杭州)信息技术有限公司 | 用于交通信号控制的方法和系统 |
CN114038218A (zh) * | 2021-12-28 | 2022-02-11 | 江苏泰坦智慧科技有限公司 | 基于进出路况信息的链式反馈多路口信号灯决策系统及方法 |
WO2023123906A1 (zh) * | 2021-12-31 | 2023-07-06 | 深圳云天励飞技术股份有限公司 | 交通信号灯控制方法及相关设备 |
CN114613170A (zh) * | 2022-03-10 | 2022-06-10 | 湖南大学 | 一种基于强化学习的交通信号灯路口协调控制方法 |
CN114613170B (zh) * | 2022-03-10 | 2023-02-17 | 湖南大学 | 一种基于强化学习的交通信号灯路口协调控制方法 |
CN114926980A (zh) * | 2022-04-22 | 2022-08-19 | 阿里巴巴(中国)有限公司 | 交通数据挖掘方法、装置、电子设备及计算机程序产品 |
CN115083174A (zh) * | 2022-06-07 | 2022-09-20 | 杭州电子科技大学 | 一种基于合作式多智能体强化学习的交通信号灯控制方法 |
CN115457781A (zh) * | 2022-09-13 | 2022-12-09 | 内蒙古工业大学 | 一种基于多代理深度强化学习的智能交通信号灯控制方法 |
CN115457781B (zh) * | 2022-09-13 | 2023-07-11 | 内蒙古工业大学 | 一种基于多代理深度强化学习的智能交通信号灯控制方法 |
CN115662152A (zh) * | 2022-09-27 | 2023-01-31 | 哈尔滨理工大学 | 一种基于深度学习驱动的城市交通管理自适应系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113380054A (zh) | 一种基于强化学习的交通信号灯控制方法及系统 | |
CN111768637B (zh) | 一种信号交叉口交通信号灯和车辆轨迹控制方法 | |
CN112700664B (zh) | 一种基于深度强化学习的交通信号配时优化方法 | |
CN108510764B (zh) | 一种基于q学习的多路口自适应相位差协调控制系统及方法 | |
CN113763723B (zh) | 基于强化学习与动态配时的交通信号灯控制系统及方法 | |
CN114495527B (zh) | 一种混合交通环境下网联交叉口车路协同优化方法及系统 | |
CN108564234A (zh) | 一种智能网联汽车的交叉口无信号自组织通行控制方法 | |
CN109360409A (zh) | 一种基于驾驶风格的智能网联混合动力汽车编队控制方法 | |
CN107730931A (zh) | 一种车路协同环境下车辆编队控制及其信号优化方法 | |
CN112802330B (zh) | 一种有信号灯参与的双车道环岛路口交通流预测方法 | |
CN102999646B (zh) | 一种微观交通仿真中车辆跟驰换道方法及系统 | |
CN113963564B (zh) | 连续信号灯道路车辆最优通行速度规划方法、系统及介质 | |
CN113312752B (zh) | 一种主路优先控制交叉口交通仿真方法及装置 | |
CN108182812B (zh) | 基于强化学习的城市道路交叉口生态驾驶行为优化方法 | |
CN115257789A (zh) | 城市低速环境下的营运车辆侧向防撞驾驶决策方法 | |
CN113724507B (zh) | 基于深度强化学习的交通控制与车辆诱导协同方法和系统 | |
CN113120003A (zh) | 无人驾驶车辆运动行为决策方法 | |
Zhancheng | Research on application of deep reinforcement learning in traffic signal control | |
CN112927522B (zh) | 一种基于物联网设备的强化学习可变时长信号灯控制方法 | |
CN115472023A (zh) | 一种基于深度强化学习的智能交通灯控制方法及装置 | |
CN114802306A (zh) | 一种基于人机共驾理念的智能车辆集成式决策系统 | |
CN114613170B (zh) | 一种基于强化学习的交通信号灯路口协调控制方法 | |
CN114360290B (zh) | 一种基于强化学习的交叉口前车辆群体车道选择方法 | |
CN115497314B (zh) | 一种智能网联汽车不停车通过交叉口的生态驾驶方法 | |
CN116729386B (zh) | 多交叉路口场景下车辆分层规划和控制方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |