CN115440042A - 基于多智能体约束策略优化的无信号交叉口协同控制方法 - Google Patents
基于多智能体约束策略优化的无信号交叉口协同控制方法 Download PDFInfo
- Publication number
- CN115440042A CN115440042A CN202211074749.1A CN202211074749A CN115440042A CN 115440042 A CN115440042 A CN 115440042A CN 202211074749 A CN202211074749 A CN 202211074749A CN 115440042 A CN115440042 A CN 115440042A
- Authority
- CN
- China
- Prior art keywords
- strategy
- agent
- intersection
- algorithm
- function
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 63
- 238000005457 optimization Methods 0.000 title claims abstract description 41
- 238000004422 calculation algorithm Methods 0.000 claims abstract description 67
- 238000013528 artificial neural network Methods 0.000 claims abstract description 60
- 230000009471 action Effects 0.000 claims description 25
- 230000001133 acceleration Effects 0.000 claims description 13
- 238000005070 sampling Methods 0.000 claims description 10
- 238000011156 evaluation Methods 0.000 claims description 8
- 238000012549 training Methods 0.000 claims description 7
- 230000008569 process Effects 0.000 claims description 6
- 230000003993 interaction Effects 0.000 claims description 5
- 230000001105 regulatory effect Effects 0.000 claims description 3
- 230000006870 function Effects 0.000 description 81
- 230000002787 reinforcement Effects 0.000 description 18
- 238000004364 calculation method Methods 0.000 description 16
- 230000006399 behavior Effects 0.000 description 8
- 238000004088 simulation Methods 0.000 description 5
- 238000013461 design Methods 0.000 description 4
- AVUYXHYHTTVPRX-UHFFFAOYSA-N Tris(2-methyl-1-aziridinyl)phosphine oxide Chemical compound CC1CN1P(=O)(N1C(C1)C)N1C(C)C1 AVUYXHYHTTVPRX-UHFFFAOYSA-N 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 230000007547 defect Effects 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 230000007613 environmental effect Effects 0.000 description 2
- ORILYTVJVMAKLC-UHFFFAOYSA-N Adamantane Natural products C1C(C2)CC3CC1CC2C3 ORILYTVJVMAKLC-UHFFFAOYSA-N 0.000 description 1
- 230000003044 adaptive effect Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 230000009977 dual effect Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000013209 evaluation strategy Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003062 neural network model Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/01—Detecting movement of traffic to be counted or controlled
- G08G1/0104—Measuring and analyzing of parameters relative to traffic conditions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F30/00—Computer-aided design [CAD]
- G06F30/20—Design optimisation, verification or simulation
- G06F30/27—Design optimisation, verification or simulation using machine learning, e.g. artificial intelligence, neural networks, support vector machines [SVM] or training a model
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/01—Detecting movement of traffic to be counted or controlled
- G08G1/0104—Measuring and analyzing of parameters relative to traffic conditions
- G08G1/0125—Traffic data processing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2111/00—Details relating to CAD techniques
- G06F2111/04—Constraint-based CAD
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Chemical & Material Sciences (AREA)
- Analytical Chemistry (AREA)
- Artificial Intelligence (AREA)
- Software Systems (AREA)
- General Engineering & Computer Science (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biophysics (AREA)
- Data Mining & Analysis (AREA)
- Biomedical Technology (AREA)
- Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Medical Informatics (AREA)
- Computer Hardware Design (AREA)
- Geometry (AREA)
- Traffic Control Systems (AREA)
Abstract
本发明属于交通控制技术领域,具体为基于多智能体约束策略优化的无信号交叉口协同控制方法,包括如下两个部分:第一部分:多智能体约束策略优化(MACPO)算法,Actor‑Critic框架的基础上,引入了额外的基于损失函数的critic神经网络,用于保障策略更新时安全约束能够得到满足。第二部分:基于多智能体约束策略优化的无信号交叉口协同控制方法,将所提出的MACPO算法应用于道路交叉口协同控制,集中调控交叉口范围内的所有车辆,实现通行的安全性、高效性与舒适性本发明结构合理,在实现了交叉口零碰撞的同时,确保通行的高效率与舒适性。
Description
技术领域
本发明涉及交通控制技术领域,具体为基于多智能体约束策略优化的无信号交叉口协同控制方法。
背景技术
自动驾驶技术的应用能够避免人为错误,增加交通安全性、方便残疾人出行并缓解交通拥堵情况,极大地提高未来交通系统的智能化水平。安全性、舒适性与高效性是自动驾驶的功能设计目标。然而,当前自动驾驶技术仍然未具备全场景下的安全驾驶能力,安全性问题急需解决,同时在舒适性与高效性方面仍需进一步改善。道路交叉口是城市地区的典型场景,比高速公路上的自动驾驶更加复杂,更具挑战性。在交叉路口,车辆从不同的交叉路口入口进入,在交叉路口区域交叉其特定的轨迹,并在不同的出口离开交叉路口。车辆之间复杂的冲突关系导致在交叉路口避免碰撞的车辆决策复杂,需要复杂的多智能体协同的自动驾驶设计来保证交通安全,提高交通效率与驾乘舒适性。
传统自动驾驶决策通常基于形式化或公式化的方法设计,在庞大的解空间中搜索与计算令表征安全、舒适与效率的目标函数值最大化的最优控制量,该方式计算效率欠缺,通常需秒级的求解时间,对控制单元计算性能要求较高,无法匹配自动驾驶应用对控制输出的毫秒级高实时性要求;在高动态变化且高复杂度的交通场景中,由于优化问题的复杂性与计算资源的短缺性,该类基于计算的形式化方法在复杂的交通场景中难以实际应用。为解决传统基于计算的方法在实时性方面的问题,近年来越来越多的研究将深度学习用于自动驾驶领域,但深度神经网络存在只能根据既有数据学习以及无法在与环境交互中更新网络的缺点,少量已知交通场景训练得到的网络无法在未知海量的真实交通环境中保持训练网络时预期的性能。
强化学习能够通过智能体与环境不断交互来提升当前策略,并通过奖励函数来引导策略的更新;深度强化学习将深度神经网络引入强化学习中,结合神经网络的学习能力与强化学习的决策能力,近几年逐渐被尝试应用于自动驾驶领域,具有广阔的应用前景。然而,当前深度强化学习方法,如PPO(Proximal Policy Optimization)、DDPG(DeepDeterministic Policy Optimization)、A3C(Asynchronous Advantage Actor-Critic)等,均采用的单一奖励函数引导策略更新,无法保障策略满足特定约束,由于强化学习策略探索的随机性,在如交叉口等复杂场景探索新的策略时可能会发生碰撞风险,导致其应用于自动驾驶领域时无法始终满足安全基线,仍然难以被汽车行业广泛采用。例如,已有基于PPO算法的无信号道路交叉口协同控制,利用单一奖励函数来综合表征道路交叉口的效率与安全,导致策略在通行效率与安全性方面博弈,收敛后的神经网络模型性能仍然有10%的交叉口车辆碰撞概率,无法在真实交通场景中实际应用。安全性是自动驾驶的基线,而非与其他性能折衷权衡一个子方面,需设计全新的深度强化学习方法,能够在保障满足设定约束,如安全约束的前提下,以奖励函数最大化为目标更新策略。
综上,安全性、舒适性与高效性是自动驾驶功能设计追求的目标。当前自动驾驶技术仍然未具备全场景下的安全驾驶能力,安全性问题急需解决,同时在舒适性与高效性方面仍需进一步改善。道路交叉口是城市地区的典型场景,比高速公路上的自动驾驶更加复杂,更具挑战性。为解决自动驾驶领域传统基于计算的方法由于计算效率低所导致的实时性违背问题,以及基于传统强化学习算法由于未考虑安全约束所导致的安全性违背问题,我们提出一种新型的基于多智能体约束策略优化的无信号交叉口协同控制方法。
发明内容
本部分的目的在于概述本发明的实施方式的一些方面以及简要介绍一些较佳实施方式。在本部分以及本申请的说明书摘要和发明名称中可能会做些简化或省略以避免使本部分、说明书摘要和发明名称的目的模糊,而这种简化或省略不能用于限制本发明的范围。
鉴于现有技术中存在的问题,提出了本发明。
因此,本发明的目的是提供基于多智能体约束策略优化的无信号交叉口协同控制方法,在实现了交叉口零碰撞的同时,确保通行的高效率与舒适性。
为解决上述技术问题,根据本发明的一个方面,本发明提供了如下技术方案:
基于多智能体约束策略优化的无信号交叉口协同控制方法,其包括如下两个部分:
第一部分:多智能体约束策略优化(MACPO)算法,Actor-Critic框架的基础上,引入了额外的基于损失函数的critic神经网络,用于保障策略更新时安全约束能够得到满足。MACPO算法主要包括以下两个子步骤:
步骤1:智能体轨迹采样,在多智能体环境中每个智能体都将独立与环境进行交互,并实时观测当前环境,假设第i个智能体观测到的局部空间为si,MACPO算法收集到的当前策略πk下多智能体环境提供的状态空间为S=[s1,s2,...,sN]。策略神经网络将状态空间映射为N维动作空间A=[a1,a2,...,aN],并将该动作空间后依次分配给环境中的多智能体。多智能体根据获得的动作与环境进行交互,获得新的状态空间,奖励函数与开销函数,以此形成算法与环境交互的闭环,当策略更新次数达到一定程度时中止训练。
步骤2:策略评估优化,分别使用基于奖励函数与基于损失函数的价值函数来评估当前策略,并利用策略梯度算法更新神经网络。MACPO算法将综合利用搜集到的轨迹来分别更新策略神经网络与基于奖励函数和开销函数的价值神经网络。在更新策略神经网络时本发明在信任域理论的基础上提出安全等级的概念,当基于奖励函数的策略更新违背基于开销函数的安全约束时,使策略更新朝着不违背安全约束且使奖励函数值最大的方向进行。
第二部分:基于多智能体约束策略优化的无信号交叉口协同控制方法,将所提出的MACPO算法应用于道路交叉口协同控制,集中调控交叉口范围内的所有车辆,实现通行的安全性、高效性与舒适性。基于多智能体约束策略优化的无信号交叉口协同控制方法主要包括以下两个子部分:
步骤1:状态空间与行为空间建模,本发明定义多智能体环境中共有8台车,每台车均有自己独立的局部观测空间,包括离开道路交叉口的距离di与当前的车速vi。定义全局状态空间为S=[d1,d2,...,d8,v1,v2,...,v8]。多智能体环境的行为空间由每个单独智能体的局部动作组成,本发明将车辆的预期车速作为策略神经网络的输出,因此定义行为空间为A=[v′1,v′2....,v′8]。
步骤2:奖励函数与开销函数设计,本发明的奖励函数与多智能体的车速、加速度以及是否有安全事故发生相联系,用奖励函数来引导策略向使多智能体环境安全、高效与舒适的方向更新;开销函数与智能体间的距离与环境中是否有碰撞发生相联系,MACPO算法利用开销函数来判断当前策略的安全等级,并引导策略向不违背安全约束的方向更新。
作为本发明所述的基于多智能体约束策略优化的无信号交叉口协同控制方法的一种优选方案,其中:所述第一部分的具体流程为在策略梯度与Actor-Critic框架基础上,通过引入另一个表征安全性约束的基于开销的神经网络建立信任域,确保策略在满足安全约束的前提下更新,首先,初始化三个神经网络的参数,包括策略神经网络、基于奖励函数的神经网络与基于开销函数的神经网络;其次,采集环境中与多智能体相关的信息,并根据策略神经网络产生的动作与环境进行交互,采样智能体轨迹,即状态和行为动作序列;进而,经由基于奖励函数与基于开销函数的价值神经网络评估策略,并通过策略梯度与信任域约束共同更新策略网络与两个价值神经网络参数,上述步骤循环至到达设定的迭代次数上限,MACPO作为第二部分道路交叉口协同控制的基础算法。
作为本发明所述的基于多智能体约束策略优化的无信号交叉口协同控制方法的一种优选方案,其中:所述第二部分中,将所提出的MACPO算法应用于道路交叉口协同控制,集中调控交叉口范围内的所有车辆,其中状态空间定义为车辆到交叉口出口的距离与车速信息,动作空间定义为车速控制信息,开销函数考虑道路车辆间的安全距离,奖励函数考虑全局的舒适、效率与安全性能。
与现有技术相比,本发明的有益效果是:
(1)提出的多智能体约束策略优化(MACPO)算法,通过采用单独的开销神经网络约束多智能体的危险行为,保证在探索最优解的时候,最优解始终在安全范围内,解决了现有强化学习方法由于安全性不足难以在自动驾驶等安全关键型领域广泛应用的问题;
(2)所提出的基于MACPO的无信号道路交叉口协同控制方法,通过采用单独的基于开销函数的神经网络,设置出了科学合理的奖励函数与开销函数,状态与动作空间,确保了道路交叉口车辆通行的安全、舒适与效率,首次实现强化学习在道路交叉口的零碰撞率;
(3)通过基于从状态向智能体动作的映射的强化学习算法大大减少了计算时间,确保应用于智能体控制时能够实时获得最优解。
(4)提出的多智能体约束策略优化强化学习算法MACPO在策略梯度的基础上引入了表征安全性约束的信任域,确保策略在满足安全约束的前提下更新,解决了现有强化学习方法由于安全性不足难以在自动驾驶等安全关键型领域广泛应用的难题,并将其应用于无交通信号灯交叉路口的车辆协同控制,实现交叉口通行的安全性、高效性与舒适性。本发明在仿真环境中验证了本发明提出的MACPO算法进行道路交叉口协同控制的性能,与传统基于计算的模型预测控制方法相比,计算效率提升了70.76倍;与非安全约束的强化学习算法相比,首次实现了交通场景的零碰撞率,并具备更好的车辆舒适性与路口通行效率。
附图说明
为了更清楚地说明本发明实施方式的技术方案,下面将结合附图和详细实施方式对本发明进行详细说明,显而易见地,下面描述中的附图仅仅是本发明的一些实施方式,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其它的附图。其中:
图1为本发明基于多智能体约束策略优化的无信号交叉口协同控制方法架构图;
图2为本发明MACPO算法流程图;
图3为本发明无信号道路交叉口场景示意图;
图4为本发明无左转车辆离开交叉口距离计算示意图;
图5为本发明直行车辆离开交叉口距离计算示意图;
图6为本发明右转车辆离开交叉口距离计算图;
图7为本发明MACPO与MAPPO-SC、MAPPO算法性能对比图。
具体实施方式
为使本发明的上述目的、特征和优点能够更加明显易懂,下面结合附图对本发明的具体实施方式做详细的说明。
在下面的描述中阐述了很多具体细节以便于充分理解本发明,但是本发明还可以采用其他不同于在此描述的其它方式来实施,本领域技术人员可以在不违背本发明内涵的情况下做类似推广,因此本发明不受下面公开的具体实施方式的限制。
其次,本发明结合示意图进行详细描述,在详述本发明实施方式时,为便于说明,表示器件结构的剖面图会不依一般比例作局部放大,而且所述示意图只是示例,其在此不应限制本发明保护的范围。此外,在实际制作中应包含长度、宽度及深度的三维空间尺寸。
为使本发明的目的、技术方案和优点更加清楚,下面将结合附图对本发明的实施方式作进一步地详细描述。
本发明提供如下技术方案:基于多智能体约束策略优化的无信号交叉口协同控制方法,在实现了交叉口零碰撞的同时,确保通行的高效率与舒适性;
实施例1
该方法主要包括如下两个部分:
第一部分:多智能体约束策略优化(MACPO)算法,在策略梯度与Actor-Critic框架基础上,通过引入另一个表征安全性约束的基于开销的神经网络建立信任域,确保策略在满足安全约束的前提下更新,如图2所示,首先,初始化三个神经网络的参数,包括策略神经网络、基于奖励函数的神经网络与基于开销函数的神经网络;其次,采集环境中与多智能体相关的信息,并根据策略神经网络产生的动作与环境进行交互,采样智能体轨迹,即状态和行为动作序列;进而,经由基于奖励函数与基于开销函数的价值神经网络评估策略,并通过策略梯度与信任域约束共同更新策略网络与两个价值神经网络参数,上述步骤循环至到达设定的迭代次数上限,MACPO作为第二部分道路交叉口协同控制的基础算法。
第二部分:基于多智能体约束策略优化的无信号交叉口协同控制方法,将所提出的MACPO算法应用于道路交叉口协同控制,集中调控交叉口范围内的所有车辆,其中状态空间定义为车辆到交叉口出口的距离与车速信息,动作空间定义为车速控制信息,开销函数考虑道路车辆间的安全距离,奖励函数考虑全局的舒适、效率与安全性能,从而实现交叉口通行的零碰撞率,并具备高车辆舒适性与路口通行效率。
1.多智能体约束策略优化(MACPO)算法
该部分主要包括两个子步骤:智能体轨迹采样与策略评估优化,其中智能体轨迹采样主要进行智能体与环境互动的过程中状态行为序列的搜集,用于采样所有设定回合的轨迹,以进行下个子步骤的策略评估优化,策略评估优化根据采样得到的轨迹,利用基于奖励函数与基于开销函数的价值神经网络评估当前策略,并通过策略梯度与信任域约束共同更新策略网络与两个价值神经网络参数,以优化策略实现在满足信任域的前提下产生令奖励函数最大化的最优动作序列。
(1)智能体轨迹采样
该子步骤进行智能体状态行为序列的搜集,策略神经网络接收由环境传来的状态S=[d1,d2,...,dN,v1,v2,...,vN]作为神经网络的输入,并一次性输出交通环境中所有智能体的动作A=[v′1,v′2,...,v′N]。在多智能体环境中,若当前环境中智能体数目为N,在每个时间步长,每个智能体均采取独立的动作,将多智能体环境中所有智能体在时间t的行为整合为将当前环境中所有智能体在时间t的局部观测空间定义为并结合全局环境信息整合为全局观测空间智能体i在时间t时采取动作后观测到的新状态为结合全局信息后得到新的状态空间用公式可描述为St×At→St+1。智能体同时还将获得全局环境奖励Rt,全局环境开销Ct,用公式可描述为St×At×St+1→Rt,Ct。若轨迹的长度为T,MACPO算法利用的轨迹为
(2)策略评估与优化
该子步骤根据上一步骤搜集到的多智能体状态行为轨迹,进行策略的评估与优化,分别使用基于奖励与开销的价值函数来评估当前策略的表现,开销价值函数用于评估当前策略对于多智能体安全约束的满足程度,奖励价值函数用于当前评估策略对于多智能体累积期望奖励的达成程度,并通过策略梯度与信任域约束共同更新策略网络与两个价值神经网络参数。
a)策略神经网络评估与优化过程
本发明使用形式化的参数θk来表征当前策略策略πk,更新后的策略πk+1的策略参数为θk+1若策略的更新量为Δθ,定义策略更新为:
θk+1=θk+Δθ (1)
下面论述如何寻找策略的更新量Δθ。
并非每次策略更新都会违背安全约束,本发明使用信任域方法更新未违背安全约束的策略。对于违背安全约束的策略更新,需要通过解对偶问题来求得不违背安全约束且使奖励函数期望最大的策略。对于在策略更新量超出信任域时仍不能满足安全约束的情况通过自然梯度来更新策略。
其中γ为折扣因子,H为基于约束的黑塞矩阵。
当检测到情况3-4时,基于约束限制的问题近似于传统策略更新问题,无需通过安全约束引导,更新策略为:
当检测到情况1-2时,凸优化问题可解(feasible),策略更新规则为:
其中
在求得v*与λ*之后使用共轭梯度算法来计算策略更新时的方向xk:
在这之后便可以通过下式来更新当前策略:
其中α由回溯线性搜索求得。
当检测到情况0时,凸优化问题不可解,利用自然梯度来修正当前策略,更新策略为:
b)基于奖励的价值神经网络与基于开销的价值神经网络评估优化
基于奖励的价值神经网络参数更新规则如下:
基于开销的价值神经网络参数更新规则如下:
2.基于多智能体约束策略优化的无信号交叉口协同控制方法
为了能够将提出的强化学习算法MACPO应用到无信号道路交叉口的协同控制中,如图3所示,需将考虑安全约束的道路交叉口协同控制问题转化为约束马尔可夫决策过程框架,定义问题的状态空间、动作空间、奖励函数与损失函数。
(1)状态空间与行为空间建模
为了降低模型的复杂度,本文将表征智能体位置的笛卡尔坐标(x,y)用车辆离开交叉口的距离代替,并通过交通场景中的车速来更全面地表征车辆信息。在V2I通信的架构下,路侧单元RSU将会实时搜集信号覆盖范围内的N台车辆发送的距离和速度信息,并将N台车辆发送的信息与全局环境信息结合起来作为MACPO算法的状态空间。故本发明的状态空间为:
S=[d1,d2,…,dN,v1,v2,…,vN]
为了得到更精确的环境信息,本文对不同转向车辆离开交叉口的距离分别进行计算。
a)左转
当车辆还未进入交叉口时,车辆离开交叉口的距离为:
若车辆已经进入交叉口,车辆离开交叉口的距离为:
b)直行
当车辆还未进入交叉口时,车辆离开交叉口的距离为:
若车辆已经进入交叉口,车辆离开交叉口的距离为:
c)右转
当车辆还未进入交叉口时,车辆离开交叉口的距离为:
若车辆已经进入交叉口,车辆离开交叉口的距离为:
在获取交通场景中的所有车辆离开交叉口的距离与车速后,将其与RSU存储的全局环境信息结合后作为策略神经网络的输入,神经网络输出环境中所有车辆的车速以控制全局车辆,形成闭环。
本发明定义神经网络的输出为为预期车速,在实际交通场景中,多智能体将根据各自获得的预期车速来调整节气门开度或直接采取刹车措施。因此定义MACPO算法的动作空间为A=[v′1,v′2,…,v′N]。
(2)奖励函数与开销函数设计
开销函数强调提高交通场景的安全性并降低潜在的碰撞风险。为此,本发明设计碰撞安全阈值cs参数,当有碰撞可能性的两车间距小于cs时损失函数值加1,当发生碰撞后损失函数值加50。定义密集损失函数为:
定义稀疏损失函数为:
Cs=εcδcollision (22)
总损失函数CMACPO为密集损失函数与稀疏损失函数之和:
本发明在设计奖励函数时综合考虑交通环境中的安全、效率与驾驶人员的舒适性。MACPO算法的奖励函数RMACPO包括密集奖励函数与稀疏奖励函数。密集奖励函数设置为:
稀疏奖励函数定义为:
总奖励函数RMACPO设置为:
仿真验证
仿真平台为Carla 0.9.12版本,基于PyTorch框架搭建了强化学习模型,GPU为NVIDIA GeForce RTX 3090。本专利将道路交叉口分为车辆产生区、车辆加速区、与强化学习实际控制区。所有车辆都在车辆产生区内产生,并均有随机的初始位置与速度。为了更好的模拟真实交通场景,车辆速度区间为0~10m/s,在产生区车辆距离进入交叉口的最远距离为35m,最近距离为20m,在加速区车辆距离进入交叉口的最远距离为20m,最近距离为15m。当任一车辆进入强化学习管控区,使用本文提出的MACPO算法控制交通场景中的所有车辆。控制周期(时间步长)被设置为0.1s,车辆的数目为N=8,每一个路口两台车。策略与价值神经网络结构分别为16×128×128×8与16×128×128×1,通过添加高斯分布的方差σ=-1.5e-6t来产生实际车辆速度v=N(μ,σ)的随机性。每一次策略迭代均搜集2048个样本数量,通过Adam优化器来优化策略、奖励与开销函数。学习率从1e-3开始线性衰减到0。训练算法迭代更新1024次后停止。
本专利对比了公开的MACPO算法相对于传统基于计算的MPC方法、奖励函数未考虑安全性的经典强化学习方法MAPPO、奖励函数考虑安全性的MAPPO-SC的优势,表1为各个方法的参数设置。本发明对比了各方法在道路交叉口通行的安全性、舒适性与效率,其中安全性通过碰撞概率与安全距离违背次数衡量,舒适性通过车辆加速度衡量,效率通过路口通行用时衡量。同时,对比了本发明公开的方法与传统基于计算的MPC方法在计算效率方面的性能。
表1.试验参数设置
表2.MACPO对比MPC的性能优势
MACPO | MPC | |
平均回合长度 | 10.4s | 32.9s |
平均回合加速度 | 0.02433 | 0.0641 |
安全距离违反次数 | 0 | 0 |
平均计算时间 | 0.01095 | 0.77483 |
表2给出了100次仿真测试的统计结果,结果显示本发明公开的方法在计算效率、交叉口通行效率、车辆加速度等方面均优于MPC方法,其中MPC计算结果平均时长为本公开方法的70.76倍,8台车成功通行所用的时长为本发明公开方法的3.16倍,平均加速度为本发明的2.63倍,安全距离违背次数均为0。
图7为本发明公开的方法MACPO与MAPPO-SC、MAPPO算法的训练曲线,实线代表训练曲线的平均值,阴影部分代表方差。图7(a)-图7(e)为MACPO与MAPPO-SC、MAPPO在回合平均奖励、安全开销、碰撞概率、通行用时、加速度方面的对比结果。在奖励获得方面,MACPO算法的最高奖励值高于MAPPO-SC、MAPPO算法,产生这一差距的原因是MACPO算法构建了单独的安全开销神经网络,能够保持0开销函数和碰撞惩罚。在安全开销方面,MACPO算法通过策略迭代将开销函数值约束在本文预设的值附近,从而实现了理想的开销函数,使得交通场景中的潜在碰撞风险明显小于MAPPO-SC与MAPPO算法。在碰撞概率方面,MACPO算法收敛后,由于其有开销函数来约束交通场景中的潜在碰撞风险,实现了零碰撞率,并从第150次更新开始一直保持到了策略更新结束。由于收敛后MAPPO-SC的开销函数相对于MAPPO算法较小,因此我们可以观察到策略收敛后MAPPO整体上的碰撞率高于MAPPO-SC算法。还可以观察到即使是带有安全约束的MAPPO-SC算法在整个训练过程中也不能实现0碰撞率,这进一步说明了传统MAPPO算法在应用到高动态变化、高安全性要求的无人驾驶环境中的局限性。在路口通行用时方面,未考虑安全约束的MAPPO算法有着最高的通行效率,有安全约束的MAPPO-SC算法的通行效率较MAPPO算法较低,而将安全作为最优先级的MACPO算法有着最低的通行效率。这是因为为了降低交通场景中的潜在碰撞风险,在MACPO算法控制下的车辆必须严格控制自车距离周围车辆的距离,限制车辆采取冒险激进的通行策略,尽管这样可能会增大通行效率。还可以观察到MACPO算法的通行效率相对于MAPPO-SC以及MAPPO算法差距并不悬殊,通过牺牲约一至三秒的通行时间,MACPO算法实现了安全的交通通行场景。作为影响驾驶舒适性的关键因素,瞬时的剧烈加速或减速均会在很大程度上降低驾驶员的驾驶体验,为了提升驾驶舒适性,本发明提出的MACPO算法也考虑了车辆的加速度值。实验仿真结果表明MACPO算法控制下车辆的平均加速度与取绝对值后的加速度平均值均为最小,具备最高的舒适性。
实施效果显示,本发明公开多智能体约束策略优化强化学习算法MACPO进行道路交叉口协同控制的性能,与传统基于计算的模型预测控制方法相比,计算效率提升了70.76倍;与非安全约束的强化学习算法相比,首次实现了交通场景的零碰撞率,并具备更好的车辆舒适性与路口通行效率。
虽然在上文中已经参考实施方式对本发明进行了描述,然而在不脱离本发明的范围的情况下,可以对其进行各种改进并且可以用等效物替换其中的部件。尤其是,只要不存在结构冲突,本发明所披露的实施方式中的各项特征均可通过任意方式相互结合起来使用,在本说明书中未对这些组合的情况进行穷举性的描述仅仅是出于省略篇幅和节约资源的考虑。因此,本发明并不局限于文中公开的特定实施方式,而是包括落入权利要求的范围内的所有技术方案。
Claims (3)
1.基于多智能体约束策略优化的无信号交叉口协同控制方法,其特征在于,包括如下两个部分:
第一部分:多智能体约束策略优化(MACPO)算法,Actor-Critic框架的基础上,引入了额外的基于损失函数的critic神经网络,用于保障策略更新时安全约束能够得到满足;MACPO算法主要包括以下两个子步骤:
步骤1:智能体轨迹采样,在多智能体环境中每个智能体都将独立与环境进行交互,并实时观测当前环境,假设第i个智能体观测到的局部空间为si,MACPO算法收集到的当前策略πk下多智能体环境提供的状态空间为S=[s1,s2,...,sN]。策略神经网络将状态空间映射为N维动作空间A=[a1,a2,...,aN],并将该动作空间后依次分配给环境中的多智能体。多智能体根据获得的动作与环境进行交互,获得新的状态空间,奖励函数与开销函数,以此形成算法与环境交互的闭环,当策略更新次数达到一定程度时中止训练。
步骤2:策略评估优化,分别使用基于奖励函数与基于损失函数的价值函数来评估当前策略,并利用策略梯度算法更新神经网络。MACPO算法将综合利用搜集到的轨迹来分别更新策略神经网络与基于奖励函数和开销函数的价值神经网络。在更新策略神经网络时本发明在信任域理论的基础上提出安全等级的概念,当基于奖励函数的策略更新违背基于开销函数的安全约束时,使策略更新朝着不违背安全约束且使奖励函数值最大的方向进行。
第二部分:基于多智能体约束策略优化的无信号交叉口协同控制方法,将所提出的MACPO算法应用于道路交叉口协同控制,集中调控交叉口范围内的所有车辆,实现通行的安全性、高效性与舒适性;基于多智能体约束策略优化的无信号交叉口协同控制方法主要包括以下两个子部分:
步骤1:状态空间与行为空间建模,本发明定义多智能体环境中共有8台车,每台车均有自己独立的局部观测空间,包括离开道路交叉口的距离di与当前的车速vi。定义全局状态空间为S=[d1,d2,...,d8,v1,v2,...,v8]。多智能体环境的行为空间由每个单独智能体的局部动作组成,本发明将车辆的预期车速作为策略神经网络的输出,因此定义行为空间为A=[v′1,v′2,...,v′8]。
步骤2:奖励函数与开销函数设计,本发明的奖励函数与多智能体的车速、加速度以及是否有安全事故发生相联系,用奖励函数来引导策略向使多智能体环境安全、高效与舒适的方向更新;开销函数与智能体间的距离与环境中是否有碰撞发生相联系,MACPO算法利用开销函数来判断当前策略的安全等级,并引导策略向不违背安全约束的方向更新。
2.根据权利要求1所述的基于多智能体约束策略优化的无信号交叉口协同控制方法,其特征在于:所述第一部分的具体流程为:在策略梯度与Actor-Critic框架基础上,通过引入另一个表征安全性约束的基于开销的神经网络建立信任域,确保策略在满足安全约束的前提下更新,首先,初始化三个神经网络的参数,包括策略神经网络、基于奖励函数的神经网络与基于开销函数的神经网络;其次,采集环境中与多智能体相关的信息,并根据策略神经网络产生的动作与环境进行交互,采样智能体轨迹,即状态和行为动作序列;进而,经由基于奖励函数与基于开销函数的价值神经网络评估策略,并通过策略梯度与信任域约束共同更新策略网络与两个价值神经网络参数,上述步骤循环至到达设定的迭代次数上限,MACPO作为第二部分道路交叉口协同控制的基础算法。
3.根据权利要求1所述的基于多智能体约束策略优化的无信号交叉口协同控制方法,其特征在于:所述第二部分中,将所提出的MACPO算法应用于道路交叉口协同控制,集中调控交叉口范围内的所有车辆,其中状态空间定义为车辆到交叉口出口的距离与车速信息,动作空间定义为车速控制信息,开销函数考虑道路车辆间的安全距离,奖励函数考虑全局的舒适、效率与安全性能。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211074749.1A CN115440042B (zh) | 2022-09-02 | 2022-09-02 | 基于多智能体约束策略优化的无信号交叉口协同控制方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211074749.1A CN115440042B (zh) | 2022-09-02 | 2022-09-02 | 基于多智能体约束策略优化的无信号交叉口协同控制方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN115440042A true CN115440042A (zh) | 2022-12-06 |
CN115440042B CN115440042B (zh) | 2024-02-02 |
Family
ID=84247944
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202211074749.1A Active CN115440042B (zh) | 2022-09-02 | 2022-09-02 | 基于多智能体约束策略优化的无信号交叉口协同控制方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115440042B (zh) |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110060475A (zh) * | 2019-04-17 | 2019-07-26 | 清华大学 | 一种基于深度强化学习的多交叉口信号灯协同控制方法 |
CN112632858A (zh) * | 2020-12-23 | 2021-04-09 | 浙江工业大学 | 基于Actor-Critic框架深度强化学习算法的交通灯信号控制方法 |
CN112700663A (zh) * | 2020-12-23 | 2021-04-23 | 大连理工大学 | 基于深度强化学习策略的多智能体智能信号灯路网控制方法 |
GB202105672D0 (en) * | 2021-04-21 | 2021-06-02 | Zeta Specialist Lighting Ltd | Traffic control at an intersection |
CN113299085A (zh) * | 2021-06-11 | 2021-08-24 | 昭通亮风台信息科技有限公司 | 一种交通信号灯控制方法、设备及存储介质 |
CN113593273A (zh) * | 2021-07-22 | 2021-11-02 | 吉林大学 | 一种基于v2i通信的无信号控制道路交叉口碰撞预警方法 |
CN114360266A (zh) * | 2021-12-20 | 2022-04-15 | 东南大学 | 一种网联车探测状态感知的交叉口强化学习信号控制方法 |
WO2022121510A1 (zh) * | 2020-12-11 | 2022-06-16 | 多伦科技股份有限公司 | 基于随机策略梯度的交通信号控制方法、系统及电子设备 |
KR20220102395A (ko) * | 2021-01-13 | 2022-07-20 | 부경대학교 산학협력단 | 자율주행 차량 군집 운행을 위한 비신호 교차로에서의 강화학습기반 통행 개선을 위한 장치 및 방법 |
-
2022
- 2022-09-02 CN CN202211074749.1A patent/CN115440042B/zh active Active
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110060475A (zh) * | 2019-04-17 | 2019-07-26 | 清华大学 | 一种基于深度强化学习的多交叉口信号灯协同控制方法 |
WO2022121510A1 (zh) * | 2020-12-11 | 2022-06-16 | 多伦科技股份有限公司 | 基于随机策略梯度的交通信号控制方法、系统及电子设备 |
CN112632858A (zh) * | 2020-12-23 | 2021-04-09 | 浙江工业大学 | 基于Actor-Critic框架深度强化学习算法的交通灯信号控制方法 |
CN112700663A (zh) * | 2020-12-23 | 2021-04-23 | 大连理工大学 | 基于深度强化学习策略的多智能体智能信号灯路网控制方法 |
KR20220102395A (ko) * | 2021-01-13 | 2022-07-20 | 부경대학교 산학협력단 | 자율주행 차량 군집 운행을 위한 비신호 교차로에서의 강화학습기반 통행 개선을 위한 장치 및 방법 |
GB202105672D0 (en) * | 2021-04-21 | 2021-06-02 | Zeta Specialist Lighting Ltd | Traffic control at an intersection |
CN113299085A (zh) * | 2021-06-11 | 2021-08-24 | 昭通亮风台信息科技有限公司 | 一种交通信号灯控制方法、设备及存储介质 |
CN113593273A (zh) * | 2021-07-22 | 2021-11-02 | 吉林大学 | 一种基于v2i通信的无信号控制道路交叉口碰撞预警方法 |
CN114360266A (zh) * | 2021-12-20 | 2022-04-15 | 东南大学 | 一种网联车探测状态感知的交叉口强化学习信号控制方法 |
Non-Patent Citations (2)
Title |
---|
李春贵;周坚和;孙自广;王萌;张增芳;: "基于多智能体团队强化学习的交通信号控制", 广西工学院学报, no. 02, pages 5 - 9 * |
李钊;高振海;高菲;胡宏宇;张天瑶;: "汽车正面碰撞驾驶员颈部肌肉激活分析", 吉林大学学报(工学版), no. 03, pages 110 - 115 * |
Also Published As
Publication number | Publication date |
---|---|
CN115440042B (zh) | 2024-02-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110362910B (zh) | 基于博弈论的自动驾驶车辆换道冲突协调模型建立方法 | |
CN112307564B (zh) | 列车ato目标运行速度曲线优化方法及装置 | |
CN111267830B (zh) | 一种混合动力公交车能量管理方法、设备和存储介质 | |
CN115457782B (zh) | 基于深度强化学习的自动驾驶车辆交叉口无冲突合作方法 | |
CN113593228B (zh) | 一种高速公路瓶颈区域自动驾驶协同控制方法 | |
CN110182217A (zh) | 一种面向复杂超车场景的行驶任务复杂度量化评估方法 | |
CN115457768B (zh) | 考虑相关随机速度转换率的交通流模型的动力学分析方法 | |
Xin et al. | Modeling and impact analysis of connected vehicle merging accounting for mainline random length tight-platoon | |
CN110364026A (zh) | 一种基于状态可达集的车辆跟随策略安全验证方法及系统 | |
Wang et al. | Research on car-following model considering driving style | |
Akti et al. | A game-theoretical approach for lane-changing maneuvers on freeway merging segments | |
Yang et al. | Multi-lane coordinated control strategy of connected and automated vehicles for on-ramp merging area based on cooperative game | |
CN115440042A (zh) | 基于多智能体约束策略优化的无信号交叉口协同控制方法 | |
CN113479187A (zh) | 一种插电式混合动力汽车分层异步长能量管理方法 | |
Gong et al. | Fleet management for HDVs and CAVs on highway in dense fog environment | |
CN114148349B (zh) | 一种基于生成对抗模仿学习的车辆个性化跟驰控制方法 | |
Xie et al. | Analysis of the relationship between the density and lane-changing behavior of circular multilane urban expressway in mixed traffic | |
Abdollahi et al. | Cooperative adaptive cruise control: PDE modeling and stability analysis | |
CN114701517A (zh) | 基于强化学习的多目标复杂交通场景下自动驾驶解决方法 | |
Ma et al. | Evolving testing scenario generation method and intelligence evaluation framework for automated vehicles | |
Chada et al. | Deep Learning-Based Vehicle Speed Prediction for Ecological Adaptive Cruise Control in Urban and Highway Scenarios | |
Basile et al. | Deep Deterministic Policy Gradient Virtual Coupling control for the coordination and manoeuvring of heterogeneous uncertain nonlinear High-Speed Trains | |
CN113689723B (zh) | 不同路侧单元部署特性下的混合交通速度控制方法 | |
Yu | Revisit of microscopic car following models: Conventional and machine learning perspectives | |
Lin et al. | Multi-level objective control of AVs at a saturated signalized intersection with multi-agent deep reinforcement learning approach |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |