CN112700642A - 一种利用智能网联车辆提高交通通行效率的方法 - Google Patents

一种利用智能网联车辆提高交通通行效率的方法 Download PDF

Info

Publication number
CN112700642A
CN112700642A CN202011512324.5A CN202011512324A CN112700642A CN 112700642 A CN112700642 A CN 112700642A CN 202011512324 A CN202011512324 A CN 202011512324A CN 112700642 A CN112700642 A CN 112700642A
Authority
CN
China
Prior art keywords
vehicle
intelligent
network
strategy
internet
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202011512324.5A
Other languages
English (en)
Other versions
CN112700642B (zh
Inventor
张利国
马子博
崔铜巢
江丰尧
花桢
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing University of Technology
Original Assignee
Beijing University of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing University of Technology filed Critical Beijing University of Technology
Priority to CN202011512324.5A priority Critical patent/CN112700642B/zh
Publication of CN112700642A publication Critical patent/CN112700642A/zh
Application granted granted Critical
Publication of CN112700642B publication Critical patent/CN112700642B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Traffic Control Systems (AREA)

Abstract

本发明公开了一种利用智能网联车辆提高交通通行效率的方法,该方法采用PPO强化学习算法优化智能网联车的驾驶策略,并且通过对交通流动态信息统计方法的创新,提出了等效密度概念,并以此优化设计了PPO算法的观测空间和奖励函数,加快了算法的优化效率。最终,通过在SUMO交通仿真平台上进行实验,验证了所提方法的有效性。实验结果表明,本发明可对路网中交通拥堵产生的走停波进行消散,缓解了交通拥堵,有效提升了通行效率。

Description

一种利用智能网联车辆提高交通通行效率的方法
技术领域
本发明涉及自动驾驶领域、深度强化学习领域、车联网领域,特别涉及基于深度强化学习的自动驾驶策略训练。具体发明一种基于深度强化学习,通过训练智能网联车的驾驶策略来提高交通通行效率的方法。
背景技术
随着人工智能技术和汽车技术的发展,无人驾驶汽车逐渐走入人们的视野。无人驾驶汽车主要通过自身搭载的传感器获取外界环境信息,依靠车载计算机完成对外界环境信息的处理,并对汽车的执行系统输出控制信号来实现对车辆的控制,进而实现自动驾驶。这种基于车辆自身传感器获取环境信息的方式具有非常大的局限性:一是获取信息范围小,通常只能获取车辆自身到周围邻车的相关信息;二是获取到的信息种类缺乏多样性,现有的雷达、红外、摄像头等传感器通常只能获取到速度、距离等信息;三是获取信息的过程易受环境条件变化的影响。
然而,随着无人驾驶技术和通信技术的发展,车联网作为二者结合的产物,逐渐成为了无人驾驶领域颇受关注的研究方向。配备标准无线车联设备的车辆可以通过无线通信的方式接入车联网。接入车联网的无人驾驶汽车不仅可以通过自身的传感器获取周边的环境信息,也可以通过车联网获取其他车辆的速度、位置等信息,实现车与车(V2V)之间的信息共享与实时通信。无人驾驶车辆通过接入车联网,使得获取信息的过程不再受制于自身传感器,间接地扩展了获取信息的范围,这就使无人驾驶车可以利用路网中更全面的信息进行驾驶行为的决策。由此看来,无人驾驶车辆可以通过自主驾驶技术对交通指标进行优化,这也是目前自动驾驶领域主要的研究方向之一。
在诸多交通指标中,通行效率一直是人们迫切关注的一点,而交通拥堵恰恰是阻碍通行效率提升的重要原因之一。在路网中,拥堵区域表现为车流密度大、车流流速慢,而非拥堵区域则相反。因而,在非拥堵区域和拥堵区域之间就形成了一个交通流密度突变的截面——走停波(stop-and-go wave)。它会在车流中向上游甚至下游传播,直到被上游或下游车辆逐渐消散。然而,在车流量较大的路网中,走停波被消散的速度非常缓慢,有的甚至会被扩大并最终破坏整个车辆队列稳定性。网联的无人驾驶车由于感知环境的能力大大增强,因而可以尽早地捕捉到周围交通流的微小波动。因此,如何利用网联无人驾驶车主动地消散交通流波动成为了研究的热点。
Abdul等人基于SUMO交通仿真软件,利用TRPO(Trust Region PolicyOptimization)强化学习算法在两个实验场景中研究了走停波消散问题,分别是一条带有汇入匝道的单车道高速路和单车道环形道路。两个实验场景中的车辆队列均为混合队列,人工驾驶车采用IDM跟驰模型作为纵向控制策略,无人驾驶车采用TRPO算法学习到的策略作为纵向控制策略。但该文献中,无人驾驶车的观测空间只包括其前后邻车的动态信息,而不包括队列中其他车辆的信息,车联网信息共享的特性没有被体现出来。只考虑局部(微观)交通流动态的学习方法会使得学习效果无法达到最优,影响最终的优化效果。
Cathy Wu等人同样基于SUMO交通仿真软件,利用TRPO深度强化学习算法研究了单车道环形道路场景中走停波的消散问题。该场景中分别存在有人工驾驶车和无人驾驶车两类车辆,人工驾驶车依旧采用IDM跟驰模型作为车辆纵向控制策略,而无人驾驶车则采用TRPO算法学习到的策略作为车辆纵向控制策略。该文献中,无人驾驶车的观测空间包括了道路中每辆车的速度vi和位置xi,车联网信息共享的特性被体现了出来。然而在该方法中,观测空间的维数较高,过高的维度会导致算法学习效率低下且收敛速度慢;另外,其奖励函数与队列中所有车辆的速度有关,无人驾驶车驾驶策略的改变不能及时地从奖励值中反映出来,这种非即时奖励也会影响算法的收敛速度。
考虑以上因素,本发明作出以下改进:首先,提出一种新的交通流信息统计算法。该算法将车流密度ρ、平均速度v、跟车间距d等环境信息量化为一个指标,记为等效密度ρe。该指标既包含了宏观交通流信息,也包含了微观交通流信息,在确保全面描述交通流动态的前提下,大大减少了观测量的个数。其次,利用上述指标优化设计强化学习算法的观测空间和奖励函数。将上述指标作为观测量放入观测空间中,可以使观测空间不再考虑环境中每辆车单独的信息,减少了观测空间维数;将上述指标作为奖励值的计算依据,可以准确地评价动作的优劣,提高算法的优化效率。
发明内容
本发明提出了一种利用智能网联车提高交通通行效率的方法。该方法基于深度强化学习算法,通过提出新的交通流信息统计算法,改进了智能网联车驾驶策略的观测空间和奖励机制,提高了驾驶策略的训练效率,并最终训练出了消散走停波的驾驶策略,有效地缓解了交通拥堵,提升了通行效率。
一种利用智能网联车辆提高交通通行效率的方法,具体实现步骤如下:
步骤1、获取智能网联车周围的环境状态信息
车联网环境中存在普通网联车与智能网联车两种车辆,区别在于普通网联车需要人工驾驶,而智能网联车可以自动驾驶。所有网联车通过自身的无线车联设备接入车联网,并将自身传感器监测到的环境状态信息共享至网络。智能网联车以自身为中心,获取其前、后长度为L的区间内的环境状态信息。所述的环境状态信息至少包括智能网联车前、后长度为L的区间内所有车辆的行驶速度vi以及每辆车的位置(xi,yi),i∈(1,2,…,n),其中,i为车辆编号,n为前部或后部长度为L的区间内的车辆数。
步骤2、提取上述环境状态信息,计算等效密度ρe
步骤1中所述的环境状态信息是一种原始数据,并不能够直接反映交通流的动态,因此需对环境状态信息中的部分特征进行提取并加以整合。基于上述考虑,本发明提出了新的交通流信息统计算法,用以提取环境状态信息。记步骤1所述的长度为L的区间为交通流信息统计算法的统计区间,每辆智能网联车含有前部、后部两个统计区间,交通流信息统计算法的公式如下:
Figure BDA0002846779790000031
其中,ρe表示智能网联车前或后部统计区间内的等效密度;ρW表示智能网联车前或后部统计区间内车流的加权平均密度;vWH表示智能网联车前或后部统计区间内车流的加权调和平均速度;d表示智能网联车与前或后车的间距;参数kρ、kv、kd分别控制密度项、速度项、间距项在计算等效密度指标时的权重;ρW的计算公式如下:
Figure BDA0002846779790000032
其中,wi表示权重;di表示智能网联车前或后第i辆车到第i+1辆车的距离,i为车辆编号,n为统计区间内的车辆总数;vWH的计算公式如下:
Figure BDA0002846779790000033
其中,vi表示智能网联车前或后第i辆车的速度;上述的wi的计算公式如下:
Figure BDA0002846779790000041
其中,si表示智能网联车到其前或后第i辆车的距离;a表示权重参数,控制算法中权重wi随距离si增大时的衰减力度,间接控制了智能网联车前或后部统计区间的长度L。
最终,通过调整kρ、kv、kd、a四个参数,可以使该统计算法输出理想的统计结果。
步骤3、设计智能网联车驾驶策略的观测空间和动作空间
观测空间包含了驾驶策略的所有观测量,观测空间设计的优劣直接影响了策略训练的好与坏。为了确保智能网联车驾驶策略在获取足够全面的交通流信息的同时,不会使观测空间的维度过高,下面将步骤2所述的等效密度指标引入观测空间的设计过程中,设计驾驶策略的观测空间如下式所示:
S:=(v,Δv,d,Δρe)
其中,v表示智能网联车的速度,Δv表示智能网联车与前车的速度差,d表示智能网联车的跟车间距,Δρe表示智能网联车前部与后部统计区间的等效密度之差。v,Δv,d用于反映智能网联车与前车的关系,帮助智能网联车快速学习到正确驾驶行为的大致策略;Δρe用于反映智能网联车所处路段的宏、微观交通流信息,帮助智能网联车学习到消散走停波的最优驾驶策略。
驾驶策略的输出动作为车辆的加速度,因此,设计动作空间为车辆可取到的加速度区间,如下式所示:
A=[amin,amax]
其中,amin为智能网联车最大减速度,amax为智能网联车最大加速度。
步骤4、设计智能网联车驾驶策略的奖励函数
奖励函数负责评价策略做出动作的优劣,并直接决定了策略的优化方向。针对现有工作中奖励函数不能及时反映动作优劣的问题,下面将使用步骤2所述的等效密度指标优化奖励函数的设计。
首先,奖励函数的主要作用是鼓励消散交通拥堵的行为。智能网联车通过阻断走停波在车辆队列中传播来恢复队列的稳定性,从而缓解拥堵并提升通行效率。而在走停波两侧,车流密度、速度差距很大,反映到等效密度概念上则体现为两侧等效密之度差很大。因此,奖励函数需要对智能网联车前、后部的等效密度差进行惩罚,以促使驾驶策略朝着让前、后部等效密度趋于一致的方向进行优化。设计奖励函数r1如下式所示:
r1=-k1|Δρe|
其中,Δρe表示智能网联车前部与后部统计区间内的等效密度之差,k1为大于0的参数。
其次,为了保证智能网联车驾驶的安全性,需要对危险驾驶行为进行惩罚,设计奖励函数r2和r3如下式所示:
r2=-k2·max(dsafe-d,0)
Figure BDA0002846779790000051
其中,d为智能网联车的跟车间距,dsafe为跟车间距最小阈值,M为正常数,k2为大于0的参数。
最终,将上述两部分进行整合,得到驾驶策略的奖励函数r,如下式所示:
Figure BDA0002846779790000052
步骤5、智能网联车驾驶策略网络的搭建与训练
本发明选用PPO强化学习算法对智能网联车的驾驶策略进行训练。PPO算法本质上是一种Actor-Critic算法,因此搭建Actor网络和Critic网络作为策略网络。根据步骤3对观测空间和动作空间的定义,选用全连接的多层感知机(MLP)作为Actor和Critic网络的结构。Actor网络输出选择动作的概率分布μ、σ,Critic网络输出观测量的价值V(st)。
在训练开始前,需构建两个结构完全相同的策略网络,分别记为πnew和πold。πold负责与环境互动,而πnew负责学习经验并优化参数。
(1)与环境互动
πold根据观测量s输出动作a,该动作在训练环境中执行后,由环境返回该动作的奖励值r和经过该动作作用后下一时刻的观测量s’。重复上述过程T个步长,会得到T个元组(s,a,r,s’)。将元组按时间顺序排序,记为一条轨迹(trajectory),PPO算法将根据该轨迹对策略网络进行优化。
(2)优化策略网络参数
将轨迹中所有观测量st分别传入策略网络πnew和πold中,得到不同策略网络输出的分布
Figure BDA0002846779790000061
分别计算轨迹中每一步动作at在上述两个分布中的对数概率
Figure BDA0002846779790000062
Figure BDA0002846779790000063
Figure BDA0002846779790000064
利用GAE算法计算轨迹中每一步动作的优势
Figure BDA0002846779790000065
δt=rt+γV(st+1)-V(st)
Figure BDA0002846779790000066
其中,δt为时序差分误差项,T为轨迹τ所含的总步长数,γ、λ为参数;优势
Figure BDA0002846779790000067
反映了该步选取动作a相比于选取其他动作的优势,并由此计算Actor网络的损失。由于Actor-Critic算法是on-policy(在线)优化算法,因此,收集到的轨迹只能对策略进行一次优化,大大降低了经验数据的利用率。为了解决这一问题,PPO算法中引入了重要性采样,利用该方法,可以使PPO算法利用同一批数据对策略进行多次优化。其中,重要性权重ratiot(θ)的计算公式如下:
Figure BDA0002846779790000068
Actor网络的损失LCLIP(θ)如下:
Figure BDA0002846779790000069
轨迹中每一步的回报
Figure BDA00028467797900000610
由下式计算:
Figure BDA00028467797900000611
Critic网络的损失LVF(θ)如下:
Figure BDA00028467797900000612
策略网络的损失L(θ)如下:
L(θ)=-LCLIP(θ)+0.5LVF(θ)
将误差在πnew策略网络中反向传播,完成一次优化。重复步骤(2)若干次对πnew进行多次优化,以充分利用经验数据。优化完成后,将πnew中的参数复制到πold策略网络中,并循环步骤(1)、(2),直到达到优化要求。
附图说明
图1为本发明实例提供的仿真实验场景
图2为本发明实例提供的仿真场景初始状态
图3为本发明实例提供的仿真环境交互方法
图4为本发明实例提供的驾驶策略网络
图5为本发明实例提供的PS-PPO算法的实现流程
图6为本发明实例提供的训练过程中奖励值的变化曲线
图7为本发明实例提供的训练过程中平均速度与速度标准差的变化曲线
具体实施方法
以下将结合附图对本发明实例进行详细描述,以便本技术领域的人员更好地理解本发明。以下所描述的实例为本发明的一部分实例,并非全部实例。基于发明中的实例,本领域普通技术人员在没有做出创造性劳动的前提下所获得的所有其他实施例,都应当在本发明保护的范围之内。
本发明实例是通过SUMO(Simulation of Urban MObility)交通仿真软件模拟车辆驾驶行为和道路交通状况,利用Pytorch神经网络库构建智能网联车的策略网络,并基于python语言和TraCI(Traffic Control Interface)控制接口编写程序实现的。以下对具体实施步骤进行详细说明。
步骤1、实验场景设计
如图1所示,本实例中选用单车道环形道路作为仿真实验路网。该环形道路半径为45m,道路周长为283m。在车辆配置方面,本实例中设计了两种模式:
M1:人工驾驶队列模式。配置25辆普通网联车;
M2:混合驾驶队列模式。配置2辆智能网联车和23辆普通网联车。
由于模式M1中的车辆均为普通网联车,不涉及本发明的应用,因此仅作为对照实验场景,其结果仅供对照使用。而本实验的主要步骤(步骤3至步骤5)均在模式M2中进行。
由于选用的单车道路网,因此只考虑车辆的纵向控制;纵向控制模型中,智能网联车采用PPO算法训练的驾驶策略控制,普通网联车采用IDM跟驰模型控制,IDM跟驰模型的公式如下:
Figure BDA0002846779790000071
Figure BDA0002846779790000072
其中:v为车辆当前时速;v0为最大期望速度;s为车辆当前间距;s*为期望间距函数;s0为最小安全间距;T为车头时距;Δv为本车与前车速度差;a为车辆最大加速度;b为舒适减速度;δ为加速度指数。
步骤2、仿真参数配置
首先,在仿真环境方面,配置参数如表1所示。如图2所示,仿真初始状态为拥堵状态。即:所有车辆速度vi=0,所有车辆跟车间距di=s0=2m。
表1仿真环境参数配置
Figure BDA0002846779790000081
其次,在公式参数方面,配置参数如表2所示。
表2相关公式参数配置
Figure BDA0002846779790000082
步骤3、车辆信息获取
如图3所示,通过在python环境中调用TraCI控制接口,实现对SUMO仿真环境中信息的获取和控制指令的发送。本实例中,通过TraCI接口获取仿真场景中所有车辆的位置、速度信息,通过python控制脚本对上述信息进行后处理,得到需要的各种观测信息。
步骤4、智能网联车策略网络搭建
如图4所示,本实例中的策略网络包含Actor和Critic两个网络:Actor网络由4层全连接层构成,包括2层隐含层和2层输出层,每层隐含层含有64个神经元,隐含层采用tanh激活函数;每层输出层含有1个神经元,分别输出动作概率分布的μ和σ,对应地,分别采用tanh激活函数和softplus激活函数;Critic网络由3层全连接层构成,包括2层隐含层和1层输出层;每层隐含层含有64个神经元,采用tanh激活函数;输出层含有1个神经元,输出动作的价值V,采用tanh激活函数。
步骤5、驾驶策略训练
本实例中,由于存在多辆智能网联车,每一辆智能网联车均被视作一个智能体,因此需要使用多智能体强化学习算法进行训练。本实例选用基于参数共享的PPO算法(PS-PPO)对智能网联车的驾驶策略进行训练。PS-PPO算法的本质依然是PPO算法,只是将优化过程略加调整,使其能够在共享多个智能体数据的基础上优化目标策略,其示意图如图5所示,具体实现过程如下。
a.初始化仿真环境和策略网络。首先重置仿真环境,使车辆处于拥堵状态,为走停波的出现以及消散创造前提;其次,构建结构相同的新、旧策略网络,将策略网络的权值矩阵进行随机初始化,本实施例中使用N(0,0.1)对权值矩阵进行随机初始化。
b.用旧策略网络与仿真环境交互。本实例中的两辆智能车共享一个驾驶策略,因此在一个仿真步长中,先依次用策略网络对两辆智能车分别进行决策,根据其各自的观测量选出各自的动作,然后在运行一步仿真,执行决策的结果。
c.存储智能网联车与环境交互的经验数据。执行上述决策结果后,从仿真环境分别获取两辆车的奖励值r、下一时刻观测量s’和回合结束标识位done,并与上一时刻观测量s和动作a组成元组(s,a,r,s',done),分别存入两个独立的缓冲区buf1、buf2中。若上一时刻的动作a导致了车辆碰撞,则重置仿真环境。
d.重复过程b、过程c,收集经验数据。本实例中设定重复次数n_step=2048。
e.计算优势
Figure BDA0002846779790000091
和回报
Figure BDA0002846779790000092
分别对两个缓冲区的数据进行以下操作:将缓冲区中所有观测量s传入Critic网络,得到每个观测量对应的价值V,由下式计算出每一步的优势
Figure BDA0002846779790000093
和回报
Figure BDA0002846779790000094
δt=rt+γV(st+1)-V(st)
Figure BDA0002846779790000095
Figure BDA0002846779790000096
本实例中取γ=0.9,λ=0.95
f.合并不同智能网联车的经验数据。将缓冲区buf1、buf2中的s、a、r、done、
Figure BDA0002846779790000097
和V对应项进行合并,记为buf_s,buf_a,buf_r,buf_done,
Figure BDA0002846779790000098
和buf_V。
g.计算旧策略网络输出的概率分布。将buf_s输入旧策略的Actor网络,得到概率分布buf_μ、buf_σ,并计算对数概率密度buf_πold
Figure BDA0002846779790000101
h.mini-batch训练。从步骤f、g计算出的数据中随机抽取一小批计算策略的损失。本实例中,取批大小batchsize=64。将这一小批数据按照步骤g的方法计算新策略的概率分布batch_πnew,然后计算新旧策略差异:
ratiot(θ)=exp(batch_πnew-batch_πold)
取ε=0.2,计算Actor网络损失:
Figure BDA0002846779790000102
计算Critic网络损失:
Figure BDA0002846779790000103
计算策略损失:
L(θ)=-LCLIP(θ)+0.5LVF(θ)
将损失在新策略网络中反向传播,优化策略网络。本实例中,取学习率lr=0.0005。
i.重复步骤h若干次,充分利用经验数据优化策略网络。本实例中,取重复次数K_epoch=10。
j.同步网络参数,重置仿真环境并重新与环境交互。首先,将优化后的新策略网络参数复制到旧策略网络中;然后,重置仿真环境,使车辆回到拥堵状态;最后,重复步骤b-步骤i,用更新后的旧策略网络重新与环境交互并优化,直到满足要求。本实例中,取重复次数episodes=200。
步骤6、实验结果
本实例驾驶策略训练过程中奖励值的变化情况如图6所示。训练过程中,驾驶策略获得的奖励值快速上升并趋于稳定,验证了本发明对驾驶策略观测空间和奖励函数优化设计的有效性。另外,训练过程中车辆队列的平均速度vmean和队列中各个车辆速度的标准差vstd变化情况如图7所示。由此可知,随着训练的进行,车辆队列的平均速度逐渐升高并趋于稳定,且队列中各车辆的速度逐渐趋于一致,队列速度的波动得到了有效的抑制;并且,M2模式比M1模式的队列平均速度更高、队列中各车辆速度的标准差更低。综上所述,本发明提出的方法有效缓解了交通拥堵,提升了通行效率。

Claims (10)

1.一种利用智能网联车辆提高交通通行效率的方法,其特征在于:该方法由五部分组成:第一、以智能网联车为中心,获取其前部和后部长度为L的区间内的环境状态信息,所述的环境状态信息至少包括车辆前部和后部长度为L的区间内,路网中所有车辆的行驶速度vi以及每辆车的位置(xi,yi),i表示车辆编号;第二、利用提出的交通流信息统计算法,提取环境状态信息,将所述的环境状态信息整合为等效密度进行表示;第三、通过以下方式优化设计智能网联车驾驶策略的观测空间和动作空间:首先将所述的等效密度和其他必要的环境信息构成智能网联车驾驶策略的观测空间,其中,其他必要的环境信息具体包括智能网联车的速度v、智能网联车与前车的速度差Δv和智能网联车的跟车间距d,其次,将智能网联车加速度区间作为驾驶策略的动作空间;第四、将上述等效密度指标用于奖励函数设计,优化设计智能网联车驾驶策略的奖励函数;第五、搭建并训练智能网联车的驾驶策略网络。
2.根据权利要求1所述的一种利用智能网联车辆提高交通通行效率的方法,其特征在于:车联网环境中存在普通网联车与智能网联车两种车辆;所有网联车辆通过自身的无线车联设备接入车联网,并将传感器监测到的环境状态信息共享至网络;智能网联车把从网络中获取到的其他车辆共享的环境状态信息进行整合,得到智能网联车前后长度为L的区间内的环境状态。
3.根据权利要求1所述的一种利用智能网联车辆提高交通通行效率的方法,其特征在于:所述的用于获取环境状态信息、长度为L的区间记为交通流信息统计算法的统计区间,每辆智能网联车含有前部、后部两个统计区间;所述的交通流信息统计算法,其公式为:
Figure FDA0002846779780000011
其中,ρe表示智能网联车前或后部统计区间内的等效密度;ρW表示智能网联车前或后部统计区间内车流的加权平均密度;vWH表示智能网联车前或后部统计区间内车流的加权调和平均速度;d表示智能网联车与前或后车的间距;参数kρ、kv、kd分别控制密度项、速度项、间距项在计算等效密度指标时的权重;ρW的计算公式为:
Figure FDA0002846779780000012
其中,wi表示权重;di表示智能网联车前或后第i辆车到第i+1辆车的距离,i为车辆编号,n为统计区间内的车辆总数;vWH的计算公式为:
Figure FDA0002846779780000021
其中,wi表示权重,vi表示智能网联车前或后第i辆车的速度,i为车辆编号,n为统计区间内的车辆总数;上述权重wi的计算公式为:
Figure FDA0002846779780000022
其中,si表示智能网联车到其前或后第i辆车的距离,a表示权重参数,控制算法中权重wi随距离si增大时的衰减力度,间接控制了智能网联车前或后部统计区间的长度L,i为车辆编号。
4.根据权利要求3所述的一种利用智能网联车辆提高交通通行效率的方法,其特征在于:计算出的等效密度指标能够同时反映宏观交通流信息和微观交通流信息;通过调整kρ、kv、kd、a四个参数,能使等效密度指标正确反映交通流动态。
5.根据权利要求1所述的一种利用智能网联车辆提高交通通行效率的方法,其特征在于:所述的智能网联车驾驶策略的观测空间设计为如下形式:
S:=(v,Δv,d,Δρe)
其中,v表示智能网联车的速度,Δv表示智能网联车与前车的速度差,d表示智能网联车的跟车间距,Δρe表示智能网联车前部与后部统计区间的等效密度之差;v,Δv,d用于反映智能网联车与前车的关系;Δρe用于反映智能网联车所处路段的宏、微观交通流信息;所述的智能网联车驾驶策略的动作空间设计为如下形式:
A=[amin,amax]
其中,amin为智能网联车最大减速度,amax为智能网联车最大加速度。
6.根据权利要求1所述的一种利用智能网联车辆提高交通通行效率的方法,其特征在于:所述的智能网联车驾驶策略的奖励函数设计为如下形式:首先,设计等效密度差的惩罚项r1如下式所示:
r1=-k1|Δρe|
其中,Δρe表示智能网联车前部与后部统计区间的等效密度之差,k1为大于0的参数;其次,设计危险驾驶行为的惩罚项r2和r3如下式所示:
r2=-k2·max(dsafe-d,0)
Figure FDA0002846779780000023
其中,d为智能网联车的跟车间距,dsafe为跟车间距最小阈值,M为正常数,k2为大于0的参数;最终,将上述两部分进行整合,得到驾驶策略的奖励函数r,如下式所示:
Figure FDA0002846779780000031
7.根据权利要求1所述的一种利用智能网联车辆提高交通通行效率的方法,其特征在于:所述的智能网联车的驾驶策略网络为Actor-Critic网络,包含一个Actor网络和一个Critic网络:Actor网络由4层全连接层组成,包含2层隐含层和2层输出层,其中2层输出层分别输出正态分布的均值μ与标准差σ;Critic网络由3层全连接层组成,包含2层隐含层和1层输出层,其中输出层输出对时刻t观测量st的估值V(st)。
8.根据权利要求1所述的一种利用智能网联车辆提高交通通行效率的方法,其特征在于:所述的智能网联车驾驶策略的训练过程包括两个环节,分别为与环境互动和优化策略网络参数,所述的两个环节进行循环即构成了完整的训练过程;在训练开始前,需构建两个完全一致的策略网络,分别记为πnew和πold,πold负责与环境互动,πnew负责利用收集到的经验数据多次学习并优化参数。
9.根据权利要求8所述的一种利用智能网联车辆提高交通通行效率的方法,其特征在于:所述的与环境互动过程如下:
a.将观测量s传入策略网络πold,经下式计算出正态分布的均值μ和标准差σ:
(μ,σ)=sΘold
其中,Θold表示策略网络πold的权值矩阵;经下式选出动作a:
a=clip(N(μ,σ).sample(),amin,amax)
其中,N(μ,σ).sample()表示按分布N(μ,σ)进行采样,amax、amin分别表示动作空间A的上、下界;
b.将上述动作a在训练环境中执行一个仿真步长,得到环境返回的该动作的奖励值r和经过该动作作用后下一时刻的观测量s’,并将上述观测量s、动作值a、奖励值r、下一时刻观测量s’以数组的方式存储为经验数据,重复过程a、过程b若干次。
10.根据权利要求8、权利要求9所述的一种利用智能网联车辆提高交通通行效率的方法,其特征在于:所述的策略网络参数优化过程如下:
a.将上述经验数据按时间顺序排序,将得到的数据序列记为轨迹τ;
b.将轨迹τ中所有观测量st分别传入策略网络πnew、πold中,得到策略网络πnew、πold输出的分布
Figure FDA0002846779780000032
其中,
Figure FDA0002846779780000033
分别为分布
Figure FDA0002846779780000034
的均值,
Figure FDA0002846779780000035
分别为分布
Figure FDA0002846779780000036
的标准差,下标t表示步长数(以下如不做特殊说明均为此含义);
c.分别计算轨迹τ中每一步动作at在上述两个分布中的对数概率
Figure FDA0002846779780000041
Figure FDA0002846779780000042
Figure FDA0002846779780000043
Figure FDA0002846779780000044
d.利用GAE算法计算轨迹τ中每一步动作的优势
Figure FDA0002846779780000045
δt=rt+γV(st+1)-V(st)
Figure FDA0002846779780000046
其中,δt为时序差分误差项,T为轨迹τ所含的总步长数,γ、λ为参数(以下如不做特殊说明均为此含义);
e.计算轨迹τ中每一步的累积回报
Figure FDA0002846779780000047
Figure FDA0002846779780000048
f.计算Actor网络的损失LCLIP(θ):
Figure FDA0002846779780000049
Figure FDA00028467797800000410
其中,θ为策略网络参数,ratiot(θ)为策略网络πnew、πold的差异,ε为参数;
g.计算Critic网络的损失LVF(θ):
Figure FDA00028467797800000411
h.计算策略网络的损失L(θ):
L(θ)=-LCLIP(θ)+0.5LVF(θ)
i.将策略网络的损失作为误差,在策略网络πnew中反向传播,优化网络参数,重复本过程若干次以充分利用经验数据优化策略网络πnew
j.将优化后策略网络πnew的参数复制到策略网络πold中,更新策略网络πold
CN202011512324.5A 2020-12-19 2020-12-19 一种利用智能网联车辆提高交通通行效率的方法 Active CN112700642B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011512324.5A CN112700642B (zh) 2020-12-19 2020-12-19 一种利用智能网联车辆提高交通通行效率的方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011512324.5A CN112700642B (zh) 2020-12-19 2020-12-19 一种利用智能网联车辆提高交通通行效率的方法

Publications (2)

Publication Number Publication Date
CN112700642A true CN112700642A (zh) 2021-04-23
CN112700642B CN112700642B (zh) 2022-09-23

Family

ID=75507576

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011512324.5A Active CN112700642B (zh) 2020-12-19 2020-12-19 一种利用智能网联车辆提高交通通行效率的方法

Country Status (1)

Country Link
CN (1) CN112700642B (zh)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113942491A (zh) * 2021-11-29 2022-01-18 中国北方车辆研究所 一种串联式混合动力系统及联网混合动力车辆能量管理方法
CN114241778A (zh) * 2022-02-23 2022-03-25 东南大学 高速公路网联车协同匝道汇入多目标优化控制方法和系统
CN114360266A (zh) * 2021-12-20 2022-04-15 东南大学 一种网联车探测状态感知的交叉口强化学习信号控制方法
CN115171388A (zh) * 2022-07-20 2022-10-11 辽宁工程技术大学 一种智能网联车的多交叉口旅行时间协同优化方法
CN117238131A (zh) * 2023-09-14 2023-12-15 中国民航大学 一种车联网环境下交通流特性分析方法
WO2023246066A1 (zh) * 2022-06-23 2023-12-28 北京百度网讯科技有限公司 基于车路协同的信号管控方法、相关装置及程序产品

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106157650A (zh) * 2016-07-11 2016-11-23 东南大学 一种基于强化学习可变限速控制的快速道路通行效率改善方法
US20190266489A1 (en) * 2017-10-12 2019-08-29 Honda Motor Co., Ltd. Interaction-aware decision making
CN111026127A (zh) * 2019-12-27 2020-04-17 南京大学 基于部分可观测迁移强化学习的自动驾驶决策方法及系统
CN111222630A (zh) * 2020-01-17 2020-06-02 北京工业大学 一种基于深度强化学习的自主驾驶规则学习方法
CN111383481A (zh) * 2020-03-03 2020-07-07 东南大学 城市拥堵路口智能网联汽车绿色通行车速优化方法
CN111845773A (zh) * 2020-07-06 2020-10-30 北京邮电大学 基于强化学习的自动驾驶车辆微观决策方法
US20200372822A1 (en) * 2019-01-14 2020-11-26 Polixir Technologies Limited Training system for autonomous driving control policy

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106157650A (zh) * 2016-07-11 2016-11-23 东南大学 一种基于强化学习可变限速控制的快速道路通行效率改善方法
US20190266489A1 (en) * 2017-10-12 2019-08-29 Honda Motor Co., Ltd. Interaction-aware decision making
US20200372822A1 (en) * 2019-01-14 2020-11-26 Polixir Technologies Limited Training system for autonomous driving control policy
CN111026127A (zh) * 2019-12-27 2020-04-17 南京大学 基于部分可观测迁移强化学习的自动驾驶决策方法及系统
CN111222630A (zh) * 2020-01-17 2020-06-02 北京工业大学 一种基于深度强化学习的自主驾驶规则学习方法
CN111383481A (zh) * 2020-03-03 2020-07-07 东南大学 城市拥堵路口智能网联汽车绿色通行车速优化方法
CN111845773A (zh) * 2020-07-06 2020-10-30 北京邮电大学 基于强化学习的自动驾驶车辆微观决策方法

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113942491A (zh) * 2021-11-29 2022-01-18 中国北方车辆研究所 一种串联式混合动力系统及联网混合动力车辆能量管理方法
CN113942491B (zh) * 2021-11-29 2023-10-31 中国北方车辆研究所 一种串联式混合动力系统及联网混合动力车辆能量管理方法
CN114360266A (zh) * 2021-12-20 2022-04-15 东南大学 一种网联车探测状态感知的交叉口强化学习信号控制方法
CN114360266B (zh) * 2021-12-20 2022-12-13 东南大学 一种网联车探测状态感知的交叉口强化学习信号控制方法
CN114241778A (zh) * 2022-02-23 2022-03-25 东南大学 高速公路网联车协同匝道汇入多目标优化控制方法和系统
WO2023246066A1 (zh) * 2022-06-23 2023-12-28 北京百度网讯科技有限公司 基于车路协同的信号管控方法、相关装置及程序产品
CN115171388A (zh) * 2022-07-20 2022-10-11 辽宁工程技术大学 一种智能网联车的多交叉口旅行时间协同优化方法
CN117238131A (zh) * 2023-09-14 2023-12-15 中国民航大学 一种车联网环境下交通流特性分析方法
CN117238131B (zh) * 2023-09-14 2024-05-07 中国民航大学 一种车联网环境下交通流特性分析方法

Also Published As

Publication number Publication date
CN112700642B (zh) 2022-09-23

Similar Documents

Publication Publication Date Title
CN112700642B (zh) 一种利用智能网联车辆提高交通通行效率的方法
Li et al. Game theoretic modeling of driver and vehicle interactions for verification and validation of autonomous vehicle control systems
Chen et al. Autonomous driving using safe reinforcement learning by incorporating a regret-based human lane-changing decision model
Tram et al. Learning negotiating behavior between cars in intersections using deep q-learning
CN111222630B (zh) 一种基于深度强化学习的自主驾驶规则学习方法
Forbes et al. The batmobile: Towards a bayesian automated taxi
Gelenbe et al. Simulation with learning agents
Albaba et al. Driver modeling through deep reinforcement learning and behavioral game theory
CN109726804B (zh) 一种基于行车预测场和bp神经网络的智能车辆驾驶行为拟人化决策方法
Peake et al. Multi-agent reinforcement learning for cooperative adaptive cruise control
CN113581182B (zh) 基于强化学习的自动驾驶车辆换道轨迹规划方法及系统
Deshpande et al. Behavioral decision-making for urban autonomous driving in the presence of pedestrians using Deep Recurrent Q-Network
Kurzer et al. Decentralized cooperative planning for automated vehicles with continuous monte carlo tree search
Škugor et al. Analysis of a game theory-based model of vehicle-pedestrian interaction at uncontrolled crosswalks
Gupta et al. Towards physically adversarial intelligent networks (PAINs) for safer self-driving
Li et al. Enhancing cooperation of vehicle merging control in heavy traffic using communication-based soft actor-critic algorithm
Abdelhameed et al. A hybrid fuzzy-genetic controller for a multi-agent intersection control system
CN112068542A (zh) 一种基于模糊控制的自动驾驶行为规划方法
Liu et al. Learning faster to perform autonomous lane changes by constructing maneuvers from shielded semantic actions
Li et al. Evolutionary learning in decision making for tactical lane changing
Liu et al. Improving the intersection’s throughput using V2X communication and cooperative adaptive cruise control
Koprulu et al. Act to reason: A dynamic game theoretical driving model for highway merging applications
Li et al. Interaction-Aware Decision-Making for Autonomous Vehicles in Forced Merging Scenario Leveraging Social Psychology Factors
Yuan et al. From Naturalistic Traffic Data to Learning-Based Driving Policy: A Sim-to-Real Study
Köprülü et al. Act to reason: A dynamic game theoretical model of driving

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant