CN114527759A - 一种基于分层强化学习的端到端驾驶方法 - Google Patents

一种基于分层强化学习的端到端驾驶方法 Download PDF

Info

Publication number
CN114527759A
CN114527759A CN202210179370.0A CN202210179370A CN114527759A CN 114527759 A CN114527759 A CN 114527759A CN 202210179370 A CN202210179370 A CN 202210179370A CN 114527759 A CN114527759 A CN 114527759A
Authority
CN
China
Prior art keywords
vehicle
path
reward
representing
model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202210179370.0A
Other languages
English (en)
Inventor
陈超
张帆
吴飞
马捷
古富强
李瑞远
蒲华燕
罗均
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Chongqing University
Original Assignee
Chongqing University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Chongqing University filed Critical Chongqing University
Priority to CN202210179370.0A priority Critical patent/CN114527759A/zh
Publication of CN114527759A publication Critical patent/CN114527759A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0238Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors
    • G05D1/024Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors in combination with a laser
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • G05D1/0219Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory ensuring the processing of the whole working surface
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • G05D1/0221Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory involving a learning process
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/80Technologies aiming to reduce greenhouse gasses emissions common to all road transportation technologies
    • Y02T10/84Data processing systems or methods, management, administration

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Optics & Photonics (AREA)
  • Electromagnetism (AREA)
  • Traffic Control Systems (AREA)

Abstract

本发明涉及自动驾驶技术领域,具体涉及一种基于分层强化学习的端到端驾驶方法,其包括步骤:获取预先给定的车辆行驶路径;基于强化学习分别建模得到路径跟随模型和动态避障模型;基于车辆行驶路径,部署强化学习网络求解路径跟随模型得到对应的路径跟随决策;基于车辆行驶路径,部署强化学习网络结合对应的路径跟随决策求解动态避障模型得到对应的动态避障决策;基于车辆行驶路径、路径跟随决策和动态避障决策实现车辆的端到端驾驶。本发明的端到端驾驶方法能够适用于复杂应用场景和实际应用场景,从而能够提高端到端驾驶决策的准确性和泛化性。

Description

一种基于分层强化学习的端到端驾驶方法
技术领域
本发明涉及自动驾驶技术领域,具体涉及一种基于分层强化学习的端到端驾驶方法。
背景技术
自动驾驶是智能交通的核心技术之一,其中,自动驾驶的核心包括感知预测、决策规划和运动控制。目前自动驾驶的解决方案有两种:基于规则式(rule based)和基于端到端(End-to-end)。基于规则式具有存在大量的不确定性边界问题、复杂场景的规则构建复杂、多模型累积偏差问题、需依赖于高精度地图等缺点。
基于端到端的驾驶解决方案是自动驾驶的一个新分支,有望通过从数据中学习潜在的机制来简化驾驶建模。基于端到端的驾驶主要由深度学习和强化学习构成,其中,强化学习(Reinforcement learning)作为基于端到端的实际技术方案之一,适用于求解具有时序性的决策问题,这正与自动驾驶的决策过程相契合。强化学习由于其自身具有应对外部环境改变而产生进化的能力,使得当未知的极端情况产生时,能够通过改变自身的驾驶策略来适应并探索学习到解决该问题的方法。
申请人发现,实际的自动驾驶问题采用强化学习时的reward很稀疏,再加上庞大的状态空间和动作空间组合,使得强化学习的训练效率低下,甚至没有效果。也就是说,现有的一些强化学习方案只能使用在设定好的环境变量或者是与训练环境相似的情况下才有效果,使得端到端驾驶决策的准确性低且泛化性较差。因此,如何设计一种能够适用于复杂应用场景和实际应用场景的方法是亟需解决的技术问题。
发明内容
针对上述现有技术的不足,本发明所要解决的技术问题是:如何提供一种基于分层强化学习的端到端驾驶方法,以能够适用于复杂应用场景和实际应用场景,从而能够提高端到端驾驶决策的准确性和泛化性。
为了解决上述技术问题,本发明采用了如下的技术方案:
一种基于分层强化学习的端到端驾驶方法,包括以下步骤:
S1:获取预先给定的车辆行驶路径;
S2:基于强化学习分别建模得到路径跟随模型和动态避障模型;
S3:基于车辆行驶路径,部署强化学习网络求解路径跟随模型得到对应的路径跟随决策;
S4:基于车辆行驶路径,部署强化学习网络结合对应的路径跟随决策求解动态避障模型得到对应的动态避障决策;
S5:基于车辆行驶路径、路径跟随决策和动态避障决策实现车辆的端到端驾驶。
优选的,步骤S1中,通过快速扩展随机树算法生成一条从起始点至目标点的车辆行驶路径。
优选的,步骤S2中,通过如下步骤建模路径跟随模型:
S201:初始化路径跟随模型的状态空间和动作空间,设定车辆起始点姿态;
S202:以车辆起始点作为坐标系原点,沿着车辆行驶路径移动,通过车辆周围环境状态以及车辆自身状态组成路径跟随模型的状态空间;
S203:通过当前时刻车辆的速度和转向角组成路径跟随模型的动作空间;
S204:通过速度奖惩、靠近目标点奖惩、行驶方向奖惩以及到达目标点、终点的奖惩组成路径跟随模型的奖励函数。
优选的,步骤S2中,路径跟随模型的状态空间表示为Sg=[Vt,St,yt,dt];
式中:Vt表示当前时刻的车辆速度;St表示当前时刻的车辆转向角;yt表示当前时刻行驶方向与目标点方向的夹角;dt表示当前时刻车辆与车辆行驶路径的垂直距离;
路径跟随模型的动作空间表示为Ag=[Vt,St];
式中:Vt表示当前时刻的车辆速度;St表示当前时刻的车辆转向角;
路径跟随模型的奖励函数表示为Rg=Rv+Ry+Rc+Rw
其中,Rv=(vs-vm/2)/vm
Figure BDA0003521809120000021
Rc=(past_dist-dist);
Figure BDA0003521809120000022
式中:Rv表示速度奖惩;Rc表示靠近目标点奖惩;Ry表示行驶方向奖惩;Rw表示到达目标点以及终点的奖惩;vs表示当前时刻的车辆速度;vm表示根据设定场景下的任务速度v0设置的速度;yaw表示当前车辆与下一个路径点的相对角度与局部路径中两个路径点之间的相对夹角之差;abs(yaw)表示对应角度的绝对值;dist表示当前时刻车辆位置与路径点的相对距离;past_dist表示上一时刻车辆位置与路径点的相对距离;time_step表示当前训练阶段剩下的时间;waypoint和goal分别表示路径点和终点设定的到达半径。
优选的,步骤S2中,通过如下步骤建模动态避障模型:
S211:初始化动态避障模型的状态空间和动作空间;
S212:通过激光雷达获取的障碍物的距离信息,以及路径跟随模型的状态和输出的路径跟随决策组成动态避障模型的状态空间;
S213:通过当前时刻车辆的偏移转向角组成动态避障模型的动作空间;
S214:通过转向偏移奖惩和碰撞奖惩组成动态避障模型的奖励函数。
优选的,动态避障模型的状态空间表示为Sb=[Vt,St,yt,dt,Vout,Sout,l1,l2,…,l120];
式中:Vt表示当前时刻的车辆速度;St表示当前时刻的车辆转向角;yt表示当前时刻行驶方向与目标点方向的夹角;dt表示当前时刻车辆与车辆行驶路径的垂直距离;Vout表示当前时刻的路径跟随模型输出的速度;Sout表示当前时刻的路径跟随模型输出的速度转向角;l1,l2,...,l120表示激光雷达对应扫描角度的距离经离散化后的信息;
动作空间表示为Ab=Sct;
式中:Sct表示当前时刻车辆的偏移转向角,Sct=[-1,1];
奖励函数表示为Rb=Rz+Rc
其中,
Figure BDA0003521809120000031
式中:Rs表示转向偏移奖惩;Rc表示碰撞奖惩;abs(Sct)表示车辆偏移转向角的绝对值;b表示衡量偏移转向角的系数;C表示衡量碰撞部分重要性的系数。
优选的,步骤S3和S4中,均通过SAC算法作为部署的强化学习网络,分别用于求解路径跟随模型和动态避障模型。
优选的,SAC算法基于Actor-Critic网络结构实现,包括一个Actor网络以及两个VCritic网络和Q Critic网络;其中,Actor网络以对应的状态作为输入,以动作概率密度函数作为输出;V Critic网络和Q Critic网络均以对应的状态作为输入,以对应的V值和Q值作为输出;
求解路径跟随模型和动态避障模型时,将状态空间作为SAC算法的输入部分,经SAC算法计算得到对应的动作空间作为输出。
优选的,SAC算法的策略函数表示为π(s,a)=P(A=a|S=s);
式中:s表示状态;a表示动作;
SAC算法的目标函数表示为:
Figure BDA0003521809120000041
优选的,SAC算法的更新流程包括:
1)Q Critic网络更新:
采用MSEloss作为loss函数:
Figure BDA0003521809120000042
式中:len(batch)表示批处理的大小;Rt+γV(s′)表示当前时刻真实价值估计;q(st,a)表示当前时刻预测价值估计;
2)V Critic网络更新:
采用MSEloss作为loss函数,加入了熵进行V值的真实价值估计δt:
δt=∑π(a′|st;θ)[min q(st,a′)-αlnπ(a′|st;θ)];
Figure BDA0003521809120000043
式中:π(a′│st;θ)表示Actor网络输出的动作概率密度函数;min q(st,a’)表示两个Q Critic网络中较小的Q值;
3)Actor网络更新:
计算loss函数:
Figure BDA0003521809120000044
式中:α表示熵的奖励系数,α越大,代表熵的重要性也就越大。
本发明的端到端驾驶方法与现有技术相比,具有如下有益效果:
本发明通过强化学习建模路径跟随模型和动态避障模型,并通过两个模型直接输出路径跟随决策和动态避障决策,即直接输出具体的动作行为,而不对其进行路径规划;并且,输出的路径跟随决策和动态避障决策是车辆的微观决策,是一种从传感器输入到动作输出的直接映射,使得能够有效的处理未知的极端情况,进而能够更好的适用于复杂应用场景和实际应用场景(尤其是动态避障场景),从而能够提高端到端驾驶的准确性和泛化性。
本发明通过建模路径跟随模型和动态避障模型,将端到端驾驶分解成了两层子任务,即路径跟随任务和动态避障任务,这简化了端到端驾驶的状态空间,使每个子任务能够在规模较小的子问题空间求解,从而能够分解降低每个单独任务的复杂性;同时,本发明通过将路径跟随决策应用于求解动态避障决策,使得生成的动态避障决策的稳定性和可解释性更强,从而能够进一步提高端到端驾驶的准确性。
附图说明
为了使发明的目的、技术方案和优点更加清楚,下面将结合附图对本发明作进一步的详细描述,其中:
图1为基于分层强化学习的端到端驾驶方法的逻辑框图。
具体实施方式
下面通过具体实施方式进一步详细的说明:
实施例:
本实施例中公开了一种基于分层强化学习的端到端驾驶方法。
如图1所示,基于分层强化学习的端到端驾驶方法,包括以下步骤:
S1:获取预先给定的车辆行驶路径;本实施例中,通过快速扩展随机树算法(RRT)生成一条从起始点至目标点的车辆行驶路径。
S2:基于强化学习分别建模得到路径跟随模型和动态避障模型;
S3:基于车辆行驶路径,部署强化学习网络求解路径跟随模型得到对应的路径跟随决策;
S4:基于车辆行驶路径,部署强化学习网络结合对应的路径跟随决策求解动态避障模型得到对应的动态避障决策;
S5:基于车辆行驶路径、路径跟随决策和动态避障决策实现车辆的端到端驾驶。
本发明通过强化学习建模路径跟随模型和动态避障模型,并通过两个模型直接输出路径跟随决策和动态避障决策,即直接输出具体的动作行为,而不对其进行路径规划;并且,输出的路径跟随决策和动态避障决策是车辆的微观决策,是一种从传感器输入到动作输出的直接映射,使得能够有效的处理未知的极端情况,进而能够更好的适用于复杂应用场景和实际应用场景(尤其是动态避障场景),从而能够提高端到端驾驶的准确性和泛化性。其次,本发明通过建模路径跟随模型和动态避障模型,将端到端驾驶分解成了两层子任务,即路径跟随任务和动态避障任务,这简化了端到端驾驶的状态空间,使每个子任务能够在规模较小的子问题空间求解,从而能够分解降低每个单独任务的复杂性;同时,本发明通过将路径跟随决策应用于求解动态避障决策,使得生成的动态避障决策的稳定性和可解释性更强,从而能够进一步提高端到端驾驶的准确性。
本实施例采用微软的Airsim作为环境模拟器,Airsim具有支持用户设计的场景创建的功能,包括场景的变化(城市、山脉、室内等)、天气影响、一天的时间、交通遵守(城市环境可以跟踪交通违规)、附加传感器附件等。本实施例选取的场景是Airsim中的LandscapeMountains地图,将使用强化学习的基本要素对环境进行建模封装,进而将Airsim相关API结合封装为gym环境。
具体实施过程中,通过如下步骤建模路径跟随模型:
S201:初始化路径跟随模型的状态空间和动作空间,设定车辆起始点姿态;是训练过程中一个eposide的入口。
S202:以车辆起始点作为坐标系原点,沿着车辆行驶路径移动,通过车辆周围环境状态以及车辆自身状态组成路径跟随模型的状态空间;
S203:通过当前时刻车辆的速度和转向角组成路径跟随模型的动作空间;
S204:通过速度奖惩、靠近目标点奖惩、行驶方向奖惩以及到达目标点、终点的奖惩组成路径跟随模型的奖励函数。
路径跟随模型的状态空间表示为Sg=[Vt,St,yt,dt];
式中:Vt表示当前时刻的车辆速度;St表示当前时刻的车辆转向角;yt表示当前时刻行驶方向与目标点方向的夹角;dt表示当前时刻车辆与车辆行驶路径的垂直距离;
本实施例中,车辆速度和车辆转向角分别由对应的传感器采集得到;垂直距离d是车辆与rrt规划路径的几何距离;夹角α通过如下公式计算得到:
Figure BDA0003521809120000061
即计算当前行驶方向与下一个目标路径点的角度与rrt规划生成的两个路径点之间的角度的差值。
路径跟随模型的动作空间表示为Ag=[Vt,St]
式中:Vt表示当前时刻的车辆速度;St表示当前时刻的车辆转向角;本实施例中,Vt和St的取值为Vt=[0,V0],St=[-1,1],其中,V0表示设定场景下的任务速度,选取V0=6m/s。
路径跟随模型的奖励函数表示为Rg=Rv+Ry+Rc+Rw;奖励函数用于衡量当前状态s,采取动作a的优劣。
其中,Rv=(vs-vm/2)/vm
Figure BDA0003521809120000062
Rc+=move_dist/2;
Rc=(past_dist-dist);
Figure BDA0003521809120000071
式中:Rv表示速度奖惩;Rc表示靠近目标点奖惩;Ry表示行驶方向奖惩;Rw表示到达目标点以及终点的奖惩;vs表示当前时刻的车辆速度;vm表示根据设定场景下的任务速度v0设置的速度;yaw表示当前车辆与下一个路径点的相对角度与局部路径中两个路径点之间的相对夹角之差;abs(yaw)表示对应角度的绝对值;dist表示当前时刻车辆位置与路径点的相对距离;past_dist表示上一时刻车辆位置与路径点的相对距离;time_step表示当前训练阶段剩下的时间;waypoint和goal分别表示路径点和终点设定的到达半径。
本实施例中,V0设置为6m/s,Vm设置为3m/s。
若dist<=waypoint,即当前时刻车辆到下一个路径点的欧氏距离已经处于下一个路经点半径范围之内,则认为到达该路径点,给予奖励;若dist<=goal,即当前时刻车辆到达终点半径范围之内,奖励为10*time_step,此处用于鼓励车辆以更快更优的路径到达终点。
本发明通过上述步骤建模路径跟随模型,使得能够有效的将端到端驾驶分解成了两层子任务,即路径跟随任务和动态避障任务,这简化了端到端驾驶的状态空间,使每个子任务能够在规模较小的子问题空间求解,从而能够分解降低每个单独任务的复杂性。
具体实施过程中,通过如下步骤建模动态避障模型:
S211:初始化动态避障模型的状态空间和动作空间;
S212:通过激光雷达获取的障碍物的距离信息,以及路径跟随模型的状态和输出的路径跟随决策组成动态避障模型的状态空间;
S213:通过当前时刻车辆的偏移转向角组成动态避障模型的动作空间;
S214:通过转向偏移奖惩和碰撞奖惩组成动态避障模型的奖励函数。
具体的,动态避障模型的状态空间表示为Sb=[Vt,St,yt,dt,Vout,Sout,l1,l2,…,l120];
式中:Vt表示当前时刻的车辆速度;St表示当前时刻的车辆转向角;yt表示当前时刻行驶方向与目标点方向的夹角;dt表示当前时刻车辆与车辆行驶路径的垂直距离;Vout表示当前时刻的路径跟随模型输出的速度;Sout表示当前时刻的路径跟随模型输出的速度转向角;l1,l2,…,l120表示激光雷达对应扫描角度的距离经离散化后的信息;
其中,将激光雷达获得点云信息经过转换求得激光雷达在扫描半径内距离障碍物的距离信息;激光雷达获取的障碍物状态用360个维度表示,每一个维度由激光扫描的1度范围之内的障碍物表示。若点云信息中存在数据、取出、与当前激光雷达位置进行欧式距离的计算,且计算当前点相对激光雷达的位置(用角度表示),将计算得到的角度作为下标,计算的距离作为该下标对应的值,其它未计算的角度对应的距离取Lidar最大的感知范围20m。
此后,进行离散化操作,提高探索效率,将360°按20°等分为24份,每一份按照[1,3,7,12,20]划分为不同的区域,一共为120份;然后把获得的lidar距离信息做判断,判断划分是否处于对应区域,若对应区域相应的障碍物距离值,将该区域的值设定为1(0表示无障碍物,1表示有障碍物)。
动作空间表示为Ab=Sct;
式中:Sct表示当前时刻车辆的偏移转向角,Sct=[-1,1];本实施例中,偏移转向角表示在之前的路径跟随任务输出的转角的基础上,为了应对障碍物所需的修正的转向角。
奖励函数表示为Rb=Rz+Rc
其中,
Figure BDA0003521809120000081
Rc=C;
式中:Rs表示转向偏移奖惩;Rc表示碰撞奖惩;abs(Sct)表示车辆偏移转向角的绝对值;b表示衡量偏移转向角的系数,b设置为0.2,代表不超过原始转向角的左右0.2转向角之内不会给予较大的惩罚;C表示衡量碰撞部分重要性的系数,C设置为-100,比第一部分路径跟随任务大了两个数量级,比转向偏移任务部分大了一个数量级,目的是使得车辆把避障放在首要任务。
本发明通过上述步骤建模动态避障模型,使得能够有效的将端到端驾驶分解成了两层子任务,即路径跟随任务和动态避障任务,这简化了端到端驾驶的状态空间,使每个子任务能够在规模较小的子问题空间求解,从而能够分解降低每个单独任务的复杂性;同时,本发明通过将路径跟随决策应用于求解动态避障决策,使得生成的动态避障决策的稳定性和可解释性更强,从而能够进一步提高端到端驾驶的准确性。
具体实施过程中,通过SAC算法作为部署的强化学习网络,分别用于求解路径跟随模型和动态避障模型。
具体的:
设置交互模块():用于车辆与环境交互的逻辑,它接受动作的输入,给出下一时刻的状态、当前动作的回报、是否结束当前episode及调试信息等。
训练SAC算法部署:构建基于SAC算法框架的深度强化学习结构。
基于Stable Baselines3库实现,与自定义的gym环境结合,快速部署训练。本发明选取SAC算法作为训练算法进行学习,SAC算法是一种非策略最大熵深度强化学习算法,其采用随机行为体引入鲁棒性,避免了反复选择同一个动作而陷入次优。
SAC算法中增加了最大熵的使用,使网络对具有相似Q值进行多个动作的输出,而非单一动作,鼓励探索,避免陷入局部最优。SAC算法中为了提高对数据的利用率采用了经验回放,把一个状态经由actor输出产生的一条轨迹(st,at,rt,st+1)放入经验缓冲区。使用经验回放除了利用以前的经验,避免浪费,也为了打散序列,消除相关性。
SAC算法基于Actor-Critic网络结构实现,包括一个Actor网络以及两个V Critic网络和Q Critic网络;其中,Actor网络以对应的状态作为输入,以动作概率密度函数作为输出;V Critic网络和Q Critic网络均以对应的状态作为输入,以对应的V值(状态价值估计)和Q值(状态价值对估计)作为输出。
求解路径跟随模型和动态避障模型时,将状态空间作为SAC算法的输入部分,经SAC算法计算得到对应的动作空间作为输出。
通过SAC算法框架,构建基于自定义网络结构的SAC算法。策略神经网络的大小为2个全连接层的256个神经元组成。
SAC算法的策略函数表示为π(s,a)=P(A=a|S=s);
式中:s表示状态;a表示动作;
SAC算法的目标函数表示为:
Figure BDA0003521809120000091
具体实施过程中,策略函数和目标函数也可采用现有SAC算法的策略函数和目标函数。
具体实施过程中,SAC算法的更新流程包括:
1)Q Critic网络更新:
采用MSEloss作为loss函数:
Figure BDA0003521809120000092
式中:len(batch)表示批处理的大小;Rt+γV(s′)表示当前时刻真实价值估计;q(st,a)表示当前时刻预测价值估计;
2)V Critic网络更新:
采用MSEloss作为loss函数,加入了熵进行V值的真实价值估计δt:
δt=∑π(a′|st;θ)[min q(st,a′)-αln π(a′|st;θ)];
Figure BDA0003521809120000101
式中:π(a′│st;θ)表示Actor网络输出的动作概率密度函数;min q(st,a’)表示两个Q Critic网络中较小的Q值;
3)Actor网络更新:
计算loss函数:
Figure BDA0003521809120000102
式中:α表示熵的奖励系数,α越大,代表熵的重要性也就越大。
具体的,对于路径跟随模型的训练过程如下:
设定训练500个eposide,每个eposide设定为10000个时间步,设定每个训练过程最大训练时间步为500个时间步。
在网络训练的过程中,随着状态s的输入,SAC算法中的Actor网络负责动作的概率密度输出,Q critic和V ctiric结合最大熵对动作进行评价估值;经过动作a后得到奖励进入下一状态s’,如此往复,最终得到一条驾驶轨迹的采样数据。
同时,网络进行训练迭代,其中Target V Critic网络在训练的过程中是固定的参数,其余四个网络是在进行动态的更新,一段时间过后,Target V Critic会将其网络参数复制给另一个V Critic网络。
通过大量的训练迭代,网络收敛之后,网络参数不再变化,训练后的网络能根据当前车辆状态和环境状态计算出相应的动作行为,即得到了一个适应给出车辆行驶路径的路径跟随的模型。
对于动态避障模型的训练过程如下:
设定训练1000个eposide,每个eposide设定为10000个时间步,设定每个训练过程最大训练时间步为500个时间步。训练过程与路径跟随任务一致。将状态空间作为网络的输入部分﹐经由网络计算得到动作输出,输出为偏移转向角。
随着网络训练迭代,车辆不断与环境进行过交互,遵循路径跟随的同时收集多次碰撞经验,网络收敛之后,网络参数不再变化。通过Ctitic网络的评估,车辆会逐渐在路径跟随基础上对动态障碍物进行合理的避障,做出正确的决策。
本发明通过SAC算法作为部署的强化学习网络来求解路径跟随模型和动态避障模型,相比于现有的确定性策略,本发明采用的SAC算法能够避免反复选择同一动作而陷入次优,其有更强的探索能力,更加鲁棒性,面对干扰的时候能更容易做出调整,从而能够提高端到端驾驶决策的准确性和泛化性。
最后需要说明的是,以上实施例仅用以说明本发明的技术方案而非限制技术方案,本领域的普通技术人员应当理解,那些对本发明的技术方案进行修改或者等同替换,而不脱离本技术方案的宗旨和范围,均应涵盖在本发明的权利要求范围当中。

Claims (10)

1.一种基于分层强化学习的端到端驾驶方法,其特征在于,包括以下步骤:
S1:获取预先给定的车辆行驶路径;
S2:基于强化学习分别建模得到路径跟随模型和动态避障模型;
S3:基于车辆行驶路径,部署强化学习网络求解路径跟随模型得到对应的路径跟随决策;
S4:基于车辆行驶路径,部署强化学习网络结合对应的路径跟随决策求解动态避障模型得到对应的动态避障决策;
S5:基于车辆行驶路径、路径跟随决策和动态避障决策实现车辆的端到端驾驶。
2.如权利要求1所述的基于分层强化学习的端到端驾驶方法,其特征在于:步骤S1中,通过快速扩展随机树算法生成一条从起始点至目标点的车辆行驶路径。
3.如权利要求1所述的基于分层强化学习的端到端驾驶方法,其特征在于:步骤S2中,通过如下步骤建模路径跟随模型:
S201:初始化路径跟随模型的状态空间和动作空间,设定车辆起始点姿态;
S202:以车辆起始点作为坐标系原点,沿着车辆行驶路径移动,通过车辆周围环境状态以及车辆自身状态组成路径跟随模型的状态空间;
S203:通过当前时刻车辆的速度和转向角组成路径跟随模型的动作空间;
S204:通过速度奖惩、靠近目标点奖惩、行驶方向奖惩以及到达目标点、终点的奖惩组成路径跟随模型的奖励函数。
4.如权利要求3所述的基于分层强化学习的端到端驾驶方法,其特征在于:步骤S2中,路径跟随模型的状态空间表示为Sg=[Vt,St,yt,dt];
式中:Vt表示当前时刻的车辆速度;St表示当前时刻的车辆转向角;yt表示当前时刻行驶方向与目标点方向的夹角;dt表示当前时刻车辆与车辆行驶路径的垂直距离;
路径跟随模型的动作空间表示为Ag=[Vt,St];
式中:Vt表示当前时刻的车辆速度;St表示当前时刻的车辆转向角;
路径跟随模型的奖励函数表示为Rg=Rv+Ry+Rc+Rw
其中,Rv=(vs-vm/2)/vm
Figure FDA0003521809110000011
Rc=(past_dist-dist);
Figure FDA0003521809110000021
式中:Rv表示速度奖惩;Rc表示靠近目标点奖惩;Ry表示行驶方向奖惩;Rw表示到达目标点以及终点的奖惩;vs表示当前时刻的车辆速度;vm表示根据设定场景下的任务速度v0设置的速度;yaw表示当前车辆与下一个路径点的相对角度与局部路径中两个路径点之间的相对夹角之差;abs(yaw)表示对应角度的绝对值;dist表示当前时刻车辆位置与路径点的相对距离;past_dist表示上一时刻车辆位置与路径点的相对距离;time_step表示当前训练阶段剩下的时间;waypoint和goal分别表示路径点和终点设定的到达半径。
5.如权利要求3所述的基于分层强化学习的端到端驾驶方法,其特征在于:步骤S2中,通过如下步骤建模动态避障模型:
S211:初始化动态避障模型的状态空间和动作空间;
S212:通过激光雷达获取的障碍物的距离信息,以及路径跟随模型的状态和输出的路径跟随决策组成动态避障模型的状态空间;
S213:通过当前时刻车辆的偏移转向角组成动态避障模型的动作空间;
S214:通过转向偏移奖惩和碰撞奖惩组成动态避障模型的奖励函数。
6.如权利要求5所述的基于分层强化学习的端到端驾驶方法,其特征在于:动态避障模型的状态空间表示为Sb=[Vt,St,yt,dt,Vout,Sout,l1,l2,...,l120];
式中:Vt表示当前时刻的车辆速度;St表示当前时刻的车辆转向角;yt表示当前时刻行驶方向与目标点方向的夹角;dt表示当前时刻车辆与车辆行驶路径的垂直距离;Vout表示当前时刻的路径跟随模型输出的速度;Sout表示当前时刻的路径跟随模型输出的速度转向角;l1,l2,...,l120表示激光雷达对应扫描角度的距离经离散化后的信息;
动作空间表示为Ab=Sct;
式中:Sct表示当前时刻车辆的偏移转向角,Sct=[-1,1];
奖励函数表示为Rb=Rz+Rc
其中,
Figure FDA0003521809110000022
Rc=C;
式中:Rs表示转向偏移奖惩;Rc表示碰撞奖惩;abs(Sct)表示车辆偏移转向角的绝对值;b表示衡量偏移转向角的系数;C表示衡量碰撞部分重要性的系数。
7.如权利要求5所述的基于分层强化学习的端到端驾驶方法,其特征在于:步骤S3和S4中,均通过SAC算法作为部署的强化学习网络,分别用于求解路径跟随模型和动态避障模型。
8.如权利要求7所述的基于分层强化学习的端到端驾驶方法,其特征在于:SAC算法基于Actor-Critic网络结构实现,包括一个Actor网络以及两个V Critic网络和Q Critic网络;其中,Actor网络以对应的状态作为输入,以动作概率密度函数作为输出;V Critic网络和QCritic网络均以对应的状态作为输入,以对应的V值和Q值作为输出;
求解路径跟随模型和动态避障模型时,将状态空间作为SAC算法的输入部分,经SAC算法计算得到对应的动作空间作为输出。
9.如权利要求8所述的基于分层强化学习的端到端驾驶方法,其特征在于:SAC算法的策略函数表示为π(s,a)=P(A=a|S=s);
式中:s表示状态;a表示动作;
SAC算法的目标函数表示为:
Figure FDA0003521809110000031
10.如权利要求9所述的基于分层强化学习的端到端驾驶方法,其特征在于:SAC算法的更新流程包括:
1)Q Critic网络更新:
采用MSEloss作为loss函数:
Figure FDA0003521809110000032
式中:len(batch)表示批处理的大小;Rt+γV(s′)表示当前时刻真实价值估计;q(st,a)表示当前时刻预测价值估计;
2)V Critic网络更新:
采用MSEloss作为loss函数,加入了熵进行V值的真实价值估计δt:
δt=∑π(a′|st;θ)[minq(st,a′)-αlnπ(a′|st;θ)];
Figure FDA0003521809110000033
式中:π(a′│st;θ)表示Actor网络输出的动作概率密度函数;min q(st,a’)表示两个QCritic网络中较小的Q值;
3)Actor网络更新:
计算loss函数:
Figure FDA0003521809110000041
式中:α表示熵的奖励系数,α越大,代表熵的重要性也就越大。
CN202210179370.0A 2022-02-25 2022-02-25 一种基于分层强化学习的端到端驾驶方法 Pending CN114527759A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210179370.0A CN114527759A (zh) 2022-02-25 2022-02-25 一种基于分层强化学习的端到端驾驶方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210179370.0A CN114527759A (zh) 2022-02-25 2022-02-25 一种基于分层强化学习的端到端驾驶方法

Publications (1)

Publication Number Publication Date
CN114527759A true CN114527759A (zh) 2022-05-24

Family

ID=81624802

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210179370.0A Pending CN114527759A (zh) 2022-02-25 2022-02-25 一种基于分层强化学习的端到端驾驶方法

Country Status (1)

Country Link
CN (1) CN114527759A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115268494A (zh) * 2022-07-26 2022-11-01 江苏科技大学 基于分层强化学习的无人机路径规划方法

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115268494A (zh) * 2022-07-26 2022-11-01 江苏科技大学 基于分层强化学习的无人机路径规划方法
CN115268494B (zh) * 2022-07-26 2024-05-28 江苏科技大学 基于分层强化学习的无人机路径规划方法

Similar Documents

Publication Publication Date Title
Chen et al. Deep imitation learning for autonomous driving in generic urban scenarios with enhanced safety
CN111098852B (zh) 一种基于强化学习的泊车路径规划方法
CN111061277B (zh) 一种无人车全局路径规划方法和装置
US11970161B2 (en) Apparatus, method and article to facilitate motion planning of an autonomous vehicle in an environment having dynamic objects
Cao et al. Target search control of AUV in underwater environment with deep reinforcement learning
CN110646009B (zh) 一种基于dqn的车辆自动驾驶路径规划的方法及装置
Grigorescu et al. Neurotrajectory: A neuroevolutionary approach to local state trajectory learning for autonomous vehicles
KR20210074366A (ko) 자율주행 차량 계획 및 예측
CN107063280A (zh) 一种基于控制采样的智能车辆路径规划系统及方法
CN116804879B (zh) 一种改进蜣螂算法融合dwa算法的机器人路径规划框架方法
CN113255998B (zh) 基于多智能体强化学习的高速道路无人驾驶车辆编队方法
CN110906935A (zh) 一种无人艇路径规划方法
CN113128381A (zh) 障碍物轨迹预测方法、系统及计算机存储介质
CN115562357B (zh) 一种面向无人机集群的智能路径规划方法
Feher et al. Q-learning based reinforcement learning approach for lane keeping
Xue et al. Multi-agent deep reinforcement learning for UAVs navigation in unknown complex environment
CN113391633A (zh) 一种面向城市环境的移动机器人融合路径规划方法
CN114527759A (zh) 一种基于分层强化学习的端到端驾驶方法
Elallid et al. Deep Reinforcement Learning for Autonomous Vehicle Intersection Navigation
CN116448134B (zh) 基于风险场与不确定分析的车辆路径规划方法及装置
JP2023531927A (ja) 運転意思決定方法および運転意思決定装置ならびにチップ
CN110749325B (zh) 航迹规划方法和装置
Batkovic Enabling Safe Autonomous Driving in Uncertain Environments
CN115562258A (zh) 基于神经网络的机器人社会自适应路径规划方法及系统
Liu et al. Deep Reinforcement Learning-Based Driving Policy at Intersections Utilizing Lane Graph Networks

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination