CN114859905A - 一种基于人工势场法和强化学习的局部路径规划方法 - Google Patents

一种基于人工势场法和强化学习的局部路径规划方法 Download PDF

Info

Publication number
CN114859905A
CN114859905A CN202210440334.5A CN202210440334A CN114859905A CN 114859905 A CN114859905 A CN 114859905A CN 202210440334 A CN202210440334 A CN 202210440334A CN 114859905 A CN114859905 A CN 114859905A
Authority
CN
China
Prior art keywords
potential field
path planning
vehicle
particle
state
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202210440334.5A
Other languages
English (en)
Inventor
于博洋
王春燕
赵万忠
张自宇
孟琦康
朱耀鎏
曹铭纯
秦亚娟
刘利锋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nanjing University of Aeronautics and Astronautics
Original Assignee
Nanjing University of Aeronautics and Astronautics
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nanjing University of Aeronautics and Astronautics filed Critical Nanjing University of Aeronautics and Astronautics
Priority to CN202210440334.5A priority Critical patent/CN114859905A/zh
Publication of CN114859905A publication Critical patent/CN114859905A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • G05D1/0221Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory involving a learning process
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

本发明公开了一种基于人工势场法和强化学习的局部路径规划方法,包括:构建人工势场,所述人工势场由引力势场、斥力势场和道路势场叠加而成;基于人工势场训练无人车路径规划强化学习模型;利用训练后的无人车路径规划强化学习模型为无人车规划最优路径并更新车辆状态,重复以上步骤直到自车到达目标点。本发明改进了传统人工势场法斥力势场函数,引入了自车车速与障碍物车速;改进了道路势场函数,使道路边界处的势场变化更加理想。

Description

一种基于人工势场法和强化学习的局部路径规划方法
技术领域
本发明属于自动驾驶技术领域,尤其涉及一种基于人工势场法和强化学习的局部路径规划方法。
背景技术
随着智能体和人工智能理论的不断发展,无人驾驶技术日益成熟。无人驾驶汽车的工作过程可以分为感知、决策、控制三个部分,其中决策部分中的路径规划是无人驾驶汽车研究的关键技术之一。
目前无人驾驶汽车的路径规划技术分为两大类:全局路径规划和局部路径规划;而对局部路径规划方法的研究主要有:遗传算法,缺点是运算时间长,难以实现实时规划;滚动窗口方法,缺点是存在局部极值问题;模糊方法,缺点是模糊规则往往是人们通过经验预先制定的,所以无法学习和灵活性差;人工势场法,人工势场法是路径规划领域比较成熟和实时性较好的规划方法,工作原理是将环境信息抽象为引力场函数和斥力场函数,通过合力场函数来规划出一条从起始点到目标点的无碰撞路径。传统的人工势场法存在局部最优的问题,并且无法考虑车速等信息。
强化学习主要由智能体、环境、状态、动作、奖励组成;智能体执行了某个动作后,环境将会转换到一个新的状态,对于该新的状态环境会给出奖励信号。随后,智能体根据新的状态和环境反馈的奖励,按照一定的策略执行新的动作。智能体通过强化学习,可以知道自身在什么状态下,应该采取什么样的动作使得自身获得最大奖励。
发明内容
针对于上述现有技术的不足,本发明的目的在于提供一种基于人工势场法和强化学习的局部路径规划方法,以解决现有路径规划技术中对车速规划的考虑较少,且无法使车辆尽可能保持车道中心行驶的问题。
为达到上述目的,本发明采用的技术方案如下:
本发明的一种基于人工势场法和强化学习的局部路径规划方法,步骤如下:
(1)构建人工势场,所述人工势场由引力势场、斥力势场和道路势场叠加而成;
(2)基于步骤(1)中的人工势场训练无人车路径规划强化学习模型;
(3)利用训练后的无人车路径规划强化学习模型为无人车规划最优路径并更新车辆状态,重复以上步骤直到自车到达目标点。
进一步地,所述步骤(1)中的人工势场U的计算公式为:
U=Ugoal+Uobs+Uroad (1)
引力势场Ugoal的计算公式为:
Ugoal=-kgoal(x-xgoal) (2)
斥力势场Uobs的计算公式为:
Figure BDA0003613677900000021
道路势场Uroad的计算公式为:
Figure BDA0003613677900000022
式中,Rx,Ry分别为自车与障碍物的纵向距离和横向距离,计算公式为:
Figure BDA0003613677900000023
式中,x、y分别为自车的纵向、横向位置坐标;kgoal、kobs、kroad分别为引力增益系数、斥力增益系数、道路边界增益系数;k1、k2分别为自车速度增益系数和障碍物速度增益系数;xgoal为目标点的纵向位置坐标;xobs、yobs分别为障碍物的纵向、横向位置坐标;σx、σy分别为障碍物纵向影响距离和障碍物横向影响距离;v、vobs分别为自车速度和障碍物速度;w为道路宽度;θ为道路边界影响范围系数,系数θ前的正负号与自车和车道中心线的横向距离有关,表示车辆在车道左侧或右侧;e为自然常数。
进一步地,所述步骤(2)中的训练方法具体为:
状态空间S={st=(x,y,v)},其中st为自车在t时刻的状态;动作空间A={左,前,右};状态转移概率为P(s'|s,a),表示从当前状态st采取动作a到达下一状态st+1的概率;策略为π(a|s),表示在当前状态下采取动作a的概率;奖励函数rt表示从当前状态st采取动作a到达下一状态st+1的奖励,计算公式为:
Figure BDA0003613677900000024
式中,α1、α2、α3、α4、α5分别为车速保持、势能降低、车道中心保持、障碍物距离、目标点距离对应的权重系数;ΔU为st和st+1两个状态之间的势能差;
定义长期奖励为Gt=γrt+12rt+2+…+γnrt+n,表示从当前状态到结束的所有奖励,其中γ∈(0,1),为累计回报折算因子;
定义状态价值函数为vπ(st)=E(Gt|st),表示从状态st采取策略π的期望奖励;定义动作价值函数为Qπ(st,at)=E(Gt|st,at),表示从状态st使用动作at后采取策略π的期望奖励,E为数学期望。
进一步地,所述步骤(3)中的规划最优路径方法为:
求解
Figure BDA0003613677900000031
即求解不同策略π下的最大动作价值函数,根据求解得到的使Qπ最大的策略π选择对应的动作a。
进一步地,所述步骤(3)中的求解方法选择粒子群算法,包括以下步骤:
(31)初始化粒子群,评价每个粒子的适应度,获取最优粒子的位置和速度,第i个粒子的位置表示为Xi=(xi1,xi2,...xiD),第i个粒子的飞行的速度表示为Vi=(vi1,vi2,...viD);
(32)根据最优粒子的位置和速度,计算每个粒子由目标函数决定的适应度;
(33)评价每个粒子的适应度,并判断是否为最优解,更新粒子个体最优解pbest和全局最优解gbest,个体最优解和全局最优解位置分别为:
Ppbest=(ppbest1,ppbest2,...ppbestD),Pgbest=(pgbest1,pgbest2,...pgbestD) (7)
获取极值后,每个粒子更新的速度vi,j和位置xi,j由下式决定:
vi,j(k+1)=ωvi,j(k)+c1r1(pbesti,j(k)-xi,j(k))+c2r2(gbest(k)-xi,j(k)) (8)
式中,c1、c2为学习因子,r1、r2为在[0,1]之间的随机数,ω为惯性因子,惯性因子依据最大循环次数从ωs线性递减至ωe,由下式得出:
ω=ωs-(ωse)·Ic/Imax (9)
式中,ωs为优化最初的惯性因子,ωe为优化结束的惯性因子,Imax为最大循环次数,Ic为循环的当前次数;
(34)判断是否达到最大迭代次数,若达到最大迭代次数,则得到优化结果;若未达到最大迭代次数,则返回步骤(31)。
进一步地,执行动作a后更新状态,在新的状态下执行步骤(1)~(3)进入下一阶段的路径规划;循环进行以上操作,直到自车到达目标点附近即:
|x-xgoal|<ε (10)
式中,ε为判断自车是否到达目标点附近的距离阈值。
本发明的有益效果:
1、本发明改进了传统人工势场法斥力势场函数,引入了自车车速与障碍物车速,建立了障碍物速度和势场影响范围之间的联系;改进了道路势场函数,使道路边界处的势场变化更加理想。
2、本发明结合了人工势场法和强化学习方法,将人工势场法中的势场变化作为强化学习中的奖励指标,同时在强化学习的奖励指标中引入了自车车速,满足路径规划中驾驶员对车速的要求,引入了车道保持指标,保证路径规划过程中车辆尽可能在车道中心行驶;另一方面,引入这些指标对强化学习的训练进行奖励,可以使强化学习的训练效率更高,进而能够更快的完成路径规划得到期望的路径。
附图说明
图1为本发明方法的流程图。
图2为引力势场图。
图3为斥力势场图。
图4为道路边界势场图。
图5为人工势场图。
具体实施方式
为了便于本领域技术人员的理解,下面结合实施例与附图对本发明作进一步的说明,实施方式提及的内容并非对本发明的限定。
参照图1所示,本发明的一种基于人工势场法和强化学习的局部路径规划方法,步骤如下:
(1)构建人工势场,所述人工势场由引力势场、斥力势场和道路势场叠加而成;
参照图5所示,人工势场U的计算公式为:
U=Ugoal+Uobs+Uroad (1)
参照图2所示,引力势场Ugoal的计算公式为:
Ugoal=-kgoal(x-xgoal) (2)
参照图3所示,斥力势场Uobs的计算公式为:
Figure BDA0003613677900000051
参照图4所示,道路势场Uroad的计算公式为:
Figure BDA0003613677900000052
式中,Rx,Ry分别为自车与障碍物的纵向距离和横向距离,计算公式为:
Figure BDA0003613677900000053
式中,x、y分别为自车的纵向、横向位置坐标;kgoal、kobs、kroad分别为引力增益系数、斥力增益系数、道路边界增益系数;k1、k2分别为自车速度增益系数和障碍物速度增益系数;xgoal为目标点的纵向位置坐标;xobs、yobs分别为障碍物的纵向、横向位置坐标;σx、σy分别为障碍物纵向影响距离和障碍物横向影响距离;v、vobs分别为自车速度和障碍物速度;w为道路宽度;θ为道路边界影响范围系数,系数θ前的正负号与自车和车道中心线的横向距离有关,表示车辆在车道左侧或右侧;e为自然常数。
(2)基于步骤(1)中的人工势场训练无人车路径规划强化学习模型;
其中,所述步骤(2)中的训练方法具体为:
状态空间S={st=(x,y,v)},其中st为自车在t时刻的状态;动作空间A={左,前,右};状态转移概率为P(s'|s,a),表示从当前状态st采取动作a到达下一状态st+1的概率;策略为π(a|s),表示在当前状态下采取动作a的概率;奖励函数rt表示从当前状态st采取动作a到达下一状态st+1的奖励,计算公式为:
Figure BDA0003613677900000054
式中,α1、α2、α3、α4、α5分别为车速保持、势能降低、车道中心保持、障碍物距离、目标点距离对应的权重系数;ΔU为st和st+1两个状态之间的势能差;
定义长期奖励为Gt=γrt+12rt+2+…+γnrt+n,表示从当前状态到结束的所有奖励,其中γ∈(0,1),为累计回报折算因子;
定义状态价值函数为vπ(st)=E(Gt|st),表示从状态st采取策略π的期望奖励;定义动作价值函数为Qπ(st,at)=E(Gt|st,at),表示从状态st使用动作at后采取策略π的期望奖励,E为数学期望。
(3)利用训练后的无人车路径规划强化学习模型为无人车规划最优路径并更新车辆状态,重复以上步骤直到自车到达目标点;
其中,所述步骤(3)中的规划最优路径方法为:
求解
Figure BDA0003613677900000061
即求解不同策略π下的最大动作价值函数,根据求解得到的使Qπ最大的策略π选择对应的动作a。
所述求解方法选择粒子群算法,包括以下步骤:
(31)初始化粒子群,评价每个粒子的适应度,获取最优粒子的位置和速度,第i个粒子的位置表示为Xi=(xi1,xi2,…xiD),第i个粒子的飞行的速度表示为Vi=(vi1,vi2,...viD);
(32)根据最优粒子的位置和速度,计算每个粒子由目标函数决定的适应度;
(33)评价每个粒子的适应度,并判断是否为最优解,更新粒子个体最优解pbest和全局最优解gbest,个体最优解和全局最优解位置分别为:
Ppbest=(ppbest1,ppbest2,...ppbestD),Pgbest=(pgbest1,pgbest2,...pgbestD) (7)
获取极值后,每个粒子更新的速度vi,j和位置xi,j由下式决定:
vi,j(k+1)=ωvi,j(k)+c1r1(pbesti,j(k)-xi,j(k))+c2r2(gbest(k)-xi,j(k)) (8)
式中,c1、c2为学习因子,r1、r2为在[0,1]之间的随机数,ω为惯性因子,惯性因子依据最大循环次数从ωs线性递减至ωe,由下式得出:
ω=ωs-(ωse)·Ic/Imax (9)
式中,ωs为优化最初的惯性因子,ωe为优化结束的惯性因子,Imax为最大循环次数,Ic为循环的当前次数;
(34)判断是否达到最大迭代次数,若达到最大迭代次数,则得到优化结果;若未达到最大迭代次数,则返回步骤(31)。
具体地,执行动作a后更新状态,在新的状态下执行步骤(1)~(3)进入下一阶段的路径规划;循环进行以上操作,直到自车到达目标点附近即:
|x-xgoal|<ε (10)
式中,ε为判断自车是否到达目标点附近的距离阈值。
本发明具体应用途径很多,以上所述仅是本发明的优选实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以作出若干改进,这些改进也应视为本发明的保护范围。

Claims (6)

1.一种基于人工势场法和强化学习的局部路径规划方法,其特征在于,步骤如下:
(1)构建人工势场,所述人工势场由引力势场、斥力势场和道路势场叠加而成;
(2)基于步骤(1)中的人工势场训练无人车路径规划强化学习模型;
(3)利用训练后的无人车路径规划强化学习模型为无人车规划最优路径并更新车辆状态,重复以上步骤直到自车到达目标点。
2.根据权利要求1所述的基于人工势场法和强化学习的局部路径规划方法,其特征在于,所述步骤(1)中的人工势场U的计算公式为:
U=Ugoal+Uobs+Uroad (1)
引力势场Ugoal的计算公式为:
Ugoal=-kgoal(x-xgoal) (2)
斥力势场Uobs的计算公式为:
Figure FDA0003613677890000011
道路势场Uroad的计算公式为:
Figure FDA0003613677890000012
式中,Rx,Ry分别为自车与障碍物的纵向距离和横向距离,计算公式为:
Figure FDA0003613677890000013
式中,x、y分别为自车的纵向、横向位置坐标;kgoal、kobs、kroad分别为引力增益系数、斥力增益系数、道路边界增益系数;k1、k2分别为自车速度增益系数和障碍物速度增益系数;xgoal为目标点的纵向位置坐标;xobs、yobs分别为障碍物的纵向、横向位置坐标;σx、σy分别为障碍物纵向影响距离和障碍物横向影响距离;v、vobs分别为自车速度和障碍物速度;w为道路宽度;θ为道路边界影响范围系数,系数θ前的正负号与自车和车道中心线的横向距离有关,表示车辆在车道左侧或右侧;e为自然常数。
3.根据权利要求1所述的基于人工势场法和强化学习的局部路径规划方法,其特征在于,所述步骤(2)中的训练方法具体为:
状态空间S={st=(x,y,v)},其中st为自车在t时刻的状态;动作空间A={左,前,右};状态转移概率为P(s'|s,a),表示从当前状态st采取动作a到达下一状态st+1的概率;策略为π(a|s),表示在当前状态下采取动作a的概率;奖励函数rt表示从当前状态st采取动作a到达下一状态st+1的奖励,计算公式为:
Figure FDA0003613677890000021
式中,α1、α2、α3、α4、α5分别为车速保持、势能降低、车道中心保持、障碍物距离、目标点距离对应的权重系数;ΔU为st和st+1两个状态之间的势能差;
定义长期奖励为Gt=γrt+12rt+2+…+γnrt+n,表示从当前状态到结束的所有奖励,其中γ∈(0,1),为累计回报折算因子;
定义状态价值函数为vπ(st)=E(Gt|st),表示从状态st采取策略π的期望奖励;定义动作价值函数为Qπ(st,at)=E(Gt|st,at),表示从状态st使用动作at后采取策略π的期望奖励,E为数学期望。
4.根据权利要求1所述的基于人工势场法和强化学习的局部路径规划方法,其特征在于,所述步骤(3)中的规划最优路径方法为:
求解
Figure FDA0003613677890000022
即求解不同策略π下的最大动作价值函数,根据求解得到的使Qπ最大的策略π选择对应的动作a。
5.根据权利要求4所述的基于人工势场法和强化学习的局部路径规划方法,其特征在于,所述步骤(3)中的求解方法选择粒子群算法,包括以下步骤:
(31)初始化粒子群,评价每个粒子的适应度,获取最优粒子的位置和速度,第i个粒子的位置表示为Xi=(xi1,xi2,...xiD),第i个粒子的飞行的速度表示为Vi=(vi1,vi2,...viD);
(32)根据最优粒子的位置和速度,计算每个粒子由目标函数决定的适应度;
(33)评价每个粒子的适应度,并判断是否为最优解,更新粒子个体最优解pbest和全局最优解gbest,个体最优解和全局最优解位置分别为:
Ppbest=(ppbest1,ppbest2,...ppbestD),Pgbest=(pgbest1,pgbest2,...pgbestD) (7)
获取极值后,每个粒子更新的速度vi,j和位置xi,j由下式决定:
vi,j(k+1)=ωvi,j(k)+c1r1(pbesti,j(k)-xi,j(k))+c2r2(gbest(k)-xi,j(k)) (8)
式中,c1、c2为学习因子,r1、r2为在[0,1]之间的随机数,ω为惯性因子,惯性因子依据最大循环次数从ωs线性递减至ωe,由下式得出:
ω=ωs-(ωse)·Ic/Imax (9)
式中,ωs为优化最初的惯性因子,ωe为优化结束的惯性因子,Imax为最大循环次数,Ic为循环的当前次数;
(34)判断是否达到最大迭代次数,若达到最大迭代次数,则得到优化结果;若未达到最大迭代次数,则返回步骤(31)。
6.根据权利要求5所述的基于人工势场法和强化学习的局部路径规划方法,其特征在于,执行动作a后更新状态,在新的状态下执行步骤(1)~(3)进入下一阶段的路径规划;循环进行以上操作,直到自车到达目标点附近即:
|x-xgoal|<ε (10)
式中,ε为判断自车是否到达目标点附近的距离阈值。
CN202210440334.5A 2022-04-25 2022-04-25 一种基于人工势场法和强化学习的局部路径规划方法 Pending CN114859905A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210440334.5A CN114859905A (zh) 2022-04-25 2022-04-25 一种基于人工势场法和强化学习的局部路径规划方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210440334.5A CN114859905A (zh) 2022-04-25 2022-04-25 一种基于人工势场法和强化学习的局部路径规划方法

Publications (1)

Publication Number Publication Date
CN114859905A true CN114859905A (zh) 2022-08-05

Family

ID=82633937

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210440334.5A Pending CN114859905A (zh) 2022-04-25 2022-04-25 一种基于人工势场法和强化学习的局部路径规划方法

Country Status (1)

Country Link
CN (1) CN114859905A (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115344052A (zh) * 2022-10-17 2022-11-15 江苏天一航空工业股份有限公司 基于改进的群优化算法的车辆路径控制方法及控制系统
KR102585308B1 (ko) * 2022-10-27 2023-10-10 주식회사 클로봇 이동 로봇의 주행을 제어하기 위한 방법, 및 이동 로봇
CN117933096A (zh) * 2024-03-21 2024-04-26 山东省科学院自动化研究所 一种无人驾驶对抗测试场景生成方法及系统

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115344052A (zh) * 2022-10-17 2022-11-15 江苏天一航空工业股份有限公司 基于改进的群优化算法的车辆路径控制方法及控制系统
KR102585308B1 (ko) * 2022-10-27 2023-10-10 주식회사 클로봇 이동 로봇의 주행을 제어하기 위한 방법, 및 이동 로봇
CN117933096A (zh) * 2024-03-21 2024-04-26 山东省科学院自动化研究所 一种无人驾驶对抗测试场景生成方法及系统

Similar Documents

Publication Publication Date Title
CN112347567B (zh) 一种车辆意图和轨迹预测的方法
CN114859905A (zh) 一种基于人工势场法和强化学习的局部路径规划方法
CN110969848B (zh) 一种对向双车道下基于强化学习的自动驾驶超车决策方法
CN112356830B (zh) 一种基于模型强化学习的智能泊车方法
Naveed et al. Trajectory planning for autonomous vehicles using hierarchical reinforcement learning
CN103324085A (zh) 基于监督式强化学习的最优控制方法
CN111098852A (zh) 一种基于强化学习的泊车路径规划方法
CN114379583B (zh) 一种基于神经网络动力学模型的自动驾驶车辆轨迹跟踪系统及方法
CN107479547B (zh) 基于示教学习的决策树行为决策算法
CN111679660B (zh) 一种融合类人驾驶行为的无人驾驶深度强化学习方法
CN113255998B (zh) 基于多智能体强化学习的高速道路无人驾驶车辆编队方法
CN111625989B (zh) 一种基于a3c-sru的智能车汇入车流方法及系统
CN112857385B (zh) 一种基于非均匀栅格模型的快速无人车局部路径规划方法
CN112061116B (zh) 一种基于势能场函数逼近的强化学习方法的泊车策略
CN112906542B (zh) 一种基于强化学习的无人车避障方法及装置
CN114852105A (zh) 一种自动驾驶车辆换道轨迹规划方法及系统
CN111824182A (zh) 一种基于深度强化学习的三轴重型车自适应巡航控制算法
CN114973650A (zh) 车辆匝道入口合流控制方法、车辆、电子设备及存储介质
CN115257789A (zh) 城市低速环境下的营运车辆侧向防撞驾驶决策方法
CN116465427A (zh) 一种基于时空风险量化的智能车辆换道避障路径规划方法
CN116486356A (zh) 一种基于自适应学习技术的狭窄场景轨迹生成方法
CN113033902B (zh) 一种基于改进深度学习的自动驾驶换道轨迹规划方法
Liu et al. Reinforcement learning-based predictive control for autonomous electrified vehicles
CN114997048A (zh) 基于探索策略改进的td3算法的自动驾驶车辆车道保持方法
CN111413974B (zh) 一种基于学习采样式的汽车自动驾驶运动规划方法及系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination