CN114859905A - 一种基于人工势场法和强化学习的局部路径规划方法 - Google Patents
一种基于人工势场法和强化学习的局部路径规划方法 Download PDFInfo
- Publication number
- CN114859905A CN114859905A CN202210440334.5A CN202210440334A CN114859905A CN 114859905 A CN114859905 A CN 114859905A CN 202210440334 A CN202210440334 A CN 202210440334A CN 114859905 A CN114859905 A CN 114859905A
- Authority
- CN
- China
- Prior art keywords
- potential field
- path planning
- vehicle
- particle
- state
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 52
- 230000002787 reinforcement Effects 0.000 title claims abstract description 28
- 230000006870 function Effects 0.000 claims abstract description 21
- 230000004888 barrier function Effects 0.000 claims abstract description 18
- 239000002245 particle Substances 0.000 claims description 35
- 230000009471 action Effects 0.000 claims description 25
- 238000004364 calculation method Methods 0.000 claims description 15
- 230000000875 corresponding effect Effects 0.000 claims description 6
- 238000005381 potential energy Methods 0.000 claims description 6
- 238000004422 calculation algorithm Methods 0.000 claims description 4
- 238000005457 optimization Methods 0.000 claims description 4
- 230000007704 transition Effects 0.000 claims description 4
- 230000003247 decreasing effect Effects 0.000 claims description 3
- 230000007774 longterm Effects 0.000 claims description 3
- 230000009467 reduction Effects 0.000 claims description 3
- 229910052731 fluorine Inorganic materials 0.000 claims 1
- 125000001153 fluoro group Chemical group F* 0.000 claims 1
- 230000008859 change Effects 0.000 abstract description 3
- 238000010586 diagram Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 230000007547 defect Effects 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 230000002068 genetic effect Effects 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 238000005096 rolling process Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0212—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
- G05D1/0221—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory involving a learning process
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Aviation & Aerospace Engineering (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Automation & Control Theory (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
Abstract
本发明公开了一种基于人工势场法和强化学习的局部路径规划方法,包括:构建人工势场,所述人工势场由引力势场、斥力势场和道路势场叠加而成;基于人工势场训练无人车路径规划强化学习模型;利用训练后的无人车路径规划强化学习模型为无人车规划最优路径并更新车辆状态,重复以上步骤直到自车到达目标点。本发明改进了传统人工势场法斥力势场函数,引入了自车车速与障碍物车速;改进了道路势场函数,使道路边界处的势场变化更加理想。
Description
技术领域
本发明属于自动驾驶技术领域,尤其涉及一种基于人工势场法和强化学习的局部路径规划方法。
背景技术
随着智能体和人工智能理论的不断发展,无人驾驶技术日益成熟。无人驾驶汽车的工作过程可以分为感知、决策、控制三个部分,其中决策部分中的路径规划是无人驾驶汽车研究的关键技术之一。
目前无人驾驶汽车的路径规划技术分为两大类:全局路径规划和局部路径规划;而对局部路径规划方法的研究主要有:遗传算法,缺点是运算时间长,难以实现实时规划;滚动窗口方法,缺点是存在局部极值问题;模糊方法,缺点是模糊规则往往是人们通过经验预先制定的,所以无法学习和灵活性差;人工势场法,人工势场法是路径规划领域比较成熟和实时性较好的规划方法,工作原理是将环境信息抽象为引力场函数和斥力场函数,通过合力场函数来规划出一条从起始点到目标点的无碰撞路径。传统的人工势场法存在局部最优的问题,并且无法考虑车速等信息。
强化学习主要由智能体、环境、状态、动作、奖励组成;智能体执行了某个动作后,环境将会转换到一个新的状态,对于该新的状态环境会给出奖励信号。随后,智能体根据新的状态和环境反馈的奖励,按照一定的策略执行新的动作。智能体通过强化学习,可以知道自身在什么状态下,应该采取什么样的动作使得自身获得最大奖励。
发明内容
针对于上述现有技术的不足,本发明的目的在于提供一种基于人工势场法和强化学习的局部路径规划方法,以解决现有路径规划技术中对车速规划的考虑较少,且无法使车辆尽可能保持车道中心行驶的问题。
为达到上述目的,本发明采用的技术方案如下:
本发明的一种基于人工势场法和强化学习的局部路径规划方法,步骤如下:
(1)构建人工势场,所述人工势场由引力势场、斥力势场和道路势场叠加而成;
(2)基于步骤(1)中的人工势场训练无人车路径规划强化学习模型;
(3)利用训练后的无人车路径规划强化学习模型为无人车规划最优路径并更新车辆状态,重复以上步骤直到自车到达目标点。
进一步地,所述步骤(1)中的人工势场U的计算公式为:
U=Ugoal+Uobs+Uroad (1)
引力势场Ugoal的计算公式为:
Ugoal=-kgoal(x-xgoal) (2)
斥力势场Uobs的计算公式为:
道路势场Uroad的计算公式为:
式中,Rx,Ry分别为自车与障碍物的纵向距离和横向距离,计算公式为:
式中,x、y分别为自车的纵向、横向位置坐标;kgoal、kobs、kroad分别为引力增益系数、斥力增益系数、道路边界增益系数;k1、k2分别为自车速度增益系数和障碍物速度增益系数;xgoal为目标点的纵向位置坐标;xobs、yobs分别为障碍物的纵向、横向位置坐标;σx、σy分别为障碍物纵向影响距离和障碍物横向影响距离;v、vobs分别为自车速度和障碍物速度;w为道路宽度;θ为道路边界影响范围系数,系数θ前的正负号与自车和车道中心线的横向距离有关,表示车辆在车道左侧或右侧;e为自然常数。
进一步地,所述步骤(2)中的训练方法具体为:
状态空间S={st=(x,y,v)},其中st为自车在t时刻的状态;动作空间A={左,前,右};状态转移概率为P(s'|s,a),表示从当前状态st采取动作a到达下一状态st+1的概率;策略为π(a|s),表示在当前状态下采取动作a的概率;奖励函数rt表示从当前状态st采取动作a到达下一状态st+1的奖励,计算公式为:
式中,α1、α2、α3、α4、α5分别为车速保持、势能降低、车道中心保持、障碍物距离、目标点距离对应的权重系数;ΔU为st和st+1两个状态之间的势能差;
定义长期奖励为Gt=γrt+1+γ2rt+2+…+γnrt+n,表示从当前状态到结束的所有奖励,其中γ∈(0,1),为累计回报折算因子;
定义状态价值函数为vπ(st)=E(Gt|st),表示从状态st采取策略π的期望奖励;定义动作价值函数为Qπ(st,at)=E(Gt|st,at),表示从状态st使用动作at后采取策略π的期望奖励,E为数学期望。
进一步地,所述步骤(3)中的规划最优路径方法为:
进一步地,所述步骤(3)中的求解方法选择粒子群算法,包括以下步骤:
(31)初始化粒子群,评价每个粒子的适应度,获取最优粒子的位置和速度,第i个粒子的位置表示为Xi=(xi1,xi2,...xiD),第i个粒子的飞行的速度表示为Vi=(vi1,vi2,...viD);
(32)根据最优粒子的位置和速度,计算每个粒子由目标函数决定的适应度;
(33)评价每个粒子的适应度,并判断是否为最优解,更新粒子个体最优解pbest和全局最优解gbest,个体最优解和全局最优解位置分别为:
Ppbest=(ppbest1,ppbest2,...ppbestD),Pgbest=(pgbest1,pgbest2,...pgbestD) (7)
获取极值后,每个粒子更新的速度vi,j和位置xi,j由下式决定:
vi,j(k+1)=ωvi,j(k)+c1r1(pbesti,j(k)-xi,j(k))+c2r2(gbest(k)-xi,j(k)) (8)
式中,c1、c2为学习因子,r1、r2为在[0,1]之间的随机数,ω为惯性因子,惯性因子依据最大循环次数从ωs线性递减至ωe,由下式得出:
ω=ωs-(ωs-ωe)·Ic/Imax (9)
式中,ωs为优化最初的惯性因子,ωe为优化结束的惯性因子,Imax为最大循环次数,Ic为循环的当前次数;
(34)判断是否达到最大迭代次数,若达到最大迭代次数,则得到优化结果;若未达到最大迭代次数,则返回步骤(31)。
进一步地,执行动作a后更新状态,在新的状态下执行步骤(1)~(3)进入下一阶段的路径规划;循环进行以上操作,直到自车到达目标点附近即:
|x-xgoal|<ε (10)
式中,ε为判断自车是否到达目标点附近的距离阈值。
本发明的有益效果:
1、本发明改进了传统人工势场法斥力势场函数,引入了自车车速与障碍物车速,建立了障碍物速度和势场影响范围之间的联系;改进了道路势场函数,使道路边界处的势场变化更加理想。
2、本发明结合了人工势场法和强化学习方法,将人工势场法中的势场变化作为强化学习中的奖励指标,同时在强化学习的奖励指标中引入了自车车速,满足路径规划中驾驶员对车速的要求,引入了车道保持指标,保证路径规划过程中车辆尽可能在车道中心行驶;另一方面,引入这些指标对强化学习的训练进行奖励,可以使强化学习的训练效率更高,进而能够更快的完成路径规划得到期望的路径。
附图说明
图1为本发明方法的流程图。
图2为引力势场图。
图3为斥力势场图。
图4为道路边界势场图。
图5为人工势场图。
具体实施方式
为了便于本领域技术人员的理解,下面结合实施例与附图对本发明作进一步的说明,实施方式提及的内容并非对本发明的限定。
参照图1所示,本发明的一种基于人工势场法和强化学习的局部路径规划方法,步骤如下:
(1)构建人工势场,所述人工势场由引力势场、斥力势场和道路势场叠加而成;
参照图5所示,人工势场U的计算公式为:
U=Ugoal+Uobs+Uroad (1)
参照图2所示,引力势场Ugoal的计算公式为:
Ugoal=-kgoal(x-xgoal) (2)
参照图3所示,斥力势场Uobs的计算公式为:
参照图4所示,道路势场Uroad的计算公式为:
式中,Rx,Ry分别为自车与障碍物的纵向距离和横向距离,计算公式为:
式中,x、y分别为自车的纵向、横向位置坐标;kgoal、kobs、kroad分别为引力增益系数、斥力增益系数、道路边界增益系数;k1、k2分别为自车速度增益系数和障碍物速度增益系数;xgoal为目标点的纵向位置坐标;xobs、yobs分别为障碍物的纵向、横向位置坐标;σx、σy分别为障碍物纵向影响距离和障碍物横向影响距离;v、vobs分别为自车速度和障碍物速度;w为道路宽度;θ为道路边界影响范围系数,系数θ前的正负号与自车和车道中心线的横向距离有关,表示车辆在车道左侧或右侧;e为自然常数。
(2)基于步骤(1)中的人工势场训练无人车路径规划强化学习模型;
其中,所述步骤(2)中的训练方法具体为:
状态空间S={st=(x,y,v)},其中st为自车在t时刻的状态;动作空间A={左,前,右};状态转移概率为P(s'|s,a),表示从当前状态st采取动作a到达下一状态st+1的概率;策略为π(a|s),表示在当前状态下采取动作a的概率;奖励函数rt表示从当前状态st采取动作a到达下一状态st+1的奖励,计算公式为:
式中,α1、α2、α3、α4、α5分别为车速保持、势能降低、车道中心保持、障碍物距离、目标点距离对应的权重系数;ΔU为st和st+1两个状态之间的势能差;
定义长期奖励为Gt=γrt+1+γ2rt+2+…+γnrt+n,表示从当前状态到结束的所有奖励,其中γ∈(0,1),为累计回报折算因子;
定义状态价值函数为vπ(st)=E(Gt|st),表示从状态st采取策略π的期望奖励;定义动作价值函数为Qπ(st,at)=E(Gt|st,at),表示从状态st使用动作at后采取策略π的期望奖励,E为数学期望。
(3)利用训练后的无人车路径规划强化学习模型为无人车规划最优路径并更新车辆状态,重复以上步骤直到自车到达目标点;
其中,所述步骤(3)中的规划最优路径方法为:
所述求解方法选择粒子群算法,包括以下步骤:
(31)初始化粒子群,评价每个粒子的适应度,获取最优粒子的位置和速度,第i个粒子的位置表示为Xi=(xi1,xi2,…xiD),第i个粒子的飞行的速度表示为Vi=(vi1,vi2,...viD);
(32)根据最优粒子的位置和速度,计算每个粒子由目标函数决定的适应度;
(33)评价每个粒子的适应度,并判断是否为最优解,更新粒子个体最优解pbest和全局最优解gbest,个体最优解和全局最优解位置分别为:
Ppbest=(ppbest1,ppbest2,...ppbestD),Pgbest=(pgbest1,pgbest2,...pgbestD) (7)
获取极值后,每个粒子更新的速度vi,j和位置xi,j由下式决定:
vi,j(k+1)=ωvi,j(k)+c1r1(pbesti,j(k)-xi,j(k))+c2r2(gbest(k)-xi,j(k)) (8)
式中,c1、c2为学习因子,r1、r2为在[0,1]之间的随机数,ω为惯性因子,惯性因子依据最大循环次数从ωs线性递减至ωe,由下式得出:
ω=ωs-(ωs-ωe)·Ic/Imax (9)
式中,ωs为优化最初的惯性因子,ωe为优化结束的惯性因子,Imax为最大循环次数,Ic为循环的当前次数;
(34)判断是否达到最大迭代次数,若达到最大迭代次数,则得到优化结果;若未达到最大迭代次数,则返回步骤(31)。
具体地,执行动作a后更新状态,在新的状态下执行步骤(1)~(3)进入下一阶段的路径规划;循环进行以上操作,直到自车到达目标点附近即:
|x-xgoal|<ε (10)
式中,ε为判断自车是否到达目标点附近的距离阈值。
本发明具体应用途径很多,以上所述仅是本发明的优选实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以作出若干改进,这些改进也应视为本发明的保护范围。
Claims (6)
1.一种基于人工势场法和强化学习的局部路径规划方法,其特征在于,步骤如下:
(1)构建人工势场,所述人工势场由引力势场、斥力势场和道路势场叠加而成;
(2)基于步骤(1)中的人工势场训练无人车路径规划强化学习模型;
(3)利用训练后的无人车路径规划强化学习模型为无人车规划最优路径并更新车辆状态,重复以上步骤直到自车到达目标点。
2.根据权利要求1所述的基于人工势场法和强化学习的局部路径规划方法,其特征在于,所述步骤(1)中的人工势场U的计算公式为:
U=Ugoal+Uobs+Uroad (1)
引力势场Ugoal的计算公式为:
Ugoal=-kgoal(x-xgoal) (2)
斥力势场Uobs的计算公式为:
道路势场Uroad的计算公式为:
式中,Rx,Ry分别为自车与障碍物的纵向距离和横向距离,计算公式为:
式中,x、y分别为自车的纵向、横向位置坐标;kgoal、kobs、kroad分别为引力增益系数、斥力增益系数、道路边界增益系数;k1、k2分别为自车速度增益系数和障碍物速度增益系数;xgoal为目标点的纵向位置坐标;xobs、yobs分别为障碍物的纵向、横向位置坐标;σx、σy分别为障碍物纵向影响距离和障碍物横向影响距离;v、vobs分别为自车速度和障碍物速度;w为道路宽度;θ为道路边界影响范围系数,系数θ前的正负号与自车和车道中心线的横向距离有关,表示车辆在车道左侧或右侧;e为自然常数。
3.根据权利要求1所述的基于人工势场法和强化学习的局部路径规划方法,其特征在于,所述步骤(2)中的训练方法具体为:
状态空间S={st=(x,y,v)},其中st为自车在t时刻的状态;动作空间A={左,前,右};状态转移概率为P(s'|s,a),表示从当前状态st采取动作a到达下一状态st+1的概率;策略为π(a|s),表示在当前状态下采取动作a的概率;奖励函数rt表示从当前状态st采取动作a到达下一状态st+1的奖励,计算公式为:
式中,α1、α2、α3、α4、α5分别为车速保持、势能降低、车道中心保持、障碍物距离、目标点距离对应的权重系数;ΔU为st和st+1两个状态之间的势能差;
定义长期奖励为Gt=γrt+1+γ2rt+2+…+γnrt+n,表示从当前状态到结束的所有奖励,其中γ∈(0,1),为累计回报折算因子;
定义状态价值函数为vπ(st)=E(Gt|st),表示从状态st采取策略π的期望奖励;定义动作价值函数为Qπ(st,at)=E(Gt|st,at),表示从状态st使用动作at后采取策略π的期望奖励,E为数学期望。
5.根据权利要求4所述的基于人工势场法和强化学习的局部路径规划方法,其特征在于,所述步骤(3)中的求解方法选择粒子群算法,包括以下步骤:
(31)初始化粒子群,评价每个粒子的适应度,获取最优粒子的位置和速度,第i个粒子的位置表示为Xi=(xi1,xi2,...xiD),第i个粒子的飞行的速度表示为Vi=(vi1,vi2,...viD);
(32)根据最优粒子的位置和速度,计算每个粒子由目标函数决定的适应度;
(33)评价每个粒子的适应度,并判断是否为最优解,更新粒子个体最优解pbest和全局最优解gbest,个体最优解和全局最优解位置分别为:
Ppbest=(ppbest1,ppbest2,...ppbestD),Pgbest=(pgbest1,pgbest2,...pgbestD) (7)
获取极值后,每个粒子更新的速度vi,j和位置xi,j由下式决定:
vi,j(k+1)=ωvi,j(k)+c1r1(pbesti,j(k)-xi,j(k))+c2r2(gbest(k)-xi,j(k)) (8)
式中,c1、c2为学习因子,r1、r2为在[0,1]之间的随机数,ω为惯性因子,惯性因子依据最大循环次数从ωs线性递减至ωe,由下式得出:
ω=ωs-(ωs-ωe)·Ic/Imax (9)
式中,ωs为优化最初的惯性因子,ωe为优化结束的惯性因子,Imax为最大循环次数,Ic为循环的当前次数;
(34)判断是否达到最大迭代次数,若达到最大迭代次数,则得到优化结果;若未达到最大迭代次数,则返回步骤(31)。
6.根据权利要求5所述的基于人工势场法和强化学习的局部路径规划方法,其特征在于,执行动作a后更新状态,在新的状态下执行步骤(1)~(3)进入下一阶段的路径规划;循环进行以上操作,直到自车到达目标点附近即:
|x-xgoal|<ε (10)
式中,ε为判断自车是否到达目标点附近的距离阈值。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210440334.5A CN114859905A (zh) | 2022-04-25 | 2022-04-25 | 一种基于人工势场法和强化学习的局部路径规划方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210440334.5A CN114859905A (zh) | 2022-04-25 | 2022-04-25 | 一种基于人工势场法和强化学习的局部路径规划方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114859905A true CN114859905A (zh) | 2022-08-05 |
Family
ID=82633937
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210440334.5A Pending CN114859905A (zh) | 2022-04-25 | 2022-04-25 | 一种基于人工势场法和强化学习的局部路径规划方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114859905A (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115344052A (zh) * | 2022-10-17 | 2022-11-15 | 江苏天一航空工业股份有限公司 | 基于改进的群优化算法的车辆路径控制方法及控制系统 |
KR102585308B1 (ko) * | 2022-10-27 | 2023-10-10 | 주식회사 클로봇 | 이동 로봇의 주행을 제어하기 위한 방법, 및 이동 로봇 |
CN117933096A (zh) * | 2024-03-21 | 2024-04-26 | 山东省科学院自动化研究所 | 一种无人驾驶对抗测试场景生成方法及系统 |
-
2022
- 2022-04-25 CN CN202210440334.5A patent/CN114859905A/zh active Pending
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115344052A (zh) * | 2022-10-17 | 2022-11-15 | 江苏天一航空工业股份有限公司 | 基于改进的群优化算法的车辆路径控制方法及控制系统 |
KR102585308B1 (ko) * | 2022-10-27 | 2023-10-10 | 주식회사 클로봇 | 이동 로봇의 주행을 제어하기 위한 방법, 및 이동 로봇 |
CN117933096A (zh) * | 2024-03-21 | 2024-04-26 | 山东省科学院自动化研究所 | 一种无人驾驶对抗测试场景生成方法及系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112347567B (zh) | 一种车辆意图和轨迹预测的方法 | |
CN114859905A (zh) | 一种基于人工势场法和强化学习的局部路径规划方法 | |
CN110969848B (zh) | 一种对向双车道下基于强化学习的自动驾驶超车决策方法 | |
CN112356830B (zh) | 一种基于模型强化学习的智能泊车方法 | |
Naveed et al. | Trajectory planning for autonomous vehicles using hierarchical reinforcement learning | |
CN103324085A (zh) | 基于监督式强化学习的最优控制方法 | |
CN111098852A (zh) | 一种基于强化学习的泊车路径规划方法 | |
CN114379583B (zh) | 一种基于神经网络动力学模型的自动驾驶车辆轨迹跟踪系统及方法 | |
CN107479547B (zh) | 基于示教学习的决策树行为决策算法 | |
CN111679660B (zh) | 一种融合类人驾驶行为的无人驾驶深度强化学习方法 | |
CN113255998B (zh) | 基于多智能体强化学习的高速道路无人驾驶车辆编队方法 | |
CN111625989B (zh) | 一种基于a3c-sru的智能车汇入车流方法及系统 | |
CN112857385B (zh) | 一种基于非均匀栅格模型的快速无人车局部路径规划方法 | |
CN112061116B (zh) | 一种基于势能场函数逼近的强化学习方法的泊车策略 | |
CN112906542B (zh) | 一种基于强化学习的无人车避障方法及装置 | |
CN114852105A (zh) | 一种自动驾驶车辆换道轨迹规划方法及系统 | |
CN111824182A (zh) | 一种基于深度强化学习的三轴重型车自适应巡航控制算法 | |
CN114973650A (zh) | 车辆匝道入口合流控制方法、车辆、电子设备及存储介质 | |
CN115257789A (zh) | 城市低速环境下的营运车辆侧向防撞驾驶决策方法 | |
CN116465427A (zh) | 一种基于时空风险量化的智能车辆换道避障路径规划方法 | |
CN116486356A (zh) | 一种基于自适应学习技术的狭窄场景轨迹生成方法 | |
CN113033902B (zh) | 一种基于改进深度学习的自动驾驶换道轨迹规划方法 | |
Liu et al. | Reinforcement learning-based predictive control for autonomous electrified vehicles | |
CN114997048A (zh) | 基于探索策略改进的td3算法的自动驾驶车辆车道保持方法 | |
CN111413974B (zh) | 一种基于学习采样式的汽车自动驾驶运动规划方法及系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |