CN108229730B - 一种基于模糊奖励的无人驾驶车辆轨迹生成方法 - Google Patents
一种基于模糊奖励的无人驾驶车辆轨迹生成方法 Download PDFInfo
- Publication number
- CN108229730B CN108229730B CN201711374968.0A CN201711374968A CN108229730B CN 108229730 B CN108229730 B CN 108229730B CN 201711374968 A CN201711374968 A CN 201711374968A CN 108229730 B CN108229730 B CN 108229730B
- Authority
- CN
- China
- Prior art keywords
- vehicle
- track
- reward
- fuzzy
- unmanned vehicle
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 42
- 230000008569 process Effects 0.000 claims abstract description 9
- 238000004364 calculation method Methods 0.000 claims description 13
- 230000003247 decreasing effect Effects 0.000 claims description 9
- 238000013508 migration Methods 0.000 abstract description 2
- 230000005012 migration Effects 0.000 abstract description 2
- 230000006399 behavior Effects 0.000 description 13
- 238000004422 calculation algorithm Methods 0.000 description 10
- 230000006870 function Effects 0.000 description 7
- 238000013461 design Methods 0.000 description 5
- 238000002474 experimental method Methods 0.000 description 5
- 230000008447 perception Effects 0.000 description 5
- 238000004088 simulation Methods 0.000 description 5
- 238000011160 research Methods 0.000 description 3
- 238000005070 sampling Methods 0.000 description 3
- 230000009471 action Effects 0.000 description 2
- 238000005457 optimization Methods 0.000 description 2
- 238000003066 decision tree Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000009795 derivation Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 230000003467 diminishing effect Effects 0.000 description 1
- 238000004836 empirical method Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000007726 management method Methods 0.000 description 1
- 238000013178 mathematical model Methods 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 238000011084 recovery Methods 0.000 description 1
- 230000002787 reinforcement Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q10/00—Administration; Management
- G06Q10/04—Forecasting or optimisation specially adapted for administrative or management purposes, e.g. linear programming or "cutting stock problem"
- G06Q10/047—Optimisation of routes or paths, e.g. travelling salesman problem
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0212—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
- G05D1/0221—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory involving a learning process
Landscapes
- Engineering & Computer Science (AREA)
- Business, Economics & Management (AREA)
- Human Resources & Organizations (AREA)
- General Physics & Mathematics (AREA)
- Economics (AREA)
- Physics & Mathematics (AREA)
- Strategic Management (AREA)
- Quality & Reliability (AREA)
- Development Economics (AREA)
- Operations Research (AREA)
- Entrepreneurship & Innovation (AREA)
- Tourism & Hospitality (AREA)
- Game Theory and Decision Science (AREA)
- General Business, Economics & Management (AREA)
- Marketing (AREA)
- Theoretical Computer Science (AREA)
- Aviation & Aerospace Engineering (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Automation & Control Theory (AREA)
- Feedback Control In General (AREA)
- Traffic Control Systems (AREA)
Abstract
本发明涉及一种基于模糊奖励的无人驾驶车辆轨迹生成方法,包括以下步骤:1)获取多条示教车辆的轨迹信息,并统计轨迹信息中轨迹特征的特征期望;2)在无人驾驶车辆运行过程中,根据特征期望获取当前空间状态下的奖励值;3)根据每个空间状态下的奖励值在空间中选择轨迹点坐标,拟合后形成最终的无人驾驶车辆的车辆轨迹。与现有技术相比,本发明具有规律统计、具有健壮的迁移能力、简单易操作、贴近示教、适用于小数据集等优点。
Description
技术领域
本发明涉及无人车辆驾驶决策领域,尤其是涉及一种基于模糊奖励的无人驾驶车辆轨迹生成方法。
背景技术
无人驾驶汽车是具有自主行驶能力移动机器人的一种高级形态。它是能够实现环境感知、决策规划与运动控制三大功能于一体的智能计算系统。系统相对其它小型移动机器人来说,结构比较复杂。除了基本的移动行驶能力外,具有运用雷达、摄像头等各种传感器配合特制的高精度地图进行即时的数据融合与定位,实现对当前环境的感知理解。同时,根据感知器理解的道路和运动障碍物信息,车辆运用决策规划算法切出合理可行的预期轨迹,由控制模块进行最终的车辆移动行为实施。整个智能计算系统包括了车道线检测、障碍物识别、高精度地图、高精度定位、决策规划算法和控制器设计等重要的关键技术,涉及众多学科知识,具有极高的理论研究意义与工程实践价值。
无人驾驶车辆研究的领域包括环境感知、行为决策、规划控制三大方向。其中,行为决策作为连接环境感知与规划控制的中枢位置,具有十分重要的地位,已经成为无人驾驶领域研究的重点和难点。行为决策是在当前环境下可选的几种可行性方案中挑选出符合自身行为目的的最佳方案过程。在这个过程中,往往需要特定的决策算法对采取行为之后的结果状态进行预测评价,力求在统一判断标准下做到选取最佳的行为。对于无人驾驶车辆而言,行为决策需要根据当前雷达、摄像头等传感器融合的数据信息获取对外部环境的感知理解,对车辆即将执行的下一个行为进行合理的预测,并根据决策算法将可选的行为以物理值的形式传递给规划控制系统,进一步实现决策模块的期望行为,以实现车辆的无人操作自主驾驶。
行为决策理论最早出现在心理学、管理学、经济学领域,后来逐渐拓展应用于其他方向。当前,关于车辆的行为决策主要集中于有限状态机、决策树、多属性决策等传统的经验方法和基于学习的预测方法。基于经验的设计方法不能拓展至综合复杂的场景,却有着很高的稳定性;基于学习预测的方法虽然对行为有着难以确定的稳定性与安全性,不过对场景的适应能力要远优于基于经验的设计方法。从无人驾驶的发展来看,必然面临场景的复杂性与多变性这一问题,而现有方法中却没有有效解决该问题的手段。
发明内容
本发明的目的就是为了克服上述现有技术存在的缺陷而提供一种基于模糊奖励的无人驾驶车辆轨迹生成方法。
本发明的目的可以通过以下技术方案来实现:
一种基于模糊奖励的无人驾驶车辆轨迹生成方法,包括以下步骤:
1)获取多条示教车辆的轨迹信息,并统计轨迹信息中轨迹特征的特征期望;
2)在无人驾驶车辆运行过程中,根据特征期望获取当前空间状态下的奖励值;
3)根据每个空间状态下的奖励值在空间中选择轨迹点坐标,拟合后形成最终的无人驾驶车辆的车辆轨迹。
所述的步骤1)中,轨迹特征为车辆与最左车道线距离、车辆与最右车道线距离、车辆与左边障碍物距离、车辆与右边障碍物距离、车辆与正前方障碍物距离、车辆与正后方障碍物距离和/或车辆自身车速。
所述的步骤2)具体包括以下步骤:
21)计算当前状态下所有轨迹特征的递减程度函数;
22)根据递减程度函数计算轨迹特征对应的奖励;
23)对特征对应的奖励进行求和得到车辆在该状态下的奖励值。
所述的步骤21)中,递减程度函数Decay(μi)的计算式为:
当特征为连续特征时,所述的期望特征的频率为特征标准差σ的β倍范围内数值出现的次数。
所述的步骤22)中,轨迹特征对应的奖励V(fi)的计算式为:
其中,fi为第i个轨迹特征的特征值。
所述的步骤23)中,车辆在该状态下的奖励值r的计算式为:
所述的步骤3)中,
选取奖励值最大对应的空间点最为轨迹拟合点,并对其坐标拟合形成最终的无人驾驶车辆的车辆轨迹。
与现有技术相比,本发明具有以下优点:
1,本发明具有明确的优化理论支撑。从示教轨迹出发,以统计规律得出示教规律的表达式,生成接近专家示教规律的轨迹离散点。
2,本发明所给出的方法具有健壮的迁移能力。本发明中所给出的方法,可以针对未知环境进行轨迹离散点的生成,有着较高的上限边界。在任何未知环境下,车辆的周围环境都能以有限特征表述,这是车辆本身在运动时与周围环境进行交互所决定的。本发明抓住了这样的相对环境特性,利用示教规律的数学表达式,可切出最靠近专家示教规律的车辆行驶轨迹离散点。
3,本发明所提供的方法简单易操作。相对于其它的机器学习方法,本发明所提供的方法简单易懂,并且具有很高的易操作性。在优化过程上,本方法并没有复杂的数学推导。
4,本发明所采用的方法是基于数据学习。这种方式的好处是可以从尽可能多的示教数据集中得到最为优秀的示教规律,塑造更加贴近专家示教规律的数学模型。
5,本发明所采用的方法同样适用于小数据集的学习。本发明所采用的表达式,间接地以统计手段反映专家示教规律,并不排斥小样本的数据学习。
附图说明
图1为车辆访问不同车道的示教分布律图。
图2为算法恢复的分布律图。
图3为本发明的实验结果图,其中,图(3a)为专家示教结果,图(3b)为模糊奖励学习结果。
图4为模糊奖励特征表示示意图。
具体实施方式
下面结合附图和具体实施例对本发明进行详细说明。
本发明提供一种基于模糊奖励的无人驾驶车辆轨迹生成方法,该方法的原理如下:
1)虽然特征与奖励之间的关系不可量化,但是在车辆决策问题中,在本发明中,特征与奖励之间的关系假定并不复杂,可以简单的线性叠加方式描述;
2)在工程应用中,白盒系统的使用意味着输出的确定性。对于无人驾驶行为决策,白盒系统是最佳选择。在本发明中将以简单的模糊计算方式得到奖励,该计算方式的计算结果取决于数据,表达式明确。
基于此,本发明认为,在决策系统中,奖励结果为特征组的线性叠加。基于这样的假设,如果车辆的状态价值由n个特征fi s对应的奖励V(fi s)组成,并且特征值可变,车辆该状态下的奖励为:
本发明提出的模糊方法需要以有限特征能够将数学规律进行抽象表达。首先假定人类示教的车辆轨迹是由有限特征能够表达的。即是车辆在行驶过程中,车辆状态能够由几个关键的特征进行描述。比如,在车辆行驶的过程中,车辆需要与左右障碍物保持有限距离,与左右车道保持一定距离,与前后障碍物也会有相应的距离。这里的几个特征往往就能够充分地表述记录该车辆的轨迹特性。再者,本发明提出的模糊算法需要计算车辆行驶过程中车辆“最佳”的行驶状态。这里的“最佳”行驶状态是车辆轨迹数据特征的“最佳”组合,也就是需要计算的平均期望特征的“最佳”组合。以上两个条件都具备后,一般是对所有期望特征进行同等赋值,然后模糊递减。本发明所提出的方法与一般模糊方法不同之处在于从数据中学习各个特征的递减程度。本发明在研究车辆行驶轨迹中,认为车辆轨迹的各个特征的递减程度可由其出现的频率来进行计算。在连续数据中,期望特征的出现次数也许很少甚至没有,但是从整个行驶轨迹来看,数据是围绕在期望特征值附近进行波动。不同的特征,其波动方差是不一样的。根据这一问题,本发明提出的模糊方法统一定义在其波动方差一定范围内进行“频率近似”,将在波动方差一定范围内的数据个数作为出现的特征期望频率。计算得到特征期望频率后,算法将特征期望对应的奖励值除以特征频率,将计算的结果作为该特征的递减程度函数。本发明所提出的算法有着实际的物理意义。如果车辆轨迹中某个期望特征的频率很大,说明车辆在行驶过程中大多是在距离所计算的该期望特征很近的状态。于是,相对于频率较少的期望特征,特征在此状态所贡献的奖励值比较大。从数学上的角度来看,当某个状态中两个特征距离期望特征同样的数值,必然是期望特征频率较大的奖励递减的程度小。整个模糊奖励的表达式可写为:
为了计算简单,将期望特征组合最大的奖励赋值为1。上式中fi是状态的第i 个特征,μi是第i个特征的特征期望,Decay(μi)是第i个特征的奖励递减程度函数。同时,为了区别各个特征期望在车辆轨迹中的频率值,本发明采用的是将每个特征的0.5倍方差范围内的数据作为此特征期望的出现频率。综上所述,整个算法的框架如下所示:
1)计算期望特征μ1,μ2,…,μn;
如果特征为连续特征,期望频率的计算等于特征标准差σ的β倍范围内数值出现的次数:
实施例:
在本次仿真实验中,为了简化状态数据的处理,每辆小车所在的位置由小车到最左车道的距离、小车到前方障碍物的距离以及车辆的自身速度组成。本次仿真状态与深度逆向强化学习的仿真状态设计有所区别。本次仿真中,车辆所在的车道利用车辆到最左车道线的距离进行表示,如图4所示。
本次仿真中,特征期望在示教轨迹中的频率计算设定为该特征期望0.5倍方差范围内的数据出现频率。奖励递减函数由特征对应的最大奖励值除以特征期望频率进行计,如图1和2所示。
实验设计:
在本次实验中,示教数据来源于人类驾驶员驾驶车辆采集得到的连续数据。该连续数据含有车辆位置的一系列信息,包括车辆与前车的距离、与最左最右车道线距离、与前后方车辆的距离等信息。每隔50米进行一次数据的抽样,总共采样100 次。本次实验利用抽样得到的100次实验数据,计算最终的模糊奖励表达式。
本次实验中,算法需要对每个采样点状态进行的栅格化。每个采样点都有四个重要的信息,即是车辆与四周障碍物及最左最右的车道线距离。在实验中,如果车辆与左右边的障碍物距离小于车辆与最左最右车道线距离,则车辆此次状态信息关联于左右障碍物。例如,车辆在某个位置的状态信息为 [2.01,1.03,1.20,0.54,4.63,3.89],依次为车辆与最左车道线距离,车辆与最右车道线距离,车辆与左边障碍物距离,车辆与右边障碍物距离,车辆与正前方障碍物距离,车辆与正后方障碍物距离。由于车辆与左右方的障碍物距离都小于车辆与最左最右车道线的距离,在本例中,车辆的与障碍物的相对状态即是[1.20,0.54,4.63,3.89]。状态的栅格化是在相对状态所确定的矩形区域内进行。图3是实验结果。
Claims (7)
1.一种基于模糊奖励的无人驾驶车辆轨迹生成方法,其特征在于,包括以下步骤:
1)获取多条示教车辆的轨迹信息,并统计轨迹信息中轨迹特征的特征期望;
2)在无人驾驶车辆运行过程中,根据特征期望获取当前空间状态下的奖励值,具体包括以下步骤:
21)计算当前状态下所有轨迹特征的递减程度函数;
22)根据递减程度函数计算轨迹特征对应的奖励;
23)对特征对应的奖励进行求和得到车辆在该状态下的奖励值;
3)根据每个空间状态下的奖励值在空间中选择轨迹点坐标,拟合后形成最终的无人驾驶车辆的车辆轨迹。
2.根据权利要求1所述的一种基于模糊奖励的无人驾驶车辆轨迹生成方法,其特征在于,所述的步骤1)中,轨迹特征为车辆与最左车道线距离、车辆与最右车道线距离、车辆与左边障碍物距离、车辆与右边障碍物距离、车辆与正前方障碍物距离、车辆与正后方障碍物距离和/或车辆自身车速。
4.根据权利要求3所述的一种基于模糊奖励的无人驾驶车辆轨迹生成方法,其特征在于,当特征为连续特征时,所述的期望特征的频率为特征标准差σ的β倍范围内数值出现的次数。
7.根据权利要求1所述的一种基于模糊奖励的无人驾驶车辆轨迹生成方法,其特征在于,所述的步骤3)中,
选取奖励值最大对应的空间点最为轨迹拟合点,并对其坐标拟合形成最终的无人驾驶车辆的车辆轨迹。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201711374968.0A CN108229730B (zh) | 2017-12-19 | 2017-12-19 | 一种基于模糊奖励的无人驾驶车辆轨迹生成方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201711374968.0A CN108229730B (zh) | 2017-12-19 | 2017-12-19 | 一种基于模糊奖励的无人驾驶车辆轨迹生成方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN108229730A CN108229730A (zh) | 2018-06-29 |
CN108229730B true CN108229730B (zh) | 2021-07-20 |
Family
ID=62649834
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201711374968.0A Active CN108229730B (zh) | 2017-12-19 | 2017-12-19 | 一种基于模糊奖励的无人驾驶车辆轨迹生成方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN108229730B (zh) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109540159B (zh) * | 2018-10-11 | 2020-11-27 | 同济大学 | 一种快速完备的自动驾驶轨迹规划方法 |
US11493926B2 (en) * | 2019-05-15 | 2022-11-08 | Baidu Usa Llc | Offline agent using reinforcement learning to speedup trajectory planning for autonomous vehicles |
CN110345952A (zh) * | 2019-07-09 | 2019-10-18 | 同济人工智能研究院(苏州)有限公司 | 一种序列化车道线地图构建方法及构建系统 |
CN111708856B (zh) * | 2020-06-03 | 2022-07-29 | 武汉中海庭数据技术有限公司 | 一种基于强化学习的车道线的众包数据分段融合方法 |
CN113734197A (zh) * | 2021-09-03 | 2021-12-03 | 合肥学院 | 一种基于数据融合的无人驾驶的智能控制方案 |
CN114019981B (zh) * | 2021-11-16 | 2023-12-22 | 北京三快在线科技有限公司 | 一种无人驾驶设备的轨迹规划方法及规划装置 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104143270A (zh) * | 2013-05-09 | 2014-11-12 | 波音公司 | 提供飞行器意向的描述 |
CN105139072A (zh) * | 2015-09-09 | 2015-12-09 | 东华大学 | 应用于非循迹智能小车避障系统的强化学习算法 |
CN106975229A (zh) * | 2017-05-10 | 2017-07-25 | 佛山市神风航空科技有限公司 | 一种无人机斗机系统 |
CN107045650A (zh) * | 2016-10-25 | 2017-08-15 | 罗轶 | 基于区块链的网约车 |
CN107145936A (zh) * | 2017-04-22 | 2017-09-08 | 大连理工大学 | 一种基于强化学习的车辆跟驰模型建立方法 |
CN107479547A (zh) * | 2017-08-11 | 2017-12-15 | 同济大学 | 基于示教学习的决策树行为决策算法 |
US10176474B2 (en) * | 2008-12-02 | 2019-01-08 | Paypal, Inc. | Mobile barcode generation and payment |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8229163B2 (en) * | 2007-08-22 | 2012-07-24 | American Gnc Corporation | 4D GIS based virtual reality for moving target prediction |
-
2017
- 2017-12-19 CN CN201711374968.0A patent/CN108229730B/zh active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10176474B2 (en) * | 2008-12-02 | 2019-01-08 | Paypal, Inc. | Mobile barcode generation and payment |
CN104143270A (zh) * | 2013-05-09 | 2014-11-12 | 波音公司 | 提供飞行器意向的描述 |
CN105139072A (zh) * | 2015-09-09 | 2015-12-09 | 东华大学 | 应用于非循迹智能小车避障系统的强化学习算法 |
CN107045650A (zh) * | 2016-10-25 | 2017-08-15 | 罗轶 | 基于区块链的网约车 |
CN107145936A (zh) * | 2017-04-22 | 2017-09-08 | 大连理工大学 | 一种基于强化学习的车辆跟驰模型建立方法 |
CN106975229A (zh) * | 2017-05-10 | 2017-07-25 | 佛山市神风航空科技有限公司 | 一种无人机斗机系统 |
CN107479547A (zh) * | 2017-08-11 | 2017-12-15 | 同济大学 | 基于示教学习的决策树行为决策算法 |
Non-Patent Citations (1)
Title |
---|
无人驾驶汽车避障方法探析;朱麒融;《工业技术》;20161231;第53-54,56页 * |
Also Published As
Publication number | Publication date |
---|---|
CN108229730A (zh) | 2018-06-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108229730B (zh) | 一种基于模糊奖励的无人驾驶车辆轨迹生成方法 | |
Huang et al. | Driving behavior modeling using naturalistic human driving data with inverse reinforcement learning | |
Drews et al. | Aggressive deep driving: Combining convolutional neural networks and model predictive control | |
CN107479547B (zh) | 基于示教学习的决策树行为决策算法 | |
US20200363800A1 (en) | Decision Making Methods and Systems for Automated Vehicle | |
US11891087B2 (en) | Systems and methods for generating behavioral predictions in reaction to autonomous vehicle movement | |
Zhou et al. | Learning the car-following behavior of drivers using maximum entropy deep inverse reinforcement learning | |
CN116323364A (zh) | 用于车辆运动计划的路点预测和运动预报 | |
Emuna et al. | Deep reinforcement learning for human-like driving policies in collision avoidance tasks of self-driving cars | |
CN112327888B (zh) | 路径规划方法、装置、电子设备和存储介质 | |
Wang et al. | Vehicle trajectory prediction algorithm in vehicular network | |
CN116068885A (zh) | 切换递归卡尔曼网络的改进 | |
Mukherjee et al. | Interacting vehicle trajectory prediction with convolutional recurrent neural networks | |
Haddad et al. | Self-growing spatial graph network for context-aware pedestrian trajectory prediction | |
CN109752952B (zh) | 一种获取多维随机分布及强化控制器的方法和装置 | |
Rosman et al. | Hybrid control and learning with coresets for autonomous vehicles | |
Pan et al. | Learning deep neural network control policies for agile off-road autonomous driving | |
Ye et al. | GSAN: Graph self-attention network for interaction measurement in autonomous driving | |
Arbabi et al. | Planning for autonomous driving via interaction-aware probabilistic action policies | |
Senanayake et al. | Directional primitives for uncertainty-aware motion estimation in urban environments | |
EP3855120A1 (en) | Method for long-term trajectory prediction of traffic participants | |
Wu et al. | Learning driving behavior for autonomous vehicles using deep learning based methods | |
Zhang et al. | Path Prediction Method for Automotive Applications Based on Cubic Spline Interpolation | |
CN117268403B (zh) | 基于优化部署传感技术的改进式gbnn动态路径规划方法 | |
CN116578088B (zh) | 室外自主移动机器人连续轨迹生成方法及系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |