CN116588134A - 面向城市开放道路场景预测车辆轨迹的方法、设备及可读存储介质 - Google Patents
面向城市开放道路场景预测车辆轨迹的方法、设备及可读存储介质 Download PDFInfo
- Publication number
- CN116588134A CN116588134A CN202310273480.8A CN202310273480A CN116588134A CN 116588134 A CN116588134 A CN 116588134A CN 202310273480 A CN202310273480 A CN 202310273480A CN 116588134 A CN116588134 A CN 116588134A
- Authority
- CN
- China
- Prior art keywords
- vector
- vehicle
- module
- perception
- predicting
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 68
- 239000013598 vector Substances 0.000 claims abstract description 198
- 230000008447 perception Effects 0.000 claims abstract description 73
- 238000003062 neural network model Methods 0.000 claims abstract description 38
- 239000011159 matrix material Substances 0.000 claims description 32
- 230000001133 acceleration Effects 0.000 claims description 12
- 238000004590 computer program Methods 0.000 claims description 12
- 230000006870 function Effects 0.000 claims description 12
- 230000008859 change Effects 0.000 claims description 11
- ORILYTVJVMAKLC-UHFFFAOYSA-N Adamantane Natural products C1C(C2)CC3CC1CC2C3 ORILYTVJVMAKLC-UHFFFAOYSA-N 0.000 claims description 6
- 238000012549 training Methods 0.000 claims description 6
- 238000012986 modification Methods 0.000 claims description 5
- 230000004048 modification Effects 0.000 claims description 5
- 238000004364 calculation method Methods 0.000 claims description 4
- 238000005457 optimization Methods 0.000 claims description 4
- 238000012217 deletion Methods 0.000 claims description 3
- 230000037430 deletion Effects 0.000 claims description 3
- 238000010586 diagram Methods 0.000 description 10
- 230000006399 behavior Effects 0.000 description 6
- 230000003993 interaction Effects 0.000 description 4
- 238000013135 deep learning Methods 0.000 description 3
- 238000001514 detection method Methods 0.000 description 3
- 238000012545 processing Methods 0.000 description 3
- 230000003068 static effect Effects 0.000 description 3
- 238000004422 calculation algorithm Methods 0.000 description 2
- 238000013527 convolutional neural network Methods 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000007613 environmental effect Effects 0.000 description 2
- 239000000835 fiber Substances 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000013459 approach Methods 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 230000014509 gene expression Effects 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 238000011176 pooling Methods 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W60/00—Drive control systems specially adapted for autonomous road vehicles
- B60W60/001—Planning or execution of driving tasks
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
- B60W40/10—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to vehicle motion
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W60/00—Drive control systems specially adapted for autonomous road vehicles
- B60W60/001—Planning or execution of driving tasks
- B60W60/0027—Planning or execution of driving tasks using trajectory prediction for other traffic participants
- B60W60/00272—Planning or execution of driving tasks using trajectory prediction for other traffic participants relying on extrapolation of current movement
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W60/00—Drive control systems specially adapted for autonomous road vehicles
- B60W60/001—Planning or execution of driving tasks
- B60W60/0027—Planning or execution of driving tasks using trajectory prediction for other traffic participants
- B60W60/00276—Planning or execution of driving tasks using trajectory prediction for other traffic participants for two or more other traffic participants
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2552/00—Input parameters relating to infrastructure
- B60W2552/53—Road markings, e.g. lane marker or crosswalk
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2554/00—Input parameters relating to objects
- B60W2554/40—Dynamic objects, e.g. animals, windblown objects
- B60W2554/404—Characteristics
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2554/00—Input parameters relating to objects
- B60W2554/40—Dynamic objects, e.g. animals, windblown objects
- B60W2554/404—Characteristics
- B60W2554/4042—Longitudinal speed
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2554/00—Input parameters relating to objects
- B60W2554/40—Dynamic objects, e.g. animals, windblown objects
- B60W2554/404—Characteristics
- B60W2554/4044—Direction of movement, e.g. backwards
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Abstract
本发明涉及一种面向城市开放道路场景预测车辆轨迹的方法、设备及可读存储介质。该面向城市开放道路场景预测车辆轨迹的方法包括:S1,获取感知信息;S2,存储、管理感知信息;S3,基于感知信息提取高精地图数据;提取过往k帧的所有运动车辆的感知信息;基于感知信息提取运动状态向量;S4,基于高精地图数据和运动状态向量生成目标车辆的车道线向量、人行道向量;生成历史轨迹向量;S5,生成最小值向量;S6,输入深度神经网络模型,推理生成未来s秒内的目标车辆预测轨迹。本发明提出了一种面向城市开放道路场景预测车辆轨迹的方法、设备及可读存储介质,预测准确率高、耗时短且适用性强。
Description
技术领域
本发明涉及车辆自动驾驶技术领域,尤其涉及一种面向城市开放道路场景预测车辆轨迹的方法、设备及可读存储介质。
背景技术
预测车辆轨迹是面向城市开放道路的自动驾驶车辆一个重要的又基本的问题。
当人类驾驶车辆时,他通常会观察周围的交通参与者,并在开始新的驾驶动作(例如加速或变道)之前预测交通参与者的未来位置。
同理,自动驾驶车辆在城市开放道路上开启自动驾驶时,自动驾驶车辆周围的交通参与者包括运动的车辆、行人,准确地预测周围运动的车辆和行人将来可能的轨迹,不仅能减小自动驾驶车辆执行并道、换道、超车等特殊驾驶动作时发生危险的概率,还能提高自动驾驶车辆的行驶效率及行驶舒适性。
无论人类驾驶车辆还是自动驾驶车辆,在城市开放道路行驶过程中遇到运动的车辆是不可避免的,躲避运动的车辆也是不可避免的。毫无疑问,自动驾驶车辆必须具备预测车辆轨迹的能力,才能更有效地躲避运动的车辆,才能更有效地实现自动驾驶功能。
现有技术中,根据轨迹预测方法的输入类型、输出类型以及中间处理步骤的不同,目前研究的轨迹预测方法大概分为三类。
第一类基于物理约束的预测方法,车辆由于惯性不能瞬间改变轨迹,将车辆表示为受牛顿物理定律支配的动态实体,通过将控制状态(如轮子转角、加速度等)、车辆特性(如车辆自重)和道路环境因素(如静止摩擦系数)与车辆状态(如位置、航向、速度)的演化联系起来,并利用动力学模型和运动学模型来预测车辆未来的运动轨迹。
第二类基于行为意图的预测方法,这种方法将每辆交通车看作一个正在执行某种行为(直行、变道、转弯)的运动个体。将预测过程分成了两个部分:识别行为和预测轨迹。首先识别车辆的行为(跟随前车直线、路口左转、右转等),然后再预测车辆未来连续的物理状态,以便预测轨迹与可能执行的行为意图相对应。
第三类基于深度学习的预测方法,使用目标检测跟踪得到的车辆行驶轨迹数据和高精地图信息作为模型的输入特征,对深度神经网络模型进行训练,由训练完成的模型推理输出预测的车辆未来行驶轨迹。
前述轨迹预测的三类方法存在如下问题:
第一类基于物理约束的预测方法,只是通过车辆的运动模型来进行预测,没有考虑到道路结构、交通规则和其它车辆的交互,特别是当经过路口的时候,预测轨迹偏差值较大。
第二类基于行为意图的预测方法,利用先验知识比如速度、加速度、历史位置等车辆自身状态、道路几何结构、交通限速等道路结构化信息,但是忽略使用后验知识包括交通车辆之间交互作用、驾驶员的驾驶习惯等信息。在实际交通场景中,驾驶场景中的后验知识(交通车辆之间交互作用、驾驶员的驾驶习惯等)会影响相同驾驶意图下车辆的行驶轨迹,如果忽略了驾驶场景中的后验知识,则难以保证所得运动轨迹的准确性。
第三类基于深度学习的预测方法,也就是基于深度神经网络进行端到端设计,利用的训练数据不仅包括轨迹信息,还充分利用更为丰富的环境信息包括静态地图路网环境静态信息和动态目标物(如车、人)感知信息,基于深度神经网络模型进行学习,随着训练数据量增加和数据场景类型增加,能适应不同的驾驶场景,能获得更好的通用性和准确性。
然而,很多基于深度学习的预测方法,采用将高精地图信息(比如车道线、红绿灯)编码为一张张彩色图片,然后使用卷积神经网络提取彩色图片中车道线信息。这种方法存在一些局限性。比如:
a)计算量大,耗费时间长,导致实时性差。
b)卷积神经网络容易忽略长距离的道路信息,导致长时间预测轨迹的性能指标很差。
c)需要累计几个周期的历史轨迹点才能执行预测,一般需要9个周期的历史轨迹,从而导致应对突发情况的能力差。
发明内容
针对现有技术的上述问题,本发明提出了一种面向城市开放道路场景预测车辆轨迹的方法、设备及可读存储介质,采用高精地图数据结合车辆自动驾驶系统获取的感知信息来推理生成目标车辆预测轨迹,准确率高、耗时短且适用性强。
具体地,本发明提出了一种面向城市开放道路场景预测车辆轨迹的方法,包括如下步骤:
S1,获取自动驾驶系统中感知模块提供的感知信息;
S2,存储、管理所述感知信息;
S3,基于所述感知信息提取目标车辆当前时刻的中心点坐标,获取所述中心点坐标为中心半径r米范围内的高精地图数据;提取过往k帧的所有运动车辆的感知信息;基于所述感知信息提取目标车辆的当前时刻的运动状态向量;
S4,基于所述高精地图数据和运动状态向量生成所述目标车辆的车道线向量、人行道向量;基于过往k帧的所有运动车辆的感知信息和运动状态向量生成所有运动车辆的历史轨迹向量;
S5,基于所述车道线向量、人行道向量和历史轨迹向量生成对应的最小值向量;
S6,将所述车道线向量、人行道向量、历史轨迹向量和最小值向量输入深度神经网络模型,推理生成未来s秒内的目标车辆预测轨迹。
根据本发明的一个实施例,在步骤S1中,所述感知信息包括所识别物的识别号、识别物对应矩形框的中心点坐标、识别物对应矩形框4个顶点的坐标、识别物的长度、宽度、颜色、速度、加速度、航向角、航向角变化率,所述识别物包括运动车辆。
根据本发明的一个实施例,在步骤S2中,管理所述感知信息的操作包括:
增加:增加所述感知模块的感知范围内新出现的运动车辆的感知信息;
删除:删除超出所述感知模块的感知范围内的已有运动车辆的感知信息;
修改:更新所述感知模块的感知范围内已有运动车辆的感知信息;
查找:根据某个搜索条件查找所述感知模块的感知范围内某个目标车辆的感知信息。
根据本发明的一个实施例,在步骤S3中,所述运动状态向量至少包括速度、加速度、航向角、航向角变化率。
根据本发明的一个实施例,在执行步骤S5之后并在步骤S6之前,将所述最小值向量转换为tensor格式。
根据本发明的一个实施例,150≤r≤250,15≤k≤25,1≤s≤5。
根据本发明的一个实施例,所述深度神经网络模型的特征向量的构建方法包括步骤:
T1,获取感知信息和高精地图数据;
T2,生成目标车辆和所有运动车辆的历史轨迹向量;
T3,生成车道线向量;
T4,生成人行道向量;
T5,生成历史轨迹向量、车道线向量和人行道向量对应的最小值向量。
根据本发明的一个实施例,所述深度神经网络模型包括subGraph模块、globalGraph模块和backbone模块;
所述subGraph模块的输入是(N,10)矩阵的特征向量,输出是(M,64)矩阵的特征向量;所述globalGraph模块的输入是所述subGraph模块的输出及(M,2)的最小值向量,输出是(1,M,64)矩阵的特征向量;所述backbone模块的输入是所述globalGraph模块的输出,输出是(1,60)矩阵的s秒预测轨迹点;
其中,N=(目标车辆+运动车辆个数)*20+(车道线个数+人行道个数)*10;M=(目标车辆+运动车辆个数+车道线个数+人行道个数)。
根据本发明的一个实施例,所述深度神经网络模型的训练方法包括步骤:
U1,构建所述深度神经网络模型的特征向量;
U2,将所述特征向量输入所述深度神经网络模型,获得1条未来T个时刻的车辆轨迹坐标值(xt,yt)(t=1,2,…T);
U3,计算损失函数:
其中I为被预测车辆的总数量,T为一条预测轨迹的坐标点数;
U4,基于最小化损失函数的值,获取最优的模型权重值
U5,重复步骤U1~U4,获得收敛的模型权重
根据本发明的一个实施例,在步骤U4中,采用Adam优化方法对模型权重值进行更新,所述Adam优化方计算公式为:
其中I为被预测车辆的总数量,T为一条预测轨迹的坐标点数。
本发明还提供了一种面向城市开放道路场景预测车辆轨迹的设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现前述任一项所述面向城市开放道路场景预测车辆轨迹的方法的步骤。
本发明还提供了一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现前述任一项所述面向城市开放道路场景预测车辆轨迹的方法的步骤。
本发明提供的一种面向城市开放道路场景预测车辆轨迹的方法、设备及可读存储介质,通过自动驾驶系统获取的感知信息及高清地图数据,得到车道线向量、人行道向量及历史轨迹向量,并生成车道线向量、人行道向量及历史轨迹向量对应的最小值向量,将所有向量输入深度神经网络模型,进而推理生成目标车辆预测轨迹,该方法准确率高、推理过程耗时短且适用性强。
应当理解,本发明以上的一般性描述和以下的详细描述都是示例性和说明性的,并且旨在为如权利要求所述的本发明提供进一步的解释。
附图说明
包括附图是为提供对本发明进一步的解释,它们被收录并构成本申请的一部分,附图示出了本发明的实施例,并与本说明书一起起到解释本发明原理的作用。
附图中:
图1示出了本发明一个实施例的面向城市开放道路场景预测车辆轨迹的方法的流程框图。
图2示出了本发明一个实施例的深度神经网络模型的特征向量的构建方法的流程框图。
图3示出了本发明一个实施例的深度神经网络模型的总体架构图。
图4示出了本发明一个实施例的深度神经网络模型的subGraph模块的结构示意图。
图5是图4中的MLP模块的结构示意图。
图6示出了本发明一个实施例的深度神经网络模型的globalGraph模块的结构示意图。
图7示出了本发明一个实施例的深度神经网络模型的backbone模块的结构示意图。
具体实施方式
需要说明的是,在不冲突的情况下,本申请中的实施例及实施例中的特征可以相互组合。
下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整的描述。显然,所描述的实施例仅仅是本申请一部分实施例,而不是全部的实施例。以下对至少一个示例性实施例的描述实际上仅仅是说明性的,决不作为对本申请及其应用或使用的任何限制。基于本申请中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
需要注意的是,这里所使用的术语仅是为了描述具体实施方式,而非意图限制根据本申请的示例性实施方式。如在这里所使用的,除非上下文另外明确指出,否则单数形式也意图包括复数形式,此外,还应当理解的是,当在本说明书中使用术语“包含”和/或“包括”时,其指明存在特征、步骤、操作、器件、组件和/或它们的组合。
除非另外具体说明,否则在这些实施例中阐述的部件和步骤的相对布置、数字表达式和数值不限制本申请的范围。同时,应当明白,为了便于描述,附图中所示出的各个部分的尺寸并不是按照实际的比例关系绘制的。对于相关领域普通技术人员已知的技术、方法和设备可能不作详细讨论,但在适当情况下,所述技术、方法和设备应当被视为说明书的一部分。在这里示出和讨论的所有示例中,任何具体值应被解释为仅仅是示例性的,而不是作为限制。因此,示例性实施例的其它示例可以具有不同的值。应注意到:相似的标号和字母在下面的附图中表示类似项,因此,一旦某一项在一个附图中被定义,则在随后的附图中不需要对其进行进一步讨论。
在本申请的描述中,需要理解的是,方位词如“前、后、上、下、左、右”、“横向、竖向、垂直、水平”和“顶、底”等所指示的方位或位置关系通常是基于附图所示的方位或位置关系,仅是为了便于描述本申请和简化描述,在未作相反说明的情况下,这些方位词并不指示和暗示所指的装置或元件必须具有特定的方位或者以特定的方位构造和操作,因此不能理解为对本申请保护范围的限制;方位词“内、外”是指相对于各部件本身的轮廓的内外。
此外,需要说明的是,使用“第一”、“第二”等词语来限定零部件,仅仅是为了便于对相应零部件进行区别,如没有另行声明,上述词语并没有特殊含义,因此不能理解为对本申请保护范围的限制。此外,尽管本申请中所使用的术语是从公知公用的术语中选择的,但是本申请说明书中所提及的一些术语可能是申请人按他或她的判断来选择的,其详细含义在本文的描述的相关部分中说明。此外,要求不仅仅通过所使用的实际术语,而是还要通过每个术语所蕴含的意义来理解本申请。
图1示出了本发明一个实施例的面向城市开放道路场景预测车辆轨迹的方法的流程框图。如图所示,本发明提供了一种面向城市开放道路场景预测车辆轨迹的方法,包括如下步骤:
S1,获取自动驾驶系统中感知模块提供的感知信息,感知模块可以是车载环视检测模块或雷达检测模块。
S2,存储、管理感知信息;
S3,基于感知信息提取目标车辆当前时刻的中心点坐标,获取中心点坐标为中心半径r米范围内的高精地图数据;提取过往k帧的所有运动车辆的感知信息;基于感知信息提取目标车辆的当前时刻的运动状态向量;
S4,基于高精地图数据和运动状态向量生成目标车辆的车道线向量、人行道向量;基于过往k帧的所有运动车辆的感知信息和运动状态向量生成所有运动车辆的历史轨迹向量;
S5,基于车道线向量、人行道向量和历史轨迹向量生成对应的最小值向量;
S6,将所述车道线向量、人行道向量、历史轨迹向量和最小值向量输入深度神经网络模型,推理生成未来s秒内的目标车辆预测轨迹。
容易理解的,本发明提供的一种面向城市开放道路场景预测车辆轨迹的方法,用于预测自动驾驶车辆在其感知模块可感知范围内的所有运动车辆的轨迹。通过该方法一次预测一辆运动车辆的轨迹,该被预测轨迹的运动车辆就是目标车辆。
较佳地,在步骤S1中,感知信息包括所识别物的识别号、识别物对应矩形框的中心点坐标、识别物对应矩形框4个顶点的坐标、识别物的长度、宽度、颜色、速度、加速度、航向角、航向角变化率,识别物至少包括运动车辆。
较佳地,在步骤S2中,管理感知信息的操作包括:
增加:增加感知模块的感知范围内新出现的运动车辆的感知信息;
删除:删除超出感知模块的感知范围内的已有运动车辆的感知信息;
修改:更新感知模块的感知范围内已有运动车辆的感知信息;
查找:根据某个搜索条件查找感知模块的感知范围内某个目标车辆的感知信息。
较佳地,在步骤S3中,运动状态向量至少包括速度、加速度、航向角、航向角变化率。
较佳地,在执行步骤S5之后并在步骤S6之前,将最小值向量转换为tensor格式,该数据格式适用于深度神经网络模型。
较佳地,150≤r≤250,15≤k≤25,1≤s≤5,优选r=200,k=20,s=3。具体来说,在步骤S3中,获取中心点坐标为中心半径200米范围内的高精地图数据,提取过往20帧的所有运动车辆的感知信息;在步骤S6中,推理生成未来3秒内的目标车辆预测轨迹
图2示出了本发明一个实施例的深度神经网络模型的特征向量的构建方法的流程框图。如图所示,较佳地,深度神经网络模型的特征向量的构建方法包括步骤:
T1,获取感知信息和高精地图数据;
T2,生成目标车辆和所有运动车辆的历史轨迹向量;
T3,生成车道线向量;
T4,生成人行道向量;
T5,生成历史轨迹向量、车道线向量和人行道向量对应的最小值向量。
进一步的,在步骤T2中,生成历史轨迹向量的步骤包括:
T11,基于感知信息和高精地图数据,提取目标车辆当前时刻的运动状态向量,该运动状态向量包括目标车辆的位置点(XY坐标)、速度、加速度、航向角(或者叫yaw角)、航向角变化率;
T12,提取目标车辆20个历史时刻的运动状态向量;
T13,使用20个历史时刻的运动状态向量生成一条目标车辆的历史轨迹向量,
T14,提取以目标车辆当前时刻的位置点为圆点,半径100米范围内其它运动车辆的20个历史时刻的运动状态向量;
T15,每一个运动车辆的20个历史时刻的运动状态向量生成一条运动车辆的历史轨迹向量。
历史轨迹向量包括一条目标车辆的历史轨迹向量,以及若干条运动车辆的历史轨迹向量。
在步骤T13,生成一条目标车辆的历史轨迹向量具体包括步骤:
T131,从目标车辆的20个历史时刻的运动状态向量中,提取出目标车辆20的个历史时刻的位置点;
T132,将20个历史时刻的位置点转换为以目标车辆当前时刻的位置点为原点的相对位置点;
T133,使用20个历史时刻的相对位置点构建20个数组(vector);
每个vector包含10个变量,10个变量分别是:
1.x:相对位置点中x坐标值;
2.y:相对位置点中y坐标值;
3.delta_x:x方向,i+1时刻与i时刻之间的坐标差值,delta_x=at(i+1).x-at(i).x;
4.delta_y:y方向,i+1时刻与i时刻之间的坐标差值,delta_y=at(i+1).y-at(i).y;
5.delta_index:表示20个vector中第几个vector;
6.0,填写0即可;
7.0,填写0即可;
8.0,填写0即可;
9.0,填写0即可;
10.Trajectory_index:轨迹编号,通常,目标车辆的轨迹编号为0,其他运动车辆的轨迹编号从1开始递增。
变量6~9为可扩充项目,用于更精确地表达运动状态。
至此,生成一条目标车辆的历史轨迹向量,历史轨迹向量是一个20*10的矩阵,一共是20行,每行10列。目标车辆的历史轨迹向量可以表示为,{x,y,delta_x,delta_y,delta_index,0,0,0,0,trajectory_index}。
同理,在步骤T15,每一个运动车辆的20个历史时刻的运动状态向量生成一条运动车辆的历史轨迹向量,该生成步骤不再赘述。
在步骤T3中,生成车道线向量的步骤包括:
T31,提取目标车辆当前时刻的运动状态向量,该运动状态向量包括目标车辆的位置点(XY坐标)、速度、加速度、航向角(或者叫yaw角)、航向角变化率;
T32,提取以目标车辆当前时刻的位置点为圆点,半径100米范围内若干条车道线,每一条车道线是由若干个位置点(XY坐标)构成;
T33,每一条车道线生成一条车道线向量,若干条车道线生成若干条车道线向量。使用一条车道线生成一条车道线向量的方法包括步骤:
T331,从一条车道线的开头起始,每次间隔若干米,均匀地取点,一共取出20个位置点;
T332,将20个位置点转换为以目标车辆当前时刻的位置点为原点的20个相对位置点;
T333,使用20个相对位置点构建20个vector。
每个vector包含10个变量,10个变量分别是:
x:相对位置点中x坐标值;
y:相对位置点中y坐标值;
delta_x:x方向,i+1时刻与i时刻之间的坐标差值,delta_x=at(i+1).x-at(i).x
delta_y:y方向,i+1时刻与i时刻之间的坐标差值,delta_y=at(i+1).y-at(i).y
delta_index:表示20个vector中第几个vector;
0,填写0即可;(为可扩充项)
is_turn_left,是否为右转车道;
is_turn_right,是否为左转车道;
is_intersection,是否为十字路口;
lane_index:车道线编号,编号从0开始,依次增大。
至此,生成一条车道线向量,车道线向量是一个20*10的矩阵,一共是20行,每行10列。车道线向量表示为:
{x,y,delta_x,delta_y,delta_index,0,is_turn_left,is_turn_righ,is_intersection,lane_index}
在步骤T4中,生成人行道向量的步骤包括:
T41,提取目标车辆当前时刻的运动状态向量,该运动状态向量包括目标车辆的位置点(XY坐标)、速度、加速度、航向角(或者叫yaw角)、航向角变化率;
T42,提取以目标车辆当前时刻的位置点为圆点,半径100米范围内若干条人行道,每一条人行道是由若干个位置点(XY坐标)构成。
T43,每一条人行道生成一条人行道向量,若干条人行道生成若干条人行道向量。使用一条人行道生成一条人行道向量的方法包括步骤:
T431,在一条人行道上,从人行道的开头起始,每次间隔若干米,均匀地取点,一共取出20个位置点;
T432,将20个位置点转换为以目标车辆当前时刻的位置点为原点的20个相对位置点;
T433,使用20个相对位置点构建20个vector,每个vector包含10个变量,10个变量分别是:
1.x:相对位置点中x坐标值;
2.y:相对位置点中y坐标值;
3.delta_x:x方向,i+1时刻与i时刻之间的坐标差值,delta_x=at(i+1).x-at(i).x
4.delta_y:y方向,i+1时刻与i时刻之间的坐标差值,delta_y=at(i+1).y-at(i).y
5.delta_index:表示20个vector中第几个vector;
6.0,填写0即可;(为可扩充项)
7.0,填写0即可;(为可扩充项)
8.0,填写0即可;(为可扩充项)
9.0,填写0即可;(为可扩充项)
10.crosswalk_index:人行道编号,编号从0开始递增。
至此,生成一条人行道向量,人行道向量是一个20*10的矩阵,一共是20行,每行10列。人行道向量表示为:
{x,y,delta_x,delta_y,delta_index,0,0,0,0,crosswalk_index}。
生成最小值向量的方法包括步骤:
T51,生成历史轨迹向量对应的最小值向量。具体来说,每条历史轨迹向量是一个20*10的矩阵,一共是20行,每行10列,其中每一行的前2列分别是位置点(x,y)值。如此便有,每条历史轨迹向量具有20个位置点(x,y)值。从20个位置点x值提取最小的x值,从20个位置点y值提取最小的y值,获得一条历史轨迹向量的最小的(x,y)值。依此类推,多条历史轨迹向量能够生成多对最小的(x,y)值。由多对最小的(x,y)值能够生成一个最小值向量。最小值向量是一个n*2的矩阵,一共是n行,每行2列,n表示目标车辆和运动车辆的数量(个数)之和。
T52,生成车道线向量对应的最小值向量。由于一条车道线生成一条车道线向量,每一条车道线向量是一个20*10的矩阵,一共是20行,每行10列,其中每一行的前2列分别是位置点(x,y)值。如此便有,每条车道线向量具有20个位置点(x,y)值。从20个位置点x值提取最小的x值,从20个位置点y值提取最小的y值,获得一条车道线向量的一对最小的(x,y)值。依此类推,多条车道线向量能够生成多对最小的(x,y)值。由多对最小的(x,y)值能够生成一个最小值向量。最小值向量是一个m*2的矩阵,一共是m行,每行2列,m表示车道线的个数。
T53,生成人行道向量对应的最小值向量。由于一条人行道生成一条人行道向量,每一条人行道向量是一个20*10的矩阵,一共是20行,每行10列,其中每一行的前2列分别是位置点(x,y)值。如此便有,每一条人行道向量具有20个位置点(x,y)值。从20个位置点x值提取最小的x值,从20个位置点y值提取最小的y值,获得一条人行道向量的一对最小的(x,y)值。依此类推,多条人行道向量能够生成多对最小的(x,y)值。由多对最小的(x,y)值能够生成一个最小值向量。最小值向量是一个k*2的矩阵,一共是k行,每行2列,k表示人行道的个数。
T54,合并最小值向量。将历史轨迹向量对应的最小值向量、车道线向量对应的最小值向量、人行道向量对应的最小值向量合并在一起生成一个最小值向量。该最小值向量是一个M*2的矩阵,一共是M行,每行2列,M=n+m+k。
图3示出了本发明一个实施例的深度神经网络模型的总体架构图。如图所示,较佳地,深度神经网络模型包括subGraph模块、globalGraph模块和backbone模块。其中,subGraph模块的输入是(N,10)矩阵的特征向量,输出是(M,64)矩阵的特征向量;globalGraph模块的输入是subGraph模块的输出及(M,2)的最小值向量,输出是(1,M,64)矩阵的特征向量;backbone模块的输入是globalGraph模块的输出,输出是(1,60)矩阵的s秒预测轨迹点。
其中,对应特征向量的构建方法中的参数设置,N=(目标车辆+运动车辆个数)*20+(车道线个数+人行道个数)*10;M=(目标车辆+运动车辆个数+车道线个数+人行道个数)。
图4示出了本发明一个实施例的深度神经网络模型的subGraph模块的结构示意图。图5是图4中的MLP模块的结构示意图。图6示出了本发明一个实施例的深度神经网络模型的globalGraph模块的结构示意图。图7示出了本发明一个实施例的深度神经网络模型的backbone模块的结构示意图。subGraph模块、globalGraph模块和backbone模块具体主要由MLP(多层感知器)模块、Max_Pool(最大值池化)模块、Concatenante(数组拼接)模块和FC(Fully Connected Layer,全连接层)模块构成。
参考图4,subGraph模块的输入是(N,10)矩阵的特征向量,通过三个串联的包含MLP模块、Max_Pool模块和Concatenante模块的结构化模块处理,输出是(M,64)矩阵的特征向量。参考图5,MLP模块的输入是(N,10)的特征向量,经过6层网络处理后,输出是(N,64)的特征向量。MLP模块的作用是:从更高维度去分类特征向量,从而能够获得每个目标车辆更显著的、关联度更高的特征向量。总体来说,subGraph模块的作用是通过MLP模块提升维度至更高级向量空间、Max_Pool模块提取最大值及Concatenante模块合并操作,从而获得目标车辆更显著的、关联度更高的特征向量。
参考图6,globalGraph模块的输入是subGraph模块的输出及(M,2)矩阵的最小值向量,经过Concatenante模块扩展至(1,M,66)维度,(1,M,66)维度的特征向量被输入给虚线框内表示的自注意力层(self-attention layer),经过自注意力层处理后得到(1,M,64)矩阵,作为globalGraph的输出。
自注意力层的作用是:参照人类司机预测周边车辆未来轨迹的思路,预测某个目标车辆未来轨迹,需要考虑周边其他运动车辆对它的影响,因而需要计算其他运动车辆对某辆车的影响值。自注意力层就是计算其他运动车辆对某辆车的影响值。其中,第一矩阵相乘模块将一个FC模块输出的Query矩阵与另一个FC模块输出的Key矩阵相乘后的结果除以整数8获得(1,M,64)矩阵,将(1,M,64)矩阵输入到softmax模块。
参考图7,backbone输入是globalGraph的输出结果(1,M,64)矩阵,通过提取目标车辆特征模块提取出来第二个维度索引值为0的结果,即为(1,0,64)特征向量,也即是目标车辆的特征向量。(1,0,64)特征向量降低维度后获得(1,64)特征向量。然后将(1,64)特征向量经过MLP、FC处理后,输出是(1,60)的预测轨迹点。
较佳地,深度神经网络模型的训练方法包括步骤:
U1,构建深度神经网络模型的特征向量;
U2,将特征向量输入深度神经网络模型,获得1条未来T个时刻的车辆轨迹坐标值(xt,yt)(t=1,2,…T);
U3,计算损失函数:
其中I为被预测车辆的总数量,T为一条预测轨迹的坐标点数;
U4,基于最小化损失函数的值,获取最优的模型权重值
U5,重复步骤U1~U4,获得收敛的模型权重
较佳地,在步骤U4中,采用Adam优化方法对模型权重值进行更新,Adam优化计算公式为:
其中I为被预测车辆的总数量,T为一条预测轨迹的坐标点数。
本发明还提供了一种面向城市开放道路场景预测车辆轨迹的设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,处理器执行计算机程序时实现前述任一项面向城市开放道路场景预测车辆轨迹的方法的步骤。
本发明还提供了一种计算机可读存储介质,其上存储有计算机程序,计算机程序被处理器执行时实现前述任一项面向城市开放道路场景预测车辆轨迹的方法的步骤。
其中,面向城市开放道路场景预测车辆轨迹的设备、计算机可读存储介质的具体实现方式和技术效果均可参见上述本发明所提供的面向城市开放道路场景预测车辆轨迹的方法的实施例,在此不再赘述。
本发明提供的一种面向城市开放道路场景预测车辆轨迹的方法、设备及可读存储介质,主要特点在于提出使用数组(vector)方法编码表征高精地图数据和车辆历史轨迹,以及建立深度神经网络模型、构建模型的特征向量的方法和模型的训练方法。本发明具有如下优点:
1)具有更高轨迹预测的准确率、更强适用性、深度神经网络模型的参数数量更少、一个模型推理周期耗时更短。
2)不仅考虑道路结构信息、交通规则,而且考虑不同运动车辆之间的交互,使其预测逻辑与人类司机预测车辆轨迹的逻辑是一致的,所以能够获得更高轨迹预测的准确率。
3)因为使用的是深度神经网络模型推理生成车辆预测轨迹的方法,该方法不局限于某些场景(比如直行、右拐等场景),该方法适用于车辆在城市开放道路的所有场景,所以具有更强适用性。
4)因为使用数组(vector)方法编码高精地图数据和交通车辆历史轨迹,与现有的图片编码方式相比,本发明方法具有使用更加简洁的方法编码表示相同的信息的优点,对应深度神经网络模型的结构更加简洁,深度神经网络模型的参数数量更少,一个模型推理周期耗时更短。
本领域技术人员将进一步领会,结合本文中所公开的实施例来描述的各种解说性逻辑板块、模块、电路、和算法步骤可实现为电子硬件、计算机软件、或这两者的组合。为清楚地解说硬件与软件的这一可互换性,各种解说性组件、框、模块、电路、和步骤在上面是以其功能性的形式作一般化描述的。此类功能性是被实现为硬件还是软件取决于具体应用和施加于整体系统的设计约束。技术人员对于每种特定应用可用不同的方式来实现所描述的功能性,但这样的实现决策不应被解读成导致脱离了本发明的范围。
结合本文所公开的实施例描述的各种解说性逻辑模块、和电路可用通用处理器、数字信号处理器(DSP)、专用集成电路(ASIC)、现场可编程门阵列(FPGA)或其它可编程逻辑器件、分立的门或晶体管逻辑、分立的硬件组件、或其设计成执行本文所描述功能的任何组合来实现或执行。通用处理器可以是微处理器,但在替换方案中,该处理器可以是任何常规的处理器、控制器、微控制器、或状态机。处理器还可以被实现为计算设备的组合,例如DSP与微处理器的组合、多个微处理器、与DSP核心协作的一个或多个微处理器、或任何其他此类配置。
结合本文中公开的实施例描述的方法或算法的步骤可直接在硬件中、在由处理器执行的软件模块中、或在这两者的组合中体现。软件模块可驻留在RAM存储器、闪存、ROM存储器、EPROM存储器、EEPROM存储器、寄存器、硬盘、可移动盘、CD-ROM、或本领域中所知的任何其他形式的存储介质中。示例性存储介质耦合到处理器以使得该处理器能从/向该存储介质读取和写入信息。在替换方案中,存储介质可以被整合到处理器。处理器和存储介质可驻留在ASIC中。ASIC可驻留在用户终端中。在替换方案中,处理器和存储介质可作为分立组件驻留在用户终端中。
在一个或多个示例性实施例中,所描述的功能可在硬件、软件、固件或其任何组合中实现。如果在软件中实现为计算机程序产品,则各功能可以作为一条或更多条指令或代码存储在计算机可读介质上或藉其进行传送。计算机可读介质包括计算机存储介质和通信介质两者,其包括促成计算机程序从一地向另一地转移的任何介质。存储介质可以是能被计算机访问的任何可用介质。作为示例而非限定,这样的计算机可读介质可包括RAM、ROM、EEPROM、CD-ROM或其它光盘存储、磁盘存储或其它磁存储设备、或能被用来携带或存储指令或数据结构形式的合意程序代码且能被计算机访问的任何其它介质。任何连接也被正当地称为计算机可读介质。例如,如果软件是使用同轴电缆、光纤电缆、双绞线、数字订户线(DSL)、或诸如红外、无线电、以及微波之类的无线技术从web网站、服务器、或其它远程源传送而来,则该同轴电缆、光纤电缆、双绞线、DSL、或诸如红外、无线电、以及微波之类的无线技术就被包括在介质的定义之中。如本文中所使用的盘(disk)和碟(disc)包括压缩碟(CD)、激光碟、光碟、数字多用碟(DVD)、软盘和蓝光碟,其中盘(disk)往往以磁的方式再现数据,而碟(disc)用激光以光学方式再现数据。上述的组合也应被包括在计算机可读介质的范围内。
本领域技术人员可显见,可对本发明的上述示例性实施例进行各种修改和变型而不偏离本发明的精神和范围。因此,旨在使本发明覆盖落在所附权利要求书及其等效技术方案范围内的对本发明的修改和变型。
Claims (12)
1.一种面向城市开放道路场景预测车辆轨迹的方法,包括如下步骤:
S1,获取自动驾驶系统中感知模块提供的感知信息;
S2,存储、管理所述感知信息;
S3,基于所述感知信息提取目标车辆当前时刻的中心点坐标,获取所述中心点坐标为中心半径r米范围内的高精地图数据;提取过往k帧的所有运动车辆的感知信息;基于所述感知信息提取目标车辆的当前时刻的运动状态向量;
S4,基于所述高精地图数据和运动状态向量生成所述目标车辆的车道线向量、人行道向量;基于过往k帧的所有运动车辆的感知信息和运动状态向量生成所有运动车辆的历史轨迹向量;
S5,基于所述车道线向量、人行道向量和历史轨迹向量生成对应的最小值向量;
S6,将所述车道线向量、人行道向量、历史轨迹向量和最小值向量输入深度神经网络模型,推理生成未来s秒内的目标车辆预测轨迹。
2.如权利要求1所述的面向城市开放道路场景预测车辆轨迹的方法,其特征在于,在步骤S1中,所述感知信息包括所识别物的识别号、识别物对应矩形框的中心点坐标、识别物对应矩形框4个顶点的坐标、识别物的长度、宽度、颜色、速度、加速度、航向角、航向角变化率,所述识别物包括运动车辆。
3.如权利要求1所述的面向城市开放道路场景预测车辆轨迹的方法,其特征在于,在步骤S2中,管理所述感知信息的操作包括:
增加:增加所述感知模块的感知范围内新出现的运动车辆的感知信息;
删除:删除超出所述感知模块的感知范围内的已有运动车辆的感知信息;
修改:更新所述感知模块的感知范围内已有运动车辆的感知信息;
查找:根据某个搜索条件查找所述感知模块的感知范围内某个目标车辆的感知信息。
4.如权利要求1所述的面向城市开放道路场景预测车辆轨迹的方法,其特征在于,在步骤S3中,所述运动状态向量至少包括速度、加速度、航向角、航向角变化率。
5.如权利要求1所述的面向城市开放道路场景预测车辆轨迹的方法,其特征在于,在执行步骤S5之后并在步骤S6之前,将所述最小值向量转换为tensor格式。
6.如权利要求1所述的面向城市开放道路场景预测车辆轨迹的方法,其特征在于,150≤r≤250,15≤k≤25,1≤s≤5。
7.如权利要求1所述的面向城市开放道路场景预测车辆轨迹的方法,其特征在于,所述深度神经网络模型的特征向量的构建方法包括步骤:
T1,获取感知信息和高精地图数据;
T2,生成目标车辆和所有运动车辆的历史轨迹向量;
T3,生成车道线向量;
T4,生成人行道向量;
T5,生成历史轨迹向量、车道线向量和人行道向量对应的最小值向量。
8.如权利要求7所述的面向城市开放道路场景预测车辆轨迹的方法,其特征在于,所述深度神经网络模型包括subGraph模块、globalGraph模块和backbone模块;
所述subGraph模块的输入是(N,10)矩阵的特征向量,输出是(M,64)矩阵的特征向量;所述globalGraph模块的输入是所述subGraph模块的输出及(M,2)的最小值向量,输出是(1,M,64)矩阵的特征向量;所述backbone模块的输入是所述globalGraph模块的输出,输出是(1,60)矩阵的s秒预测轨迹点;
其中,N=(目标车辆+运动车辆个数)*20+(车道线个数+人行道个数)*10;M=(目标车辆+运动车辆个数+车道线个数+人行道个数)。
9.如权利要求8所述的面向城市开放道路场景预测车辆轨迹的方法,其特征在于,所述深度神经网络模型的训练方法包括步骤:
U1,构建所述深度神经网络模型的特征向量;
U2,将所述特征向量输入所述深度神经网络模型,获得1条未来T个时刻的车辆轨迹坐标值(xt,yt)(t=1,2,…T);
U3,计算损失函数:
其中I为被预测车辆的总数量,T为一条预测轨迹的坐标点数;
U4,基于最小化损失函数的值,获取最优的模型权重值
U5,重复步骤U1~U4,获得收敛的模型权重
10.如权利要求9所述的面向城市开放道路场景预测车辆轨迹的方法,其特征在于,在步骤U4中,采用Adam优化方法对模型权重值进行更新,所述Adam优化方计算公式为:
其中I为被预测车辆的总数量,T为一条预测轨迹的坐标点数。
11.一种面向城市开放道路场景预测车辆轨迹的设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现如权利要求1-6中任一项所述面向城市开放道路场景预测车辆轨迹的方法的步骤。
12.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1-6中任一项所述面向城市开放道路场景预测车辆轨迹的方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310273480.8A CN116588134A (zh) | 2023-03-20 | 2023-03-20 | 面向城市开放道路场景预测车辆轨迹的方法、设备及可读存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310273480.8A CN116588134A (zh) | 2023-03-20 | 2023-03-20 | 面向城市开放道路场景预测车辆轨迹的方法、设备及可读存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN116588134A true CN116588134A (zh) | 2023-08-15 |
Family
ID=87605048
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310273480.8A Pending CN116588134A (zh) | 2023-03-20 | 2023-03-20 | 面向城市开放道路场景预测车辆轨迹的方法、设备及可读存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116588134A (zh) |
-
2023
- 2023-03-20 CN CN202310273480.8A patent/CN116588134A/zh active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11899411B2 (en) | Hybrid reinforcement learning for autonomous driving | |
KR102001798B1 (ko) | 비디오 이해를 위한 모션-기반 어텐션에 의한 순환 네트워크들 | |
US11243532B1 (en) | Evaluating varying-sized action spaces using reinforcement learning | |
CN113805572B (zh) | 运动规划的方法与装置 | |
CN112099496B (zh) | 一种自动驾驶训练方法、装置、设备及介质 | |
EP3693944A1 (en) | Method and device for short-term path planning of autonomous driving through information fusion by using v2x communication and image processing | |
JP2022516383A (ja) | 自律型車両の計画 | |
US20230144209A1 (en) | Lane line detection method and related device | |
US20210101619A1 (en) | Safe and scalable model for culturally sensitive driving by automated vehicles | |
KR102539942B1 (ko) | 궤적 계획 모델을 훈련하는 방법, 장치, 전자 기기, 저장 매체 및 프로그램 | |
Makantasis et al. | Deep reinforcement‐learning‐based driving policy for autonomous road vehicles | |
TW202020748A (zh) | 遞迴多保真度行為預測 | |
CN113128381A (zh) | 障碍物轨迹预测方法、系统及计算机存储介质 | |
Yang et al. | Multi-granularity scenarios understanding network for trajectory prediction | |
US20230038673A1 (en) | Sequential pedestrian trajectory prediction using step attention for collision avoidance | |
CN116588134A (zh) | 面向城市开放道路场景预测车辆轨迹的方法、设备及可读存储介质 | |
CN115743168A (zh) | 用于换道决策的模型训练方法、目标车道确定方法及装置 | |
CN113119996B (zh) | 一种轨迹预测方法、装置、电子设备及存储介质 | |
Schier et al. | Deep reinforcement learning for autonomous driving using high-level heterogeneous graph representations | |
CN115062202A (zh) | 驾驶行为意图及轨迹的预测方法、装置、设备及存储介质 | |
CN114428889A (zh) | 轨迹绑路方法、模型训练方法、装置、设备及存储介质 | |
KR20230024392A (ko) | 주행 의사 결정 방법 및 장치 및 칩 | |
Fennessy | Autonomous vehicle end-to-end reinforcement learning model and the effects of image segmentation on model quality | |
Leong | Bridging the Gap Between Modular and End-to-end Autonomous Driving Systems | |
Hong et al. | Knowledge Distillation-Based Edge-Decision Hierarchies for Interactive Behavior-Aware Planning in Autonomous Driving System |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |