CN113568416A - 无人车轨迹规划方法、装置和计算机可读存储介质 - Google Patents
无人车轨迹规划方法、装置和计算机可读存储介质 Download PDFInfo
- Publication number
- CN113568416A CN113568416A CN202111128914.2A CN202111128914A CN113568416A CN 113568416 A CN113568416 A CN 113568416A CN 202111128914 A CN202111128914 A CN 202111128914A CN 113568416 A CN113568416 A CN 113568416A
- Authority
- CN
- China
- Prior art keywords
- vehicle
- self
- vehicles
- static object
- candidate
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 35
- 230000003068 static effect Effects 0.000 claims abstract description 97
- 238000013528 artificial neural network Methods 0.000 claims abstract description 39
- 230000004927 fusion Effects 0.000 claims abstract description 37
- 238000012790 confirmation Methods 0.000 claims abstract description 34
- 238000012545 processing Methods 0.000 claims abstract description 11
- 238000001914 filtration Methods 0.000 claims abstract description 8
- 238000006243 chemical reaction Methods 0.000 claims description 14
- 238000011156 evaluation Methods 0.000 claims description 14
- 230000015654 memory Effects 0.000 claims description 14
- 238000004422 calculation algorithm Methods 0.000 claims description 10
- 230000000306 recurrent effect Effects 0.000 claims description 10
- 230000006870 function Effects 0.000 claims description 9
- 238000013527 convolutional neural network Methods 0.000 claims description 7
- 238000012502 risk assessment Methods 0.000 claims description 6
- 230000010365 information processing Effects 0.000 claims description 5
- 238000012216 screening Methods 0.000 claims description 3
- 238000004364 calculation method Methods 0.000 abstract description 9
- 238000000605 extraction Methods 0.000 description 11
- 230000001133 acceleration Effects 0.000 description 8
- 239000010410 layer Substances 0.000 description 7
- 238000004590 computer program Methods 0.000 description 5
- 238000010586 diagram Methods 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 5
- 230000003287 optical effect Effects 0.000 description 4
- 230000002085 persistent effect Effects 0.000 description 4
- 238000010606 normalization Methods 0.000 description 3
- 238000005457 optimization Methods 0.000 description 3
- 239000013598 vector Substances 0.000 description 3
- 230000009286 beneficial effect Effects 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 238000010276 construction Methods 0.000 description 2
- 230000036461 convulsion Effects 0.000 description 2
- 238000006073 displacement reaction Methods 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 238000012549 training Methods 0.000 description 2
- 239000002699 waste material Substances 0.000 description 2
- 230000006399 behavior Effects 0.000 description 1
- 230000001934 delay Effects 0.000 description 1
- 238000009795 derivation Methods 0.000 description 1
- 239000002355 dual-layer Substances 0.000 description 1
- 238000009499 grossing Methods 0.000 description 1
- 230000001788 irregular Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
- 230000006403 short-term memory Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0212—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
- G05D1/0214—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory in accordance with safety or protection criteria, e.g. avoiding hazardous areas
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0212—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
- G05D1/0221—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory involving a learning process
Landscapes
- Engineering & Computer Science (AREA)
- Aviation & Aerospace Engineering (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Automation & Control Theory (AREA)
- Traffic Control Systems (AREA)
Abstract
本申请是关于一种无人车轨迹规划方法、装置和计算机可读存储介质。该方法包括:采用神经网络对车辆和静态物的状态信息进行处理,得到车辆和静态物的融合特征,其中,车辆包括道路上的其他车辆和类型为无人车的自车,静态物包括道路上的障碍物、车道线和/或参考线;根据车辆和静态物的融合特征,生成自车待规划轨迹的候选终点集合;预测候选终点集合中各个候选终点成为自车待规划轨迹的确认终点的概率;根据预设概率阈值,对各个候选终点进行过滤,将概率大于预设概率阈值的候选终点作为自车待规划轨迹的确认终点。本申请提供的方案可以降低计算量,减少对资源的消耗。
Description
技术领域
本申请涉及智能驾驶技术领域,尤其涉及一种无人车轨迹规划方法、装置和计算机可读存储介质。
背景技术
高级驾驶辅助系统(Advanced Driver Assistant System,ADAS)是利用各种车载传感器并结合决策规划控制算法来实现前无人车的变道、汇流、超车和跟车等行为,本质是对无人车轨迹的规划。相关技术中,是基于Frenet坐标,以无人车当前状态和目标状态为输入,通过高次多项式生成多条备选轨迹集合,然后利用Lattice优化算法,过滤掉备选轨迹集合中非较优的轨迹,从而确定最优路径。然而,由于生成的备选轨迹集合中,大量轨迹没有实际的利用价值,后续还是被舍弃了,导致前期和后期计算资源的浪费。
发明内容
为解决或部分解决相关技术中存在的问题,本申请提供一种无人车轨迹规划方法、装置和计算机可读存储介质,该技术方案能够节省计算资源。
本申请第一方面提供一种无人车轨迹规划方法,包括:
采用神经网络对车辆和静态物的状态信息进行处理,得到所述车辆和静态物的融合特征,所述车辆包括道路上的其他车辆和类型为无人车的自车,静态物包括所述道路上的障碍物、车道线和/或参考线;
根据所述车辆和静态物的融合特征,生成所述自车待规划轨迹的候选终点集合;
预测所述候选终点集合中各个候选终点成为所述自车待规划轨迹的确认终点的概率;
根据预设概率阈值,对所述各个候选终点进行过滤,将所述概率大于所述预设概率阈值的候选终点作为所述自车待规划轨迹的所述确认终点。
本申请第二方面提供一种无人车轨迹规划装置,包括:
状态信息处理模块,用于采用神经网络对车辆和静态物的状态信息进行处理,得到所述车辆和静态物的融合特征,所述车辆包括道路上的其他车辆和类型为无人车的自车,静态物包括所述道路上的障碍物、车道线和/或参考线;
集合生成模块,用于根据所述车辆和静态物的融合特征,生成所述自车待规划轨迹的候选终点集合;
预测模块,用于预测所述候选终点集合中各个候选终点成为所述自车待规划轨迹的确认终点的概率;
筛选模块,用于根据预设概率阈值,对所述各个候选终点进行过滤,将所述概率大于所述预设概率阈值的候选终点作为所述自车待规划轨迹的所述确认终点。
本申请第三方面提供一种电子设备,包括:
处理器;以及
存储器,其上存储有可执行代码,当所述可执行代码被所述处理器执行时,使所述处理器执行如上所述的方法。
本申请第四方面提供一种非暂时性机器可读存储介质,其上存储有可执行代码,当所述可执行代码被电子设备的处理器执行时,使所述处理器执行如上所述的方法。
本申请提供的技术方案可以包括以下有益效果:由于在将候选终点确定为确认终点之前,对各个候选终点成为自车待规划轨迹的确认终点的概率进行了预测,最终,只是将概率大于预设概率阈值的候选终点作为自车待规划轨迹的确认终点,即在生成类型为无人车的自车的轨迹之前,已经过滤掉了概率小于预设概率阈值的候选终点,因此,在后续生成自车的轨迹时,只使用概率大于预设概率阈值的候选终点,从而降低了计算量,减少了对资源的消耗。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,并不能限制本申请。
附图说明
通过结合附图对本申请示例性实施方式进行更详细的描述,本申请的上述以及其它目的、特征和优势将变得更加明显,其中,在本申请示例性实施方式中,相同的参考标号通常代表相同部件。
图1是本申请实施例示出的无人车轨迹规划方法的流程示意图;
图2是本申请实施例示出的Frenet坐标系示意图;
图3是本申请实施例示出的无人车轨迹规划装置的结构示意图;
图4是本申请实施例示出的电子设备的结构示意图。
具体实施方式
下面将参照附图更详细地描述本申请的实施方式。虽然附图中显示了本申请的实施方式,然而应该理解,可以以各种形式实现本申请而不应被这里阐述的实施方式所限制。相反,提供这些实施方式是为了使本申请更加透彻和完整,并且能够将本申请的范围完整地传达给本领域的技术人员。
在本申请使用的术语是仅仅出于描述特定实施例的目的,而非旨在限制本申请。在本申请和所附权利要求书中所使用的单数形式的“一种”、“所述”和“该”也旨在包括多数形式,除非上下文清楚地表示其他含义。还应当理解,本文中使用的术语“和/或”是指并包含一个或多个相关联的列出项目的任何或所有可能组合。
应当理解,尽管在本申请可能采用术语“第一”、“第二”、“第三”等来描述各种信息,但这些信息不应限于这些术语。这些术语仅用来将同一类型的信息彼此区分开。例如,在不脱离本申请范围的情况下,第一信息也可以被称为第二信息,类似地,第二信息也可以被称为第一信息。由此,限定有“第一”、“第二”的特征可以明示或者隐含地包括一个或者更多个该特征。在本申请的描述中,“多个”的含义是两个或两个以上,除非另有明确具体的限定。
相关技术在对无人车轨迹进行规划时,主要是基于Frenet坐标,并以无人车当前状态和目标状态为输入,通过高次多项式生成多条备选轨迹集合,然后利用Lattice优化算法,过滤掉备选轨迹集合中非较优的轨迹,从而确定最优路径。然而,由于生成的备选轨迹集合中,大量轨迹没有实际的利用价值,后续还是被舍弃了,导致前期和后期计算资源的浪费。
针对上述问题,本申请实施例提供一种无人车轨迹规划方法,在生成无人车的轨迹时能够节省计算资源。
以下结合附图详细描述本申请实施例的技术方案。
参见图1,是本申请实施例示出的无人车轨迹规划方法的流程示意图,该方法主要包括步骤S101至步骤S104,详细说明如下:
步骤S101:采用神经网络对车辆和静态物的状态信息进行处理,得到车辆和静态物的融合特征,其中,车辆包括道路上的其他车辆和类型为无人车的自车,静态物包括道路上的障碍物、车道线和/或参考线。
在本申请实施例中,车辆可以是道路上的其他车辆和类型为无人车的自车,此处的自车显然是区别于道路上的其他车辆的车辆,其中的其他车辆可以是有人驾驶的车辆,也可以是无人驾驶的车辆即无人车或智能车。此处需要说明的是,由于车辆和静态物本身就具有不同的特征,因此,在处理其状态信息时实际是使用了不同类型的神经网络,然后再对提取的特征进行融合,得到所谓的融合特征。至于静态物包含的参考线(ReferenceLine)属于无人车或无人驾驶领域的概念,其一般是先根据无人车的起点和目标终点进行路线规划,根据路线经过的道路,从高精地图中查找对应的道路中心线或者边界线,将所有道路的道路中心线拼接起来并进行平滑处理(防止出现间断或者跳变),如此得到的光滑线段就是所谓的参考线。
作为本申请一个实施例,采用神经网络对车辆和静态物的状态信息进行处理,得到车辆和静态物的融合特征可以通过如下步骤S1011至步骤S1013实现:
步骤S1011:将车辆和静态物在世界坐标系下的状态信息转换为Frenet坐标系下的状态信息。
为了描述问题或者计算位置的方便,可以将车辆和静态物在世界坐标系下的状态信息转换为Frenet坐标系下的状态信息。此处的Frenet坐标系是这样构成的,即,对于一条可微分的曲线,该曲线上的每一点处都可以求切线,将切线旋转90°得到一条法线,该每一点处的切线方向和法线构成的坐标系就是Frenet坐标系。如图2所示,是全局坐标系(xoy构成的坐标系,一般为笛卡尔坐标系)与Frenet坐标系的示意图。上述Frenet坐标系的说明中,可微分的曲线也就是前述实施例的参考线(图中带箭头的曲线),Frenet坐标系的原点(图2中空心箭头所指的那个点)位于参考线上,参考线上该点处的切线以及与切线垂直的法线构成Frenet坐标系。从无人车在全局坐标系的位置(x,y)向参考线投影,若投影点为F,则点F与无人车的位置(x,y)的距离即横向位移d,从参考线的起始点至投影点F的曲线距离即为纵向位移s,可用(s,d)描述Frenet坐标系下无人车的坐标值。需要说明的是,Frenet坐标系并非固定不动的全局坐标系,而是一个移动坐标系,即Frenet坐标系的原点随着无人车的位置的变化而不断变化。在无人车领域,当无人车在某个时刻处于某个位置时,参考线上总有一个点距离无人车的位置最近,该点就是Frenet坐标系的原点。一般地,由于道路弯曲程度相对于无人车尺寸很小,因此只有一个点距离无人车的位置最近,不会出现两个、甚至更多距离都最近的点。
车辆或静态物的状态信息主要包括车辆或静态物的位置、速度和加速度等信息。由于车辆或静态物的速度和加速度等信息与车辆或静态物的位置即坐标相关,或者,速度和加速度等信息可以由位置推导,因此,将车辆和静态物在世界坐标系下的状态信息转换为Frenet坐标系下的状态信息,主要是将车辆和静态物在世界坐标系下的坐标转换为Frenet坐标系下的坐标,相当于已知世界坐标系下的坐标(x,y)计算Frenet坐标系下的坐标(s,d),换言之,是要在曲线(该曲线也是前述的参考线或者无人车的行驶轨迹曲线)上找到一个点,使得该点距离该曲线之外一个固定点的距
上述g(x)表达式中唯一的未知量是x,因此,对g(x)求导数,并令其等于0即可。求出的点最多有五个,但是前面假设曲线只有一个弯曲的方向(三次项的系数a = 0),因此,实际最多三个点,从中挑出距离最小的那个即可。
从上述对Frenet坐标系的说明可知,由于Frenet坐标系的原点随着自车的位置的变化而不断变化,或者,在将自车视为一个质点时,自车的位置即Frenet坐标系的原点,自车的坐标系也即Frenet坐标系。因此,将车辆和静态物在世界坐标系下的状态信息转换为Frenet坐标系下的状态信息,意味着其他车辆和静态物的坐标都转换到了自车的坐标系。
步骤S1012:选用类型不同的神经网络,以Frenet坐标系下车辆和静态物的状态信息为类型不同的神经网络的输入,提取车辆和静态物的特征。
由于车辆的状态信息和静态物的状态信息具有不同的特点,例如,车辆的状态信息呈现变化快且无规律的特点,而静态物的状态信息则变化相对较慢;此外,在对自车进行特征提取时,只需要自车当前时刻的状态信息,而在对其他车辆进行提取时,可能还需要其他车辆当前时刻之前的某些时刻、甚至距离当前时刻很长时间的状态信息,并且,考虑到其他车辆的数量可能不止一个,从减小计算量的角度考虑,希望处理其他车辆的状态信息的神经网络需要训练和预估计的参数数量尽量地少,因此,在进行特征提取时,可以根据对象的不同,选用类型不同的神经网络来处理。具体地,以Frenet坐标系下自车的状态信息为全连接神经网络的输入,提取自车的特征;以Frenet坐标系下其他车辆的状态信息为第一递归神经网络的输入,提取其他车辆的特征;以Frenet坐标系下静态物的状态信息为卷积神经网络的输入,提取静态物的特征。
上述实施例中的全连接(Full Connection)神经网络也称为多层感知机(Multi-Layer Perceptron,MLP),其位于输入层和输出层之间的多个隐层(hidden layer)都是全连接的,而第一递归神经网络为一递归神经网络(Recurrent Neural Network,RNN),为了与后续的RNN区别,此处冠以“第一”;进一步地,作为RNN的一个变种,第一递归神经网络具体还可以是长短期记忆(Long Short-Term Memory,LSTM)网络。由于LSTM网络适于处理和预测时间序列中间隔和延迟相对较长的重要事件,因此,为了对状态信息相对复杂的其他车辆进行特征的提取,在本申请实施例中,以Frenet坐标系下其他车辆的状态信息为第一递归神经网络的输入,提取其他车辆的特征可以是将Frenet坐标系下其他车辆的状态信息输入已经训练的LSTM,提取其他车辆的特征;上述实施例中对静态物进行特征提取的卷积神经网络可以是Resnet,具体是将车道线、道路上的障碍物和参考线等组成多通道位图(大小为W*H,此处的W和H为卷积神经网络的超参数),将该多通道位图输入Resnet等深度卷积神经网络,Resnet等深度卷积神经网络输出的某个维度的张量即为提取的静态物的特征。需要说明的是,上述实施例中,经过神经网络提取的自车或其他车辆的特征主要包括自车或其他车辆的坐标、速度、加速度、加加速度、航向角和行驶轨迹的曲率等,所提取的静态物的特征主要包括这些静态物的坐标和/或曲率(例如,静态物为车道线或参考线时,其特征会包括这些车道线或参考线的曲率);这些特征都可以张量表示。
步骤S1013:对提取的特征进行拼接,得到车辆和静态物的融合特征。
一方面,在对无人车的轨迹进行规划时,不仅要考虑到无人车自车的特征,还要综合考虑无人车行驶的道路上的其他车辆和静态物的特征;另一方面,不同尺度的特征具有各自的优劣点,例如,低层特征具有分辨率更高,包含更多位置、细节信息的优点,但是由于经过的卷积更少,其具有语义性更低,噪声更多的劣势,而高层特征具有更强的语义信息,但是分辨率较低,对细节的感知能力较差,从提高性能的角度,也需要对不同的特征进行拼接、融合,因此,在经历步骤S1011和步骤S1012,提取到自车、其他车辆和静态物的特征后,可以对这些提取的特征进行拼接,得到车辆和静态物的融合特征。
具体地,对提取的特征进行拼接,得到车辆和静态物的融合特征可以是:拼接自车的特征和其他车辆的特征,得到动态物特征;使用第二递归神经网络对动态物特征编码,得到预设时间段内车辆的时空特征;拼接静态物的特征和预设时间段内车辆的时空特征,得到车辆和静态物的融合特征。上述实施例中,在拼接自车的特征和其他车辆的特征或拼接静态物的特征和预设时间段内车辆的时空特征时,一种拼接方式是直接拼接,即直接将两种特征进行连接,最后得到的特征的维度是拼接前两种特征的维度之和,例如,假设自车的特征是维度为7的张量y0,其他车辆的特征是维度为7的张量y1,则在拼接后得到的特征是维度为14的张量;另一种拼接方式是并行拼接,即,将两种特征向量组合成复向量,例如,假设自车的特征用向量x表示,其他车辆的特征用向量y表示,则在并行拼接后,得到的特征是z=x + iy,此处,i是虚数单位。至于使用第二递归神经网络对动态物特征编码,得到预设时间段内车辆的时空特征,具体可以是使用LSTM网络对动态物特征编码,得到自当前时刻起,至当前时刻之前某个时刻为止的车辆的时空特征,预设时间段即当前时刻减去该某个时刻所得时间。此处之所以成为时空特征,是因为编码后获取的特征除了包含车辆的位置、速度、加速度、加加速度、航向角等空间特征之外,在编码时还对位图进行了时间特征的提取,即最后提取的特征图是一张张包含时间序列属性和空间特征的特征图。针对静态物的特征和预设时间段内车辆的时空特征,本申请实施例是将这些特征拼接后,再输入全连接神经网络,该全连接神经网络的输出即为车辆和静态物的融合特征。
需要说明的是,虽然将车辆和静态物在世界坐标系下的状态信息转换为Frenet坐标系下的状态信息给描述问题或者计算自车和其他车辆的位置带来了方便。然而,在评价自车的待规划轨迹质量时会涉及复杂的求导运算,在Frenet坐标系下难以构建关于轨迹质量指标,例如曲率和航向角的二次优化项,包含长度、曲率、路径航向误差的综合轨迹质量指标不高。因此,在本申请实施例中,当通过将车辆和静态物在世界坐标系下的状态信息转换为Frenet坐标系下的状态信息,得到车辆和静态物的融合特征后,可以根据道路的路况信息确定将车辆和静态物在世界坐标系下的状态信息转换为Frenet坐标系下的状态信息时的转换关系;基于该转换关系,获取基于Frenet坐标系下自车待规划轨迹的质量函数;基于Frenet坐标系下自车待规划轨迹的质量函数、自车的起始位置和自车待规划轨迹的确认终点,确定基于Frenet坐标系的目标轨迹;根据转换关系,将目标轨迹转换至世界坐标系。
步骤S102:根据车辆和静态物的融合特征,生成自车待规划轨迹的候选终点集合。
在无人车领域,无人车的轨迹实际是由无人车当前位置和目标终点拟合而成,换言之,要生成无人车的轨迹,需要得到无人车的终点。在本申请实施例中,经历步骤S101之后,可以根据车辆和静态物的融合特征,采用Lattice Planner算法,生成自车待规划轨迹的候选终点集合。之所以称为候选终点集合,是因为集合中生成的这些终点未必都能作为待规划轨迹的确认终点,而是有部分终点将会被淘汰或弃用。
步骤S103:预测候选终点集合中各个候选终点成为自车待规划轨迹的确认终点的概率。
与相关技术中将生成的所有终点作为无人车待规划轨迹的终点不同,本申请实施例是对候选终点集合中各个候选终点成为自车待规划轨迹的确认终点的概率进行预测,只有概率大于某个预设概率阈值的候选终点才能成为自车待规划轨迹的确认终点。具体地,步骤S103的实现可以是:根据车辆和静态物的融合特征,采用预设算法对候选终点集合中各个候选终点进行评分,得到各个候选终点的评分值;归一化各个候选终点的评分值,以各个候选终点的归一化评分值作为各个候选终点成为自车待规划轨迹的确认终点的概率。所谓归一化各个候选终点的评分值,本申请是max
-min归一化方法,即,候选终点的归一化评分值
,其中,X是候选终点原始的评分值,和分别是候选终点集合中原始的最大评分值和最小评分值。例如,候选终点集合中有A、B、C、D、E和F六个候选终点,每个候选终点原始的评分值分别为85、78、98、94、90和96,其中的最大评分值和最小评分值分别为98和78,则对A、B、C、 D、E和F六个候选终点的评分值归一化后,分别得到该六个候选终点的归一化评分值为100%*(85-78)/(98-78)=35%、100%*(78-78)/(98-78)=0、100%*(98-78)/(98-78)=100%、100%*(94-78)/(98-78)=80%、100%*(90-78)/(98-78)=60%和100%*(96-78)/(98-78)=90%。具体的归一化算法可以由神经网络的softmax分类器执行。
至于根据车辆和静态物的融合特征,采用预设算法对候选终点集合中各个候选终点进行评分,得到各个候选终点的评分值,作为本申请一个实施例,具体可以通过如下步骤S1031至步骤S1033实现:
步骤S1031:根据车辆和静态物的融合特征,分别预测自车和其他车辆在预设时间段的行驶轨迹,其中,预设时间段为以当前时刻为起始时刻至未来的一段指定时间。
具体而言,步骤S1031的实现可以是基于自车和其他车辆的当前行驶数据,获取自车和其他车辆的行驶意图数据,然后,根据自车和其他车辆的当前行驶数据和行驶意图数据,分别预测自车和其他车辆在预设时间段的行驶轨迹。上述实施例中,行驶意图数据反映了自车和其他车辆的行驶意图,例如,加速、拐弯、超车、调头等,基于自车和其他车辆的当前行驶数据,获取自车和其他车辆的行驶意图数据主要是通过对基于LSTM网络构的车辆行驶意图识别模型进行训练,将自车和其他车辆的当前行驶数据输入至训练好的车辆行驶意图识别模型,由车辆行驶意图识别模型输出自车和其他车辆的行驶意图数据,而根据自车和其他车辆的当前行驶数据和行驶意图数据,分别预测自车和其他车辆在预设时间段的行驶轨迹则是将自车和其他车辆的当前行驶数据和行驶意图数据输入已经训练好的轨迹预测模型,由轨迹预测模型最终输出自车和其他车辆在预设时间段的行驶轨迹。
步骤S1032:基于自车和/或其他车辆在预设时间段的行驶轨迹,评估自车的翻车风险或者自车与其他车辆的碰撞风险以及自车与障碍物的碰撞风险。
从安全行驶角度,道路上的车辆最大风险还是翻车风险或者碰撞风险,其中的碰撞风险包括车辆与车辆之间的追尾、正碰、侧擦以及车辆碰撞到其他的障碍物,当然,超速行驶也存在风险,但在规划轨迹时,主要还是考虑待规划的轨迹上是否存在碰撞的风险。基于自车在预设时间段的行驶轨迹,评估自车的翻车风险可以是基于自车在预设时间段的行驶轨迹的曲率,评估自车的翻车风险。例如,若自车在预设时间段的行驶轨迹的曲率超过预设曲率阈值,即自车在预设时间段的行驶轨迹存在急转弯,自车翻车风险较大,翻车风险值较高。
至于基于自车和其他车辆在预设时间段的行驶轨迹,评估自车与其他车辆的碰撞风险以及自车与障碍物的碰撞风险,作为本申请一个实施例,具体可以是:根据自车和其他车辆在预设时间段的行驶轨迹,计算自车和其他车辆的距离与自车的车速之比,或者计算自车和其他车辆的距离与自车和其他车辆的相对车速之比,确定自车在单行道上的碰撞风险;根据所述自车在预设时间段的行驶轨迹,计算自车与障碍物的距离,确定自车与障碍物的碰撞风险;根据自车和其他车辆的距离以及自车的车速和其他车辆的车速,确定自车在多行车道上的碰撞风险。上述实施例中,在确定自车在单行道上的碰撞风险时,具体只要自车和其他车辆的距离与自车的车速之比即第一时间超过阈值,或者只要自车和其他车辆的距离与自车和其他车辆的相对车速之比即第二时间超过阈值,则确定自车在单行道上存在碰撞风险;在确定自车与障碍物的碰撞风险时,若在预设时间内自车与障碍物的距离小于预设阈值,则确定自车与障碍物存在碰撞风险;在确定自车在多行车道上的碰撞风险时,若计算式
作为本申请另一实施例,基于自车和其他车辆在预设时间段的行驶轨迹,评估自车与其他车辆的碰撞风险以及自车与障碍物的碰撞风险可以是:根据自车和其他车辆的历史行驶轨迹,构建碰撞风险评估样本的碰撞风险等级;对碰撞风险评估样本中的碰撞指标分别进行第一赋权和第二赋权;将碰撞指标的第一赋权值和第二赋权值进行结合,对碰撞指标进行最佳赋权;根据最佳赋权后的碰撞指标对自车和其他车辆在预设时间段的行驶轨迹的碰撞风险进行计算,将得到的碰撞风险值与碰撞风险评估样本的碰撞风险等级进行比较,得到自车与其他车辆碰撞的碰撞风险值以及自车与障碍物碰撞的碰撞风险值。上述实施例中,第一赋权可以是基于专家经验得出的赋权,第二赋权是由计算机程序得到的赋权,之所以将这两种赋权相结合,是考虑到第一赋权和第二赋权存在各自的优劣,因此,两者结合,取长补短有利于客观地得出自车与其他车辆碰撞的碰撞风险值以及自车与障碍物碰撞的碰撞风险值。
步骤S1033:以经步骤S1032评估所得碰撞风险值或翻车风险值的高低反比于候选终点的评分值的评分原则对候选终点集合中各个候选终点进行评分,得到各个候选终点的评分值。
所谓碰撞风险值或翻车风险值的高低反比于候选终点的评分值的评分原则,即某条轨迹上碰撞风险值或翻车风险值越高,则该某条轨迹上对应的候选终点的评分值越低,反之则反。在实际评分时,可以是将某个范围的碰撞风险值或翻车风险值与评分值进行映射,当经步骤S1032评估所得碰撞风险值或翻车风险值落入这个范围时,则取得相应的评分值。例如,范围为[70,80)的碰撞风险值或翻车风险值对应于75的评分值,则某条轨迹上碰撞风险值或翻车风险值为72时,则该某条轨迹上对应的候选终点的评分值为75分。
步骤S104:根据预设概率阈值,对各个候选终点进行过滤,将概率大于预设概率阈值的候选终点作为自车待规划轨迹的确认终点。
在本申请实施例中,预设概率阈值可以是一个经验值或者根据大数据计算出来的一个合理值。若经步骤S101至步骤S103,得到候选终点集合中各个候选终点成为自车待规划轨迹的确认终点的概率,则可以根据预设概率阈值,对各个候选终点进行过滤,将概率大于预设概率阈值的候选终点作为自车待规划轨迹的确认终点。以前述实施例的A、B、C、 D、E和F六个候选终点为例,已经计算出其归一化评分值或者成为自车待规划轨迹的确认终点的概率分别为35%、0、100%、80%、60%和90%。若将70%确定为预设概率阈值,则由于只有C、D和F三个候选终点的归一化评分值大于70%,因此,最终确定C、D和F三个候选终点作为自车待规划轨迹的确认终点。
从上述图1示例的技术方案可知,由于在将候选终点确定为确认终点之前,对各个候选终点成为自车待规划轨迹的确认终点的概率进行了预测,最终,只是将概率大于预设概率阈值的候选终点作为自车待规划轨迹的确认终点,即在生成类型为无人车的自车的轨迹之前,已经过滤掉了概率小于预设概率阈值的候选终点,因此,在后续生成自车的轨迹时,只使用概率大于预设概率阈值的候选终点,从而降低了计算量,减少了对资源的消耗。
与前述应用功能实现方法实施例相对应,本申请还提供了一种无人车轨迹规划装置、电子设备及相应的实施例。
参见图3是本申请实施例示出的无人车轨迹规划装置的结构示意图。为了便于说明,仅仅示出与本申请实施例相关的部分。图3示例的装置可以包括状态信息处理模块301、集合生成模块302、预测模块303和筛选模块304,说明如下:
状态信息处理模块301,用于采用神经网络对车辆和静态物的状态信息进行处理,得到车辆和静态物的融合特征,其中,车辆包括道路上的其他车辆和类型为无人车的自车,静态物包括道路上的障碍物、车道线和/或参考线;
集合生成模块302,用于根据车辆和静态物的融合特征,生成自车待规划轨迹的候选终点集合;
预测模块303,用于预测候选终点集合中各个候选终点成为自车待规划轨迹的确认终点的概率;
筛选模块304,用于根据预设概率阈值,对各个候选终点进行过滤,将概率大于预设概率阈值的候选终点作为自车待规划轨迹的确认终点。
关于上述实施例中的装置,其中各个模块执行操作的具体方式已经在有关该方法的实施例中进行了详细描述,此处将不再做详细阐述说明。
从图3示例的装置可知,由于在将候选终点确定为确认终点之前,对各个候选终点成为自车待规划轨迹的确认终点的概率进行了预测,最终,只是将概率大于预设概率阈值的候选终点作为自车待规划轨迹的确认终点,即在生成类型为无人车的自车的轨迹之前,已经过滤掉了概率小于预设概率阈值的候选终点,因此,在后续生成自车的轨迹时,只使用概率大于预设概率阈值的候选终点,从而降低了计算量,减少了对资源的消耗。
可选地,图3示例的状态信息处理模块301可以包括转换单元、提取单元和拼接单元,其中:
转换单元,用于将车辆和静态物在世界坐标系下的状态信息转换为Frenet坐标系下的状态信息;
提取单元,用于选用类型不同的神经网络,以Frenet坐标系下车辆和静态物的状态信息为类型不同的神经网络的输入,提取车辆和静态物的特征;
拼接单元,用于对提取的特征进行拼接,得到车辆和静态物的融合特征。
可选地,上述示例的提取单元可以包括自车特征提取单元、他车特征提取单元和静态物特征提取单元,所述拼接单元包括第一特征拼接单元、编码单元和第二特征拼接单元,其中:
自车特征提取单元,用于以Frenet坐标系下自车的状态信息为全连接神经网络的输入,提取自车的特征;
他车特征提取单元,用于以Frenet坐标系下其他车辆的状态信息为第一递归神经网络的输入,提取其他车辆的特征;
静态物特征提取单元,用于以Frenet坐标系下静态物的状态信息为卷积神经网络的输入,提取静态物的特征;
第一特征拼接单元,用于拼接所述自车的特征和所述其他车辆的特征,得到动态物特征;
编码单元,用于使用第二递归神经网络对动态物特征编码,得到预设时间段内车辆的时空特征;
第二特征拼接单元,用于拼接静态物的特征和预设时间段内车辆的时空特征,得到车辆和静态物的融合特征。
可选地,图3示例的预测模块303可以包括评分单元和归一化单元,其中:
评分单元,用于根据车辆和静态物的融合特征,采用预设算法对候选终点集合中各个候选终点进行评分,得到各个候选终点的评分值;
归一化单元,用于归一化各个候选终点的评分值,以各个候选终点的归一化评分值作为各个候选终点成为自车待规划轨迹的确认终点的概率。
可选地,上述示例的评分单元可以包括轨迹预测单元、风险评估单元和分值计算单元,其中:
轨迹预测单元,用于根据车辆和静态物的融合特征,分别预测自车和其他车辆在预设时间段的行驶轨迹,其中,预设时间段为以当前时刻为起始时刻至未来的一段指定时间;
风险评估单元,用于基于自车和/或其他车辆在预设时间段的行驶轨迹,评估自车的翻车风险或者自车与其他车辆的碰撞风险以及自车与障碍物的碰撞风险;
分值计算单元,用于以评估所得碰撞风险值或翻车风险值的高低反比于候选终点的评分值的评分原则对候选终点集合中各个候选终点进行评分,得到各个候选终点的评分值。
可选地,上述示例的轨迹预测单元可以包括数据获取单元和轨迹计算单元,其中:
数据获取单元,用于基于自车和其他车辆的当前行驶数据,获取自车和其他车辆的行驶意图数据;
轨迹计算单元,用于根据自车和其他车辆的当前行驶数据和行驶意图数据,分别预测自车和其他车辆在预设时间段的行驶轨迹。
可选地,上述示例的风险评估单元可以包括第一计算单元、第二计算单元和第一确定单元,其中:
第一计算单元,用于根据自车和其他车辆在预设时间段的行驶轨迹,计算自车和其他车辆的距离与自车的车速之比,或者计算自车和其他车辆的距离与自车和其他车辆的相对车速之比,确定自车在单行道上的碰撞风险;
第二计算单元,用于根据自车在预设时间段的行驶轨迹,计算自车与障碍物的距离,确定自车与障碍物的碰撞风险;
第一确定单元,用于根据自车和其他车辆的距离以及所述自车的车速和其他车辆的车速,确定自车在多行车道上的碰撞风险。
可选地,上述示例的风险评估单元可以包括风险等级构建单元、第一赋权单元、第二赋权单元和比较单元,其中:
风险等级构建单元,用于根据自车和其他车辆的历史行驶轨迹,构建碰撞风险评估样本的碰撞风险等级;
第一赋权单元,用于对碰撞风险评估样本中的碰撞指标分别进行第一赋权和第二赋权;
第二赋权单元,用于将碰撞指标的第一赋权值和第二赋权值进行结合,对碰撞指标进行最佳赋权;
比较单元,用于根据最佳赋权后的碰撞指标对自车和其他车辆在预设时间段的行驶轨迹的碰撞风险进行计算,将得到的碰撞风险值与碰撞风险评估样本的碰撞风险等级进行比较,得到自车与其他车辆碰撞的碰撞风险值以及自车与障碍物碰撞的碰撞风险值。
可选地,图3示例的装置还可以包括转换关系确定模块、质量函数获取模块、目标轨迹确定模块和轨迹转换模块,其中:
转换关系确定模块,用于根据道路的路况信息确定将车辆和静态物在世界坐标系下的状态信息转换为Frenet坐标系下的状态信息时的转换关系;
质量函数获取模块,用于基于转换关系,获取基于Frenet坐标系下自车待规划轨迹的质量函数;
目标轨迹确定模块,用于基于Frenet坐标系下自车待规划轨迹的质量函数、自车的起始位置和自车待规划轨迹的确认终点,确定基于Frenet坐标系的目标轨迹;
轨迹转换模块,用于根据转换关系,将目标轨迹转换至世界坐标系。
参见图4,是本申请实施例示出的电子设备的结构示意图。该电子设备400包括存储器410和处理器420。
处理器420可以是中央处理单元(Central Processing Unit,CPU),还可以是其他通用处理器、数字信号处理器(Digital Signal Processor,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现场可编程门阵列(Field-Programmable Gate Array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。
存储器410可以包括各种类型的存储单元,例如系统内存、只读存储器(ROM),和永久存储装置。其中,ROM可以存储处理器420或者计算机的其他模块需要的静态数据或者指令。永久存储装置可以是可读写的存储装置。永久存储装置可以是即使计算机断电后也不会失去存储的指令和数据的非易失性存储设备。在一些实施方式中,永久性存储装置采用大容量存储装置(例如磁或光盘、闪存)作为永久存储装置。另外一些实施方式中,永久性存储装置可以是可移除的存储设备(例如软盘、光驱)。系统内存可以是可读写存储设备或者易失性可读写存储设备,例如动态随机访问内存。系统内存可以存储一些或者所有处理器在运行时需要的指令和数据。此外,存储器410可以包括任意计算机可读存储媒介的组合,包括各种类型的半导体存储芯片(DRAM,SRAM,SDRAM,闪存,可编程只读存储器),磁盘和/或光盘也可以采用。在一些实施方式中,存储器410可以包括可读和/或写的可移除的存储设备,例如激光唱片(CD)、只读数字多功能光盘(例如DVD-ROM,双层DVD-ROM)、只读蓝光光盘、超密度光盘、闪存卡(例如SD卡、min SD卡、Micro-SD卡等等)、磁性软盘等等。计算机可读存储媒介不包含载波和通过无线或有线传输的瞬间电子信号。
存储器410上存储有可执行代码,当可执行代码被处理器420处理时,可以使处理器420执行上文述及的方法中的部分或全部。
此外,根据本申请的方法还可以实现为一种计算机程序或计算机程序产品,该计算机程序或计算机程序产品包括用于执行本申请的上述方法中部分或全部步骤的计算机程序代码指令。
或者,本申请还可以实施为一种非暂时性机器可读存储介质(或计算机可读存储介质、或机器可读存储介质),其上存储有可执行代码(或计算机程序、或计算机指令代码),当可执行代码(或计算机程序、或计算机指令代码)被电子设备(或电子设备、服务器等)的处理器执行时,使处理器执行根据本申请的上述方法的各个步骤的部分或全部。
以上已经描述了本申请的各实施例,上述说明是示例性的,并非穷尽性的,并且也不限于所披露的各实施例。在不偏离所说明的各实施例的范围和精神的情况下,对于本技术领域的普通技术人员来说许多修改和变更都是显而易见的。本文中所用术语的选择,旨在最好地解释各实施例的原理、实际应用或对市场中的技术的改进,或者使本技术领域的其它普通技术人员能理解本文披露的各实施例。
Claims (12)
1.一种无人车轨迹规划方法,其特征在于,所述方法包括:
采用神经网络对车辆和静态物的状态信息进行处理,得到所述车辆和静态物的融合特征,所述车辆包括道路上的其他车辆和类型为无人车的自车,静态物包括所述道路上的障碍物、车道线和/或参考线;
根据所述车辆和静态物的融合特征,生成所述自车待规划轨迹的候选终点集合;
预测所述候选终点集合中各个候选终点成为所述自车待规划轨迹的确认终点的概率;
根据预设概率阈值,对所述各个候选终点进行过滤,将所述概率大于所述预设概率阈值的候选终点作为所述自车待规划轨迹的所述确认终点。
2.根据权利要求1所述的无人车轨迹规划方法,其特征在于,所述采用神经网络对车辆和静态物的状态信息进行处理,得到所述车辆和静态物的融合特征,包括:
将所述车辆和静态物在世界坐标系下的状态信息转换为Frenet坐标系下的状态信息;
选用类型不同的神经网络,以所述Frenet坐标系下车辆和静态物的状态信息为所述类型不同的神经网络的输入,提取所述车辆和静态物的特征;
对所述提取的特征进行拼接,得到所述车辆和静态物的融合特征。
3.根据权利要求2所述的无人车轨迹规划方法,其特征在于,所述选用类型不同的神经网络,以所述Frenet坐标系下车辆和静态物的状态信息为所述类型不同的神经网络的输入,提取所述车辆和静态物的特征,包括:以所述Frenet坐标系下自车的状态信息为全连接神经网络的输入,提取所述自车的特征;以所述Frenet坐标系下其他车辆的状态信息为第一递归神经网络的输入,提取所述其他车辆的特征;以所述Frenet坐标系下静态物的状态信息为卷积神经网络的输入,提取所述静态物的特征;
所述对所述提取的特征进行拼接,得到所述车辆和静态物的融合特征,包括:拼接所述自车的特征和所述其他车辆的特征,得到动态物特征;使用第二递归神经网络对所述动态物特征编码,得到预设时间段内车辆的时空特征;拼接所述静态物的特征和所述预设时间段内车辆的时空特征,得到所述车辆和静态物的融合特征。
4.根据权利要求1所述的无人车轨迹规划方法,其特征在于,所述预测所述候选终点集合中各个候选终点成为所述自车待规划轨迹的确认终点的概率,包括:
根据所述车辆和静态物的融合特征,采用预设算法对所述候选终点集合中各个候选终点进行评分,得到所述各个候选终点的评分值;
归一化所述各个候选终点的评分值,以所述各个候选终点的归一化评分值作为所述各个候选终点成为所述自车待规划轨迹的确认终点的概率。
5.根据权利要求4所述的无人车轨迹规划方法,其特征在于,所述根据所述车辆和静态物的融合特征,采用预设算法对所述候选终点集合中各个候选终点进行评分,得到所述各个候选终点的评分值,包括:
根据所述车辆和静态物的融合特征,分别预测所述自车和所述其他车辆在预设时间段的行驶轨迹,所述预设时间段为以当前时刻为起始时刻至未来的一段指定时间;
基于所述自车和/或其他车辆在预设时间段的行驶轨迹,评估所述自车的翻车风险或者所述自车与所述其他车辆的碰撞风险以及所述自车与所述障碍物的碰撞风险;
以所述评估所得碰撞风险值或翻车风险值的高低反比于候选终点的评分值的评分原则对所述候选终点集合中各个候选终点进行评分,得到所述各个候选终点的评分值。
6.根据权利要求5所述的无人车轨迹规划方法,其特征在于,所述根据所述车辆和静态物的融合特征,分别预测所述自车和所述其他车辆在预设时间段的行驶轨迹,包括:
基于所述自车和所述其他车辆的当前行驶数据,获取所述自车和所述其他车辆的行驶意图数据;
根据所述自车和所述其他车辆的当前行驶数据和行驶意图数据,分别预测所述自车和所述其他车辆在预设时间段的行驶轨迹。
7.根据权利要求5所述的无人车轨迹规划方法,其特征在于,所述基于所述自车和其他车辆在预设时间段的行驶轨迹,评估所述自车与所述其他车辆的碰撞风险以及所述自车与所述障碍物的碰撞风险,包括:
根据所述自车和其他车辆在预设时间段的行驶轨迹,计算所述自车和其他车辆的距离与所述自车的车速之比,或者计算所述自车和其他车辆的距离与所述自车和其他车辆的相对车速之比,确定所述自车在单行道上的碰撞风险;
根据所述自车在预设时间段的行驶轨迹,计算所述自车与所述障碍物的距离,确定所述自车与所述障碍物的碰撞风险;
根据所述自车和其他车辆的距离以及所述自车的车速和所述其他车辆的车速,确定所述自车在多行车道上的碰撞风险。
8.根据权利要求5所述的无人车轨迹规划方法,其特征在于,所述基于所述自车和其他车辆在预设时间段的行驶轨迹,评估所述自车与所述其他车辆的碰撞风险以及所述自车与所述障碍物的碰撞风险,包括:
根据所述自车和其他车辆的历史行驶轨迹,构建碰撞风险评估样本的碰撞风险等级;
对所述碰撞风险评估样本中的碰撞指标分别进行第一赋权和第二赋权;
将所述碰撞指标的第一赋权值和第二赋权值进行结合,对所述碰撞指标进行最佳赋权;
根据最佳赋权后的碰撞指标对所述自车和其他车辆在预设时间段的行驶轨迹的碰撞风险进行计算,将得到的碰撞风险值与所述碰撞风险评估样本的碰撞风险等级进行比较,得到所述自车与所述其他车辆碰撞的碰撞风险值以及所述自车与所述障碍物碰撞的碰撞风险值。
9.根据权利要求2所述的无人车轨迹规划方法,其特征在于,所述方法还包括:
根据所述道路的路况信息确定将所述车辆和静态物在世界坐标系下的状态信息转换为Frenet坐标系下的状态信息时的转换关系;
基于所述转换关系,获取基于所述Frenet坐标系下所述自车待规划轨迹的质量函数;
基于所述Frenet坐标系下所述自车待规划轨迹的质量函数、所述自车的起始位置和所述自车待规划轨迹的确认终点,确定基于所述Frenet坐标系的目标轨迹;
根据所述转换关系,将所述目标轨迹转换至所述世界坐标系。
10.一种无人车轨迹规划装置,其特征在于,所述装置包括:
状态信息处理模块,用于采用神经网络对车辆和静态物的状态信息进行处理,得到所述车辆和静态物的融合特征,所述车辆包括道路上的其他车辆和类型为无人车的自车,静态物包括所述道路上的障碍物、车道线和/或参考线;
集合生成模块,用于根据所述车辆和静态物的融合特征,生成所述自车待规划轨迹的候选终点集合;
预测模块,用于预测所述候选终点集合中各个候选终点成为所述自车待规划轨迹的确认终点的概率;
筛选模块,用于根据预设概率阈值,对所述各个候选终点进行过滤,将所述概率大于所述预设概率阈值的候选终点作为所述自车待规划轨迹的所述确认终点。
11.一种电子设备,其特征在于,包括:
处理器;以及
存储器,其上存储有可执行代码,当所述可执行代码被所述处理器执行时,使所述处理器执行如权利要求1至8中任一项所述的方法。
12.一种计算机可读存储介质,其上存储有可执行代码,当所述可执行代码被电子设备的处理器执行时,使所述处理器执行如权利要求1至8中任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111128914.2A CN113568416B (zh) | 2021-09-26 | 2021-09-26 | 无人车轨迹规划方法、装置和计算机可读存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111128914.2A CN113568416B (zh) | 2021-09-26 | 2021-09-26 | 无人车轨迹规划方法、装置和计算机可读存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113568416A true CN113568416A (zh) | 2021-10-29 |
CN113568416B CN113568416B (zh) | 2021-12-24 |
Family
ID=78174623
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111128914.2A Active CN113568416B (zh) | 2021-09-26 | 2021-09-26 | 无人车轨迹规划方法、装置和计算机可读存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113568416B (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114064656A (zh) * | 2021-11-19 | 2022-02-18 | 重庆大学 | 一种基于路端感知系统的自动驾驶场景识别与转化方法 |
CN115027500A (zh) * | 2022-06-30 | 2022-09-09 | 智道网联科技(北京)有限公司 | 用于无人驾驶车辆的决策规划方法、装置及电子设备、存储介质 |
CN115116041A (zh) * | 2022-06-16 | 2022-09-27 | 阿里巴巴达摩院(杭州)科技有限公司 | 训练状态识别模型的方法及装置、获取障碍物车辆的驾驶状态的方法及装置 |
WO2023103142A1 (zh) * | 2021-12-07 | 2023-06-15 | 上海仙途智能科技有限公司 | 障碍物轨迹预测的方法、系统和计算机可读存储介质 |
Citations (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101409323B1 (ko) * | 2013-03-19 | 2014-07-02 | 국방과학연구소 | 무인자율차량 및 이의 동적환경 주행경로생성방법 |
CN104408203A (zh) * | 2014-12-18 | 2015-03-11 | 西安电子科技大学宁波信息技术研究院 | 一种预测移动对象轨迹终点的方法 |
CN107728178A (zh) * | 2017-09-29 | 2018-02-23 | 上海斐讯数据通信技术有限公司 | 一种运动轨迹的处理方法及装置 |
CN110111566A (zh) * | 2019-04-19 | 2019-08-09 | 腾讯科技(深圳)有限公司 | 轨迹预测方法、装置和存储介质 |
CN110796856A (zh) * | 2019-10-16 | 2020-02-14 | 腾讯科技(深圳)有限公司 | 车辆变道意图预测方法及变道意图预测网络的训练方法 |
CN111123927A (zh) * | 2019-12-20 | 2020-05-08 | 北京三快在线科技有限公司 | 轨迹规划方法、装置、自动驾驶设备和存储介质 |
CN111114554A (zh) * | 2019-12-16 | 2020-05-08 | 苏州智加科技有限公司 | 行驶轨迹预测方法、装置、终端及存储介质 |
CN111402580A (zh) * | 2020-03-04 | 2020-07-10 | 杭州海康威视系统技术有限公司 | 车辆行驶轨迹预测方法、装置及电子设备 |
CN111523643A (zh) * | 2020-04-10 | 2020-08-11 | 商汤集团有限公司 | 轨迹预测方法、装置、设备及存储介质 |
CN111572562A (zh) * | 2020-07-03 | 2020-08-25 | 腾讯科技(深圳)有限公司 | 自动驾驶方法、装置、设备、系统、车辆和计算机可读存储介质 |
CN111681452A (zh) * | 2020-01-19 | 2020-09-18 | 重庆大学 | 一种基于Frenet坐标系下的无人驾驶汽车动态换道轨迹规划方法 |
CN111998864A (zh) * | 2020-08-11 | 2020-11-27 | 东风柳州汽车有限公司 | 无人车局部路径规划方法、装置、设备及存储介质 |
CN112270306A (zh) * | 2020-11-17 | 2021-01-26 | 中国人民解放军军事科学院国防科技创新研究院 | 一种基于拓扑路网的无人车轨迹预测与导航方法 |
CN112465029A (zh) * | 2020-11-27 | 2021-03-09 | 北京三快在线科技有限公司 | 一种实例追踪的方法及装置 |
CN112906542A (zh) * | 2021-02-08 | 2021-06-04 | 北京理工大学 | 一种基于强化学习的无人车避障方法及装置 |
CN113256681A (zh) * | 2021-05-26 | 2021-08-13 | 北京易航远智科技有限公司 | 基于时空注意力机制的行人轨迹预测方法 |
CN113362368A (zh) * | 2021-07-26 | 2021-09-07 | 北京邮电大学 | 一种基于多层次时空图神经网络的人群轨迹预测方法 |
-
2021
- 2021-09-26 CN CN202111128914.2A patent/CN113568416B/zh active Active
Patent Citations (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101409323B1 (ko) * | 2013-03-19 | 2014-07-02 | 국방과학연구소 | 무인자율차량 및 이의 동적환경 주행경로생성방법 |
CN104408203A (zh) * | 2014-12-18 | 2015-03-11 | 西安电子科技大学宁波信息技术研究院 | 一种预测移动对象轨迹终点的方法 |
CN107728178A (zh) * | 2017-09-29 | 2018-02-23 | 上海斐讯数据通信技术有限公司 | 一种运动轨迹的处理方法及装置 |
CN110111566A (zh) * | 2019-04-19 | 2019-08-09 | 腾讯科技(深圳)有限公司 | 轨迹预测方法、装置和存储介质 |
CN110796856A (zh) * | 2019-10-16 | 2020-02-14 | 腾讯科技(深圳)有限公司 | 车辆变道意图预测方法及变道意图预测网络的训练方法 |
CN111114554A (zh) * | 2019-12-16 | 2020-05-08 | 苏州智加科技有限公司 | 行驶轨迹预测方法、装置、终端及存储介质 |
CN111123927A (zh) * | 2019-12-20 | 2020-05-08 | 北京三快在线科技有限公司 | 轨迹规划方法、装置、自动驾驶设备和存储介质 |
CN111681452A (zh) * | 2020-01-19 | 2020-09-18 | 重庆大学 | 一种基于Frenet坐标系下的无人驾驶汽车动态换道轨迹规划方法 |
CN111402580A (zh) * | 2020-03-04 | 2020-07-10 | 杭州海康威视系统技术有限公司 | 车辆行驶轨迹预测方法、装置及电子设备 |
CN111523643A (zh) * | 2020-04-10 | 2020-08-11 | 商汤集团有限公司 | 轨迹预测方法、装置、设备及存储介质 |
CN111572562A (zh) * | 2020-07-03 | 2020-08-25 | 腾讯科技(深圳)有限公司 | 自动驾驶方法、装置、设备、系统、车辆和计算机可读存储介质 |
CN111998864A (zh) * | 2020-08-11 | 2020-11-27 | 东风柳州汽车有限公司 | 无人车局部路径规划方法、装置、设备及存储介质 |
CN112270306A (zh) * | 2020-11-17 | 2021-01-26 | 中国人民解放军军事科学院国防科技创新研究院 | 一种基于拓扑路网的无人车轨迹预测与导航方法 |
CN112465029A (zh) * | 2020-11-27 | 2021-03-09 | 北京三快在线科技有限公司 | 一种实例追踪的方法及装置 |
CN112906542A (zh) * | 2021-02-08 | 2021-06-04 | 北京理工大学 | 一种基于强化学习的无人车避障方法及装置 |
CN113256681A (zh) * | 2021-05-26 | 2021-08-13 | 北京易航远智科技有限公司 | 基于时空注意力机制的行人轨迹预测方法 |
CN113362368A (zh) * | 2021-07-26 | 2021-09-07 | 北京邮电大学 | 一种基于多层次时空图神经网络的人群轨迹预测方法 |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114064656A (zh) * | 2021-11-19 | 2022-02-18 | 重庆大学 | 一种基于路端感知系统的自动驾驶场景识别与转化方法 |
CN114064656B (zh) * | 2021-11-19 | 2024-05-14 | 重庆大学 | 一种基于路端感知系统的自动驾驶场景识别与转化方法 |
WO2023103142A1 (zh) * | 2021-12-07 | 2023-06-15 | 上海仙途智能科技有限公司 | 障碍物轨迹预测的方法、系统和计算机可读存储介质 |
CN115116041A (zh) * | 2022-06-16 | 2022-09-27 | 阿里巴巴达摩院(杭州)科技有限公司 | 训练状态识别模型的方法及装置、获取障碍物车辆的驾驶状态的方法及装置 |
CN115027500A (zh) * | 2022-06-30 | 2022-09-09 | 智道网联科技(北京)有限公司 | 用于无人驾驶车辆的决策规划方法、装置及电子设备、存储介质 |
WO2024001393A1 (zh) * | 2022-06-30 | 2024-01-04 | 智道网联科技(北京)有限公司 | 用于无人驾驶车辆的决策规划方法、装置及电子设备、存储介质 |
CN115027500B (zh) * | 2022-06-30 | 2024-05-14 | 智道网联科技(北京)有限公司 | 用于无人驾驶车辆的决策规划方法、装置及电子设备、存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN113568416B (zh) | 2021-12-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113568416B (zh) | 无人车轨迹规划方法、装置和计算机可读存储介质 | |
CN113879295B (zh) | 轨迹预测方法及装置 | |
EP3714290B1 (en) | Lidar localization using 3d cnn network for solution inference in autonomous driving vehicles | |
CN110949398B (zh) | 一种车辆编队行驶中头车驾驶员异常驾驶行为检测方法 | |
JP7256758B2 (ja) | 自動運転車両においてrnnとlstmを用いて時間平滑化を行うlidar測位 | |
JP6247754B2 (ja) | 駐車場探し開始特定のために車両の測定データを処理する方法 | |
EP3749976A1 (en) | Deep learning based feature extraction for lidar localization of autonomous driving vehicles | |
US12050273B2 (en) | Systems and methods for camera-LiDAR fused object detection with point pruning | |
US12118732B2 (en) | Systems and methods for object detection with LiDAR decorrelation | |
CN112793576B (zh) | 一种基于规则与机器学习融合的换道决策方法及系统 | |
US11312373B2 (en) | Vehicle detection and response | |
US20230311932A1 (en) | Merging object and background radar data for autonomous driving simulations | |
US20220227391A1 (en) | Systems and methods for scenario dependent trajectory scoring | |
KR102462403B1 (ko) | 차량 내 can-bus 센서에 대한 희소 학습 기능을 갖춘 경량 운전자 행동 식별 모델 | |
JP2023523350A (ja) | 乗り物に基づくデータ処理方法、データ処理装置、コンピュータ機器、及びコンピュータプログラム | |
US11590969B1 (en) | Event detection based on vehicle data | |
US20230311930A1 (en) | Capturing and simulating radar data for autonomous driving systems | |
CN116611603A (zh) | 一种车辆路径调度方法、装置、计算机及存储介质 | |
US20230286539A1 (en) | Multi-objective bayesian optimization of machine learning model for autonomous vehicle operation | |
CN116182884A (zh) | 基于frenet坐标系横纵解耦的智能车辆局部路径规划方法 | |
CN115107806A (zh) | 一种自动驾驶系统中面向突发事件场景的车辆轨迹预测方法 | |
Chandra | Towards autonomous driving in dense, heterogeneous, and unstructured traffic | |
CN115546781A (zh) | 一种点云数据的聚类方法以及装置 | |
WO2024049925A1 (en) | Trajectory prediction based on a decision tree | |
Lee et al. | Individual stable driving pattern analysis for evaluating driver readiness at autonomous driving levels 2 and 3 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |