CN113177427A - 道路预测的方法以及自主驾驶的方法、车辆及设备 - Google Patents
道路预测的方法以及自主驾驶的方法、车辆及设备 Download PDFInfo
- Publication number
- CN113177427A CN113177427A CN202010076196.8A CN202010076196A CN113177427A CN 113177427 A CN113177427 A CN 113177427A CN 202010076196 A CN202010076196 A CN 202010076196A CN 113177427 A CN113177427 A CN 113177427A
- Authority
- CN
- China
- Prior art keywords
- road
- image
- data points
- vehicle
- dimensional image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 97
- 238000000605 extraction Methods 0.000 claims abstract description 29
- 238000012545 processing Methods 0.000 claims description 28
- 238000013527 convolutional neural network Methods 0.000 claims description 19
- 230000015654 memory Effects 0.000 claims description 19
- 230000008569 process Effects 0.000 claims description 19
- 230000011218 segmentation Effects 0.000 claims description 13
- 238000013507 mapping Methods 0.000 claims description 6
- 230000004044 response Effects 0.000 claims description 6
- 210000004027 cell Anatomy 0.000 claims 3
- 210000004460 N cell Anatomy 0.000 claims 1
- 239000010410 layer Substances 0.000 description 30
- 239000011159 matrix material Substances 0.000 description 25
- 230000006870 function Effects 0.000 description 12
- 238000010586 diagram Methods 0.000 description 8
- 238000005070 sampling Methods 0.000 description 7
- 230000003068 static effect Effects 0.000 description 6
- 238000004891 communication Methods 0.000 description 5
- 230000003936 working memory Effects 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 3
- 230000009466 transformation Effects 0.000 description 3
- 238000003491 array Methods 0.000 description 2
- 239000002131 composite material Substances 0.000 description 2
- 238000001914 filtration Methods 0.000 description 2
- 238000007499 fusion processing Methods 0.000 description 2
- 230000001788 irregular Effects 0.000 description 2
- 239000002245 particle Substances 0.000 description 2
- 238000007781 pre-processing Methods 0.000 description 2
- 238000012549 training Methods 0.000 description 2
- 241001464837 Viridiplantae Species 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 230000004913 activation Effects 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000010267 cellular communication Effects 0.000 description 1
- 230000000739 chaotic effect Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 238000013213 extrapolation Methods 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 239000002346 layers by function Substances 0.000 description 1
- 239000003550 marker Substances 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 238000011176 pooling Methods 0.000 description 1
- 230000003252 repetitive effect Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
- B60W40/02—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
- B60W40/04—Traffic conditions
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
- B60W40/02—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
- B60W40/06—Road conditions
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/46—Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
- G06V10/462—Salient features, e.g. scale invariant feature transforms [SIFT]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/588—Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W2050/0001—Details of the control system
- B60W2050/0002—Automatic control, details of type of controller or control system architecture
- B60W2050/0004—In digital systems, e.g. discrete-time systems involving sampling
- B60W2050/0005—Processor details or data handling, e.g. memory registers or chip architecture
Abstract
本公开涉及道路预测的方法,包括:接收指示车辆的环境的激光数据,所述激光数据包括与所述环境中的一个或多个对象相关联的多个数据点;基于所述多个数据点生成二维图像,所述二维图像在与道路表面基本平行的方向上指示所述环境;对所述二维图像进行特征提取,以得到比所述二维图像具有更低分辨率的特征映射;以及对所述特征映射进行重构,以得到比所述特征映射具有更高分辨率的预测图像,并基于所述预测图像得到道路预测的结果,所述道路预测的结果包括道路的轮廓和可行驶区域两者。本公开还涉及自主驾驶的方法、车辆及设备。
Description
技术领域
本公开涉及自主驾驶领域,具体涉及道路预测的方法以及自主驾驶的方法、车辆及设备。
背景技术
自主驾驶是指不需要驾驶人员提供导引和控制,在计算装置的控制下使车辆完成车道保持、超车并道、红灯停绿灯行、灯语笛语交互、避障、转弯等驾驶行为。本公开所称自主驾驶,包括车辆的非完全自主驾驶(帮助驾驶人员进行驾驶)和完全自主驾驶(完全取代驾驶人员进行驾驶)。
目前,自主驾驶的路径规划(例如轨迹规划)主要依靠地图和定位,例如高精度地图和高精度定位。但是由于地图不是实时更新的(因此本文也称其为“静态地图”),如果地图与实际道路状况不符(本文也称为“地图故障”)和/或定位不准确,则自主驾驶车辆将难以进行路径规划。因此,道路模型的实时预测对于自主驾驶车辆的安全性能至关重要。
在静态地图故障和/或定位不准确的情况下,对于直行道路的道路,自主驾驶车辆通常可以继续沿当前直行道路向前行驶。本文所称的“直行道路”包括道路中心线基本为直线的道路。与直行道路相比,交叉路口等的道路轮廓不再是简单的线性几何形状,因此无法轻松确定前方的可行驶区域。基于此,如何实时预测非直行道路处的可行驶区域非常重要,这也关系到自主驾驶车辆的安全性和灵活性。本文所称的“非直行道路”包括任何形式的交叉道路(包括例如如图1A所示的十字交叉路口、如图1B所示的丁字交叉路口、如图1C所示的道路的具有分支道路的路段等)和道路的转弯路段(包括例如如图1D所示的道路转角处、如图1E所示的弯道处等)。
在现有技术中,多项式拟合法是利用简单的线性外推法实时预测自主驾驶车辆前方的道路几何形状和可行驶区域。这种方法预测直行道路的结果相对准确,但对于自主驾驶车辆前方是非直行道路的情况,其预测的可行驶区域不够准确。
此外,还可以使用粒子滤波的方法来估计前方的可行驶区域。这种方法基于从激光雷达(LiDAR)传感器收集的点云数据来进行估计。这种方法假设在点云分布的地方存在障碍物。沿着自我车辆向周围发射一条直线,当遇到点云时该直线停止,否则继续搜索是否会碰撞点云。但是这种方法很容易受到动态车辆遮挡的影响,并且只能沿单个方向搜索可行驶区域,而无法预测整个可行驶区域和交叉路口的几何形状。
发明内容
本公开的目的之一是提供道路预测的方法以及自主驾驶的方法、车辆及设备。
根据本公开的第一方面,提供了一种道路预测的方法,包括:接收指示车辆的环境的激光数据,所述激光数据包括与所述环境中的一个或多个对象相关联的多个数据点;基于所述多个数据点生成二维图像,所述二维图像在与道路表面基本平行的方向上指示所述环境;对所述二维图像进行特征提取,以得到比所述二维图像具有更低分辨率的特征映射;以及对所述特征映射进行重构,以得到比所述特征映射具有更高分辨率的预测图像,并基于所述预测图像得到道路预测的结果,所述道路预测的结果包括道路的轮廓和/或可行驶区域。
根据本公开的第二方面,提供了一种道路预测的方法,包括:接收指示车辆的环境的激光数据,所述激光数据包括与所述环境中的一个或多个对象相关联的多个数据点;基于所述多个数据点生成二维图像,所述二维图像在与道路表面基本平行的方向上指示所述环境;以及基于预先训练的卷积神经网络模型,对所述二维图像进行处理,以得到道路的轮廓和可行驶区域两者。
根据本公开的第三方面,提供了一种自主驾驶的方法,包括:接收指示车辆前方的环境的影像;基于所述影像确定车辆前方的道路类别;响应于确定为所述道路类别为非直行道路,进行如上所述的方法以得到车辆前方的道路的轮廓和/或可行驶区域。
根据本公开的第四方面,提供了一种自主驾驶的车辆,包括:一个或多个相机,被配置为获取指示车辆前方的环境的影像;以及一个或多个计算装置,被配置为:从所述相机接收所述影像;基于所述影像确定车辆前方的道路类别;响应于确定为所述道路类别为非直行道路,进行如上所述的方法以得到车辆前方的道路的轮廓和/或可行驶区域。
根据本公开的第五方面,提供了一种自主驾驶的设备,包括:一个或多个处理器;以及一个或多个存储器,所述一个或多个存储器被配置为存储一系列计算机可执行的指令,其中,当所述一系列计算机可执行的指令被所述一个或多个处理器执行时,使得所述一个或多个处理器进行如上所述的方法。
根据本公开的第六方面,提供了一种非临时性计算机可读存储介质,其特征在于,所述非临时性计算机可读存储介质上存储有一系列计算机可执行的指令,当所述一系列计算机可执行的指令被一个或多个计算装置执行时,使得所述一个或多个计算装置进行如上所述的方法。
通过以下参照附图对本公开的示例性实施例的详细描述,本公开的其它特征及其优点将会变得清楚。
附图说明
构成说明书的一部分的附图描述了本公开的实施例,并且连同说明书一起用于解释本公开的原理。
参照附图,根据下面的详细描述,可以更加清楚地理解本公开,其中:
图1A至1E是示意性地示出根据本公开实施例的方法所适用的车道的示意图。
图2是示意性地示出根据本公开一个实施例的道路预测的方法的流程图。
图3是示意性地示出根据本公开一个实施例的自主驾驶的方法的流程图。
图4是示意性地示出根据本公开一个实施例的道路预测的方法的一部分流程图。
图5是示意性地示出根据本公开一个实施例的道路预测的方法的框图。
图6是示意性地示出根据本公开实施例的自主驾驶的车辆的框图。
图7A至7D是示意性地示出根据本公开实施例的道路预测的方法中基于激光数据生成二维图像的示意图。
图8A至8G是示意性地示出根据本公开实施例的自主驾驶的方法中各步骤的处理结果的示意图。
注意,在以下说明的实施方式中,有时在不同的附图之间共同使用同一附图标记来表示相同部分或具有相同功能的部分,而省略其重复说明。在一些情况中,使用相似的标号和字母表示类似项,因此,一旦某一项在一个附图中被定义,则在随后的附图中不需要对其进行进一步讨论。
具体实施方式
以下将参照附图描述本公开,其中的附图示出了本公开的若干实施例。然而应当理解的是,本公开可以以多种不同的方式呈现出来,并不局限于下文描述的实施例;事实上,下文描述的实施例旨在使本公开的公开更为完整,并向本领域技术人员充分说明本公开的保护范围。还应当理解的是,本文公开的实施例能够以各种方式进行组合,从而提供更多额外的实施例。
应当理解的是,本文中的用语仅用于描述特定的实施例,并不旨在限定本公开。本文使用的所有术语(包括技术术语和科学术语)除非另外定义,均具有本领域技术人员通常理解的含义。为简明和/或清楚起见,公知的功能或结构可以不再详细说明。
在本文中,用语“A或B”包括“A和B”以及“A或B”,而不是排他地仅包括“A”或者仅包括“B”,除非另有特别说明。
在本文中,用语“示例性的”意指“用作示例、实例或说明”,而不是作为将被精确复制的“模型”。在此示例性描述的任意实现方式并不一定要被解释为比其它实现方式优选的或有利的。而且,本公开不受在上述技术领域、背景技术、发明内容或具体实施方式中所给出的任何所表述的或所暗示的理论所限定。
另外,仅仅为了参考的目的,还可以在本文中使用“第一”、“第二”等类似术语,并且因而并非意图限定。例如,除非上下文明确指出,否则涉及结构或元件的词语“第一”、“第二”和其它此类数字词语并没有暗示顺序或次序。
还应理解,“包括/包含”一词在本文中使用时,说明存在所指出的特征、整体、步骤、操作、单元和/或组件,但是并不排除存在或增加一个或多个其它特征、整体、步骤、操作、单元和/或组件以及/或者它们的组合。
如前所述,在静态地图故障或定位不准确的情况下,自主驾驶车辆将难以规划路径。对于自主驾驶的安全性而言,交叉路口区域的实时预测就显得尤为重要。在现有的技术方法中,线性插值方法的预测范围非常有限,并且该方法仅适用于直行车道,也就是说,它不能实时地预测弯道或交叉路口的可行驶区域。而现有技术中的粒子滤波方法易于被动态车辆遮挡,并且只能沿单个方向搜索可行驶区域,而不能预测整个可行驶区域和交叉路口的几何形状。
响应于上述技术问题,发明人提出了一种道路预测的方法及执行该方法的设备,基于激光数据,可同时预测出车辆前方的道路的轮廓和可行驶区域两者,并且对非直行道路、特别是交叉路口具有良好的预测准确性。发明人还提出了一种自主驾驶的方法及执行该方法的设备和车辆,基于激光数据和由相机拍摄的车辆前方的影像来进行自主驾驶,其中在根据影像识别出前方的道路为非直行道路时,使用前述的道路预测的方法来得到车辆前方的道路的轮廓和可行驶区域。
图2是示意性地示出根据本公开一个实施例的道路预测的方法100的流程图。方法100包括:接收指示车辆的环境的激光数据(步骤110),基于激光数据生成二维图像(步骤120),对二维图像进行特征提取以生成特征映射(feature map)(步骤130),以及对特征映射进行重构以生成预测图像(步骤140),并基于预测图像得到道路预测的结果,其中道路预测的结果包括道路的轮廓和可行驶区域两者。自主驾驶车辆或自主驾驶设备可以根据道路的轮廓和可行驶区域来进行驾驶规划。其中,步骤130和140可以通过预先训练的卷积神经网络(CNN)模型来完成,即将步骤120中得到的二维图像输入到训练好的CNN模型,以得到输出道路的轮廓和可行驶区域两者。
车辆可以包括一个或多个LiDAR传感器来收集的激光数据,其中激光数据包括与环境中的一个或多个对象相关联的多个数据点。车辆中的一个或多个计算装置可接收在结构化三维点云和/或非结构化三维点云中的指示车辆的环境的多个数据点。在一些情况下,计算装置可接收在像栅格那样的点云内的数据点。激光数据可包括含有指示相对于车辆的环境中的物体的位置的信息的数据点。在其它示例中,激光数据可包括关于车辆的环境的其它信息。接收的激光数据在进行后续处理之前,可以经历一些预处理,例如去噪和/或融合等处理。去噪处理可以去除稀疏的数据点、较为远离道路边沿的数据点等。融合处理可以将道路边沿、动态障碍物等不同对象所对应的数据点进行融合,还可以融合来自其他的信息源(例如相机、地图、定位装置等)的信息等。预处理还可以包括下文所述的坐标转换。
激光数据中的每个数据点具有坐标值(x,y,z)。本公开中提到的数据点的坐标值为在图7A至7D所示的Oxyz坐标系中的坐标值,计算装置可以将接收的数据点的原始坐标值进行坐标转换以得到各数据点在Oxyz坐标系中的坐标值。本公开中提到的Oxyz坐标系为空间直角坐标系,其原点O在高度方向(z方向)位于车辆所在的道路表面A,并且在与道路表面A平行的方向与激光数据的观测点(例如,可以被认为是LiDAR传感器的位置)重合。例如,LiDAR传感器可以被安装在车顶,距离地面1.5米。若LiDAR传感器收集到的激光数据中每个数据点相对于LiDAR传感器的原始坐标值为(x’,y’,z’),则转换到Oxyz坐标系中的坐标值分别为x=x’、y=y’、z=z’+1.5m。
车辆的环境指车辆周围的三维空间,包括当前需要观测的空间范围。例如,可以设定当前需要观测的空间范围为从车辆前方90m到车辆后方10m(长度m为100m)、从车辆左方50m到车辆右方50m(宽度n为100m)、以及从道路表面A上方10m到道路表面A下方1m(高度h为11m,其中位于道路表面A的上方的高度h2为10m、位于道路表面A的下方的高度h1为1m)。即坐标值x在-50m~+50m、y在-10m~+90m、z在-1m~+10m的范围内的三维空间。计算装置可以只接收该需要观测的空间内的数据点,也可以接收更多的数据点然后筛选出位于该空间内的数据点。在上述示例中,三维空间被定义为一个长方体。本领域技术人员应理解,三维空间的形状并无限制,可以根据需要被定义,其甚至可以是不规则的形状。例如,距离车辆较远处需要观测的空间的高度可能大于距离车辆较近处的高度,因此,可以将三维空间定义为高度随与原点O之间的距离的增大而增大。
基于车辆的环境中的数据点,生成在与道路表面A基本平行的方向上指示环境的二维图像。可以将上述三维空间沿与道路表面A基本平行的平面的方向划分为M×N(例如256×256)个单元U,每个单元U沿与该平面垂直的方向延伸三维空间的高度。二维图像中的每个像素可以与三维空间中的每个单元U一一对应。在图7C所示的例子中,每个单元U的水平截面被定义为一个矩形,并且每个单元U的水平截面相同。本领域技术人员应理解,单元的水平截面的形状并无限制,可以根据需要被定义,例如可以是菱形、六边形或其他多边形、圆形/椭圆形、甚至可以是不规则的形状。此外,每个单元的水平截面可以不同,例如在较为靠近关注对象处的单元的截面面积可以小于较为远离关注对象处的单元的截面面积,从而使得生成的二维图像对于关注对象具有较高的分辨率。
在一个实施例中,二维图像可以是二值图像,例如将激光数据分布在每个单元中的数据点的个数或坐标值大于阈值的单元U所对应的像素确定为第一值、将个数或坐标值不大于阈值的单元U所对应的像素确定为第二值,从而生成只包含两种颜色(不具有灰度)的分辨率为M×N(例如256×256)的二值的二维图像。在一个实施例中,二维图像可以是灰度图像。基于激光数据分布在每个单元中的数据点的个数或坐标值,确定每个单元U所对应的像素的灰度值,从而生成分辨率为M×N的具有灰度的二维图像。
从LiDAR传感器接收的激光数据中的数据点的数量通常较为庞大,并且车辆的整个环境中可能存在不需要被关注的对象,如果将整个环境中的数据点全部映射到二维图像上来进行后续的图像处理,可能导致处理量较大、和/或需要关注的对象不够突出。在一个实施例中,基于多个数据点的第一部分生成第一图像、并基于第二部分生成第二图像,以进行后续处理。在后续处理中,可以将第一和第二图像合并(例如叠加)形成一张二维图像后进行处理,也可以将第一和第二图像分别进行处理。其中第一部分数据点和第二部分数据点可以是空间位置上连续的、间隔的、或者至少部分重合的。
在一个实施例中,需要关注的对象可以包括马路牙子和生长在道路两旁的绿植(例如可以是树木),因此第一部分数据点可以包括其高度接近道路表面A的高度的数据点,第二部分数据点可以包括其高度接近道路旁的树木的树冠的高度的数据点。可以根据车辆行驶的路段的地理位置来确定树冠的大致高度,例如较为靠近赤道的地区的树木的树冠的高度可能小于较为远离赤道的地区的树木的树冠的高度。在一个具体的例子里,第一部分可以包括三维空间内的坐标值z在-0.25m~+0.25m的范围内的数据点,第二部分可以包括三维空间内的坐标值z在+4m~+5m的范围内的数据点。在一个实施例中,需要关注的对象可以包括马路牙子和道路上的对象,其中第一部分数据点可以如前所述,第二部分数据点可以包括其高度接近位于道路上的对象的至少一部分的高度的数据点。例如在一个具体的示例中,道路上的对象主要包括行驶的车辆和行走的行人,可以将第二部分设定为包括三维空间内的坐标值z在+0.5m~+2m的范围内的数据点。
在一些情况下,车辆环境中的除了需要关注的对象之外的其他对象也需要被考虑,以避免信息损失。在一个实施例中,基于多个数据点的第一部分生成第一图像、基于第二部分生成第二图像、以及基于第三部分生成第三图像,以进行后续处理。其中的第一和第二部分可以对应于需要关注的对象(如前所述),第三部分可以对应于环境中的其他对象。例如,第三部分可以包括三维空间中除第一和第二部分之外的全部数据点,或者包括三维空间中全部的数据点。
下面以一个具体的示例来说明基于激光数据生成二维图像。将三维空间内的激光数据分为三个部分,第一部分包括坐标值z在-0.25m~+0.25m的范围内的全部数据点,第二部分包括坐标值z在+4m~+5m的范围内的全部数据点,第三部分包括坐标值z在-1m~10m的范围内的全部数据点。统计第一部分数据点落入三维空间中M×N(以图7D所示的5×4为例)个单元U中的每个单元U内的个数,并生成如下的第一原始矩阵:
其中Nij表示相应单元内的数据点的个数;下标i和j分别表示对矩阵的行和列的计数,i=1,2,…,4以及j=1,2,…,5。可以利用如下公式1将第一原始矩阵中的各个元素分别映射到0~255的取值空间,以得到与各单元对应的各像素的灰度值Gij:
Gij=Nij×α+β 公式1
从而得到如下的第一灰度值矩阵,即第一图像:
公式1给出了从原始矩阵得到灰度值矩阵的一个示例,即将原始矩阵中的元素N以线性变换的方式映射到0~255的数值范围,从而生成灰度值矩阵中的元素G。本领域技术人员应理解,还可以使用其他的方法从元素N映射到0~255的数值范围(或该数值范围的子集)内的元素G,以生成灰度值矩阵,本公开并不作限制。
统计第二部分落入三维空间的每个单元U的数据点中,坐标z值最大的数据点的坐标z值,以生成最大z值组成的第二原始矩阵。并根据例如公式1所示的方法计算每个单元所对应的像素的灰度值,从而生成第二灰度值矩阵,即第二图像。在一个实施例中,可以统计第三部分落入三维空间的每个单元U的数据点的个数K,以形成第三原始矩阵。由于第三部分包括坐标值z在-1m~10m的范围内的全部数据点,在数据点密集的单元中K值可能非常大,而在数据点稀疏的单元中K值又可能很小,如此得到的灰度值矩阵可能会有精度损失。因此,可以不用K值直接生成原始矩阵,而是将K值进行一些变换以压缩其数值范围,来生成原始矩阵。在一个实施例中,第三原始矩阵中的每个元素可以是变换值D,变换值D基于每个单元U内的数据点的个数K值的对数值而得到,例如可以利用如下公式2来计算:
其中F为对K值的对数值的缩放系数,可以根据K的数值范围和所需的D的数值范围来预先设定。公式2给出了压缩K值的数值范围的一个示例,本领域技术人员应理解,还可以使用其他的方法生成变换值D,以生成所需的第三原始矩阵,本公开不作限制。基于以变换值D组成的第三原始矩阵,可以根据例如公式1所示的方法计算每个单元所对应的像素的灰度值,从而生成第三灰度值矩阵,即第三图像。
在后续处理中,对二维图像进行特征提取,例如用滤波器对图像进行处理,以得到比二维图像具有更低分辨率的特征映射(feature map)。需要说明的是,本公开中的二维图像(可以包括多张图像,例如上文提到的第一至第三图像)、特征映射以及预测图像,其存储形式均为数据矩阵,矩阵中的每个元素对应于相应的图像(或映射map)的每个像素。因此,本公开中的“分辨率”不仅可以指相应的图像中的像素的个数,还可以指与图像对应的矩阵中的元素的个数。对于一些中间处理结果的数据矩阵,尽管该矩阵可能不会被认为对应于一张图像,但在本公开中可以仍将其元素的个数称为“分辨率”。
特征提取可以以已知的技术来进行,例如可以经过CNN中的一个或多个卷积层,利用卷积核(即滤波器)进行特征提取。本领域技术人员应理解,当经过多个卷基层的处理时,输入CNN的二维图像可以经过多次特征提取。特征映射的分辨率的大小与所使用的卷积核的大小、卷积的步长、以及卷积的层数均相关。在一些情况下,经过卷积层进行特征提取操作本身是不会降低矩阵的分辨率的(即不会使输入矩阵的元素个数变少),因此需要在卷积层之后设置降采样层(例如可以在每个卷积层之后均设置一个降采样层,也可以在多个卷积层之后设置一个降采样层),以得到具有更低分辨率的特征映射。在这种情况下,特征映射的分辨率的大小还与采样层的层数和参数有关。本领域技术人员应理解,CNN中还可以包括已知的其他的功能层,例如输入层、激活层、池化层、全连接层、隐藏层等。
在一些实施例中,二维图像可以包括多张图像,例如上文提到的第一至第三图像。在这些实施例中,可以对每张图像分别进行特征提取,即在每个卷积层可以针对每张图像的特性使用与其他图像不同的卷积核,这样更有利于提取图像中的特征。例如,对于基于数据点的第一部分生成的对应于关注对象为马路牙子的第一图像,可以使用适用于提取马路牙子的特征的卷积核;对于基于数据点的第二部分生成的对应于关注对象为树冠的第二图像,可以使用适用于提取树冠的特征的卷积核,诸如此类。在该示例中,使用各自的一个或多个卷积核分别对第一和第二图像进行一次或多次特征提取,以分别得到第一和第二图像各自的特征映射,即第一和第二特征映射。可以根据需要选择是否将第一和第二特征映射合并(例如叠加),可以将第一和第二特征映射分别进行后续操作,也可以合并以得到针对第一和第二图像的结合的特征映射之后再进行后续操作。对于二维图像包括多于两张图像的情况(例如上述分别基于第一至第三部分数据点生成第一至第三图像的情况),可以进行与两张图像类似的操作,不再赘述。
由于道路预测的结果需要尽量精确,因此希望预测图像具有较高的分辨率,例如与输入CNN模型的二维图像的分辨率相同。可以对特征映射进行重构,以得到比特征映射具有更高分辨率的预测图像,例如将分辨率为32×32的特征映射重构为分辨率为256×256的预测图像,并基于预测图像得到道路的轮廓和可行驶区域。可以使用已知的技术来进行重构,例如可以利用CNN中的一个或多个升采样层来进行重构处理。图4是示意性地示出根据本公开一个实施例的道路预测的方法300的一部分流程图。其中进行重构330的步骤包括:对特征映射进行实例(instance)分割331处理,将预测图像中的道路分割出来,从而得到道路的轮廓;以及对特征映射进行二值(binary)分割332处理,将预测图像中的可行驶区域标记为第一类、不可行驶区域标记为第二类,从而得到可行驶区域。可行驶区域通常包括位于道路的轮廓之内、并且除去道路上的各个对象(例如车辆、行人、路障等)的区域。在对CNN模型的训练时,可以综合考虑实例分割331结果和二值分割332结果的损失函数。例如,基于实例分割331结果和真值(ground truth)之间的差值得到第一损失函数,基于二值分割332结果和真值之间的差值得到第二损失函数,然后将第一和第二损失函数相结合(例如相加)得到综合损失函数,并根据综合损失函数来调整CNN模型的参数。
在一个实施例中,如图4所示,方法300在重构330之前还包括:将特征映射进行重分布320处理以减小特征映射的方差,之后将重分布后的特征映射进行重构330。重分布320处理以减小特征映射的方差能够减少噪声变化对重构330的稳定性的影响。在一个实施例中,重分布320可以包括将不服从高斯分布的特征映射中的数据(例如杂乱的散点分布)处理成服从高斯分布。在一个实施例中,重分布320可以包括将服从高斯分布的特征映射中的数据处理成其分布服从方差更小的高斯分布(例如更集中的高斯分布)。可以使用CNN中的位于一个或多个卷积层之后的一个或多个重分布层来进行重分布320处理,即在特征提取310之后进行重分布320处理;也可以对卷积层增加约束以使其输出的结果为服从高斯分布的结果,即在特征提取310的期间进行重分布320处理。如此,位于重分布320处理之后的用于重构330处理的升采样层,是适用于对服从高斯分布的数据进行重构的升采样层。
重分布320处理的特性(例如重分布层的参数)同样是需要在对CNN模型的训练期间进行调整的,通过损失函数来约束和优化高斯分布的参数。这里考虑的损失函数,除了重构的预测图像与真值之间的误差(例如上述综合损失函数)之外,还可以包括潜在变量的分布和单位高斯分布之间的差异,该差异可以用KL散度来度量。可以考虑上述综合损失函数和KL散度的结合来调整CNN模型的参数。
下面结合图5,以一个具体的示例说明根据本公开实施例的道路预测的方法400。分别基于激光数据的多个数据点中的第一至第三部分生成第一至第三图像411、412、413,分别对第一至第三图像411、412、413进行特征提取之后对结果进行叠加,以得到针对第一至第三图像411、412、413的结合的特征映射420。将特征映射420进行重分布处理以减小特征映射的方差,得到重分布后的特征映射430。将重分布后的特征映射430进行重构,并对特征映射430进行实例分割处理以得到道路的轮廓442,以及对特征映射430进行二值分割处理以得到可行驶区域441。
图3是示意性地示出根据本公开一个实施例的自主驾驶的方法200的流程图。方法200包括:接收指示车辆前方的环境的影像(步骤210),基于影像确定车辆前方的道路类别(步骤220),确定道路类别为如图1A至1E所示的非直行道路(步骤230)。响应于确定为道路类别为非直行道路,进行如上所述的方法(例如方法100)以得到车辆前方的道路的轮廓和可行驶区域两者。在一个实施例中,非直行道路为如图1A至1C所示的交叉路口。自主驾驶的车辆或设备可以根据道路的轮廓和可行驶区域来进行驾驶规划。例如,自主驾驶的车辆或设备可以将道路的轮廓和可行驶区域与静态地图中对应的路段向比较,来确定静态地图是否可信、路段中是否存在障碍物等。
自主驾驶的车辆或设备通常可以包括一个或多个相机,相机可以被配置为获取指示车辆前方的环境的影像(可以是静态或动态影像)。自主驾驶的车辆或设备还可以包括一个或多个计算装置,计算装置可以从相机接收这样的影像,并基于影像来确定车辆前方的道路类别。确定道路类别可以通过预先训练的分类识别模型来完成。该分类识别模型可以是例如基于神经网络的二分类器或深度卷积分类器,将相机捕获的影像用作分类识别模型的输入。该分类识别模型可以识别车辆前方的道路是否为非直行道路(或者,在一个实施例中,识别是否为交叉路口)。同时,分类识别模型还可以输出其识别结果的置信度,用于衡量其分类识别结果的可靠性。当置信度高于设置的阈值时,计算装置可以采信分类识别模型的识别结果。
图8A至8G是示意性地示出根据本公开实施例的自主驾驶的方法中各步骤的处理结果的示意图。根据本公开实施例的自主驾驶的方法,计算装置可以接收的来自相机的指示车辆前方的环境的影像可以如图8A所示,计算装置可以将该影像输入到分类识别模型,若分类识别模型输出的道路类别为非直行道路(在一个实施例中为交叉路口)、并且识别结果的置信度大于设定的阈值,则计算装置可以接收来自LiDAR传感器的指示车辆的环境的激光数据,并根据激光数据生成在与道路表面基本平行的方向上指示车辆环境的二维图像,如图8B所示。图8B所示的二维图像是对应于马路牙子附近的数据点的第一图像、对应于道路两旁的树冠附近的数据点的第二图像、以及对应于车辆环境内的全部数据点的第三图像的叠加。为便于描述,附图仅示出了将二维图像包含的多张图像合并为一张图像进行特征提取、而并没有示出分别进行特征提取的过程,但本领域技术人员根据附图和描述可以理解多张图像分别进行特征提取的过程。
图8B所示的二维图像输入到预先训练的CNN模型之后可以经过多层卷积层以进行多次特征提取,每层卷积层的特征提取结果作为相邻的下一层卷积层的输入。图8C-1至8C-3依次示出了三次特征提取(注意示出的三次特征提取可以是不相邻的三次特征提取)。可以看出,经过第一次特征提取之后得到的如图8C-1所示的特征映射的分辨率低于输入的图8B所示的二维图像的分辨率,经过第二次特征提取之后得到的如图8C-2所示的特征映射的分辨率低于图8C-1所示的特征映射的分辨率,经过第三次特征提取之后得到的如图8C-3所示的特征映射的分辨率低于图8C-2所示的特征映射的分辨率。本领域技术人员应理解,在实际应用的CNN模型中可以包括多于三层的卷积层以进行多于三次的特征提取。
可以将CNN模型中最后一个卷积层输出的特征映射进行重分布处理并将重分布之后的特征映射(未示出)进行重构以生成预测图像。图8D-1至8D-3依次示出了进行二值分割处理的三次升采样的结果(注意示出的三次升采样可以是不相邻的三次升采样),可以看出,图8D-1至8D-3的分辨率是依次升高的。图8E示出了二值分割处理的预测结果,即可行驶区域,其中浅色部分表示被标记为不可行驶区域的部分,深色部分表示被标记为可行驶区域的部分。图8F-1至8F-3依次示出了进行实例分割处理的三次升采样的结果(注意示出的三次升采样可以是不相邻的三次升采样),可以看出,图8F-1至8F-3的分辨率是依次升高的。图8G示出了实例分割处理的预测结果,即道路的轮廓,其中浅色部分为分割出的道路部分。
本公开还提供了自主驾驶的设备(或车辆)。自主驾驶的设备包括一个或多个处理器以及一个或多个存储器。一个或多个处理器被配置为执行上文描述的根据本公开实施例的方法。存储器被配置为存储处理器所需要的数据和程序等。程序包括可以使得处理器执行上文描述的根据本公开实施例的方法所需要的一系列计算机可执行的指令。数据包括上文描述的从相机接收的影像、从LiDAR传感器接收的激光数据、经预处理后的数据点、生成的二维图像、特征映射、以及预测结果等各个步骤的输入、输出和中间结果,还可以包括上文描述的分类识别模型和CNN模型等计算基础。一个或多个存储器可以被配置为使用一个存储器来存储一项上述内容,还可以被配置为使用多个存储器来共同地存储一项上述内容,或者使用一个存储器来存储多于一项的上述内容。
需要说明的是,一个或多个存储器可以都是本地存储器(例如装载在该设备(或车辆)上的存储器),也可以都是云端存储器(例如云端服务器中的存储器),还可以部分是本地存储器部分是云端存储器。类似地,一个或多个处理器可以都是本地处理器(例如装载在该设备(或车辆)上的处理器),也可以都是云端处理器(例如云端服务器中的处理器),还可以部分是本地处理器部分是云端处理器。
图6是示意性地示出根据本公开实施例的自主驾驶的车辆500的框图。现在将参考图6描述车辆500,其还可以是应用于本公开的各方面的硬件设备的示例。车辆500可以是被配置为执行处理和/或计算的任何机器,可以是但不限于工作站、服务器、台式计算机、膝上型计算机、平板计算机、个人数据助理、智能电话、车载电脑、或其任何组合。上述根据本公开实施例的自主驾驶的设备可以全部或至少部分地由车辆500或类似设备或系统实现。
车辆500可以包括可能经由一个或多个接口与总线502连接或与总线502通信的元件。例如,车辆500可以包括总线502,以及一个或多个处理器504,一个或多个输入设备506和一个或多个输出设备508。一个或多个处理器504可以是任何类型的处理器,可以包括但不限于一个或多个通用处理器和/或一个或多个专用处理器(例如特殊处理芯片)。输入设备506可以是可以向计算设备输入信息的任何类型的设备,可以包括但不限于相机、LiDAR传感器、鼠标、键盘、触摸屏、麦克风和/或遥控器。输出设备508可以是可以呈现信息的任何类型的设备,可以包括但不限于显示器、扬声器、视频/音频输出终端、振动器和/或打印机。
车辆500还可以包括非暂时性存储设备510或者与非暂时性存储设备510连接。非暂时性存储设备510可以是非暂时性的并且可以实现数据存储的任何存储设备,可以包括但不限于磁盘驱动器、光学存储设备、固态存储器、软盘、硬盘、磁带或任何其他磁介质、光盘或任何其他光学介质、ROM(只读存储器)、RAM(随机存取存储器)、高速缓冲存储器、和/或任何其他存储器芯片/芯片组、和/或计算机可从其读取数据、指令和/或代码的任何其他介质。非暂时性存储设备510可以从接口拆卸。非暂时性存储设备510可以具有用于实现上述方法、步骤和过程的数据/指令/代码。上文所述的一个或多个存储器中的一个或多个可以由非暂时性存储设备510来实现。
车辆500还可以包括通信设备512。通信设备512可以是能够与外部设备和/或与网络通信的任何类型的设备或系统,可以包括但不限于调制解调器、网卡、红外通信设备、无线通信设备、和/或芯片组,例如蓝牙设备、1302.11设备、WiFi设备、WiMax设备、蜂窝通信设备、和/或类似物。
车辆500还可以连接到外部设备,例如GPS接收器,用于感测不同环境数据的传感器,例如加速度传感器、车轮速度传感器、陀螺仪和等等。以这种方式,车辆500可以例如接收指示车辆的行驶状况的位置数据和传感器数据。当车辆500用作车载设备时,它还可以连接到车辆的其他设施(例如发动机系统、雨刮器、防抱死制动系统等)以控制车辆的运行和操作。
另外,非暂时性存储设备510可以具有地图信息和软件元素,使得处理器504可以执行路线引导处理。另外,输出设备508可以包括用于显示地图、车辆的位置标记、以及指示车辆的行驶状况的图像的显示器。输出设备508还可以包括扬声器或具有耳机的接口,用于音频引导。
总线502可以包括但不限于工业标准体系结构(ISA)总线、微通道架构(MCA)总线、增强型ISA(EISA)总线、视频电子标准协会(VESA)本地总线、和外围部件互连(PCI)总线。特别地,对于车载设备,总线502还可以包括控制器区域网络(CAN)总线或设计用于在车辆上应用的其他架构。
车辆500还可以包括工作存储器514,其可以是可以存储对处理器504的工作有用的指令和/或数据的任何类型的工作存储器,可以包括但不限于随机存取存储器和/或只读存储设备。
软件元素可以位于工作存储器514中,包括但不限于操作系统516、一个或多个应用程序518、驱动程序、和/或其他数据和代码。用于执行上述方法和步骤的指令可以包括在一个或多个应用程序518中。软件元素的指令的可执行代码或源代码可以存储在非暂时性计算机可读存储介质中,例如上述存储设备510,并且可以通过编译和/或安装被读入工作存储器514中。还可以从远程位置下载软件元素的指令的可执行代码或源代码。
还应该理解,可以根据具体要求进行变化。例如,也可以使用定制硬件,和/或可以用硬件、软件、固件、中间件、微代码、硬件描述语言或其任何组合来实现特定元件。此外,可以采用与诸如网络输入/输出设备之类的其他计算设备的连接。例如,根据本公开实施例的方法或装置中的一些或全部可以通过使用根据本公开的逻辑和算法的、用汇编语言或硬件编程语言(诸如VERILOG,VHDL,C++)的编程硬件(例如,包括现场可编程门阵列(FPGA)和/或可编程逻辑阵列(PLA)的可编程逻辑电路)来实现。
还应该理解,车辆500的组件可以分布在网络上。例如,可以使用一个处理器执行一些处理,而可以由远离该一个处理器的另一个处理器执行其他处理。车辆500的其他组件也可以类似地分布。这样,车辆500可以被解释为在多个位置执行处理的分布式计算系统。
尽管到目前为止已经参考附图描述了本公开的各方面,但是上述方法,系统和设备仅仅是示例性示例,并且本发明的范围不受这些方面的限制,而是仅由以下方面限定:所附权利要求及其等同物。可以省略各种元件,或者可以用等效元件代替。另外,可以以与本公开中描述的顺序不同的顺序执行这些步骤。此外,可以以各种方式组合各种元件。同样重要的是,随着技术的发展,所描述的许多元素可以由在本公开之后出现的等同元素代替。
Claims (15)
1.一种道路预测的方法,包括:
接收指示车辆的环境的激光数据,所述激光数据包括与所述环境中的一个或多个对象相关联的多个数据点;
基于所述多个数据点生成二维图像,所述二维图像在与道路表面基本平行的方向上指示所述环境;
对所述二维图像进行特征提取,以得到比所述二维图像具有更低分辨率的特征映射;以及
对所述特征映射进行重构,以得到比所述特征映射具有更高分辨率的预测图像,并基于所述预测图像得到道路预测的结果,所述道路预测的结果包括道路的轮廓和可行驶区域两者。
2.根据权利要求1所述的方法,其特征在于,基于所述多个数据点生成所述二维图像包括:
将所述环境沿与道路表面基本平行的平面的方向划分为M×N个单元,每个单元沿与所述平面垂直的方向延伸所述环境的高度;以及
基于所述多个数据点分布在每个单元中的数据点的个数或坐标值,确定每个单元所对应的像素的灰度值,从而生成分辨率为M×N的具有灰度的所述二维图像。
3.根据权利要求1所述的方法,其特征在于,
基于所述多个数据点生成所述二维图像包括:分别基于所述多个数据点的第一和第二部分生成第一和第二图像,
对所述二维图像进行特征提取以得到特征映射包括:分别对所述第一和第二图像进行特征提取以分别得到所述第一和第二图像各自的特征映射;或者分别对所述第一和第二图像进行特征提取之后进行叠加,以得到针对所述第一和第二图像的结合的特征映射。
4.根据权利要求1所述的方法,其特征在于,
基于所述多个数据点生成所述二维图像包括:分别基于所述多个数据点的第一至第三部分生成第一至第三图像,
对所述二维图像进行特征提取以得到特征映射包括:分别对所述第一至第三图像进行特征提取以分别得到所述第一至第三图像各自的特征映射;或者分别对所述第一至第三图像进行特征提取之后进行叠加,以得到针对所述第一至第三图像的结合的特征映射。
5.根据权利要求3所述的方法,其特征在于,
所述第一部分包括其高度接近道路表面的高度的数据点;以及
所述第二部分包括其高度接近道路旁的树木的树冠的高度的数据点、和/或其高度接近位于道路上的对象的至少一部分的高度的数据点。
6.根据权利要求4所述的方法,其特征在于,
所述第一部分包括其高度接近道路表面的高度的数据点;
所述第二部分包括其高度接近道路旁的树木的树冠的高度的数据点、和/或其高度接近位于道路上的对象的至少一部分的高度的数据点;以及
所述第三部分包括所述多个数据点中除所述第一和第二部分之外的全部数据点、或所述多个数据点中全部的数据点。
7.根据权利要求1所述的方法,其特征在于,还包括:在所述重构之前,将所述特征映射进行重分布处理以减小所述特征映射的方差,以及将重分布后的特征映射进行重构。
8.根据权利要求1所述的方法,其特征在于,对所述特征映射进行重构包括:
对所述特征映射进行实例分割处理以得到道路的轮廓;以及
对所述特征映射进行二值分割处理以得到可行驶区域。
9.一种道路预测的方法,包括:
接收指示车辆的环境的激光数据,所述激光数据包括与所述环境中的一个或多个对象相关联的多个数据点;
基于所述多个数据点生成二维图像,所述二维图像在与道路表面基本平行的方向上指示所述环境;以及
基于预先训练的卷积神经网络模型,对所述二维图像进行处理,以得到道路的轮廓和可行驶区域两者。
10.一种自主驾驶的方法,包括:
接收指示车辆前方的环境的影像;
基于所述影像确定车辆前方的道路类别;以及
响应于确定为所述道路类别为非直行道路,进行如权利要求1-9中任一项所述的方法以得到车辆前方的道路的轮廓和可行驶区域两者。
11.根据权利要求10所述的方法,其特征在于,所述非直行道路为交叉路口。
12.一种自主驾驶的车辆,包括:
一个或多个相机,被配置为获取指示车辆前方的环境的影像;以及
一个或多个计算装置,被配置为:
从所述相机接收所述影像;
基于所述影像确定车辆前方的道路类别;以及
响应于确定为所述道路类别为非直行道路,进行如权利要求1-9中任一项所述的方法以得到车辆前方的道路的轮廓和可行驶区域两者。
13.根据权利要求12所述的车辆,其特征在于,所述非直行道路为交叉路口。
14.一种自主驾驶的设备,包括:
一个或多个处理器;以及
一个或多个存储器,所述一个或多个存储器被配置为存储一系列计算机可执行的指令,
其中,当所述一系列计算机可执行的指令被所述一个或多个处理器执行时,使得所述一个或多个处理器进行如权利要求1-11中任一项所述的方法。
15.一种非临时性计算机可读存储介质,其特征在于,所述非临时性计算机可读存储介质上存储有一系列计算机可执行的指令,当所述一系列计算机可执行的指令被一个或多个计算装置执行时,使得所述一个或多个计算装置进行如权利要求1-11中任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010076196.8A CN113177427A (zh) | 2020-01-23 | 2020-01-23 | 道路预测的方法以及自主驾驶的方法、车辆及设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010076196.8A CN113177427A (zh) | 2020-01-23 | 2020-01-23 | 道路预测的方法以及自主驾驶的方法、车辆及设备 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN113177427A true CN113177427A (zh) | 2021-07-27 |
Family
ID=76921405
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010076196.8A Pending CN113177427A (zh) | 2020-01-23 | 2020-01-23 | 道路预测的方法以及自主驾驶的方法、车辆及设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113177427A (zh) |
Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105182358A (zh) * | 2014-04-25 | 2015-12-23 | 谷歌公司 | 用于使用激光点云进行物体检测的方法和系统 |
US20160154999A1 (en) * | 2014-12-02 | 2016-06-02 | Nokia Technologies Oy | Objection recognition in a 3d scene |
KR101843866B1 (ko) * | 2016-11-30 | 2018-05-14 | 네이버 주식회사 | 라이다 데이터를 이용하여 도로 영역과 차선을 검출하는 방법 및 그 시스템 |
CN109300190A (zh) * | 2018-09-06 | 2019-02-01 | 百度在线网络技术(北京)有限公司 | 三维数据的处理方法、装置、设备和存储介质 |
US20190094875A1 (en) * | 2017-09-28 | 2019-03-28 | Nec Laboratories America, Inc. | Generating occlusion-aware bird eye view representations of complex road scenes |
CN109557928A (zh) * | 2019-01-17 | 2019-04-02 | 湖北亿咖通科技有限公司 | 基于矢量地图和栅格地图的自动驾驶车辆路径规划方法 |
CN109740604A (zh) * | 2019-04-01 | 2019-05-10 | 深兰人工智能芯片研究院(江苏)有限公司 | 一种行驶区域检测的方法和设备 |
CN109829386A (zh) * | 2019-01-04 | 2019-05-31 | 清华大学 | 基于多源信息融合的智能车辆可通行区域检测方法 |
KR20190095622A (ko) * | 2018-01-26 | 2019-08-16 | 충북대학교 산학협력단 | 회피경로 생성방법 및 그를 위한 장치 |
CN110286387A (zh) * | 2019-06-25 | 2019-09-27 | 深兰科技(上海)有限公司 | 应用于自动驾驶系统的障碍物检测方法、装置及存储介质 |
US20190371052A1 (en) * | 2018-05-31 | 2019-12-05 | Toyota Research Institute, Inc. | Inferring locations of 3d objects in a spatial environment |
-
2020
- 2020-01-23 CN CN202010076196.8A patent/CN113177427A/zh active Pending
Patent Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105182358A (zh) * | 2014-04-25 | 2015-12-23 | 谷歌公司 | 用于使用激光点云进行物体检测的方法和系统 |
US20160154999A1 (en) * | 2014-12-02 | 2016-06-02 | Nokia Technologies Oy | Objection recognition in a 3d scene |
KR101843866B1 (ko) * | 2016-11-30 | 2018-05-14 | 네이버 주식회사 | 라이다 데이터를 이용하여 도로 영역과 차선을 검출하는 방법 및 그 시스템 |
US20190094875A1 (en) * | 2017-09-28 | 2019-03-28 | Nec Laboratories America, Inc. | Generating occlusion-aware bird eye view representations of complex road scenes |
KR20190095622A (ko) * | 2018-01-26 | 2019-08-16 | 충북대학교 산학협력단 | 회피경로 생성방법 및 그를 위한 장치 |
US20190371052A1 (en) * | 2018-05-31 | 2019-12-05 | Toyota Research Institute, Inc. | Inferring locations of 3d objects in a spatial environment |
CN109300190A (zh) * | 2018-09-06 | 2019-02-01 | 百度在线网络技术(北京)有限公司 | 三维数据的处理方法、装置、设备和存储介质 |
CN109829386A (zh) * | 2019-01-04 | 2019-05-31 | 清华大学 | 基于多源信息融合的智能车辆可通行区域检测方法 |
CN109557928A (zh) * | 2019-01-17 | 2019-04-02 | 湖北亿咖通科技有限公司 | 基于矢量地图和栅格地图的自动驾驶车辆路径规划方法 |
CN109740604A (zh) * | 2019-04-01 | 2019-05-10 | 深兰人工智能芯片研究院(江苏)有限公司 | 一种行驶区域检测的方法和设备 |
CN110286387A (zh) * | 2019-06-25 | 2019-09-27 | 深兰科技(上海)有限公司 | 应用于自动驾驶系统的障碍物检测方法、装置及存储介质 |
Non-Patent Citations (3)
Title |
---|
YANG B, LUO W, URTASUN R: "Pixor:Real-Time 3D Object Detection from point Clouds", ARXIV:1902.06326V1, vol. 2019, pages 1 - 10 * |
程健: "基于三维激光雷达的实时目标检测", 中国优秀硕士学位论文全文数据库信息科技辑, vol. 2016, no. 6, pages 136 - 629 * |
陈文静,唐轶: "基于深度学习的图像超分辨率重建方法综述", 云南民族大学学报(自然科学版), vol. 28, no. 06, pages 597 - 605 * |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111095291B (zh) | 由自动驾驶车辆实时检测车道和边界 | |
CN110588653B (zh) | 自主车辆的控制系统、控制方法以及控制器 | |
EP3361278B1 (en) | Autonomous vehicle localization based on walsh kernel projection technique | |
CN108496178B (zh) | 用于估计未来路径的系统和方法 | |
US11248925B2 (en) | Augmented road line detection and display system | |
US11747444B2 (en) | LiDAR-based object detection and classification | |
CN110531376B (zh) | 用于港口无人驾驶车辆的障碍物检测和跟踪方法 | |
EP4186230A1 (en) | Drivable surface identification techniques | |
WO2018020954A1 (ja) | 機械学習用データベース作成システム | |
WO2021126807A1 (en) | Methods and systems for constructing map data using poisson surface reconstruction | |
JP7269453B2 (ja) | 車両位置決定方法及びシステム | |
JPWO2007083494A1 (ja) | 図形認識装置、図形認識方法および図形認識プログラム | |
US20220156483A1 (en) | Efficient three-dimensional object detection from point clouds | |
US11842440B2 (en) | Landmark location reconstruction in autonomous machine applications | |
US11200679B1 (en) | System and method for generating a probability distribution of a location of an object | |
DE102022126706A1 (de) | 3D-Oberflächenrekonstruktion mit Punktwolkenverdichtung unter Verwendung tiefer neuronaler Netze für autonome Systeme und Anwendungen | |
DE102022126707A1 (de) | Verwendung neuronaler Netze zur 3D-Oberflächenstrukturschätzung basierend auf realen Daten für autonome Systeme und Anwendungen | |
DE102022128030A1 (de) | 3d-flächenrekonstruktion mit punktwolkenverdichtung unter verwendung künstlicher intelligenz für autonome systeme und anwendungen | |
CN117576652A (zh) | 道路对象的识别方法、装置和存储介质及电子设备 | |
US11869253B2 (en) | Vehicle environment modeling with a camera | |
CN117115690A (zh) | 一种基于深度学习和浅层特征增强的无人机交通目标检测方法及系统 | |
Aboah et al. | Ai-based framework for understanding car following behaviors of drivers in a naturalistic driving environment | |
CN113177427A (zh) | 道路预测的方法以及自主驾驶的方法、车辆及设备 | |
CN111060114A (zh) | 用于生成高精度地图的特征图的方法和装置 | |
CN115985109B (zh) | 一种无人驾驶矿车环境感知方法和系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |