CN111339876B - 用于识别场景中各区域类型的方法和装置 - Google Patents
用于识别场景中各区域类型的方法和装置 Download PDFInfo
- Publication number
- CN111339876B CN111339876B CN202010101688.8A CN202010101688A CN111339876B CN 111339876 B CN111339876 B CN 111339876B CN 202010101688 A CN202010101688 A CN 202010101688A CN 111339876 B CN111339876 B CN 111339876B
- Authority
- CN
- China
- Prior art keywords
- pixel
- point cloud
- laser point
- projection
- sample
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
- G06V20/13—Satellite images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Biomedical Technology (AREA)
- Evolutionary Computation (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Astronomy & Astrophysics (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Remote Sensing (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Traffic Control Systems (AREA)
Abstract
本公开的实施例公开了用于识别场景中各区域类型的方法和装置。该方法的一具体实施方式包括:获取待识别场景的激光点云;对激光点云进行预处理及鸟瞰网格化投影,得到投影图;对于投影图中每个像素,提取投影在该像素内的所有激光点云的至少一种高度特征,生成至少一种特征图;将至少一种特征图输入预先训练的神经网络模型,得到各像素的类别;对于投影图中每个像素,将该像素的类别作为投影在该像素内的所有激光点云的类别输出。该实施方式能够减少对高精地图的依赖,提高自动驾驶能力。
Description
技术领域
本公开的实施例涉及计算机技术领域,具体涉及用于识别场景中各区域类型的方法和装置。
背景技术
在自动驾驶领域,为了对周围环境进行更精确充分的感知,进而指导决策规划,往往需要理解场景中各个区域的类型(例如,障碍物,路面,路沿,栅栏,绿植等)。
现有方案通常根据人工标注的高精地图来获取场景中各区域的类型信息,但这种方案强依赖于高精地图的时效性和定位的准确性,需要人工标注场景中各位置属性,根据场景变化频繁更新地图,并且动态场景适应性不好,无法适用于未知场景。
发明内容
本公开的实施例提出了用于识别场景中各区域类型的方法和装置。
第一方面,本公开的实施例提供了一种用于识别场景中各区域类型的方法,包括:获取待识别场景的激光点云;对激光点云进行预处理及鸟瞰网格化投影,得到投影图,其中,影图中每个像素与一个网格对应,且每个像素包括该像素对应的网格内的激光点云的鸟瞰投影;对于投影图中每个像素,提取投影在该像素内的所有激光点云至少一种高度特征,生成至少一种特征图;将至少一种特征图输入预先训练的神经网络模型,得到各像素的类别;对于投影图中每个像素,将该像素的类别作为投影在该像素内的所有激光点云的类别输出。
在一些实施例中,神经网络模型通过如下方法训练:获取样本激光点云;对样本激光点云进行预处理及鸟瞰网格化投影,得到样本投影图,其中,样本投影图中每个像素与一个网格对应,且每个像素包括该像素对应的网格内的样本激光点云的鸟瞰投影;对于样本投影图中每个像素,提取投影在该像素内的所有样本激光点云的以下至少一种特征,生成至少一种样本特征图:最大高度,最大高度与最小高度之差,距离最小高度第一区间内的激光点云占投影在该像素内的总点云数比例,距离最小高度第二区间内的激光点云占投影在该像素内的总点云数比例;对样本投影图中每个像素进行类别标注生成目标图;将至少一种样本特征图作为输入,目标图作为期望输出,训练神经网络模型。
在一些实施例中,对样本投影图中每个像素进行类别标注生成目标图,包括:对于样本投影图中每个像素,投影在该像素内的各类别的激光点云中数量最大的类别作为像素类别进行标注生成目标图。
在一些实施例中,对样本投影图中每个像素进行类别标注生成目标图,包括:对于样本投影图中每个像素,根据先验信息及识别任务需求,调整该像素的类别生成顺序,进行标注生成目标图。
在一些实施例中,该方法还包括:根据不同类别像素数量,调整各类别训练权重,平衡不同类别像素数量差异过大的问题。
在一些实施例中,高度特征包括以下至少一种:最大高度,最大高度与最小高度之差,距离最小高度第一区间内的激光点云占投影在该像素内的总点云数比例,距离最小高度第二区间内的激光点云占投影在该像素内的总点云数比例。
第二方面,本公开的实施例提供了一种用于识别场景中各区域类型的装置,包括:获取单元,被配置成获取待识别场景的激光点云;投影单元,被配置成对激光点云进行预处理及鸟瞰网格化投影,得到投影图,其中,影图中每个像素与一个网格对应,且每个像素包括该像素对应的网格内的激光点云的鸟瞰投影;生成单元,被配置成对于投影图中每个像素,提取投影在该像素内的所有激光点云的至少一种高度特征,生成至少一种特征图;检测单元,被配置成将至少一种特征图输入预先训练的神经网络模型,得到各像素的类别;输出单元,被配置成对于投影图中每个像素,将投影在该像素的类别作为该像素内的所有激光点云的类别输出。
在一些实施例中,该装置还包括训练单元,被配置成:获取样本激光点云;对样本激光点云进行预处理及鸟瞰网格化投影,得到样本投影图,其中,样本投影图中每个像素包括该网格内的样本激光点云;对于样本投影图中每个像素,提取投影在该像素内的所有样本激光点云的以下至少一种特征,生成至少一种样本特征图:最大高度,最大高度与最小高度之差,距离最小高度预定第一区间内的激光点云占比,距离最小高度预定第二区间内的激光点云占比;对样本投影图中每个像素进行类别标注生成目标图;将至少一种样本特征图作为输入,目标图作为期望输出,训练神经网络模型。
在一些实施例中,训练单元进一步被配置成:对于样本投影图中每个像素,投影在该像素内的各类别的激光点云中数量最大的类别作为像素类别进行标注生成目标图。
在一些实施例中,训练单元进一步被配置成:对于样本投影图中每个像素,根据先验信息及识别任务需求,调整该像素的类别生成顺序,进行标注生成目标图。
在一些实施例中,训练单元进一步被配置成:根据不同类别像素数量,调整各类别训练权重,平衡不同类别像素数量差异过大的问题。
在一些实施例中,高度特征包括以下至少一种:最大高度,最大高度与最小高度之差,距离最小高度第一区间内的激光点云占投影在该像素内的总点云数比例,距离最小高度第二区间内的激光点云占投影在该像素内的总点云数比例。
第三方面,本公开的实施例提供了一种用于识别场景中各区域类型的电子设备,包括:一个或多个处理器;存储装置,其上存储有一个或多个程序,当一个或多个程序被一个或多个处理器执行,使得一个或多个处理器实现如第一方面中任一的方法。
第四方面,本公开的实施例提供了一种计算机可读介质,其上存储有计算机程序,其中,程序被处理器执行时实现如第一方面中任一的方法。
本公开的实施例提供的用于识别场景中各区域类型的方法和装置,结合激光点云和深度学习技术对场景进行建模,从而达到部分或完全替代高精地图的作用,提高车辆在未知场景或变化场景中的适应性,提升自动驾驶能力。
附图说明
通过阅读参照以下附图所作的对非限制性实施例所作的详细描述,本公开的其它特征、目的和优点将会变得更明显:
图1是本公开的一个实施例可以应用于其中的示例性系统架构图;
图2是根据本公开的用于识别场景中各区域类型的方法的一个实施例的流程图;
图3是根据本公开的用于识别场景中各区域类型的方法的一个应用场景的示意图;
图4是根据本公开的用于识别场景中各区域类型的方法的又一个实施例的流程图;
图5是根据本公开的用于识别场景中各区域类型的装置的一个实施例的结构示意图;
图6是适于用来实现本公开的实施例的电子设备的计算机系统的结构示意图。
具体实施方式
下面结合附图和实施例对本公开作进一步的详细说明。可以理解的是,此处所描述的具体实施例仅仅用于解释相关发明,而非对该发明的限定。另外还需要说明的是,为了便于描述,附图中仅示出了与有关发明相关的部分。
需要说明的是,在不冲突的情况下,本公开中的实施例及实施例中的特征可以相互组合。下面将参考附图并结合实施例来详细说明本公开。
图1示出了可以应用本申请的用于识别场景中各区域类型的方法或用于识别场景中各区域类型的装置的实施例的示例性系统架构100。
如图1所示,系统架构100可以包括无人车101。
无人车101中可以安装有驾驶控制设备1011、网络1012和激光雷达1013。网络1012用以在驾驶控制设备1011和激光雷达1013之间提供通信链路的介质。网络1012可以包括各种连接类型,例如有线、无线通信链路或者光纤电缆等等。
驾驶控制设备(又称为车载大脑)1011负责无人车101的智能控制。驾驶控制设备1011可以是单独设置的控制器,例如可编程逻辑控制器(Programmable LogicController,PLC)、单片机、工业控制机等;也可以是由其他具有输入/输出端口,并具有运算控制功能的电子器件组成的设备;还可以是安装有车辆驾驶控制类应用的计算机设备。
需要说明的是,实践中无人车101中还可以安装有至少一个传感器,例如,摄像机、重力传感器、轮速传感器等。某些情况下,无人车101中还可以安装有GNSS(GlobalNavigation Satellite System,全球导航卫星系统)设备和SINS(Strap-down InertialNavigation System,捷联惯性导航系统)等等。
需要说明的是,本申请实施例所提供的用于识别场景中各区域类型的方法一般由驾驶控制设备1011执行,相应地,用于识别场景中各区域类型的装置一般设置于驾驶控制设备1011中。
应该理解,图1中的驾驶控制设备、网络和激光雷达的数目仅仅是示意性的。根据实现需要,可以具有任意数目的驾驶控制设备、网络和激光雷达。
继续参考图2,其示出了根据本申请的用于识别场景中各区域类型的方法的一个实施例的流程200。该用于识别场景中各区域类型的方法,包括以下步骤:
步骤201,获取待识别场景的激光点云。
在本实施例中,在无人车行驶过程中,无人车上安装的各种车载传感器(例如,激光雷达、照相机、毫米波雷达等)可以实时采集外界环境信息,激光雷达生成三维点云数据传输给用于识别场景中各区域类型的方法运行于其上的电子设备(例如,图1所示的驾驶控制设备)。上述电子设备可以对所接收的各种传感器数据进行分析处理,以对车辆周围环境进行感知,而进行车辆的路径规划和行驶控制。
由于激光雷达可安放在环境中的任意位置,在环境中选择一个基准坐标系来描述激光雷达的位置,并用它描述环境中任何物体的位置。该坐标系称为世界坐标系。世界坐标系是以无人车为中心o,xy平面平行于无人车的顶棚。
步骤202,对激光点云进行预处理及鸟瞰网格化投影,得到投影图。
在本实施例中,首先要去除噪声点,这里的噪声点不是地面点,而是由于雷达本身产生的噪声。可通过设置预定的高度阈值进行过滤。高度阈值可包括最大阈值和最小阈值,例如,可设置最小阈值为地面的高度,如果预处理后的点云的高度小于地面的高度,则说明该点云为噪声,需要过滤掉。这里的高度指的是世界坐标系中的z值。
无人车搭载的激光雷达是通过360度旋转扫描周围环境的,例如64线激光雷达,是指64个激光雷达纵向排列,俯仰角不同,然后通过旋转,达到对360度环境的采样。那么这种工作方式,很容易让人想到,扫出来的点如果转为柱坐标,就是可以根据俯仰角、转角和距离一一确定的点,而且点和点之间有固定关系,展开就是一张深度图像,被称为RangeView。由于考虑自动驾驶环境中的物体都是在路面上,在俯视图中一般是彼此无遮挡的,经过体素化,将每一层的体素都认为是一张图像的一个channel,就可以将激光点云转为鸟瞰图(birdview)。
将雷达点云转为图像之后,那么各种问题的处理就变得非常容易,只需要使用在处理图像的成熟的网络即可。
以无人车为中心,对x,y坐标在+-r以内的点云,以birdview的方式投影,栅格化形成M*M像素的投影图,每个像素包含该网格内的激光点云的鸟瞰投影。例如,对x,y坐标在[-60米,60米]以birdview的方式投影,栅格化形成600*600像素的投影图。每个网格尺寸为20cm*20cm。
步骤203,对于投影图中每个像素,提取投影在该像素内的所有激光点云的至少一种高度特征,生成至少一种特征图。
在本实施例中,按以下至少一种方式生成特征图:
a)对每个像素,提取投影在该像素内的所有激光点云最大高度(max z),归一化后,生成max z feature map(最大高度特征图)。这里的归一化用到了预处理时过滤噪声的高度的最大阈值,将每个像素中最大高度除以最大阈值,得到的归一化最大高度在[-1,1]之间。
b)对每个像素,计算投影在该像素内所有激光点云max z与最小高度(min z)之差,归一化后,生成z diff feature map(最大高度与最小高度之差特征图)。这里的归一化用到了预处理时过滤噪声的高度的最大阈值和最小阈值之差,简称为最大差,将每个像素中最大高度和最小高度之差除以最大差,得到的归一化值在[-1,1]之间。
c)对每个像素,计算投影在该像素内,高度在距离最小高度第一区间,第一区间可以是预先设置的,例如[min z,min z+0.05m)范围内的点云占投影在该像素内总点云数比例,生成bottom z ratio feature map(底层高度占比特征图)。这里的0.05是经验值,用于区分地面和路沿高度。也可设置成其它值用于区分不同的类别。
d)对每个像素,计算投影在该像素内,高度在距离最小高度预定第二区间,例如[min z+0.05m,min z+1.5m)范围内的点云占投影在该像素内总点云数比例,生成middle zratio feature map(中间层高度占比特征图)。这里的1.5是经验值,用于区分栅栏和路沿高度。也可设置成其它值用于区分不同的类别。
具体使用时,四张全用的效果最好。也可使用一张或多张进行识别。
步骤204,将至少一种特征图输入预先训练的神经网络模型,得到各像素的类别。
在本实施例中,神经网络模型用于识别各像素的类别,神经网络模型通过有监督训练得到。训练样本中输入为上述至少一种特征图,输出为标注了各像素的类别的网格图。
步骤205,对于投影图中每个像素,将该像素的类别作为投影在该像素内的所有激光点云的类别输出。
在本实施例中,为了简化处理,将每个像素的类别视为每个像素对应的网格中所有激光点云的类别。例如,激光点云可分为6个类别:障碍物,路面,路沿,栅栏,绿植,其他。识别的精度取决于投影图中网格大小。如果20cm*20cm的网格,则在这个网格内的点云会被判定为同一类别。为了提高精度,可缩小网格尺寸,但会增加计算量。可选地,无人车可获取当前地理位置,然后根据当前地理位置的类型自动调整网格大小,例如机场等简单地形情况下可使用大尺寸的网格,而在繁华街区需要使用小尺寸的网格。
继续参见图3,图3是根据本实施例的用于识别场景中各区域类型的方法的应用场景的一个示意图。在图3的应用场景中,无人车通过激光雷达获取待识别场景的激光点云。然后过滤掉噪声后进行鸟瞰网格化投影,得到投影图(600*600像素,每个像素代表20cm*20cm的区域)。再将投影图对应的激光点云通过四种不同方式提取特征,得到四张特征图。将这四张特征图输入预先训练的神经网络模型,输出了投影图中各像素的类别。对于投影图中每个像素,将该像素的类别作为该像素内的所有激光点云的类别输出。
基于高精地图的场景区域理解,灵活性较差及对无法应用到未知场景,本方案基于深度学习的场景理解,无需频繁更新地图,灵活性和适应性更强。
进一步参考图4,其示出了用于识别场景中各区域类型的方法的又一个实施例的流程400。该用于识别场景中各区域类型的方法的流程400,包括以下步骤:
步骤401,获取样本激光点云。
步骤402,对样本激光点云进行预处理及鸟瞰网格化投影,得到样本投影图。
步骤403,对于样本投影图中每个像素,提取投影在该像素内的所有样本激光点云的至少一种高度特征,生成至少一种样本特征图。
步骤401-403与步骤201-203基本相同,因此不再赘述。
步骤404,对样本投影图中每个像素进行类别标注生成目标图。
在本实施例中,点云可分为6个类别(障碍物,路面,路沿,栅栏,绿植,其他),对每个像素的类别,根据该像素内各类别点云中数量最大的类别作为像素类别,可选地,还可根据先验信息及任务需求,可调整像素类别生成顺序,最后形成目标图。比如一个像素内,既有地面点,又有绿植点,那么该像素的类别应该是绿植,而不是哪个类别的点多就算哪个类别。一个像素内既有地面点,又有栅栏点,那么该像素的类别是栅栏,而不管哪个类别的点多。
步骤405,将至少一种样本特征图作为输入,目标图作为期望输出,训练神经网络模型。
在本实施例中,采用有监督方式训练神经网络模型,训练方法为现有技术,因此不再赘述。可根据不同类别像素数量,调整各类别训练权重,平衡不同类别像素数量差异过大的问题。例如,地面类型学习最容易,绿植类型难学习,则提高绿植训练的权重。
进一步参考图5,作为对上述各图所示方法的实现,本公开提供了一种用于识别场景中各区域类型的装置的一个实施例,该装置实施例与图2所示的方法实施例相对应,该装置具体可以应用于各种电子设备中。
如图5所示,本实施例的用于识别场景中各区域类型的装置500包括:获取单元501、投影单元502、生成单元503、检测单元504和输出单元505。其中,获取单元501,被配置成获取待识别场景的激光点云;投影单元502,被配置成对激光点云进行预处理及鸟瞰网格化投影,得到投影图,其中,投影图中每个像素与一个网格对应,且每个像素包括该像素对应的网格内的激光点云的鸟瞰投影;生成单元503,被配置成对于投影图中每个像素,提取投影在该像素内的所有激光点云的至少一种高度特征,生成至少一种特征图;检测单元504,被配置成将至少一种特征图输入预先训练的神经网络模型,得到各像素的类别;输出单元505,被配置成对于投影图中每个像素,将该像素的类别作为投影在该像素内的所有激光点云的类别输出。
在本实施例中,用于识别场景中各区域类型的装置500的获取单元501、投影单元502、生成单元503、检测单元504和输出单元505的具体处理可以参考图2对应实施例中的步骤201、步骤202、步骤203、步骤204和步骤205。
在本实施例的一些可选的实现方式中,高度特征包括以下至少一种:最大高度,最大高度与最小高度之差,距离最小高度第一区间内的激光点云占投影在该像素内的总点云数比例,距离最小高度第二区间内的激光点云占投影在该像素内的总点云数比例。
在本实施例的一些可选的实现方式中,装置500还包括训练单元(附图中未示出),被配置成:获取样本激光点云;对样本激光点云进行预处理及鸟瞰网格化投影,得到样本投影图,其中,样本投影图中每个像素与一个网格对应,且每个像素包括该像素对应的网格内的样本激光点云的鸟瞰投影;对于样本投影图中每个像素,提取投影在该像素内的所有样本激光点云的以下至少一种特征,生成至少一种样本特征图:最大高度,最大高度与最小高度之差,距离最小高度第一区间内的激光点云占投影在该像素内的总点云数比例,距离最小高度第二区间内的激光点云占投影在该像素内的总点云数比例;对样本投影图中每个像素进行类别标注生成目标图;将至少一种样本特征图作为输入,目标图作为期望输出,训练神经网络模型。
在本实施例的一些可选的实现方式中,训练单元进一步被配置成:对于样本投影图中每个像素,投影在该像素内的各类别的激光点云中数量最大的类别作为像素类别进行标注生成目标图。
在本实施例的一些可选的实现方式中,训练单元进一步被配置成:对于样本投影图中每个像素,根据先验信息及识别任务需求,调整该像素的类别生成顺序,进行标注生成目标图。
在本实施例的一些可选的实现方式中,训练单元进一步被配置成:根据不同类别像素数量,调整各类别训练权重,平衡不同类别像素数量差异过大的问题。
下面参考图6,其示出了适于用来实现本公开的实施例的电子设备(例如图1中的驾驶控制设备)600的结构示意图。图6示出的驾驶控制设备仅仅是一个示例,不应对本公开的实施例的功能和使用范围带来任何限制。
如图6所示,电子设备600可以包括处理装置(例如中央处理器、图形处理器等)601,其可以根据存储在只读存储器(ROM)602中的程序或者从存储装置608加载到随机访问存储器(RAM)603中的程序而执行各种适当的动作和处理。在RAM 603中,还存储有电子设备600操作所需的各种程序和数据。处理装置601、ROM 602以及RAM603通过总线604彼此相连。输入/输出(I/O)接口605也连接至总线604。
通常,以下装置可以连接至I/O接口605:包括例如触摸屏、触摸板、键盘、鼠标、摄像头、麦克风、加速度计、陀螺仪等的输入装置606;包括例如液晶显示器(LCD)、扬声器、振动器等的输出装置607;包括例如磁带、硬盘等的存储装置608;以及通信装置609。通信装置609可以允许电子设备600与其他设备进行无线或有线通信以交换数据。虽然图6示出了具有各种装置的电子设备600,但是应理解的是,并不要求实施或具备所有示出的装置。可以替代地实施或具备更多或更少的装置。图6中示出的每个方框可以代表一个装置,也可以根据需要代表多个装置。
特别地,根据本公开的实施例,上文参考流程图描述的过程可以被实现为计算机软件程序。例如,本公开的实施例包括一种计算机程序产品,其包括承载在计算机可读介质上的计算机程序,该计算机程序包含用于执行流程图所示的方法的程序代码。在这样的实施例中,该计算机程序可以通过通信装置609从网络上被下载和安装,或者从存储装置608被安装,或者从ROM 602被安装。在该计算机程序被处理装置601执行时,执行本公开的实施例的方法中限定的上述功能。需要说明的是,本公开的实施例所述的计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质或者是上述两者的任意组合。计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子可以包括但不限于:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本公开的实施例中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。而在本公开的实施例中,计算机可读信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读信号介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于:电线、光缆、RF(射频)等等,或者上述的任意合适的组合。
上述计算机可读介质可以是上述电子设备中所包含的;也可以是单独存在,而未装配入该电子设备中。上述计算机可读介质承载有一个或者多个程序,当上述一个或者多个程序被该电子设备执行时,使得该电子设备:获取待识别场景的激光点云;对激光点云进行预处理及鸟瞰网格化投影,得到投影图;对于投影图中每个像素,提取投影在该像素内的所有激光点云的以下至少一种特征,生成至少一种特征图:最大高度,最大高度与最小高度之差,距离最小高度预定第一区间内的激光点云占比,距离最小高度预定第二区间内的激光点云占比;将至少一种特征图输入预先训练的神经网络模型,得到各像素的类别;对于投影图中每个像素,将该像素的类别作为投影在该像素内的所有激光点云的类别输出。
可以以一种或多种程序设计语言或其组合来编写用于执行本公开的实施例的操作的计算机程序代码,所述程序设计语言包括面向对象的程序设计语言—诸如Java、Smalltalk、C++,还包括常规的过程式程序设计语言—诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络——包括局域网(LAN)或广域网(WAN)—连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。
附图中的流程图和框图,图示了按照本公开各种实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,该模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
描述于本公开的实施例中所涉及到的单元可以通过软件的方式实现,也可以通过硬件的方式来实现。所描述的单元也可以设置在处理器中,例如,可以描述为:一种处理器包括获取单元、投影单元、生成单元、检测单元和输出单元。其中,这些单元的名称在某种情况下并不构成对该单元本身的限定,例如,获取单元还可以被描述为“获取待识别场景的激光点云的单元”。
以上描述仅为本公开的较佳实施例以及对所运用技术原理的说明。本领域技术人员应当理解,本公开中所涉及的发明范围,并不限于上述技术特征的特定组合而成的技术方案,同时也应涵盖在不脱离所述发明构思的情况下,由上述技术特征或其等同特征进行任意组合而形成的其它技术方案。例如上述特征与本公开中公开的(但不限于)具有类似功能的技术特征进行互相替换而形成的技术方案。
Claims (12)
1.一种用于识别场景中各区域类型的方法,包括:
获取待识别场景的激光点云;
对所述激光点云进行预处理及鸟瞰网格化投影,得到投影图,其中,所述投影图中每个像素与一个网格对应,且每个像素包括该像素对应的网格内的激光点云的鸟瞰投影;
对于所述投影图中每个像素,提取投影在该像素内的所有激光点云的以下高度特征,生成各特征图:最大高度,最大高度与最小高度之差,距离最小高度第一区间内的激光点云占投影在该像素内的总点云数比例,距离最小高度第二区间内的激光点云占投影在该像素内的总点云数比例,其中,距离最小高度第一区间内的激光点云占投影在该像素内的总点云数比例的特征图用于区分地面和路沿高度,距离最小高度第二区间内的激光点云占投影在该像素内的总点云数比例的特征图用于区分栅栏和路沿高度;
将所述各特征图输入预先训练的神经网络模型,得到各像素的类别,其中,类别包括以下6种:障碍物,地面,路沿,栅栏,绿植,其他;
对于所述投影图中每个像素,将该像素的类别作为投影在该像素内的所有激光点云的类别输出。
2.根据权利要求1所述的方法,其中,所述神经网络模型通过如下方法训练:
获取样本激光点云;
对所述样本激光点云进行预处理及鸟瞰网格化投影,得到样本投影图,其中,所述样本投影图中每个像素与一个网格对应,且每个像素包括该像素对应的网格内的样本激光点云的鸟瞰投影;
对于所述样本投影图中每个像素,提取投影在该像素内的所有样本激光点云的以下高度特征,生成各样本特征图:最大高度,最大高度与最小高度之差,距离最小高度第一区间内的激光点云占投影在该像素内的总点云数比例,距离最小高度第二区间内的激光点云占投影在该像素内的总点云数比例;
对所述样本投影图中每个像素进行类别标注生成目标图;
将所述各样本特征图作为输入,所述目标图作为期望输出,训练神经网络模型。
3.根据权利要求2所述的方法,其中,所述对所述样本投影图中每个像素进行类别标注生成目标图,包括:
对于所述样本投影图中每个像素,将投影在该像素内各类别的激光点云中数量最大的类别作为像素类别进行标注生成目标图。
4.根据权利要求3所述的方法,其中,所述对所述样本投影图中每个像素进行类别标注生成目标图,包括:
对于所述样本投影图中每个像素,根据先验信息及识别任务需求,调整该像素的类别生成顺序,进行标注生成目标图。
5.根据权利要求2所述的方法,其中,所述方法还包括:
根据不同类别像素数量,调整各类别训练权重,平衡不同类别像素数量差异过大的问题。
6.一种用于识别场景中各区域类型的装置,包括:
获取单元,被配置成获取待识别场景的激光点云;
投影单元,被配置成对所述激光点云进行预处理及鸟瞰网格化投影,得到投影图,其中,所述投影图中每个像素与一个网格对应,且每个像素包括该像素对应的网格内的激光点云的鸟瞰投影;
生成单元,被配置成对于所述投影图中每个像素,提取投影在该像素内所有激光点云的以下高度特征,生成各特征图:最大高度,最大高度与最小高度之差,距离最小高度第一区间内的激光点云占投影在该像素内的总点云数比例,距离最小高度第二区间内的激光点云占投影在该像素内的总点云数比例,其中,距离最小高度第一区间内的激光点云占投影在该像素内的总点云数比例的特征图用于区分地面和路沿高度,距离最小高度第二区间内的激光点云占投影在该像素内的总点云数比例的特征图用于区分栅栏和路沿高度;
检测单元,被配置成将所述各特征图输入预先训练的神经网络模型,得到各像素的类别,其中,类别包括以下6种:障碍物,地面,路沿,栅栏,绿植,其他;
输出单元,被配置成对于所述投影图中每个像素,将该像素的类别作为投影在该像素内的所有激光点云的类别输出。
7.根据权利要求6所述的装置,其中,所述装置还包括训练单元,被配置成:
获取样本激光点云;
对所述样本激光点云进行预处理及鸟瞰网格化投影,得到样本投影图,其中,所述样本投影图中每个像素与一个网格对应,且每个像素包括该像素对应的网格内的样本激光点云的鸟瞰投影;
对于所述样本投影图中每个像素,提取投影在该像素内的所有样本激光点云的以下高度特征,生成各样本特征图:最大高度,最大高度与最小高度之差,距离最小高度第一区间内的激光点云占投影在该像素内的总点云数比例,距离最小高度第二区间内的激光点云占投影在该像素内的总点云数比例;
对所述样本投影图中每个像素进行类别标注生成目标图;
将所述各样本特征图作为输入,所述目标图作为期望输出,训练神经网络模型。
8.根据权利要求7所述的装置,其中,所述训练单元进一步被配置成:
对于所述样本投影图中每个像素,将投影在该像素内各类别的激光点云中数量最大的类别作为像素类别进行标注生成目标图。
9.根据权利要求8所述的装置,其中,所述训练单元进一步被配置成:
对于所述样本投影图中每个像素,根据先验信息及识别任务需求,调整该像素的类别生成顺序,进行标注生成目标图。
10.根据权利要求7所述的装置,其中,所述训练单元进一步被配置成:
根据不同类别像素数量,调整各类别训练权重,平衡不同类别像素数量差异过大的问题。
11.一种用于识别场景中各区域类型的电子设备,包括:
一个或多个处理器;
存储装置,其上存储有一个或多个程序,
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如权利要求1-5中任一所述的方法。
12.一种计算机可读介质,其上存储有计算机程序,其中,所述程序被处理器执行时实现如权利要求1-5中任一所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010101688.8A CN111339876B (zh) | 2020-02-19 | 2020-02-19 | 用于识别场景中各区域类型的方法和装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010101688.8A CN111339876B (zh) | 2020-02-19 | 2020-02-19 | 用于识别场景中各区域类型的方法和装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111339876A CN111339876A (zh) | 2020-06-26 |
CN111339876B true CN111339876B (zh) | 2023-09-01 |
Family
ID=71181651
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010101688.8A Active CN111339876B (zh) | 2020-02-19 | 2020-02-19 | 用于识别场景中各区域类型的方法和装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111339876B (zh) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111830502B (zh) * | 2020-06-30 | 2021-10-12 | 广州小鹏自动驾驶科技有限公司 | 数据集的建立方法、车辆和存储介质 |
CN111967373B (zh) * | 2020-08-14 | 2021-03-30 | 东南大学 | 一种基于摄像头和激光雷达的自适应强化融合实时实例分割方法 |
CN112258512B (zh) * | 2020-10-16 | 2023-05-26 | 抖音视界有限公司 | 点云分割方法、装置、设备和存储介质 |
CN113447923A (zh) * | 2021-06-29 | 2021-09-28 | 上海高德威智能交通系统有限公司 | 目标检测方法、装置、系统、电子设备及存储介质 |
CN115877405A (zh) * | 2023-01-31 | 2023-03-31 | 小米汽车科技有限公司 | 可行驶区域的检测方法、装置及车辆 |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106951847A (zh) * | 2017-03-13 | 2017-07-14 | 百度在线网络技术(北京)有限公司 | 障碍物检测方法、装置、设备及存储介质 |
CN109344804A (zh) * | 2018-10-30 | 2019-02-15 | 百度在线网络技术(北京)有限公司 | 一种激光点云数据的识别方法、装置、设备和介质 |
CN109558838A (zh) * | 2018-11-29 | 2019-04-02 | 北京经纬恒润科技有限公司 | 一种物体识别方法及系统 |
CN109829399A (zh) * | 2019-01-18 | 2019-05-31 | 武汉大学 | 一种基于深度学习的车载道路场景点云自动分类方法 |
CN110135227A (zh) * | 2018-02-09 | 2019-08-16 | 电子科技大学 | 一种基于机器学习的激光点云室外场景自动分割方法 |
CN110361710A (zh) * | 2018-04-09 | 2019-10-22 | 北京京东尚科信息技术有限公司 | 基于激光点云的物体识别方法和装置 |
CN110390237A (zh) * | 2018-04-23 | 2019-10-29 | 北京京东尚科信息技术有限公司 | 点云数据处理方法和系统 |
CN110400363A (zh) * | 2018-04-24 | 2019-11-01 | 北京京东尚科信息技术有限公司 | 基于激光点云的地图构建方法和装置 |
CN110414577A (zh) * | 2019-07-16 | 2019-11-05 | 电子科技大学 | 一种基于深度学习的激光雷达点云多目标地物识别方法 |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105184852B (zh) * | 2015-08-04 | 2018-01-30 | 百度在线网络技术(北京)有限公司 | 一种基于激光点云的城市道路识别方法及装置 |
CN106097444B (zh) * | 2016-05-30 | 2017-04-12 | 百度在线网络技术(北京)有限公司 | 高精地图生成方法和装置 |
BR112019007000A2 (pt) * | 2016-10-07 | 2019-06-25 | Cmte Development Limited | sistema e método para teste de diagnóstico de nuvem de pontos de forma e posição de objeto |
-
2020
- 2020-02-19 CN CN202010101688.8A patent/CN111339876B/zh active Active
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106951847A (zh) * | 2017-03-13 | 2017-07-14 | 百度在线网络技术(北京)有限公司 | 障碍物检测方法、装置、设备及存储介质 |
CN110135227A (zh) * | 2018-02-09 | 2019-08-16 | 电子科技大学 | 一种基于机器学习的激光点云室外场景自动分割方法 |
CN110361710A (zh) * | 2018-04-09 | 2019-10-22 | 北京京东尚科信息技术有限公司 | 基于激光点云的物体识别方法和装置 |
CN110390237A (zh) * | 2018-04-23 | 2019-10-29 | 北京京东尚科信息技术有限公司 | 点云数据处理方法和系统 |
CN110400363A (zh) * | 2018-04-24 | 2019-11-01 | 北京京东尚科信息技术有限公司 | 基于激光点云的地图构建方法和装置 |
CN109344804A (zh) * | 2018-10-30 | 2019-02-15 | 百度在线网络技术(北京)有限公司 | 一种激光点云数据的识别方法、装置、设备和介质 |
CN109558838A (zh) * | 2018-11-29 | 2019-04-02 | 北京经纬恒润科技有限公司 | 一种物体识别方法及系统 |
CN109829399A (zh) * | 2019-01-18 | 2019-05-31 | 武汉大学 | 一种基于深度学习的车载道路场景点云自动分类方法 |
CN110414577A (zh) * | 2019-07-16 | 2019-11-05 | 电子科技大学 | 一种基于深度学习的激光雷达点云多目标地物识别方法 |
Non-Patent Citations (1)
Title |
---|
机载激光点云和高光谱影像融合的城市地物分类研究;李波;中国优秀硕士学位论文全文数据库基础科学辑(第06期);A008-117 * |
Also Published As
Publication number | Publication date |
---|---|
CN111339876A (zh) | 2020-06-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11482008B2 (en) | Directing board repositioning during sensor calibration for autonomous vehicles | |
CN111339876B (zh) | 用于识别场景中各区域类型的方法和装置 | |
EP3759562B1 (en) | Camera based localization for autonomous vehicles | |
US10817731B2 (en) | Image-based pedestrian detection | |
CN111542860B (zh) | 用于自主车辆的高清地图的标志和车道创建 | |
CN109214248B (zh) | 用于识别无人驾驶车辆的激光点云数据的方法和装置 | |
CN107328424B (zh) | 导航方法和装置 | |
US11094112B2 (en) | Intelligent capturing of a dynamic physical environment | |
CN110008851B (zh) | 一种车道线检测的方法及设备 | |
US20190026920A1 (en) | Method, apparatus and terminal device for constructing map | |
US10817734B2 (en) | Information processing apparatus, information processing method, and computer program product | |
CN112204343A (zh) | 高清晰地图数据的可视化 | |
CN111291697B (zh) | 用于识别障碍物的方法和装置 | |
CN110196454B (zh) | 基于无人机的地质勘测集成系统 | |
CN112258519B (zh) | 一种高精度地图制作中道路的让行线自动化提取方法及装置 | |
CN111353453B (zh) | 用于车辆的障碍物检测方法和装置 | |
CN111469781B (zh) | 用于输出信息的方法和装置 | |
CN112258568B (zh) | 一种高精度地图要素的提取方法及装置 | |
CN112823353A (zh) | 使用机器学习进行对象定位 | |
CN115019060A (zh) | 目标识别方法、目标识别模型的训练方法及装置 | |
KR102540624B1 (ko) | 항공 라이다를 이용한 지도 생성 방법 및 이를 실행하기 위하여 기록매체에 기록된 컴퓨터 프로그램 | |
CN114643984A (zh) | 驾驶避险方法、装置、设备、介质及产品 | |
Ryan et al. | Evaluation of small unmanned aerial system highway volume and speed‐sensing applications | |
KR102540629B1 (ko) | 교통 시설물에 대한 학습 데이터 생성 방법 및 이를 실행하기 위하여 기록매체에 기록된 컴퓨터 프로그램 | |
KR102540636B1 (ko) | 방향 정보를 포함한 지도 생성 방법 및 이를 실행하기 위하여 기록매체에 기록된 컴퓨터 프로그램 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |