CN115143950A - 一种智能汽车局部语义栅格地图生成方法 - Google Patents
一种智能汽车局部语义栅格地图生成方法 Download PDFInfo
- Publication number
- CN115143950A CN115143950A CN202210484155.1A CN202210484155A CN115143950A CN 115143950 A CN115143950 A CN 115143950A CN 202210484155 A CN202210484155 A CN 202210484155A CN 115143950 A CN115143950 A CN 115143950A
- Authority
- CN
- China
- Prior art keywords
- semantic
- grid map
- point cloud
- map generation
- semantic grid
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 30
- 238000012549 training Methods 0.000 claims abstract description 34
- 230000006870 function Effects 0.000 claims description 13
- 230000011218 segmentation Effects 0.000 claims description 11
- 238000001514 detection method Methods 0.000 claims description 8
- 238000012545 processing Methods 0.000 claims description 7
- ORILYTVJVMAKLC-UHFFFAOYSA-N Adamantane Natural products C1C(C2)CC3CC1CC2C3 ORILYTVJVMAKLC-UHFFFAOYSA-N 0.000 claims description 6
- 230000003044 adaptive effect Effects 0.000 claims description 6
- 238000005457 optimization Methods 0.000 claims description 6
- 230000000007 visual effect Effects 0.000 claims description 6
- 230000004931 aggregating effect Effects 0.000 claims description 4
- 230000009466 transformation Effects 0.000 claims description 4
- 238000013527 convolutional neural network Methods 0.000 claims description 3
- 238000009826 distribution Methods 0.000 claims description 3
- 238000002310 reflectometry Methods 0.000 claims description 3
- 208000006440 Open Bite Diseases 0.000 claims description 2
- 230000001788 irregular Effects 0.000 claims description 2
- 238000012216 screening Methods 0.000 claims 1
- 238000010276 construction Methods 0.000 abstract description 7
- 238000013136 deep learning model Methods 0.000 abstract description 2
- 238000002372 labelling Methods 0.000 abstract description 2
- 238000005070 sampling Methods 0.000 description 10
- 238000010586 diagram Methods 0.000 description 6
- 238000005516 engineering process Methods 0.000 description 3
- 230000004927 fusion Effects 0.000 description 3
- 230000003068 static effect Effects 0.000 description 3
- 230000002776 aggregation Effects 0.000 description 2
- 238000004220 aggregation Methods 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000004140 cleaning Methods 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 230000008034 disappearance Effects 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000011176 pooling Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/38—Electronic maps specially adapted for navigation; Updating thereof
- G01C21/3863—Structures of map data
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
- G01C21/28—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network with correlation of data from several navigational instruments
- G01C21/30—Map- or contour-matching
- G01C21/32—Structuring or formatting of map data
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/38—Electronic maps specially adapted for navigation; Updating thereof
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/38—Electronic maps specially adapted for navigation; Updating thereof
- G01C21/3804—Creation or updating of map data
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/38—Electronic maps specially adapted for navigation; Updating thereof
- G01C21/3804—Creation or updating of map data
- G01C21/3833—Creation or updating of map data characterised by the source of data
- G01C21/3841—Data obtained from two or more sources, e.g. probe vehicles
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/22—Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/26—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/75—Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/762—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using clustering, e.g. of similar faces in social networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Remote Sensing (AREA)
- Radar, Positioning & Navigation (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Multimedia (AREA)
- Artificial Intelligence (AREA)
- Software Systems (AREA)
- General Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Health & Medical Sciences (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- Automation & Control Theory (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Molecular Biology (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Traffic Control Systems (AREA)
Abstract
本发明提供了一种智能汽车局部语义栅格地图生成方法,包括步骤:S01、构建语义栅格地图生成任务训练数据集;S02、构建语义栅格地图生成模型;S03、训练语义栅格地图生成模型;S04、部署语义栅格地图生成模型。本发明旨在通过以单帧激光雷达点云进行语义栅格地图构建,其继承了栅格地图在规划和决策的方面的优势特性,能够满足复杂驾驶环境下的需求。本发明所提出的语义栅格地图生成任务训练数据集构建方法能避免人工标注的效率底下的问题,实现训练数据的快速、高效构建,大量的训练数据是模型性能的基础保证。本发明所提出的语义栅格地图生成模型是一种轻量级、高效的深度学习模型,能够利用单帧稀疏的激光雷达点云构建车辆周围的语义栅格地图。
Description
技术领域
本发明涉及栅格地图领域,尤其是涉及了一种智能汽车局部语义栅格地图生成方法。
背景技术
栅格地图将周围环境进行等间隔区域划分,用每个单元格的特性来表示环境信息,采用单元格被占据的概率值来表示的即为占有栅格地图。栅格地图具有易于创建、环境描述精细的特点,一般用于局部路径规划等模块。语义栅格地图(Road Grid Map,RGM)即以栅格地图表示的包含道路、车辆、行人、树木等多种类别的局部环境表示方法。栅格图中的每一个单元格的值表示其属于某一语义类别的概率,即其中HG和WG为栅格图的长和宽,C为语义类别的个数。经典的占用栅格地图其单元格仅具有两种可能的状态:被占用或未被占用,因此没有足够的语义信息用于复杂驾驶环境下的自动驾驶。
对驾驶场景的充分理解和周围环境的可靠表示对智能汽车自动驾驶至关重要,为了达到这个目标,汽车必须配备一系列互补的传感器系统和足够的计算资源来提取相关信息。相机和激光雷达传感器是应用广泛的传感器,随着深度学习技术的发展,在图像和点云层面的语义分割技术取得了显著的成果。但是,图像和点云的表示形式并不能直接应用于自动驾驶规划控制系统。栅格地图作为常用的环境表示方法,是一种具有等间距单元结构的密集环境表示,与非结构化点云和透视视角的图像相比,栅格地图的表示形式非常适合传感器融合应用,且可以直接应用于后续的自动驾驶规划和控制子系统。
本发明针对复杂驾驶场景建模中环境要素的语义关联信息缺乏的问题,研究由激光雷达和视觉传感器融合进行多类别语义栅格地图构建的方法,即对局部栅格地图中的每个单元格估计一个语义类别。
发明内容
为了解决背景技术中所存在的问题,本发明提出了一种智能汽车局部语义栅格地图生成方法。
一种智能汽车局部语义栅格地图生成方法,包括步骤:
S01、构建语义栅格地图生成任务训练数据集;
S02、构建语义栅格地图生成模型;
S03、训练语义栅格地图生成模型;
S04、部署语义栅格地图生成模型。
基于上述,步骤S01包括如下步骤:
S011、采集点云数据和车辆定位数据;
S012、利用点云语义分割算法对采集的点云数据进行语义标注;
S013、对标注点云数据进行聚合以获取当前位置的密集点云数据;
S014、对语义点云进行坐标变换以获取栅格地图的语义标注;
S015、对语义栅格地图标签进行优化。
基于上述,对于步骤S02,利用二维卷积神经网络,把无规则的激光雷达点云数据作为输入数据,进行栅格化处理得到俯视视角下的多维度栅格属性特征,之后再通过多次的下采样、残差卷积和上采样处理后输出语义栅格地图生成模型。
基于上述,对于步骤S03,将语义栅格地图生成模型的训练任务视为多类别像素级分类问题,设置训练超参数,然后设置自适应距估计Adam优化器,采用交叉熵损失函数作为目标函数改善模型的收敛结果,使用自适应距估计优化器改善损失下降路径,以提高训练模型的性能。基于上述,利用点云分割算法离线处理所采集的点云数据,获取单帧点云语义分割标签,得到语义点云P={pi|i=1,,,N},其中Pi=(xi,yi,zi,ri,si)为其中一点,xi、yi和zi为其坐标,ri和si分别为其反射率和语义标签。
基于上述,对于步骤S013,根据相邻帧之间的定位信息,获取相邻帧之间的空间转换关系,将前后一定范围内的单帧点云聚合到当前帧上,获取密集的语义点云Pk={Pk-n,...,Pk,...,Pk+n}。
基于上述,将聚合点云栅格化,得到栅格属性图 Gk={cij|i=1,...,H;j=1,...,W},以及每个单元格中包含的各个类别的点的数量Csd为总的类别集合,根据单元格中包含的点的类别设定该单元格的语义标签类别。
基于上述,通过DBSCAN算法对标签中的动态类别单元格进行聚类得到目标实例后,与单帧检测下的目标实例进行匹配,通过判断单帧点云中是否存在与之匹配的实例,对不可见目标的标注进行识别和筛除,以进行优化处理。
基于上述,所采用的目标函数为
其中,H和W分别为栅格图的长和宽;M为语义类别的数量;y和p 分别为预测值和真值;
其中,Nc和N分别为类别c的样本数量和所有类别的样本数量。
基于上述,根据设计的目标函数,采用Adam优化器进行无遮挡道路检测模型的参数优化,计算t时间步的梯度gt
首先计算梯度的指数移动平均数mt,并通过指数衰减率β1控制动量与当前梯度的权重分配,其中m0=0,β1取值为0.9,其更显公式如下
mt=β1mt-l+(1-β1)gt其次,计算梯度平方的指数移动平均数vt,v0=0,β2=0.999为控制上一时刻的梯度平方的影响情况,其公式如下
再次,对mt进行偏差纠正,降低偏差对训练初期的影响
对vt进行纠正,降低偏差对训练初期的影响,其公式如下
最后,更新参数,设置默认学习率α=0.001,ε=10-8以避免除数为 0,其公式如下
本发明相对现有技术具有突出的实质性特点和显著的进步,具体的说:
1、本发明旨在通过以单帧激光雷达点云进行语义栅格地图构建。经典的占用栅格地图没有足够的语义信息用于复杂驾驶环境下的自动驾驶,其单元格仅具有两种可能的状态:被占用或未被占用。而本方法所构建语义栅格地图比经典的占用栅格地图具有更加丰富的语义特征,其继承了栅格地图在规划和决策的方面的优势特性,能够满足复杂驾驶环境下的需求。
2、本发明所提出的语义栅格地图生成任务训练数据集构建方法能避免人工标注的效率低下的问题,实现训练数据的快速、高效构建,大量的训练数据是模型性能的基础保证。
3、本发明所提出的语义栅格地图生成模型是一种轻量级、高效的深度学习模型,能够利用单帧稀疏的激光雷达点云构建车辆周围的语义栅格地图。
附图说明
图1是本发明的流程示意框图。
图2是本发明构建语义栅格地图生成任务训练数据集的流程示意框图。
图3是本发明道路分割模型架构的示意框图。
图4是本发明上下文卷积模块的示意图。
图5是本发明残差卷积模块的示意图。
图6是本发明上采样模块的示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有付出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
如图1所示,一种智能汽车局部语义栅格地图生成方法,包括步骤:S01、构建语义栅格地图生成任务训练数据集;S02、构建语义栅格地图生成模型;S03、训练语义栅格地图生成模型;S04、部署语义栅格地图生成模型。
具体的:
1、构建语义栅格地图生成任务训练数据集
如图2所示,构建真实驾驶环境的密集的语义栅格地图是非常困难的,因为各种传感器信息都是对驾驶环境的离散化探测和表示。因此,本发明充分利用多帧之间的融合和现有的高效的激光点云语义分割算法实现密集的语义栅格地图训练数据的自动生成。
在搭载了激光雷达传感器和高精度定位传感器的车辆上,行驶在多样化的驾驶场景下,同时采集激光雷达点云数据和车辆定位数据。然后利用高精度的点云分割算法离线处理所采集的激光雷达点云数据,获取单帧激光雷达点云语义分割标签,得到语义点云 P={pi|i=1,,,N},其中pi=(xi,yi,zi,ri,si)为其中一点,xi、yi和zi为其坐标,ri和si分别为其反射率和语义标签。然后根据相邻帧之间的定位信息,获取相邻帧之间的空间转换关系,将前后一定范围内的单帧激光雷达点云聚合到当前帧上,获取密集的语义激光雷达点云Pk={Pk-n,...,Pk,...,Pk+n}。
在此基础上,将聚合点云栅格化,得到栅格属性图 Gk={cij|i=1,...,H;j=1,...,W}以及每个单元格中包含的各个类别的点的数量Csd为总的类别集合,共包含12类,Csd∈{道路,人行道,停车区,建筑物,栏杆,植被,地势,杆状物,车辆,两轮车,行人,骑行人}。具体来说,若单元格中包含车辆、两轮车、行人和骑行人等动态类别,则该单元的语义类别为相应的动态类别。若单元格中不包含动态类别,且不包含静态类别的点,则该单元格的语义类别为未知。单元格不包含动态类别,但包含静态类别,则将点数量最多的静态类别设为该单元格的语义标签类别。单元格的语义标签类别设定如以下公式所示:
基于聚合语义点云生成的动态语义标签包含感兴趣区域内的所有动态目标,但是,其中一些目标由于前景物体的遮挡,在当前帧的视角下是不可见的。因此,为了保证使用数据集进行模型训练时更加准确,需要在标签中去除这些不可见目标的标注,以进行语义栅格地图标签优化。
为了找到标注中的不可见目标,首先通过DBSCAN算法对标签中的动态类别单元格进行聚类得到目标实例,然后将之与单帧检测下的目标实例进行匹配,若单帧激光点云中存在与之匹配的实例,说明该目标在当前单帧视角下是可见的,反之则不可见。具体来讲,对于通过聚合语义点云获取的动态语义标签获取包含动态目标的单元格索引的集合以及通过单帧语义点云获取的动态语义标签及其单元格索引集合通过DBSCAN算法聚类分别得到聚类结果和对于Di∈D1,若存在Dj∈D2使得则Di是当前视角下的可见目标,反之则是不可见目标。
2、语义栅格地图生成模型构建
如图3所示,所构建的语义栅格地图生成模型包含以当前单帧激光雷达点云为输入,包含点云栅格化、输入层、下采样层、残差卷积层、上采样层和输出层等模块。其中输入层为单帧激光雷达点云,为了构建俯视视角下的语义栅格地图,同时利用高效的二维卷积神经网络,把无规则的激光雷达点云进行栅格化处理得到俯视视角下的多维度栅格属性特征图。具体地,将上述步骤中获取的逐点融合特征先根据栅格划分进行聚类,获取单元格维度的点集Pj={pi|0<i<N},其中 N为该单元格中的点的个数。由于激光雷达传感器的检测特性,各单元格包含的点数是不同的,且存在大量空单元格。为了规范单元格的数据大小,方便后续利用卷积神经网络运算,需对单元格中的点的数量进行统一。根据所采用激光雷达的特点,采用Nt作为阈值,对于多于Nt个点的单元格,随机采样其中Nt个点;对于少于Nt个点的单元格,进行补零扩充。然后,采用一个多层感知器对每个柱素中的所有点进行特征提取,得到多维度栅格属性特征图。
下采样层通过步长为2的上下文卷积模块实现对输入特征的下采样。所述下采样层如图4所示,增加了一个上下文分支,和主干卷积并行,首先采用1×1卷积和Softmax函数得到注意力权重,然后进行注意力池化,得到特征层的全局上下文特征;然后将全局上下文特征通过1×1卷积进行变换,并加入到主干卷积的特征图中。残差卷积模块如图5所示,其通过在卷积运算两端增加跳跃连接来减轻梯度消失问题,利于提取更深的层次的特征。上采样层如图6所示,其利用上下文卷积模块和双线性上采样操作将两个特征图有效地结合,先将两个特征图的两个分支沿通道进行合并,并对合并后的特征图再用一个上下文卷积模块处理。在整个模型中上采样模块依次由深层特征到浅层特征级联,当前上采样模块利用了前一级的结果和相应的解码特征,使得上采样操作更加高效。
3、训练语义栅格地图生成模型
利用构建的训练集对构建的语义栅格地图生成模型进行训练,算法将该任务视为多类别像素级分类问题,设置训练超参数,然后设置自适应距估计Adam优化器,采用交叉熵损失函数作为目标函数改善模型的收敛结果,使用自适应距估计优化器改善损失下降路径,提高训练模型性能。由于语义栅格地图构建任务中类别样本存在较为严重的类别不平衡问题,针对每个类别赋予一个权重以平衡不同类别的损失值,各类别的权重通过统计数据集中所有类别的单元格数量计算得出。所采用的目标函数为
其中,H和W分别为栅格图的长和宽;M为语义类别的数量;y 和p分别为预测值和真值。
其中,Nc和N分别为类别c的样本数量和所有类别的样本数量。
根据设计的目标函数,采用Adam优化器进行无遮挡道路检测模型的参数优化。计算t时间步的梯度:
首先计算梯度的指数移动平均数mt,m0=0,并通过指数衰减率β1控制动量与当前梯度的权重分配,β1取值为0.9,其更显公式如下:
mt=β1mt-1+(1-β1)gt
再次,对mt进行偏差纠正,降低偏差对训练初期的影响
然后,对vt进行纠正,降低偏差对训练初期的影响,其公式如下:
最后,更新参数,设置默认学习率α=0.001,ε=10-8以避免除数为0,其公式如下:
4、部署语义栅格地图生成模型
在车载控制器上部署语义栅格地图生成模型,通过车载激光雷达传感器采集车辆前方道路点云数据,输入到所部署的语义栅格地图生成模型,得到车辆的局部栅格地图中每个单元格的语义类别预测值,实时构建车辆周围区域的语义栅格地图。
对于本领域技术人员而言,显然本发明不限于上述示范性实施例的细节,而且在不背离本发明的精神或基本特征的情况下,能够以其他的具体形式实现本发明。因此,无论从哪一点来看,均应将实施例看作是示范性的,而且是非限制性的,本发明的范围由所附权利要求而不是上述说明限定,因此旨在将落在权利要求的等同要件的含义和范围内的所有变化囊括在本发明内。不应将权利要求中的任何附图标记视为限制所涉及的权利要求。
Claims (10)
1.一种智能汽车局部语义栅格地图生成方法,其特征在于,包括步骤:
S01、构建语义栅格地图生成任务训练数据集;
S02、构建语义栅格地图生成模型;
S03、训练语义栅格地图生成模型;
S04、部署语义栅格地图生成模型。
2.根据权利要求1所述的智能汽车局部语义栅格地图生成方法,其特征在于,步骤S01包括如下步骤:
S011、采集点云数据和车辆定位数据;
S012、利用点云语义分割算法对采集的点云数据进行语义标注;
S013、对标注点云数据进行聚合以获取当前位置的密集点云数据;
S014、对语义点云进行坐标变换以获取栅格地图的语义标注;
S015、对语义栅格地图标签进行优化。
3.根据权利要求1所述的智能汽车局部语义栅格地图生成方法,对于步骤S02,其特征在于:利用二维卷积神经网络,把无规则的激光雷达点云数据作为输入数据,进行栅格化处理得到俯视视角下的多维度栅格属性特征,之后再通过多次的下采样、残差卷积和上采样处理后输出语义栅格地图生成模型。
4.根据权利要求1所述的智能汽车局部语义栅格地图生成方法,对于步骤S03,其特征在于:将语义栅格地图生成模型的训练任务视为多类别像素级分类问题,设置训练超参数,然后设置自适应距估计Adam优化器,采用交叉熵损失函数作为目标函数改善模型的收敛结果,使用自适应距估计优化器改善损失下降路径,以提高训练模型的性能。
5.根据权利要求2所述的智能汽车局部语义栅格地图生成方法,其特征在于:利用点云分割算法离线处理所采集的点云数据,获取单帧点云语义分割标签,得到语义点云P={pi|i=1,,,N},其中pi=(xi,yi,zi,ri,si)为其中一点,xi、yi和zi为其坐标,ri和si分别为其反射率和语义标签。
6.根据权利要求2所述的智能汽车局部语义栅格地图生成方法,其特征在于:对于步骤S013,根据相邻帧之间的定位信息,获取相邻帧之间的空间转换关系,将前后一定范围内的单帧点云聚合到当前帧上,获取密集的语义点云Pk={Pk-n,...,Pk,...,Pk+n}。
8.根据权利要求2所述的智能汽车局部语义栅格地图生成方法,其特征在于:通过DBSCAN算法对标签中的动态类别单元格进行聚类得到目标实例后,与单帧检测下的目标实例进行匹配,通过判断单帧点云中是否存在与之匹配的实例,对不可见目标的标注进行识别和筛除,以进行优化处理。
10.根据权利要求4所述的智能汽车局部语义栅格地图生成方法,其特征在于:根据设计的目标函数,采用Adam优化器进行无遮挡道路检测模型的参数优化,计算t时间步的梯度gt
首先计算梯度的指数移动平均数mt,并通过指数衰减率β1控制动量与当前梯度的权重分配,其中m0=0,β1取值为0.9,其更显公式如下
mt=β1mt-1+(1-β1)gt
其次,计算梯度平方的指数移动平均数vt,v0=0,β2=0.999为控制上一时刻的梯度平方的影响情况,其公式如下
再次,对mt进行偏差纠正,降低偏差对训练初期的影响
对vt进行纠正,降低偏差对训练初期的影响,其公式如下
最后,更新参数,设置默认学习率α=0.001,ε=10-8以避免除数为0,其公式如下
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210484155.1A CN115143950A (zh) | 2022-05-06 | 2022-05-06 | 一种智能汽车局部语义栅格地图生成方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210484155.1A CN115143950A (zh) | 2022-05-06 | 2022-05-06 | 一种智能汽车局部语义栅格地图生成方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN115143950A true CN115143950A (zh) | 2022-10-04 |
Family
ID=83407028
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210484155.1A Pending CN115143950A (zh) | 2022-05-06 | 2022-05-06 | 一种智能汽车局部语义栅格地图生成方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115143950A (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115512147A (zh) * | 2022-11-16 | 2022-12-23 | 北京亮道智能汽车技术有限公司 | 基于语义信息的聚类方法、装置、电子设备及存储介质 |
CN116452931A (zh) * | 2023-04-11 | 2023-07-18 | 北京科技大学 | 一种层级敏感的图像特征聚合方法 |
CN117437654A (zh) * | 2023-12-19 | 2024-01-23 | 中国地质大学(武汉) | 一种基于语义识别的栅格地图解析方法、设备和介质 |
-
2022
- 2022-05-06 CN CN202210484155.1A patent/CN115143950A/zh active Pending
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115512147A (zh) * | 2022-11-16 | 2022-12-23 | 北京亮道智能汽车技术有限公司 | 基于语义信息的聚类方法、装置、电子设备及存储介质 |
CN116452931A (zh) * | 2023-04-11 | 2023-07-18 | 北京科技大学 | 一种层级敏感的图像特征聚合方法 |
CN116452931B (zh) * | 2023-04-11 | 2024-03-19 | 北京科技大学 | 一种层级敏感的图像特征聚合方法 |
CN117437654A (zh) * | 2023-12-19 | 2024-01-23 | 中国地质大学(武汉) | 一种基于语义识别的栅格地图解析方法、设备和介质 |
CN117437654B (zh) * | 2023-12-19 | 2024-03-08 | 中国地质大学(武汉) | 一种基于语义识别的栅格地图解析方法、设备和介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111626217B (zh) | 一种基于二维图片和三维点云融合的目标检测和追踪方法 | |
CN109919072B (zh) | 基于深度学习和轨迹跟踪的精细车型识别与流量统计方法 | |
CN110796168B (zh) | 一种基于改进YOLOv3的车辆检测方法 | |
CN111598030B (zh) | 一种航拍图像中车辆检测和分割的方法及系统 | |
Sudha et al. | An intelligent multiple vehicle detection and tracking using modified vibe algorithm and deep learning algorithm | |
CN115143950A (zh) | 一种智能汽车局部语义栅格地图生成方法 | |
CN110059581A (zh) | 基于场景深度信息的人群计数方法 | |
CN110263786B (zh) | 一种基于特征维度融合的道路多目标识别系统及方法 | |
CN113126115B (zh) | 基于点云的语义slam方法、装置、电子设备和存储介质 | |
Liu et al. | A survey of vision-based vehicle detection and tracking techniques in ITS | |
DE102021112349A1 (de) | Fahrzeugbetrieb unter verwendung eines dynamischen belegungsrasters | |
CN114023062B (zh) | 一种基于深度学习和边缘计算的交通流信息监测方法 | |
CN112699967B (zh) | 一种基于改进深度神经网络的远距离机场目标检测方法 | |
CN110781927B (zh) | 车路协同下基于深度学习的目标检测与分类方法 | |
CN112990065B (zh) | 一种基于优化的YOLOv5模型的车辆分类检测方法 | |
WO2023155903A1 (en) | Systems and methods for generating road surface semantic segmentation map from sequence of point clouds | |
CN112417973A (zh) | 一种基于车联网的无人驾驶系统 | |
CN115984586A (zh) | 一种鸟瞰视角下的多目标跟踪方法及装置 | |
CN113011308A (zh) | 一种引入注意力机制的行人检测方法 | |
Yi et al. | End-to-end neural network for autonomous steering using lidar point cloud data | |
Hanzla et al. | Vehicle recognition pipeline via DeepSort on aerial image datasets | |
AU2019100967A4 (en) | An environment perception system for unmanned driving vehicles based on deep learning | |
Berrio et al. | Fusing lidar and semantic image information in octree maps | |
CN117516560A (zh) | 一种基于语义信息的非结构化环境地图构建方法及系统 | |
Jabeen et al. | Weather classification on roads for drivers assistance using deep transferred features |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |