CN115143950A - 一种智能汽车局部语义栅格地图生成方法 - Google Patents

一种智能汽车局部语义栅格地图生成方法 Download PDF

Info

Publication number
CN115143950A
CN115143950A CN202210484155.1A CN202210484155A CN115143950A CN 115143950 A CN115143950 A CN 115143950A CN 202210484155 A CN202210484155 A CN 202210484155A CN 115143950 A CN115143950 A CN 115143950A
Authority
CN
China
Prior art keywords
semantic
grid map
point cloud
map generation
semantic grid
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202210484155.1A
Other languages
English (en)
Inventor
王科未
曹恺
骆嫚
万骞
周智颖
周子建
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Dongfeng Yuexiang Technology Co Ltd
Original Assignee
Dongfeng Yuexiang Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Dongfeng Yuexiang Technology Co Ltd filed Critical Dongfeng Yuexiang Technology Co Ltd
Priority to CN202210484155.1A priority Critical patent/CN115143950A/zh
Publication of CN115143950A publication Critical patent/CN115143950A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/38Electronic maps specially adapted for navigation; Updating thereof
    • G01C21/3863Structures of map data
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/28Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network with correlation of data from several navigational instruments
    • G01C21/30Map- or contour-matching
    • G01C21/32Structuring or formatting of map data
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/38Electronic maps specially adapted for navigation; Updating thereof
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/38Electronic maps specially adapted for navigation; Updating thereof
    • G01C21/3804Creation or updating of map data
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/38Electronic maps specially adapted for navigation; Updating thereof
    • G01C21/3804Creation or updating of map data
    • G01C21/3833Creation or updating of map data characterised by the source of data
    • G01C21/3841Data obtained from two or more sources, e.g. probe vehicles
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/22Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/26Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/762Arrangements for image or video recognition or understanding using pattern recognition or machine learning using clustering, e.g. of similar faces in social networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Multimedia (AREA)
  • Artificial Intelligence (AREA)
  • Software Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • Automation & Control Theory (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Molecular Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Traffic Control Systems (AREA)

Abstract

本发明提供了一种智能汽车局部语义栅格地图生成方法,包括步骤:S01、构建语义栅格地图生成任务训练数据集;S02、构建语义栅格地图生成模型;S03、训练语义栅格地图生成模型;S04、部署语义栅格地图生成模型。本发明旨在通过以单帧激光雷达点云进行语义栅格地图构建,其继承了栅格地图在规划和决策的方面的优势特性,能够满足复杂驾驶环境下的需求。本发明所提出的语义栅格地图生成任务训练数据集构建方法能避免人工标注的效率底下的问题,实现训练数据的快速、高效构建,大量的训练数据是模型性能的基础保证。本发明所提出的语义栅格地图生成模型是一种轻量级、高效的深度学习模型,能够利用单帧稀疏的激光雷达点云构建车辆周围的语义栅格地图。

Description

一种智能汽车局部语义栅格地图生成方法
技术领域
本发明涉及栅格地图领域,尤其是涉及了一种智能汽车局部语义栅格地图生成方法。
背景技术
栅格地图将周围环境进行等间隔区域划分,用每个单元格的特性来表示环境信息,采用单元格被占据的概率值来表示的即为占有栅格地图。栅格地图具有易于创建、环境描述精细的特点,一般用于局部路径规划等模块。语义栅格地图(Road Grid Map,RGM)即以栅格地图表示的包含道路、车辆、行人、树木等多种类别的局部环境表示方法。栅格图中的每一个单元格的值表示其属于某一语义类别的概率,即
Figure RE-GDA0003808269110000011
其中HG和WG为栅格图的长和宽,C为语义类别的个数。经典的占用栅格地图其单元格仅具有两种可能的状态:被占用或未被占用,因此没有足够的语义信息用于复杂驾驶环境下的自动驾驶。
对驾驶场景的充分理解和周围环境的可靠表示对智能汽车自动驾驶至关重要,为了达到这个目标,汽车必须配备一系列互补的传感器系统和足够的计算资源来提取相关信息。相机和激光雷达传感器是应用广泛的传感器,随着深度学习技术的发展,在图像和点云层面的语义分割技术取得了显著的成果。但是,图像和点云的表示形式并不能直接应用于自动驾驶规划控制系统。栅格地图作为常用的环境表示方法,是一种具有等间距单元结构的密集环境表示,与非结构化点云和透视视角的图像相比,栅格地图的表示形式非常适合传感器融合应用,且可以直接应用于后续的自动驾驶规划和控制子系统。
本发明针对复杂驾驶场景建模中环境要素的语义关联信息缺乏的问题,研究由激光雷达和视觉传感器融合进行多类别语义栅格地图构建的方法,即对局部栅格地图中的每个单元格估计一个语义类别。
发明内容
为了解决背景技术中所存在的问题,本发明提出了一种智能汽车局部语义栅格地图生成方法。
一种智能汽车局部语义栅格地图生成方法,包括步骤:
S01、构建语义栅格地图生成任务训练数据集;
S02、构建语义栅格地图生成模型;
S03、训练语义栅格地图生成模型;
S04、部署语义栅格地图生成模型。
基于上述,步骤S01包括如下步骤:
S011、采集点云数据和车辆定位数据;
S012、利用点云语义分割算法对采集的点云数据进行语义标注;
S013、对标注点云数据进行聚合以获取当前位置的密集点云数据;
S014、对语义点云进行坐标变换以获取栅格地图的语义标注;
S015、对语义栅格地图标签进行优化。
基于上述,对于步骤S02,利用二维卷积神经网络,把无规则的激光雷达点云数据作为输入数据,进行栅格化处理得到俯视视角下的多维度栅格属性特征,之后再通过多次的下采样、残差卷积和上采样处理后输出语义栅格地图生成模型。
基于上述,对于步骤S03,将语义栅格地图生成模型的训练任务视为多类别像素级分类问题,设置训练超参数,然后设置自适应距估计Adam优化器,采用交叉熵损失函数作为目标函数改善模型的收敛结果,使用自适应距估计优化器改善损失下降路径,以提高训练模型的性能。基于上述,利用点云分割算法离线处理所采集的点云数据,获取单帧点云语义分割标签,得到语义点云P={pi|i=1,,,N},其中Pi=(xi,yi,zi,ri,si)为其中一点,xi、yi和zi为其坐标,ri和si分别为其反射率和语义标签。
基于上述,对于步骤S013,根据相邻帧之间的定位信息,获取相邻帧之间的空间转换关系,将前后一定范围内的单帧点云聚合到当前帧上,获取密集的语义点云Pk={Pk-n,...,Pk,...,Pk+n}。
基于上述,将聚合点云栅格化,得到栅格属性图 Gk={cij|i=1,...,H;j=1,...,W},以及每个单元格中包含的各个类别的点的数量
Figure RE-GDA0003808269110000031
Csd为总的类别集合,根据单元格中包含的点的类别设定该单元格的语义标签类别。
基于上述,通过DBSCAN算法对标签中的动态类别单元格进行聚类得到目标实例后,与单帧检测下的目标实例进行匹配,通过判断单帧点云中是否存在与之匹配的实例,对不可见目标的标注进行识别和筛除,以进行优化处理。
基于上述,所采用的目标函数为
Figure RE-GDA0003808269110000041
其中,H和W分别为栅格图的长和宽;M为语义类别的数量;y和p 分别为预测值和真值;
Figure RE-GDA0003808269110000042
其中,Nc和N分别为类别c的样本数量和所有类别的样本数量。
基于上述,根据设计的目标函数,采用Adam优化器进行无遮挡道路检测模型的参数优化,计算t时间步的梯度gt
Figure RE-GDA0003808269110000047
首先计算梯度的指数移动平均数mt,并通过指数衰减率β1控制动量与当前梯度的权重分配,其中m0=0,β1取值为0.9,其更显公式如下
mt=β1mt-l+(1-β1)gt其次,计算梯度平方的指数移动平均数vt,v0=0,β2=0.999为控制上一时刻的梯度平方的影响情况,其公式如下
Figure RE-GDA0003808269110000043
再次,对mt进行偏差纠正,降低偏差对训练初期的影响
Figure RE-GDA0003808269110000044
对vt进行纠正,降低偏差对训练初期的影响,其公式如下
Figure RE-GDA0003808269110000045
最后,更新参数,设置默认学习率α=0.001,ε=10-8以避免除数为 0,其公式如下
Figure RE-GDA0003808269110000046
本发明相对现有技术具有突出的实质性特点和显著的进步,具体的说:
1、本发明旨在通过以单帧激光雷达点云进行语义栅格地图构建。经典的占用栅格地图没有足够的语义信息用于复杂驾驶环境下的自动驾驶,其单元格仅具有两种可能的状态:被占用或未被占用。而本方法所构建语义栅格地图比经典的占用栅格地图具有更加丰富的语义特征,其继承了栅格地图在规划和决策的方面的优势特性,能够满足复杂驾驶环境下的需求。
2、本发明所提出的语义栅格地图生成任务训练数据集构建方法能避免人工标注的效率低下的问题,实现训练数据的快速、高效构建,大量的训练数据是模型性能的基础保证。
3、本发明所提出的语义栅格地图生成模型是一种轻量级、高效的深度学习模型,能够利用单帧稀疏的激光雷达点云构建车辆周围的语义栅格地图。
附图说明
图1是本发明的流程示意框图。
图2是本发明构建语义栅格地图生成任务训练数据集的流程示意框图。
图3是本发明道路分割模型架构的示意框图。
图4是本发明上下文卷积模块的示意图。
图5是本发明残差卷积模块的示意图。
图6是本发明上采样模块的示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有付出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
如图1所示,一种智能汽车局部语义栅格地图生成方法,包括步骤:S01、构建语义栅格地图生成任务训练数据集;S02、构建语义栅格地图生成模型;S03、训练语义栅格地图生成模型;S04、部署语义栅格地图生成模型。
具体的:
1、构建语义栅格地图生成任务训练数据集
如图2所示,构建真实驾驶环境的密集的语义栅格地图是非常困难的,因为各种传感器信息都是对驾驶环境的离散化探测和表示。因此,本发明充分利用多帧之间的融合和现有的高效的激光点云语义分割算法实现密集的语义栅格地图训练数据的自动生成。
在搭载了激光雷达传感器和高精度定位传感器的车辆上,行驶在多样化的驾驶场景下,同时采集激光雷达点云数据和车辆定位数据。然后利用高精度的点云分割算法离线处理所采集的激光雷达点云数据,获取单帧激光雷达点云语义分割标签,得到语义点云 P={pi|i=1,,,N},其中pi=(xi,yi,zi,ri,si)为其中一点,xi、yi和zi为其坐标,ri和si分别为其反射率和语义标签。然后根据相邻帧之间的定位信息,获取相邻帧之间的空间转换关系,将前后一定范围内的单帧激光雷达点云聚合到当前帧上,获取密集的语义激光雷达点云Pk={Pk-n,...,Pk,...,Pk+n}。
在此基础上,将聚合点云栅格化,得到栅格属性图 Gk={cij|i=1,...,H;j=1,...,W}以及每个单元格中包含的各个类别的点的数量
Figure RE-GDA0003808269110000071
Csd为总的类别集合,共包含12类,Csd∈{道路,人行道,停车区,建筑物,栏杆,植被,地势,杆状物,车辆,两轮车,行人,骑行人}。具体来说,若单元格中包含车辆、两轮车、行人和骑行人等动态类别,则该单元的语义类别为相应的动态类别。若单元格中不包含动态类别,且不包含静态类别的点,则该单元格的语义类别为未知。单元格不包含动态类别,但包含静态类别,则将点数量最多的静态类别设为该单元格的语义标签类别。单元格的语义标签类别设定如以下公式所示:
Figure RE-GDA0003808269110000072
基于聚合语义点云生成的动态语义标签包含感兴趣区域内的所有动态目标,但是,其中一些目标由于前景物体的遮挡,在当前帧的视角下是不可见的。因此,为了保证使用数据集进行模型训练时更加准确,需要在标签中去除这些不可见目标的标注,以进行语义栅格地图标签优化。
为了找到标注中的不可见目标,首先通过DBSCAN算法对标签中的动态类别单元格进行聚类得到目标实例,然后将之与单帧检测下的目标实例进行匹配,若单帧激光点云中存在与之匹配的实例,说明该目标在当前单帧视角下是可见的,反之则不可见。具体来讲,对于通过聚合语义点云获取的动态语义标签
Figure RE-GDA0003808269110000081
获取包含动态目标的单元格索引的集合
Figure RE-GDA0003808269110000082
以及通过单帧语义点云获取的动态语义标签
Figure RE-GDA0003808269110000083
及其单元格索引集合
Figure RE-GDA0003808269110000084
通过DBSCAN算法聚类分别得到聚类结果
Figure RE-GDA0003808269110000087
Figure RE-GDA0003808269110000085
对于Di∈D1,若存在Dj∈D2使得
Figure RE-GDA0003808269110000086
则Di是当前视角下的可见目标,反之则是不可见目标。
2、语义栅格地图生成模型构建
如图3所示,所构建的语义栅格地图生成模型包含以当前单帧激光雷达点云为输入,包含点云栅格化、输入层、下采样层、残差卷积层、上采样层和输出层等模块。其中输入层为单帧激光雷达点云,为了构建俯视视角下的语义栅格地图,同时利用高效的二维卷积神经网络,把无规则的激光雷达点云进行栅格化处理得到俯视视角下的多维度栅格属性特征图。具体地,将上述步骤中获取的逐点融合特征先根据栅格划分进行聚类,获取单元格维度的点集Pj={pi|0<i<N},其中 N为该单元格中的点的个数。由于激光雷达传感器的检测特性,各单元格包含的点数是不同的,且存在大量空单元格。为了规范单元格的数据大小,方便后续利用卷积神经网络运算,需对单元格中的点的数量进行统一。根据所采用激光雷达的特点,采用Nt作为阈值,对于多于Nt个点的单元格,随机采样其中Nt个点;对于少于Nt个点的单元格,进行补零扩充。然后,采用一个多层感知器对每个柱素中的所有点进行特征提取,得到多维度栅格属性特征图。
下采样层通过步长为2的上下文卷积模块实现对输入特征的下采样。所述下采样层如图4所示,增加了一个上下文分支,和主干卷积并行,首先采用1×1卷积和Softmax函数得到注意力权重,然后进行注意力池化,得到特征层的全局上下文特征;然后将全局上下文特征通过1×1卷积进行变换,并加入到主干卷积的特征图中。残差卷积模块如图5所示,其通过在卷积运算两端增加跳跃连接来减轻梯度消失问题,利于提取更深的层次的特征。上采样层如图6所示,其利用上下文卷积模块和双线性上采样操作将两个特征图有效地结合,先将两个特征图的两个分支沿通道进行合并,并对合并后的特征图再用一个上下文卷积模块处理。在整个模型中上采样模块依次由深层特征到浅层特征级联,当前上采样模块利用了前一级的结果和相应的解码特征,使得上采样操作更加高效。
3、训练语义栅格地图生成模型
利用构建的训练集对构建的语义栅格地图生成模型进行训练,算法将该任务视为多类别像素级分类问题,设置训练超参数,然后设置自适应距估计Adam优化器,采用交叉熵损失函数作为目标函数改善模型的收敛结果,使用自适应距估计优化器改善损失下降路径,提高训练模型性能。由于语义栅格地图构建任务中类别样本存在较为严重的类别不平衡问题,针对每个类别赋予一个权重以平衡不同类别的损失值,各类别的权重通过统计数据集中所有类别的单元格数量计算得出。所采用的目标函数为
Figure RE-GDA0003808269110000091
其中,H和W分别为栅格图的长和宽;M为语义类别的数量;y 和p分别为预测值和真值。
Figure RE-GDA0003808269110000101
其中,Nc和N分别为类别c的样本数量和所有类别的样本数量。
根据设计的目标函数,采用Adam优化器进行无遮挡道路检测模型的参数优化。计算t时间步的梯度:
Figure RE-GDA0003808269110000106
首先计算梯度的指数移动平均数mt,m0=0,并通过指数衰减率β1控制动量与当前梯度的权重分配,β1取值为0.9,其更显公式如下:
mt=β1mt-1+(1-β1)gt
其次,计算梯度平方的指数移动平均数vt,v0=0,β2=0.999为控制上一时刻的梯度平方的影响情况。其公式如下:
Figure RE-GDA0003808269110000102
再次,对mt进行偏差纠正,降低偏差对训练初期的影响
Figure RE-GDA0003808269110000103
然后,对vt进行纠正,降低偏差对训练初期的影响,其公式如下:
Figure RE-GDA0003808269110000104
最后,更新参数,设置默认学习率α=0.001,ε=10-8以避免除数为0,其公式如下:
Figure RE-GDA0003808269110000105
4、部署语义栅格地图生成模型
在车载控制器上部署语义栅格地图生成模型,通过车载激光雷达传感器采集车辆前方道路点云数据,输入到所部署的语义栅格地图生成模型,得到车辆的局部栅格地图中每个单元格的语义类别预测值,实时构建车辆周围区域的语义栅格地图。
对于本领域技术人员而言,显然本发明不限于上述示范性实施例的细节,而且在不背离本发明的精神或基本特征的情况下,能够以其他的具体形式实现本发明。因此,无论从哪一点来看,均应将实施例看作是示范性的,而且是非限制性的,本发明的范围由所附权利要求而不是上述说明限定,因此旨在将落在权利要求的等同要件的含义和范围内的所有变化囊括在本发明内。不应将权利要求中的任何附图标记视为限制所涉及的权利要求。

Claims (10)

1.一种智能汽车局部语义栅格地图生成方法,其特征在于,包括步骤:
S01、构建语义栅格地图生成任务训练数据集;
S02、构建语义栅格地图生成模型;
S03、训练语义栅格地图生成模型;
S04、部署语义栅格地图生成模型。
2.根据权利要求1所述的智能汽车局部语义栅格地图生成方法,其特征在于,步骤S01包括如下步骤:
S011、采集点云数据和车辆定位数据;
S012、利用点云语义分割算法对采集的点云数据进行语义标注;
S013、对标注点云数据进行聚合以获取当前位置的密集点云数据;
S014、对语义点云进行坐标变换以获取栅格地图的语义标注;
S015、对语义栅格地图标签进行优化。
3.根据权利要求1所述的智能汽车局部语义栅格地图生成方法,对于步骤S02,其特征在于:利用二维卷积神经网络,把无规则的激光雷达点云数据作为输入数据,进行栅格化处理得到俯视视角下的多维度栅格属性特征,之后再通过多次的下采样、残差卷积和上采样处理后输出语义栅格地图生成模型。
4.根据权利要求1所述的智能汽车局部语义栅格地图生成方法,对于步骤S03,其特征在于:将语义栅格地图生成模型的训练任务视为多类别像素级分类问题,设置训练超参数,然后设置自适应距估计Adam优化器,采用交叉熵损失函数作为目标函数改善模型的收敛结果,使用自适应距估计优化器改善损失下降路径,以提高训练模型的性能。
5.根据权利要求2所述的智能汽车局部语义栅格地图生成方法,其特征在于:利用点云分割算法离线处理所采集的点云数据,获取单帧点云语义分割标签,得到语义点云P={pi|i=1,,,N},其中pi=(xi,yi,zi,ri,si)为其中一点,xi、yi和zi为其坐标,ri和si分别为其反射率和语义标签。
6.根据权利要求2所述的智能汽车局部语义栅格地图生成方法,其特征在于:对于步骤S013,根据相邻帧之间的定位信息,获取相邻帧之间的空间转换关系,将前后一定范围内的单帧点云聚合到当前帧上,获取密集的语义点云Pk={Pk-n,...,Pk,...,Pk+n}。
7.根据权利要求2所述的智能汽车局部语义栅格地图生成方法,其特征在于:将聚合点云栅格化,得到栅格属性图Gk={cij|i=1,...,H;j=1,...,W},以及每个单元格中包含的各个类别的点的数量
Figure RE-FDA0003808269100000021
Csd为总的类别集合,根据单元格中包含的点的类别设定该单元格的语义标签类别。
8.根据权利要求2所述的智能汽车局部语义栅格地图生成方法,其特征在于:通过DBSCAN算法对标签中的动态类别单元格进行聚类得到目标实例后,与单帧检测下的目标实例进行匹配,通过判断单帧点云中是否存在与之匹配的实例,对不可见目标的标注进行识别和筛除,以进行优化处理。
9.根据权利要求4所述的智能汽车局部语义栅格地图生成方法,其特征在于:所采用的目标函数为
Figure RE-FDA0003808269100000031
其中,H和W分别为栅格图的长和宽;M为语义类别的数量;y和p分别为预测值和真值;
Figure RE-FDA0003808269100000032
其中,Nc和N分别为类别c的样本数量和所有类别的样本数量。
10.根据权利要求4所述的智能汽车局部语义栅格地图生成方法,其特征在于:根据设计的目标函数,采用Adam优化器进行无遮挡道路检测模型的参数优化,计算t时间步的梯度gt
Figure RE-FDA0003808269100000033
首先计算梯度的指数移动平均数mt,并通过指数衰减率β1控制动量与当前梯度的权重分配,其中m0=0,β1取值为0.9,其更显公式如下
mt=β1mt-1+(1-β1)gt
其次,计算梯度平方的指数移动平均数vt,v0=0,β2=0.999为控制上一时刻的梯度平方的影响情况,其公式如下
Figure RE-FDA0003808269100000034
再次,对mt进行偏差纠正,降低偏差对训练初期的影响
Figure RE-FDA0003808269100000035
对vt进行纠正,降低偏差对训练初期的影响,其公式如下
Figure RE-FDA0003808269100000041
最后,更新参数,设置默认学习率α=0.001,ε=10-8以避免除数为0,其公式如下
Figure RE-FDA0003808269100000042
CN202210484155.1A 2022-05-06 2022-05-06 一种智能汽车局部语义栅格地图生成方法 Pending CN115143950A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210484155.1A CN115143950A (zh) 2022-05-06 2022-05-06 一种智能汽车局部语义栅格地图生成方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210484155.1A CN115143950A (zh) 2022-05-06 2022-05-06 一种智能汽车局部语义栅格地图生成方法

Publications (1)

Publication Number Publication Date
CN115143950A true CN115143950A (zh) 2022-10-04

Family

ID=83407028

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210484155.1A Pending CN115143950A (zh) 2022-05-06 2022-05-06 一种智能汽车局部语义栅格地图生成方法

Country Status (1)

Country Link
CN (1) CN115143950A (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115512147A (zh) * 2022-11-16 2022-12-23 北京亮道智能汽车技术有限公司 基于语义信息的聚类方法、装置、电子设备及存储介质
CN116452931A (zh) * 2023-04-11 2023-07-18 北京科技大学 一种层级敏感的图像特征聚合方法
CN117437654A (zh) * 2023-12-19 2024-01-23 中国地质大学(武汉) 一种基于语义识别的栅格地图解析方法、设备和介质

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115512147A (zh) * 2022-11-16 2022-12-23 北京亮道智能汽车技术有限公司 基于语义信息的聚类方法、装置、电子设备及存储介质
CN116452931A (zh) * 2023-04-11 2023-07-18 北京科技大学 一种层级敏感的图像特征聚合方法
CN116452931B (zh) * 2023-04-11 2024-03-19 北京科技大学 一种层级敏感的图像特征聚合方法
CN117437654A (zh) * 2023-12-19 2024-01-23 中国地质大学(武汉) 一种基于语义识别的栅格地图解析方法、设备和介质
CN117437654B (zh) * 2023-12-19 2024-03-08 中国地质大学(武汉) 一种基于语义识别的栅格地图解析方法、设备和介质

Similar Documents

Publication Publication Date Title
CN111626217B (zh) 一种基于二维图片和三维点云融合的目标检测和追踪方法
CN109919072B (zh) 基于深度学习和轨迹跟踪的精细车型识别与流量统计方法
CN110796168B (zh) 一种基于改进YOLOv3的车辆检测方法
CN111598030B (zh) 一种航拍图像中车辆检测和分割的方法及系统
Sudha et al. An intelligent multiple vehicle detection and tracking using modified vibe algorithm and deep learning algorithm
CN115143950A (zh) 一种智能汽车局部语义栅格地图生成方法
CN110059581A (zh) 基于场景深度信息的人群计数方法
CN110263786B (zh) 一种基于特征维度融合的道路多目标识别系统及方法
CN113126115B (zh) 基于点云的语义slam方法、装置、电子设备和存储介质
Liu et al. A survey of vision-based vehicle detection and tracking techniques in ITS
DE102021112349A1 (de) Fahrzeugbetrieb unter verwendung eines dynamischen belegungsrasters
CN114023062B (zh) 一种基于深度学习和边缘计算的交通流信息监测方法
CN112699967B (zh) 一种基于改进深度神经网络的远距离机场目标检测方法
CN110781927B (zh) 车路协同下基于深度学习的目标检测与分类方法
CN112990065B (zh) 一种基于优化的YOLOv5模型的车辆分类检测方法
WO2023155903A1 (en) Systems and methods for generating road surface semantic segmentation map from sequence of point clouds
CN112417973A (zh) 一种基于车联网的无人驾驶系统
CN115984586A (zh) 一种鸟瞰视角下的多目标跟踪方法及装置
CN113011308A (zh) 一种引入注意力机制的行人检测方法
Yi et al. End-to-end neural network for autonomous steering using lidar point cloud data
Hanzla et al. Vehicle recognition pipeline via DeepSort on aerial image datasets
AU2019100967A4 (en) An environment perception system for unmanned driving vehicles based on deep learning
Berrio et al. Fusing lidar and semantic image information in octree maps
CN117516560A (zh) 一种基于语义信息的非结构化环境地图构建方法及系统
Jabeen et al. Weather classification on roads for drivers assistance using deep transferred features

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination