CN112001272A - 一种基于深度学习的激光雷达环境感知方法及系统 - Google Patents
一种基于深度学习的激光雷达环境感知方法及系统 Download PDFInfo
- Publication number
- CN112001272A CN112001272A CN202010780792.4A CN202010780792A CN112001272A CN 112001272 A CN112001272 A CN 112001272A CN 202010780792 A CN202010780792 A CN 202010780792A CN 112001272 A CN112001272 A CN 112001272A
- Authority
- CN
- China
- Prior art keywords
- semantic segmentation
- laser radar
- map
- deep learning
- point
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/93—Lidar systems specially adapted for specific applications for anti-collision purposes
- G01S17/931—Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/48—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
- G01S7/4802—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/047—Probabilistic or stochastic networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/136—Segmentation; Edge detection involving thresholding
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10032—Satellite or aerial image; Remote sensing
- G06T2207/10044—Radar image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20076—Probabilistic image processing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
Abstract
本发明公开了一种基于深度学习的激光雷达环境感知方法及系统,步骤1、将激光雷达点云映射为深度图步骤;将激光雷达雷达每个点,从球坐标系转到图像坐标系;步骤2、执行深度图语义分割步骤;步骤3、语义分割图映射为语义分割点云图。本发明采用激光雷达球形映射,使用稳定映射公式,其算法难度低,开发维护成本低;采用语义分割精度高,分割类型多;将形成适用自动驾驶汽车的环境识别数据,便于自动驾驶汽车识别周围物体。
Description
技术领域
本发明涉及深度学习领域,尤其涉及一种基于深度学习的激光雷达环境感知方法及系统。
背景技术
美国是对自动驾驶汽车研究最深入的国家,其对自动驾驶汽车的研究开始于二十世纪七八十年代,并从八十年代起就一直处于高速发展阶段,其中美国国防部的DAPAR计划极大的推动了自动驾驶汽车的发展,并获取一系列重大研究成果。国内自动驾驶汽车的研究起步于上世纪八十年代,其中包括国防科技大学、南京理工大学、清华大学等相继研究。直到2003年国防科技大学和第一汽车集团公司联合研制红旗车自动驾驶系统,标志着我国汽车自动驾驶技术已经达到了国际领先水平。现在自动驾驶行业的领先企业有百度的Apollo,Google的waymo.其自动驾驶方案是利用车载传感器来识别车辆周围环境,并根据识别所获得的道路、车辆位置和障碍物信息,控制车辆的转向和速度,从而使车辆能够安全、可靠地在道路上行驶。环境识别作为自动驾驶系统的“眼睛”,有着至关重要的作用。
目前自动驾驶技术环境识别的难题是在光照强烈的情况下,摄像头会产生镜头光斑,大阴影和其他不利的照明条件也会对识别产生不同的影响。例如,视觉系统可能会将大阴影混淆成其他物体的一部分。此外,可能需要在当前识别系统中添加不同的视觉提示(例如尾灯,反射道路标记等)或热成像(远红外)相机,以提高低光照条件或夜间的性能。即便如此,依然不能保证没有系统未检测和跟踪到的障碍。与此同时,大量远红外线摄像机检测和跟踪算法的计算效率不足以实时使用。其他识别系统试图通过依赖关于环境的先验信息来解决光条件问题。然而先验信息并非一成不变,如果一个新建的交通指示灯并没有录入先验信息,就会在自动驾驶车辆遇到它时造成麻烦。而利用激光雷达,以克服糟糕照明条件。这种传感器不需要外部光线,因此可以在光线不足和夜间探测障碍物。故其可以在不良照明条件下提供不同的优势以获得更好的结果。但在这方面,仍然需要进行广泛的研究来解决剩余的挑战。
发明内容
1、本发明的目的
本发明为了将激光雷达收到的无序环境点云数据进行识别,而提出了一种基于深度学习的激光雷达环境感知方法及系统。
2、本发明所采用的技术方案
本发明公开了一种基于深度学习的激光雷达环境感知方法,包括:
步骤1、将激光雷达点云映射为深度图步骤;
将激光雷达雷达每个点pi=(x,y,z),从球坐标系转到图像坐标系,通过以下公式:
其中(u,v)表示图像坐标,表示映射后距离图像表示的高度和宽度,公式中f=fup+fdown表示传感器的垂直视场,fup表示视角上限,fdown表示视角下限,公式中r=x2+y2+z2表示各点到传感器的距离;得出激光雷达每个点在深度图中的坐标,并结合每个点的距离r,创建一个张量;
步骤2、执行深度图语义分割步骤;
步骤3、语义分割图映射为语义分割点云图。
优选的,步骤2、执行深度图语义分割步骤,采用二维语义分割CNN,神经网络卷积结构使用了SqueezeSeg结构,将深度图像转换成语义分割图;
步骤2.1、首先对深度图像进行卷积和池化操作,其使用最大池化操作采样宽度和高度上的中间特征,如果再进行采样其特征会更少,在池化操作中仅对宽度进行下采样;
步骤2.2、经过卷积和池化操作,图像从Fire2层到Fire9层,对图像纬度特征的提取,通过卷积实现;直到Fire9层,输出是经过下采样的特征图;由于特征经过高度卷积和下采样,在FireDeconv模块中,对特征图进行上采样和反卷积;从FireDeconv10层到FireDeconv13层对高纬度特征图进行上采样,将其恢复至原来大小,步骤2.3最终输出概率图通过softmax激活函数和卷积层conv14生成;ecurrent CRF层则增强概率图的辨识度;
首先将输入放入1x1卷积层中,并将其通道减小为C/4;之后在输入两个卷积层,3×3卷积和1x1卷积,将通道数增加至两个C/2,再将两个卷积结果进行相加,回复其C通道数
优选的,还包括精度检测步骤:采用IoU交并比,计算的是预测边框和实际边框的交集和并集的比值;当使用预测数据集IoU检测率达到阈值及以上时,其模型效果良好,此模型进行语义分割成功。
优选的,使用反映射将语义分割深度图进行重建;语义分割的深度图,在语义分割点云图中,每个点都有标签信息,识别出每个点代表的物体。
优选的,检测精度使用Tensorboard可视化工具,测试数据集中acc、IoU均在阈值以上,且loss收敛,至此语义分割成功。
本发明公开了一种基于深度学习的激光雷达环境感知系统,其特征在于:包括存储器及处理器,存储上述权利要求1-6的执行步骤和执行交互。
3、本发明所采用的有益效果
(1)本发明采用激光雷达球形映射,使用稳定映射公式,其算法难度低,开发维护成本低。
(2)本发明的语义分割精度高,分割类型多;将形成适用自动驾驶汽车的环境识别数据,便于自动驾驶汽车识别周围物体。
附图说明
图1为架构图;
图2为SqueezeSeg神经网络结构;
图3为Fire模块;
图4为FireDeconv模块;
图5为IoU示意图;
图6为局部激光雷达点云图;
图7为局部映射深度图像;
图8为全景激光雷达点云图;
图9为全景深度图像。
图10为深度图像语义分割;
图11为点云语义分割图;
图12为测试数据集精度;
图13为测试数据集IoU精度;
图14为测试数据集loss收敛程度。
具体实施方式
下面结合本发明实例中的附图,对本发明实例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明的实施例,本领域技术人员在没有做创造性劳动前提下所获得的所有其他实施例,都属于本发明的保护范围。
下面将结合附图对本发明实例作进一步地详细描述。
实施例1
本发明主要有以下几个方面功能:
(1)激光雷达数据球形映射
(2)语义分割
(3)精度分析
1系统整体技术设计
如图1所示,其中,首先将激光雷达点云映射为深度图,深度图输入模型中进行推测,得出语义分割图。最后将语义分割图映射为语义分割点云图。
2各模块设计及原理:
2.1球形映射原理:
首先将激光雷达雷达每个点pi=(x,y,z),从球坐标系转到图像坐标系使,本发明提出以下公式:
其中(u,v)表示图像坐标,表示映射后距离图像表示的高度和宽度,公式中f=fup+fdown表示传感器的垂直视场,fup表示视角上限,fdown表示视角下限,公式中r=x2+y2+z2表示各点到传感器的距离。通过此方法可以得出激光雷达每个点在深度图中的坐标,并结合每个点的距离r,创建一个张量。本发明使用的深度图像的张量大小一般为:[1024×64×4]。
2.2深度图语义分割
为了获得点云的深度图像表示的语义分割,本发明使用二维语义分割CNN,本发明神经网络卷积结构使用了SqueezeSeg结构。如图2所示:
使用此神经网络模型能够将深度图像转换成语义分割图。本神经网络结构首先对深度图像进行卷积和池化操作,其使用最大池化(Max Pooling)操作会采样宽度和高度上的中间特征,但是本发明的高度过小,如果再进行采样其特征会更少,本发明在池化操作中仅对宽度进行下采样。
经过卷积和池化操作,图像会从Fire2层到Fire9层,其操作均是对图像高纬度特征的提取,方法是依然是通过卷积实现。直到Fire9层,输出是经过下采样的特征图。由于特征经过高度卷积和下采样,这里应该使用反卷积模块,从FireDeconv10层到FireDeconv13层对高纬度特征图进行上采样,将其恢复至原来大小。
最终输出概率图需通过softmax激活函数和卷积层conv14生成。Recurrent CRF层则增强概率图的辨识度。
首先将输入放入1x1卷积层中,并将其通道减小为C/4。之后在输入两个卷积层,3×3卷积和1x1卷积,其目的是将通道数增加至两个C/2,再将两个卷积结果进行相加,回复其C通道数。Fire模块的主要目的是减少超参数从而提高计算效率。
在FireDeconv模块中,其功能是对特征图进行上采样和反卷积。结构如图4所示:
FireDeconv模块除了上采用和反卷积,和其他作用Fire模块一样,减少超参数数量,提高计算力。
3精度检测
本发明使用检测方法为IoU(Intersection over Union)全称为交并比,是图像中目标检测的常用方法。
IoU计算的是“预测边框”和“实际边框”的交集和并集的比值。如图5所示:
其中红色表示真实的边框,蓝色表示预测的边框。
当使用预测数据集IoU检测率达到85%及以上时,本发明认为其模型效果良好,至此,使用此模型进行语义分割成功。
1球形映射
本发明使用上文所述方法将点云图转为深度图像;其中图6-7为激光雷达点云图,图8和图9为点云图转换后的深度图。
2语义分割
本发明使用训练好的模型对全局深度图像进行语义分割,如图10所示:
其中上半图为原始深度图像,下半图为语义分割图像。
3激光雷达点云重建
本发明使用反映射将语义分割深度图进行重建。如图11所示。
其中,图11为语义分割的深度图,在语义分割点云图中,每个点都有标签信息,故可以识别出每个点代表的物体.
4物体检测
本发明检测精度使用Tensorboard可视化工具,精度如图12至图14所示:
从图中可以看出测试数据集中acc、IoU均在90%以上,且loss收敛,至此语义分割成功。
以上所述,仅为本发明较佳的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明披露的技术范围内,可轻易想到的变化或替换,都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应该以权利要求书的保护范围为准。
Claims (7)
2.根据权利要求1所述的基于深度学习的激光雷达环境感知方法,其特征在于步骤2、执行深度图语义分割步骤,采用二维语义分割CNN,神经网络卷积结构使用了SqueezeSeg结构,将深度图像转换成语义分割图;
步骤2.1、首先对深度图像进行卷积和池化操作,其使用最大池化操作采样宽度和高度上的中间特征,如果再进行采样其特征会更少,在池化操作中仅对宽度进行下采样;
步骤2.2、经过卷积和池化操作,图像从Fire2层到Fire9层,对图像纬度特征的提取,通过卷积实现;直到Fire9层,输出是经过下采样的特征图;由于特征经过高度卷积和下采样,在FireDeconv模块中,对特征图进行上采样和反卷积;从FireDeconv10层到FireDeconv13层对高纬度特征图进行上采样,将其恢复至原来大小,步骤2.3最终输出概率图通过softmax激活函数和卷积层conv14生成;ecurrent CRF层则增强概率图的辨识度。
3.根据权利要求2所述的基于深度学习的激光雷达环境感知方法,其特征在于其中Fire模块是将大小为[h×w×c]的输入张量;
首先将输入放入1x1卷积层中,并将其通道减小为C/4;之后在输入两个卷积层,3×3卷积和1x1卷积,将通道数增加至两个C/2,再将两个卷积结果进行相加,回复其C通道数。
4.根据权利要求3所述的基于深度学习的激光雷达环境感知方法,其特征在于还包括精度检测步骤:采用IoU交并比,计算的是预测边框和实际边框的交集和并集的比值;当使用预测数据集IoU检测率达到阈值及以上时,其模型效果良好,此模型进行语义分割成功。
5.根据权利要求4所述的基于深度学习的激光雷达环境感知方法,其特征在于使用反映射将语义分割深度图进行重建;语义分割的深度图,在语义分割点云图中,每个点都有标签信息,识别出每个点代表的物体。
6.根据权利要求4所述的基于深度学习的激光雷达环境感知方法,其特征在于检测精度使用Tensorboard可视化工具,测试数据集中acc、IoU均在阈值以上,且loss收敛,至此语义分割成功。
7.一种基于深度学习的激光雷达环境感知系统,其特征在于:包括存储器及处理器,存储上述权利要求1-6的执行步骤和执行交互。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010780792.4A CN112001272A (zh) | 2020-08-06 | 2020-08-06 | 一种基于深度学习的激光雷达环境感知方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010780792.4A CN112001272A (zh) | 2020-08-06 | 2020-08-06 | 一种基于深度学习的激光雷达环境感知方法及系统 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN112001272A true CN112001272A (zh) | 2020-11-27 |
Family
ID=73463414
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010780792.4A Withdrawn CN112001272A (zh) | 2020-08-06 | 2020-08-06 | 一种基于深度学习的激光雷达环境感知方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112001272A (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113066162A (zh) * | 2021-03-12 | 2021-07-02 | 武汉大学 | 一种用于电磁计算的城市环境快速建模方法 |
CN113255504A (zh) * | 2021-05-19 | 2021-08-13 | 燕山大学 | 一种基于深度学习的路侧视角超视距全域融合感知系统 |
CN113762195A (zh) * | 2021-09-16 | 2021-12-07 | 复旦大学 | 一种基于路侧rsu的点云语义分割与理解方法 |
-
2020
- 2020-08-06 CN CN202010780792.4A patent/CN112001272A/zh not_active Withdrawn
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113066162A (zh) * | 2021-03-12 | 2021-07-02 | 武汉大学 | 一种用于电磁计算的城市环境快速建模方法 |
CN113066162B (zh) * | 2021-03-12 | 2022-04-29 | 武汉大学 | 一种用于电磁计算的城市环境快速建模方法 |
CN113255504A (zh) * | 2021-05-19 | 2021-08-13 | 燕山大学 | 一种基于深度学习的路侧视角超视距全域融合感知系统 |
CN113255504B (zh) * | 2021-05-19 | 2022-07-22 | 燕山大学 | 一种基于深度学习的路侧视角超视距全域融合感知系统 |
CN113762195A (zh) * | 2021-09-16 | 2021-12-07 | 复旦大学 | 一种基于路侧rsu的点云语义分割与理解方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Nobis et al. | A deep learning-based radar and camera sensor fusion architecture for object detection | |
WO2020253121A1 (zh) | 目标检测方法和装置及智能驾驶方法、设备和存储介质 | |
Zhe et al. | Inter-vehicle distance estimation method based on monocular vision using 3D detection | |
CN112001272A (zh) | 一种基于深度学习的激光雷达环境感知方法及系统 | |
CN109919074B (zh) | 一种基于视觉感知技术的车辆感知方法及装置 | |
CN115082924B (zh) | 一种基于单目视觉和雷达伪图像融合的三维目标检测方法 | |
CN112967283B (zh) | 基于双目摄像头的目标识别方法、系统、设备及存储介质 | |
CN110298311B (zh) | 路面积水检测方法及装置 | |
CN113688738B (zh) | 一种基于激光雷达点云数据的目标识别系统及方法 | |
Kim et al. | An advanced object classification strategy using YOLO through camera and LiDAR sensor fusion | |
CN111413983A (zh) | 一种无人驾驶车辆的环境感知方法及控制端 | |
Huang et al. | Tightly-coupled LIDAR and computer vision integration for vehicle detection | |
CN113761999A (zh) | 一种目标检测方法、装置、电子设备和存储介质 | |
US20220269900A1 (en) | Low level sensor fusion based on lightweight semantic segmentation of 3d point clouds | |
CN115205391A (zh) | 一种三维激光雷达和视觉融合的目标预测方法 | |
CN113095152A (zh) | 一种基于回归的车道线检测方法及系统 | |
CN115876198A (zh) | 基于数据融合的目标检测及预警方法、设备、系统和介质 | |
CN117111055A (zh) | 一种基于雷视融合的车辆状态感知方法 | |
Rashed et al. | Bev-modnet: Monocular camera based bird's eye view moving object detection for autonomous driving | |
CN114049362A (zh) | 一种基于transformer的点云实例分割方法 | |
CN117372991A (zh) | 基于多视角多模态融合的自动驾驶方法及系统 | |
Gu et al. | Radar-enhanced image fusion-based object detection for autonomous driving | |
CN113378647B (zh) | 基于三维点云的实时轨道障碍物检测方法 | |
CN113611008B (zh) | 一种车辆行驶场景采集方法、装置、设备及介质 | |
Yang et al. | Analysis of Model Optimization Strategies for a Low-Resolution Camera-Lidar Fusion Based Road Detection Network |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WW01 | Invention patent application withdrawn after publication |
Application publication date: 20201127 |
|
WW01 | Invention patent application withdrawn after publication |