CN113222025B - 一种基于激光雷达的可行区域标签生成方法 - Google Patents

一种基于激光雷达的可行区域标签生成方法 Download PDF

Info

Publication number
CN113222025B
CN113222025B CN202110538919.6A CN202110538919A CN113222025B CN 113222025 B CN113222025 B CN 113222025B CN 202110538919 A CN202110538919 A CN 202110538919A CN 113222025 B CN113222025 B CN 113222025B
Authority
CN
China
Prior art keywords
passable
laser radar
grid
information
labels
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202110538919.6A
Other languages
English (en)
Other versions
CN113222025A (zh
Inventor
王越
陆俊元
朱承睿
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhejiang University ZJU
Original Assignee
Zhejiang University ZJU
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhejiang University ZJU filed Critical Zhejiang University ZJU
Priority to CN202110538919.6A priority Critical patent/CN113222025B/zh
Publication of CN113222025A publication Critical patent/CN113222025A/zh
Application granted granted Critical
Publication of CN113222025B publication Critical patent/CN113222025B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • G06F18/232Non-hierarchical techniques
    • G06F18/2321Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10032Satellite or aerial image; Remote sensing
    • G06T2207/10044Radar image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30256Lane; Road marking
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02ATECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
    • Y02A90/00Technologies having an indirect contribution to adaptation to climate change
    • Y02A90/10Information and communication technologies [ICT] supporting adaptation to climate change, e.g. for weather forecasting or climate simulation

Landscapes

  • Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Probability & Statistics with Applications (AREA)
  • Traffic Control Systems (AREA)

Abstract

本发明公开了一种基于激光雷达的可行区域标签生成方法,包括获取机器人的激光雷达数据和单目相机图像,根据当前激光雷达数据构建高程地图根据高程图上各个栅格的高度信息计算栅格的可通行性得分,根据单目相机的外参、内参矩阵将高程地图上各个栅格的可通行性得分映射到图像上,并结合机器学习中的聚类、搜索算法得到连续的可通行与不可通行的区域标签,再通过自动筛选框架,得到优质的标签等步骤,本发明可以适用于诸多公开的无标签的数据集,生成规模庞大的带标签数据集,极大降低网络训练的成本,传感器的融合使用,多种方法的联合采用,在算法中充分发挥各个方法的优势,从而达到提升标签质量,降低标签成本的效果。

Description

一种基于激光雷达的可行区域标签生成方法
技术领域
本发明涉及深度神经网络技术,具体地说,涉及一种基于激光雷达的可行区域标签生成方法。
背景技术
局部环境实时感知是机器人自主导航的基础,而高程地图是一种常用的描述局部环境的地图模型。高程地图通过机器人配备的多种传感器获得的视觉信息构建,并随着机器人的位姿变换更新。
目前基于视觉构建局部环境高程地图的方法性能有待提高,中间步骤有待简化。许多研究期望通过深度学习,把中间的步骤隐藏在神经网络模型中,以提升系统的效率和性能。近年来,深度神经网络使得计算机视觉领域飞速发展。诸多网络框架如FCN、U-net等,依赖于大量精准的带标签的数据集,均在道路可行区域检测任务上取得了显著的效果进步。
然而在检测道路可通行区域的领域,想要收集到足够的数据是费时费力的,对这些数据进行标签更是需要较高的人力成本。
发明内容
为了克服现有技术的不足,本发明的目的在于提供一种基于激光雷达的可行区域标签生成方法,本发明是通过以下技术方案来实现的:
本发明公开了一种基于激光雷达的可行区域标签生成方法,包括以下步骤:
获取机器人的激光雷达数据和单目相机图像;
根据当前激光雷达数据构建高程地图;
根据高程图上各个栅格的高度信息计算栅格的可通行性得分;
根据单目相机的外参、内参矩阵将高程地图上各个栅格的可通行性得分映射到图像上,并结合机器学习中的聚类、搜索算法得到连续的可通行与不可通行的区域标签,再通过自动筛选框架,得到优质的标签。
作为进一步地改进,本发明所述的激光雷达数据包含周围环境360°信息,单目图像通过单目RGB相机获取,高程地图为包含高度信息的栅格地图,可行区域为物理世界中车辆可通行的道路区域,可行区域标签为在单目图像中,对可行区域与不可行区域以两种标记打上标签,用于深度神经网络的训练,两种标记为对可行区域打上绿色标签,不可行区域打上红色标签。
作为进一步地改进,本发明所述高程地图具体为通过以下步骤构建:
获取工作环境的激光雷达数据;计算前后两帧的激光雷达数据之间的偏差来估计当前数据采集系统的位姿、以及采集系统与地图坐标之间的变换矩阵;高程地图由机器人位姿计算得到激光雷达的位姿之后再进行各栅格的高度计算,各栅格的高度信息与原始激光雷达数据之间的对应关系,具体为根据下式进行计算:
Figure BDA0003070984440000021
其中
Figure BDA0003070984440000022
为该栅格更新前的测量高度和方差,
Figure BDA0003070984440000023
为该栅格更新后的高度和方差,
Figure BDA0003070984440000024
为测量高度值高斯概率分布模型的均值和方差。
作为进一步地改进,本发明所述的可通行性得分计算方法具体为:
获取高程地图;计算各个栅格的表面法向量和相邻高度偏差,对这两个值进行加权得到当前栅格的可通行性的加权得分。
再以当前系统所处栅格的高度作为种子,使用区域生长法来得到进一步的可通行性的生长得分;
所述的可通行性得分是由所述的加权得分和生长得分二者融合得到,具体为下式进行计算:
若生长得分为0,则代表不可通行,最终得分为不可通行;
若生长得分为1,则代表可通行,最终得分为可通行;
若加权得分为0,但是生长得分为1,最终得分为待定。
作为进一步地改进,本发明所述将各栅格可通行信息映射到单目图像上的方法如下:
根据估计得到系统位姿与地图位姿之间的变换矩阵,将栅格的信息投影到激光雷达坐标系;
根据相机内参矩阵和外参矩阵,将栅格的信息投影到图像平面。
作为进一步地改进,本发明所述使用机器学习中的聚类、搜索算法得到连续的可通行与不可通行的区域标签通过两步进行:
根据所述的映射到图像上的稀疏的栅格信息,对其进行通道分离,得到独立的不可通行信息和可通行信息;先对其中不可通行信息进行层次聚类,获取数个外接多边形的边框,再对各个外接多边形内部区域标记为不可通行的标签,再对其中可通行信息进行搜索边界算法,自图像底端向上进行搜索,碰到外接多边形的边框后停止搜索,停止搜索的像素位置即为可通行信息的边界上的一个点;将可通行信息的边界连接起来,再对该边界围成的区域标记为可通行的标签,再将连续的可通行区域和连续的不可通行区域进行通道融合,得到同时包含可通行区域和不可通行区域标签的连续标签。
作为进一步地改进,本发明所述标签自动筛选框架考虑了可通行区域和不可通行区域在同一张图片上的均衡性,统计可通行区域和不可通行区域的面积比例,自动去除比例不均衡的标签。
作为进一步地改进,本发明所述的标签生成方法通过以下模块执行:
获取模块,用于获取机器人的当前激光雷达数据以及当前单目相机数据;
第一计算模块,用于根据所述当前激光雷达数据估计系统位姿,生成高程图;并根据所述当前高程地图计算各个栅格上的可通行得分;再根据所述当前高程地图与相机之间的变换矩阵将栅格信息映射到单目图像;
第二计算模块,用于根据所述带有稀疏栅格信息的单目图像,进行层次聚类和搜索算法生成连续的可通行与不可通行的标签;
优化模块,用于根据所述的带有可通行与不可通行的标签的单目图像,统计可通行区域面积和不可通行区域面积之间的比例,自动筛除比例不均衡的图像。
本发明还公开了一种基于激光雷达的可行区域标签生成装置,装置包括激光雷达和单目相机,激光雷达用于获取激光雷达信息,单目相机用于获取当前环境的视觉信息。
作为进一步地改进,本发明所述激光雷达和单目相机之间刚性连接,激光雷达和相机之间的位姿相对关系已经事先标定得知;
激光雷达可由常见的单或多线激光雷达构成,对激光雷达类型不加限制;
生成装置还包括处理器、存储器以及存储在存储器中的程序,计算机程序被处理器执行时实现基于激光雷达的可行区域标签生成方法的步骤。
相比现有技术,本发明的有益效果在于:
本发明公开了一种基于激光雷达的可行区域标签生成方法及装置,获取系统的当前激光雷达以及单目相机数据;根据前后两帧雷达信息计算偏差,估计当前系统位姿;根据当前系统位姿构造高程地图;根据构造的高程地图对其上每个栅格进行可通行性得分计算;根据相机的内参、外参矩阵将栅格信息映射到单目图像上;根据获取的稀疏栅格信息进行聚类和搜索分析得到连续的可通行与不可通行区域标签;根据可通行与不可通行区域之间的面积比例筛选出优质的标签。
目前高程图的构建主要使用领域是在移动机器人的实时环境感知等,该领域构造高程图的传统方法是基于视觉的,而这中间包含了许多冗余的三维重建过程。但是最终机器人并不需要特征精致的三维重建信息而只需要知道哪里是可通行的,哪里是不可通行的就能完成自主导航。所以就出现了通过深度神经网络学习的方法将中间的步骤隐藏在神经网络模型中,直接端到端地生成可通行区域,来提高系统的效率和性能。但是在该做法中,进行端到端的神经网络训练需要大量的道路数据集和标签,收集足够的数据是费时费力的,并且对这些数据进行人工打标签更是需要极高的人力成本。
本发明中提及的自动生成标签的方法可以适用于诸多公开的无标签的数据集,生成规模庞大的带标签数据集,极大降低网络训练的成本。
本发明提供的基于激光雷达的可行区域标签生成方法,在根据高程地图计算栅格可通行得分时,联合采用了加权得分和生长得分的方法,基于加权得分的预测性和生长得分的保守性,对二者进行策略融合,得到了各个栅格的可通行性得分;根据获取的稀疏栅格信息,先对不可通行信息进行层次聚类,可以自动获得多个不可通行区域的外接多边形边框,再以这些边框来限制对可通行区域边框的搜索算法,得到了品质优良的连续标签;根据获得的连续标签的面积信息,对标签的质量进行自动筛选,得到可通行与不可通行区域的面积比例均衡的优质低成本标签。
多传感器的融合使用,多种方法的联合采用,在算法中充分发挥各个方法的优势,从而达到提升标签质量,降低标签成本的效果。
附图说明
图1为本发明基于激光雷达的可通行区域标签生成方法的流程示意图;
图2为图1中聚类和搜索流程的示意图。
具体实施方式
下面结合说明附图以及具体实施方式,对本发明的技术方案作进一步地描述:
图1为本发明基于激光雷达的可通行区域标签生成方法的流程示意图,本发明公开了一种基于激光雷达的可通行区域标签生成方法,包括以下步骤:
获取机器人的激光雷达数据和单目相机图像;
根据当前激光雷达数据构建高程地图;
根据高程图上各个栅格的高度信息计算栅格的可通行性得分;
根据单目相机的外参、内参矩阵将高程地图上各个栅格的可通行性得分映射到图像上,得到带有稀疏的栅格信息的单目图像。
根据具有稀疏栅格信息的单目图像,结合机器学习中的聚类、搜索算法得到连续的可通行与不可通行的区域标签。
图2为图1中聚类和搜索流程的示意图。从左往右的流程为:
根据具有稀疏栅格信息的单目图像,其中可行区域用绿色代表,不可通行区域用红色代表,对二者进行分离后,对红色部分进行层次聚类,获取不可通行区域的外接多边形,并对其内部区域统一标记为不可通行;对绿色部分进行搜索边界,并对边界内部统一标记为可通行,两步结合在一起,就获得了具有连续的可通行与不可通行的区域标签。
根据得到的连续标签,对其中可通行区域和不可通行区域面积进行统计计算比例,自动筛选出比例均衡的标签作为最终结果。
其中,激光雷达数据包含周围环境360°信息,单目图像通过单目RGB相机获取;高程地图为包含高度信息的栅格地图,可行区域为物理世界中车辆可通行的道路区域,可行区域标签为在单目图像中,对可行区域与不可行区域以两种标记打上标签,用于深度神经网络的训练,两种标记为对可行区域打上绿色标签,不可行区域打上红色标签。高程地图具体为通过以下步骤构建:
获取工作环境的激光雷达数据;计算前后两帧的激光雷达数据之间的偏差来估计当前数据采集系统的位姿、以及采集系统与地图坐标之间的变换矩阵;高程地图由机器人位姿计算得到激光雷达的位姿之后再进行各栅格的高度计算,各栅格的高度信息与原始激光雷达数据之间的对应关系,具体为根据卡尔曼滤波法,即下式进行计算:
Figure BDA0003070984440000071
其中
Figure BDA0003070984440000072
为该栅格更新前的测量高度和方差,
Figure BDA0003070984440000073
为该栅格更新后的高度和方差。
Figure BDA0003070984440000074
为测量高度值高斯概率分布模型的均值和方差。
可通行性得分计算方法具体为:
获取高程地图;计算各个栅格的表面法向量和相邻高度偏差,对这两个值进行加权得到当前栅格的可通行性的加权得分。
再以当前系统所处栅格的高度作为种子,使用区域生长法来得到进一步的可通行性的生长得分。
可通行性得分是由加权得分和生长得分二者融合得到,具体为下式进行计算:
如果生长得分为0,则代表不可通行,最终得分为不可通行;
如果生长得分为1,则代表可通行,最终得分为可通行;
如果加权得分为0,但是生长得分为1,最终得分为待定;
将各栅格可通行信息映射到单目图像上的方法如下:
根据估计得到系统位姿与地图位姿之间的变换矩阵,将栅格的信息投影到激光雷达坐标系;根据公开数据集官方提高的相机内参矩阵和外参矩阵,将栅格的信息投影到图像平面。
使用机器学习中的聚类、搜索算法得到连续的可通行与不可通行的区域标签通过两步进行:
根据映射到图像上的稀疏的栅格信息,对其进行通道分离,得到独立的不可通行信息和可通行信息。先对其中不可通行信息进行层次聚类,获取数个外接多边形的边框,再对各个外接多边形内部区域标记为不可通行的标签。再对其中可通行信息进行搜索边界算法,自图像底端向上进行搜索,碰到外接多边形的边框后停止搜索,停止搜索的像素位置即为可通行信息的边界上的一个点。将可通行信息的边界连接起来,再对该边界围成的区域标记为可通行的标签,再将连续的可通行区域和连续的不可通行区域进行通道融合,得到同时包含可通行区域和不可通行区域标签的连续标签。
标签自动筛选框架考虑了可通行区域和不可通行区域在同一张图片上的均衡性,统计可通行区域和不可通行区域的面积比例,自动去除比例不均衡的标签。标签生成方法是通过以下模块执行:
获取模块,用于获取机器人的当前激光雷达数据以及当前单目相机数据;
第一计算模块,用于根据当前激光雷达数据估计系统位姿,生成高程图;
并根据当前高程地图计算各个栅格上的可通行得分;再根据当前高程地图与相机之间的变换矩阵将栅格信息映射到单目图像;
第二计算模块,用于根据带有稀疏栅格信息的单目图像,进行层次聚类和搜索算法生成连续的可通行与不可通行的标签。
优化模块,用于根据带有可通行与不可通行的标签的单目图像,统计可通行区域面积和不可通行区域面积之间的比例,自动筛除比例不均衡的图像。
本发明还公开了一种基于激光雷达的可行区域标签生成装置,装置包括激光雷达和单目相机,激光雷达用于获取激光雷达信息,单目相机用于获取当前环境的视觉信息。激光雷达和单目相机之间刚性连接,激光雷达和相机之间的位姿相对关系已经事先标定得知;激光雷达可由常见的单或多线激光雷达构成,对激光雷达类型不加限制。标签生成装置还包括处理器、存储器以及存储在存储器中的程序,计算机程序被处理器执行时实现基于激光雷达的可行区域标签生成方法的步骤。
从激光雷达中获取激光雷达数据;从单目相机中获取单目图像,步骤中的计算偏差,构建高程图,计算栅格可通行性得分,投影映射,聚类搜索获取连续可通行、不可通行区域标签,自动筛选正负样本比例均衡的标签等都属于算法,在系统携带的处理器或电脑上完成。
系统的位姿可以表示为空间中的x,y,z坐标和朝向,这些可以从前后两帧激光之间的偏差通过ICP算法得到,程序中计算的是系统的位姿,而激光雷达、单目相机在世界坐标系下的位姿则通过激光雷达、相机相对于系统的外参计算得到,外参为相对位置关系,包括空间中的旋转和平移,外参被认为为不变量,事先标定获得。每一时刻的系统可以构建出当前局部环境的高程地图。在系统移动的过程中,可以计算出当前的高程地图上每一个栅格的可通行性得分,根据相机和激光雷达的外参矩阵以及相机的内参矩阵可以将栅格信息映射到单目图像上,再结合层次聚类、边界搜索等算法完成稀疏信息的连续化,根据正负例样本的比例均衡的标准自动进行标签筛选,完成标签生成。
本实施例中的方法与前述实施例中的装置是基于同一发明构思下的两个方面,本领域技术人员可根据前述描述清楚地了解本实施中的系统的结构及实施过程。
为了描述的方便,描述以上装置时以功能分为各种模块分别描述。当然,在实施本发明时可以把各模块的功能在同一个或多个软件和/或硬件中实现。
通过以上的实施方式的描述可知,本领域的技术人员可以清楚地了解到本发明可借助软件加必需的通用硬件平台的方式来实现。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品可以存储在存储介质中,如ROM/RAM、磁碟、光盘等,包括若干指令用以使得一台计算机设备执行本发明各个实施例或者实施例的某些部分方法,计算机设备可以是个人计算机,服务器,或者网络设备等。
描述的装置实施例仅仅是示意性的,其中作为分离部件说明的模块或单元可以是或者也可以不是物理上分开的,作为模块或单元示意的部件可以是或者也可以不是物理模块,既可以位于一个地方,或者也可以分布到多个网络模块上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。本领域普通技术人员在不付出创造性劳动的情况下,即可以理解并实施。
本发明可用于众多通用或专用的计算系统环境或配置中。例如:个人计算机、服务器计算机、手持设备或便携式设备、平板型设备、多处理器系统、基于微处理器的系统、机顶盒、可编程的消费电子设备、网络PC、小型计算机、大型计算机、包括以上任何系统或设备的分布式计算环境等等。
本发明的装置可以包括存储器200、处理器300以及存储在存储器200中的程序,程序被配置成由处理器300执行,处理器300执行程序时实现上述基于激光雷达的可行区域标签生成方法的步骤。
上述实施方式仅为本发明的优选实施方式,不能以此来限定本发明保护的范围,本领域的技术人员在本发明的基础上所做的任何非实质性的变化及替换均属于本发明所要求保护的范围。

Claims (8)

1.一种基于激光雷达的可行区域标签生成方法,其特征在于,包括以下步骤:
获取机器人的激光雷达数据和单目相机图像;
根据当前激光雷达数据构建高程地图;
根据高程图上各个栅格的高度信息计算栅格的可通行性得分;
根据单目相机的外参、内参矩阵将高程地图上各个栅格的可通行性得分映射到图像上,并结合机器学习中的聚类、搜索算法得到连续的可通行与不可通行的区域标签,再通过自动筛选框架,得到优质的标签;
所述的可通行性得分计算方法具体为:
获取高程地图;计算各个栅格的表面法向量和相邻高度偏差,对这两个值进行加权得到当前栅格的可通行性的加权得分;
再以当前系统所处栅格的高度作为种子,使用区域生长法来得到进一步的可通行性的生长得分;
所述的可通行性得分是由所述的加权得分和生长得分二者融合得到,具体为下式进行计算:
若生长得分为0,则代表不可通行,最终得分为不可通行;
若生长得分为1,则代表可通行,最终得分为可通行;
若加权得分为0,但是生长得分为1,最终得分为待定;
所述使用机器学习中的聚类、搜索算法得到连续的可通行与不可通行的区域标签通过两步进行:
根据所述的映射到图像上的稀疏的栅格信息,对其进行通道分离,得到独立的不可通行信息和可通行信息;先对其中不可通行信息进行层次聚类,获取数个外接多边形的边框,再对各个外接多边形内部区域标记为不可通行的标签,再对其中可通行信息进行搜索边界算法,自图像底端向上进行搜索,碰到所述的外接多边形的边框后停止搜索,所述停止搜索的像素位置即为可通行信息的边界上的一个点;将所述可通行信息的边界连接起来,再对该边界围成的区域标记为可通行的标签,再将所述的连续的可通行区域和连续的不可通行区域进行通道融合,得到同时包含可通行区域和不可通行区域标签的连续标签。
2.如权利要求1所述的基于激光雷达的可行区域标签生成方法,其特征在于,所述的激光雷达数据包含周围环境360°信息,所述的单目图像通过单目RGB相机获取,所述的高程地图为包含高度信息的栅格地图,所述的可行区域为物理世界中车辆可通行的道路区域,所述的可行区域标签为在单目图像中,对可行区域与不可行区域以两种标记打上标签,用于深度神经网络的训练,所述的两种标记为对可行区域打上绿色标签,不可行区域打上红色标签。
3.如权利要求1所述的基于激光雷达的可行区域标签生成方法,其特征在于,所述高程地图具体为通过以下步骤构建:
获取工作环境的激光雷达数据;计算前后两帧的激光雷达数据之间的偏差来估计当前数据采集系统的位姿、以及采集系统与地图坐标之间的变换矩阵;所述高程地图由机器人位姿计算得到激光雷达的位姿之后再进行各栅格的高度计算,所述各栅格的高度信息与原始激光雷达数据之间的对应关系,具体为根据下式进行计算:
Figure FDA0004058943340000031
其中
Figure FDA0004058943340000032
为该栅格更新前的测量高度和方差,
Figure FDA0004058943340000033
为该栅格更新后的高度和方差,
Figure FDA0004058943340000034
为测量高度值高斯概率分布模型的均值和方差。
4.如权利要求1中所述的基于激光雷达的可行区域标签生成方法,其特征在于,所述将各个栅格的可通行性得分映射到单目图像上的方法如下:
根据所述的估计得到系统位姿与地图位姿之间的变换矩阵,将栅格的信息投影到激光雷达坐标系;
根据相机内参矩阵和外参矩阵,将栅格的信息投影到图像平面。
5.如权利要求1所述的基于激光雷达的可行区域标签生成方法,其特征在于,所述标签自动筛选框架考虑了可通行区域和不可通行区域在同一张图片上的均衡性,统计可通行区域和不可通行区域的面积比例,自动去除比例不均衡的标签。
6.如权利要求1或2或3或4或5所述的基于激光雷达的可行区域标签生成方法,其特征在于,所述的标签生成方法通过以下模块执行:
获取模块,用于获取机器人的当前激光雷达数据以及当前单目相机数据;
第一计算模块,用于根据所述当前激光雷达数据估计系统位姿,生成高程图;并根据所述当前高程地图计算各个栅格上的可通行得分;再根据所述当前高程地图与相机之间的变换矩阵将栅格信息映射到单目图像;
第二计算模块,用于根据所述带有稀疏栅格信息的单目图像,进行层次聚类和搜索算法生成连续的可通行与不可通行的标签;
优化模块,用于根据所述的带有可通行与不可通行的标签的单目图像,统计可通行区域面积和不可通行区域面积之间的比例,自动筛除比例不均衡的图像。
7.一种如权利要求1所述的基于激光雷达的可行区域标签生成方法生成的标签生成装置,其特征在于,所述的装置包括激光雷达和单目相机,激光雷达用于获取激光雷达信息,单目相机用于获取当前环境的视觉信息。
8.根据权利要求7所述的基于激光雷达的可行区域标签生成方法生成的标签生成装置,其特征在于,所述激光雷达和单目相机之间刚性连接,激光雷达和相机之间的位姿相对关系已经事先标定得知;
所述激光雷达可由常见的单或多线激光雷达构成,对激光雷达类型不加限制;
所述的生成装置还包括处理器、存储器以及存储在存储器中的程序,所述计算机程序被处理器执行时实现如权利要求1或2或3或4或5所述的基于激光雷达的可行区域标签生成方法的步骤。
CN202110538919.6A 2021-05-18 2021-05-18 一种基于激光雷达的可行区域标签生成方法 Active CN113222025B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110538919.6A CN113222025B (zh) 2021-05-18 2021-05-18 一种基于激光雷达的可行区域标签生成方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110538919.6A CN113222025B (zh) 2021-05-18 2021-05-18 一种基于激光雷达的可行区域标签生成方法

Publications (2)

Publication Number Publication Date
CN113222025A CN113222025A (zh) 2021-08-06
CN113222025B true CN113222025B (zh) 2023-05-05

Family

ID=77092594

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110538919.6A Active CN113222025B (zh) 2021-05-18 2021-05-18 一种基于激光雷达的可行区域标签生成方法

Country Status (1)

Country Link
CN (1) CN113222025B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113706602A (zh) * 2021-08-27 2021-11-26 浙江大学 一种基于激光雷达和单目相机的道路可通行区域标签生成方法及装置

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111880197A (zh) * 2020-07-30 2020-11-03 南京超达信息科技有限公司 一种基于四线激光雷达的道路边界检测方法

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10436885B2 (en) * 2017-10-19 2019-10-08 DeepMap Inc. Calibrating sensors mounted on an autonomous vehicle
CN109212555A (zh) * 2018-10-12 2019-01-15 合肥中科智驰科技有限公司 基于三维激光雷达的可通行区域检测方法
US10762360B2 (en) * 2018-11-19 2020-09-01 Waymo Llc Automatically detecting unmapped drivable road surfaces for autonomous vehicles
US11428536B2 (en) * 2018-12-19 2022-08-30 Nvidia Corporation Navigable boundary generation for autonomous vehicles
CN109800773B (zh) * 2019-02-19 2021-01-22 北京大学 基于三维激光雷达的越野路面提取方法
US20210004613A1 (en) * 2019-07-02 2021-01-07 DeepMap Inc. Annotating high definition map data with semantic labels
WO2021016920A1 (zh) * 2019-07-31 2021-02-04 深圳市大疆创新科技有限公司 可通行性的识别方法、系统、设备及计算机可读存储介质

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111880197A (zh) * 2020-07-30 2020-11-03 南京超达信息科技有限公司 一种基于四线激光雷达的道路边界检测方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
杨飞 ; 朱株 ; 龚小谨 ; 刘济林 ; .基于三维激光雷达的动态障碍实时检测与跟踪.浙江大学学报(工学版).2012,(第09期),第18-24页. *
段建民 ; 李龙杰 ; 郑凯华 ; .基于车载4线激光雷达的前方道路可行驶区域检测.汽车技术.2016,(第02期),第59-66页. *
蒋剑飞 ; 李其仲 ; 黄妙华 ; 龚杰 ; .基于三维激光雷达的障碍物及可通行区域实时检测.激光与光电子学进展.2019,第56卷(第24期),第242801-1 - 242801-10页. *

Also Published As

Publication number Publication date
CN113222025A (zh) 2021-08-06

Similar Documents

Publication Publication Date Title
CN111563442B (zh) 基于激光雷达的点云和相机图像数据融合的slam方法及系统
CN110264416B (zh) 稀疏点云分割方法及装置
CN104134234B (zh) 一种全自动的基于单幅图像的三维场景构建方法
CN111080693A (zh) 一种基于YOLOv3的机器人自主分类抓取方法
CN108734143A (zh) 一种巡检机器人的基于双目视觉的输电线路在线检测方法
CN113408584B (zh) Rgb-d多模态特征融合3d目标检测方法
CN109886155A (zh) 基于深度学习的单株水稻检测定位方法、系统、设备及介质
CN112305559A (zh) 基于地面定点激光雷达扫描的输电线距离测量方法、装置、系统和电子设备
CN112991534B (zh) 一种基于多粒度物体模型的室内语义地图构建方法及系统
CN112069985A (zh) 基于深度学习的高分辨率大田图像稻穗检测与计数方法
CN114325634A (zh) 一种基于激光雷达的高鲁棒性野外环境下可通行区域提取方法
CN114140592A (zh) 高精地图生成方法、装置、设备、介质及自动驾驶车辆
CN113222025B (zh) 一种基于激光雷达的可行区域标签生成方法
Xiang et al. Field‐based robotic leaf angle detection and characterization of maize plants using stereo vision and deep convolutional neural networks
Liu et al. An improved YOLOv5-based approach to soybean phenotype information perception
CN115100741A (zh) 一种点云行人距离风险检测方法、系统、设备和介质
CN116258826A (zh) 一种面向露天矿区的语义地图构建及边界实时提取方法
US20210304411A1 (en) Map construction method, apparatus, storage medium and electronic device
CN113033386B (zh) 一种基于高分辨率遥感影像的输电线路通道隐患识别方法及系统
CN109657540A (zh) 枯死树定位方法及系统
CN117079125A (zh) 一种基于改进型YOLOv5的猕猴桃授粉花朵识别方法
CN116739739A (zh) 一种贷款额度评估方法、装置、电子设备及存储介质
CN115375857A (zh) 三维场景重建方法、装置、设备及存储介质
CN114565906A (zh) 障碍物检测方法、装置、电子设备及存储介质
CN113932712A (zh) 一种基于深度相机和关键点的瓜果类蔬菜尺寸测量方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
CB03 Change of inventor or designer information

Inventor after: Lu Junyuan

Inventor after: Wang Yue

Inventor after: Zhu Chengrui

Inventor before: Wang Yue

Inventor before: Lu Junyuan

Inventor before: Zhu Chengrui

CB03 Change of inventor or designer information
CB03 Change of inventor or designer information

Inventor after: Wang Yue

Inventor after: Lu Junyuan

Inventor after: Zhu Chengrui

Inventor before: Lu Junyuan

Inventor before: Wang Yue

Inventor before: Zhu Chengrui

CB03 Change of inventor or designer information
GR01 Patent grant
GR01 Patent grant