CN115164918A - 语义点云地图构建方法、装置及电子设备 - Google Patents

语义点云地图构建方法、装置及电子设备 Download PDF

Info

Publication number
CN115164918A
CN115164918A CN202211081506.0A CN202211081506A CN115164918A CN 115164918 A CN115164918 A CN 115164918A CN 202211081506 A CN202211081506 A CN 202211081506A CN 115164918 A CN115164918 A CN 115164918A
Authority
CN
China
Prior art keywords
image
point cloud
frame
semantic
coordinates
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202211081506.0A
Other languages
English (en)
Other versions
CN115164918B (zh
Inventor
刘尚武
谢浪雄
黄普辉
陈桂松
龙辉
刘芳文
徐顺帆
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Lianyou Zhilian Technology Co ltd
Original Assignee
Lianyou Zhilian Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Lianyou Zhilian Technology Co ltd filed Critical Lianyou Zhilian Technology Co ltd
Priority to CN202211081506.0A priority Critical patent/CN115164918B/zh
Publication of CN115164918A publication Critical patent/CN115164918A/zh
Application granted granted Critical
Publication of CN115164918B publication Critical patent/CN115164918B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/28Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network with correlation of data from several navigational instruments
    • G01C21/30Map- or contour-matching
    • G01C21/32Structuring or formatting of map data
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/38Electronic maps specially adapted for navigation; Updating thereof
    • G01C21/3804Creation or updating of map data
    • G01C21/3807Creation or updating of map data characterised by the type of data
    • G01C21/3815Road data
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/38Electronic maps specially adapted for navigation; Updating thereof
    • G01C21/3804Creation or updating of map data
    • G01C21/3833Creation or updating of map data characterised by the source of data
    • G01C21/3841Data obtained from two or more sources, e.g. probe vehicles
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds

Abstract

本发明涉及点云地图技术领域,提供了一种语义点云地图构建方法、装置及电子设备。上述方法包括:获取车辆的轮速计数据和摄像机采集的图像数据;将轮速计数据和图像数据融合得到每一帧图像的位姿信息;确定每一帧图像中各个像素的语义类别;确定每一帧图像中的图像目标元素在摄像机坐标系下的第一坐标;基于位姿信息和第一坐标,确定图像目标元素的点云坐标;根据点云坐标和图像目标元素的语义类别,生成语义点云地图。上述方法通过车辆现有的轮速计和摄像机采集相关数据,成本较低;通过摄像机坐标系下的坐标和位姿信息确定图像元素的点云坐标,只需要对摄像机做好内参标定与测距标定即可,实现简单。

Description

语义点云地图构建方法、装置及电子设备
技术领域
本发明涉及用于自动驾驶的点云地图技术领域,具体涉及在互联网环境下的一种语义点云地图构建方法、装置及电子设备。
背景技术
目前,在智能驾驶这一新兴领域,高精度地图为车辆的自动驾驶提供了更强的先验信息,其不仅可以为智能驾驶的车辆行驶中给出导航信息,又可以提供障碍物的准确位置,保证了车辆的行驶安全与稳定性。
在AVP(Automated Valet Parking,自主代客泊车系统)场景下,由于该场景中可能无GPS/RTK等定位信息,为了让智能驾驶车辆在该场景下定位与导航,语义地图应运而生。在一些语义地图的采集方案中,使用激光雷达配合惯性传感器做语义点云地图的采集,该方案虽然能得到语义地图,但由于激光雷达采集的激光点云数据较大,给后续点云的语义处理带来较大的难度,并且激光雷达的成本较高,无法达到量产的要求。在另外一些方案中,采集的点云数据为特征点角点数据,该特征点对环境依赖较为严重,当环境发生较大变化时,对应的特征点也将发生较大变化,使用该方法采集的地图无法达到时效性要求。
发明内容
为克服相关技术中存在的问题,本申请实施例提供了语义点云地图构建方法、装置及电子设备。
本申请是通过如下技术方案实现的:
第一方面,本申请实施例提供了一种语义点云地图构建方法,包括:获取车辆的轮速计数据和摄像机采集的图像数据,上述图像数据包括多帧图像,上述轮速计数据和多帧图像均有对应的时间戳;按照时间先后顺序,将上述轮速计数据和多帧图像进行融合,得到该多帧图像中的每一帧图像的位姿信息;确定每一帧图像中的图像目标元素在摄像机坐标系下的第一坐标,图像目标元素为多种图像元素中的部分图像元素;基于位姿信息和第一坐标,确定图像目标元素的点云坐标;根据点云坐标和图像目标元素的语义类别,生成语义点云地图。
上述语义点云地图构建方法,通过车辆现有的轮速计和摄像机采集轮速计数据和图像数据,然后将轮速计数据和图像数据融合得到每一帧图像的位姿信息。之后根据每一帧图像中的图像目标元素在摄像机坐标系下的坐标和位姿信息确定各个图像元素点的点云坐标。最后,根据各个图像元素点的语义和点云坐标生成语义点云地图。本申请通过车辆现有的轮速计和摄像机采集相关数据,成本较低;通过摄像机坐标系下的坐标和位姿信息确定图像元素的点云坐标,只需要对摄像机做好内参标定与测距标定即可,实现简单。
基于第一方面,在一些实施例中,上述方法还包括:将轮速计数据和多帧图像录制成ROS bag数据包;上述按照时间先后顺序,将所述轮速计数据和所述多帧图像进行融合,得到所述多帧图像中的每一帧图像的位姿信息,包括:按照时间先后顺序从ROS bag数据包读取ROS bag数据,将轮速计数据与多帧图像在SLAM的框架下进行融合,得到每一帧图像的位姿信息。
基于第一方面,在一些实施例中,上述方法还包括确定多帧图像中的每一帧图像中各个像素对应的语义类别的步骤,该步骤包括:读取上述多帧图像中的每一帧图像,通过深度学习模型对该帧图像进行识别分割,得到该帧图像中每一像素对应的语义类别,并基于语义类别生成MASK图像,MASK图像为与该帧图像具有相同大小的图像,且MASK图像中的每个像素点的值表示该帧图像中对应位置像素点的语义;其中,语义类别包括以下一项或多项:背景、路面车道线、指示箭头、减速带、斑马线、停止线、车位线、柱子和雪糕筒。
基于第一方面,在一些实施例中,所述确定每一帧图像中的图像目标元素在摄像机坐标系下的第一坐标,包括:对某一帧图像,读取该帧图像对应的目标帧MASK图像;对于目标帧MASK图像中的每一像素点,若该像素点对应的图像元素为图像目标元素,则根据该图像元素在目标帧MASK图像中的第二坐标确定第一坐标;基于第一坐标确定该像素点是否位于感兴趣区域,若不位于感兴趣区域则将该像素点删除。
基于第一方面,在一些实施例中,上述根据该图像元素在目标帧MASK图像中的第二坐标确定所述第一坐标,包括:该图像元素的第二坐标为pix(u,v),则第一坐标coor cam (x,y,z)通过
Figure 962928DEST_PATH_IMAGE001
计算得到,其中m 11m 12m 21m 22m 31m 32为摄像机与车辆的外参。
基于第一方面,在一些实施例中,所述基于所述位姿信息和所述第一坐标,确定所述图像目标元素的点云坐标,包括:获取当前帧图像的位姿信息;根据当前帧图像的位姿信息和所述第一坐标,通过P w =T cam *P cam 计算图像目标元素的点云坐标,P cam 为第一坐标,T cam 为位姿信息。
基于第一方面,在一些实施例中,上述根据点云坐标和图像目标元素的语义类别,生成语义点云地图,包括:将图像目标元素的语义类别赋值为该点云的类别属性;根据该点云的类别属性和点云坐标,生成语义点云地图。
第二方面,本申请实施例提供了一种语义点云地图构建装置,包括:获取模块,用于获取车辆的轮速计数据和摄像机采集的图像数据,所述图像数据包括多帧图像,所述轮速计数据和所述多帧图像均有对应的时间戳;位姿模块,用于按照时间先后顺序,将所述轮速计数据和所述多帧图像进行融合,得到所述多帧图像中的每一帧图像的位姿信息;第一确定模块,用于确定每一帧图像中的图像目标元素在摄像机坐标系下的第一坐标,所述图像目标元素为多种图像元素中的部分图像元素;第二确定模块,用于基于所述位姿信息和所述第一坐标,确定所述图像目标元素的点云坐标;生成模块,用于根据所述点云坐标和所述图像目标元素的语义类别,生成语义点云地图。
第三方面,本申请实施例提供了一种终端设备,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现如第一方面任一项所述的语义点云地图构建方法。
第四方面,本申请实施例提供了一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,所述计算机程序被处理器执行时实现如第一方面任一项所述的语义点云地图构建方法。
第五方面,本申请实施例提供了一种计算机程序产品,当计算机程序产品在终端设备上运行时,使得终端设备执行上述第一方面中任一项所述的语义点云地图构建方法。
可以理解的是,上述第二方面至第五方面的有益效果可以参见上述第一方面中的相关描述,在此不再赘述。
附图说明
为了更清楚地说明本申请实施例中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1为本发明实施例提供的语义点云地图构建方法的流程示意图;
图2为本发明实施例提供的语义点云地图构建装置的结构示意图;
图3为本发明实施例提供的电子设备的结构示意图。
具体实施方式
以下描述中,为了说明而不是为了限定,提出了诸如特定系统结构、技术之类的具体细节,以便透彻理解本申请实施例。然而,本领域的技术人员应当清楚,在没有这些具体细节的其它实施例中也可以实现本申请。在其它情况中,省略对众所周知的系统、装置、电路以及方法的详细说明,以免不必要的细节妨碍本申请的描述。
应当理解,当在本申请说明书和所附权利要求书中使用时,术语“包括”指示所描述特征、整体、步骤、操作、元素和/或组件的存在,但并不排除一个或多个其它特征、整体、步骤、操作、元素、组件和/或其集合的存在或添加。
还应当理解,在本申请说明书和所附权利要求书中使用的术语“和/或”是指相关联列出的项中的一个或多个的任何组合以及所有可能组合,并且包括这些组合。
如在本申请说明书和所附权利要求书中所使用的那样,术语“如果”可以依据上下文被解释为“当...时”或“一旦”或“响应于确定”或“响应于检测到”。类似地,短语“如果确定”或“如果检测到[所描述条件或事件]”可以依据上下文被解释为意指“一旦确定”或“响应于确定”或“一旦检测到[所描述条件或事件]”或“响应于检测到[所描述条件或事件]”。
另外,在本申请说明书和所附权利要求书的描述中,术语“第一”、“第二”、“第三”等仅用于区分描述,而不能理解为指示或暗示相对重要性。
在本申请说明书中描述的参考“一个实施例”或“一些实施例”等意味着在本申请的一个或多个实施例中包括结合该实施例描述的特定特征、结构或特点。由此,在本说明书中的不同之处出现的语句“在一个实施例中”、“在一些实施例中”、“在其他一些实施例中”、“在另外一些实施例中”等不是必然都参考相同的实施例,而是意味着“一个或多个但不是所有的实施例”,除非是以其他方式另外特别强调。术语“包括”、“包含”、“具有”及它们的变形都意味着“包括但不限于”,除非是以其他方式另外特别强调。
相关技术一中提供一种无人驾驶汽车高精度语义地图制作的方法。该方法基于无人驾驶汽车搭载激光雷达设备实现,包括如下步骤:利用激光雷达设备采集各传感器数据;对采集数据依次进行标定、融合、拼接,生成地面点云数据;在点云数据中绘制车辆沿道路行驶的轨迹数据和包含道路信息的矢量数据,并为绘制的数据编辑字段属性;导出指定格式的高精度语义地图。
相关技术一中制作出的高精度语义地图包含丰富的语义信息,如车道线、道路边缘和行驶轨迹等,与传统矢量地图相比,提供了车道级别的道路信息,为无人驾驶汽车的局部路径规划提供了数据基础,进而有助于保障无人驾驶汽车行驶的安全性。
然而,在一些语义地图的采集方案中,使用激光雷达配合惯性传感器做语义点云地图的采集,该方案虽然能得到语义地图,但由于激光雷达采集的激光点云数据较大,给后续点云的语义处理带来较大的难度,并且激光雷达的成本较高,无法达到量产的要求。
相关技术二中提供了一种基于视觉的室内语义地图构建方法,该方法包括:通过相机摄像头获取室内环境的图像数据流,根据图像数据流通过预设的模型分别构建度量图、区域划分层、房间拓扑图和对象层,将度量图、对象层、区域划分层和房间拓扑图逐层级联,完成基于视觉的室内语义地图构建。
相关技术二适用于建立具有复杂语义信息的语义地图,其包括了物体类别、属性及物体之间的关系描述等语义信息,可以支撑复杂语义对象的检索、匹配和推理等任务,进一步提高了无人平台的感知能力和理解能力,增强了无人平台执行任务的自主性和智能性。
然而相关技术二中采集的点云数据为特征点角点数据,该特征点对环境依赖较为严重,当环境发生变化较大变化时,对应的特征点也将发生较大变化,使用该方法采集的地图无法达到时效性要求。
基于上述问题,本申请实施例中提供一种语义点云地图构建方法,通过车辆现有的轮速计和摄像机采集轮速计数据和图像数据,然后将轮速计数据和图像数据融合得到每一帧图像的位姿信息。之后根据每一帧图像中的图像目标元素在摄像机坐标系下的坐标和位姿信息确定各个图像元素点的点云坐标。最后,根据各个图像元素点的语义和点云坐标生成语义点云地图。本申请通过车辆现有的轮速计和摄像机采集相关数据,成本较低;通过摄像机坐标系下的坐标和位姿信息确定图像元素的点云坐标,只需要对摄像机做好内参标定与测距标定即可,实现简单。
以下对本申请的语义点云地图构建方法进行详细说明。
图1是本申请一实施例提供的语义点云地图构建方法的示意性流程图。参照图1,对该语义点云地图构建方法的详述如下:
在步骤101中,获取车辆的轮速计数据和摄像机采集的图像数据,该图像数据包括多帧图像,轮速计数据和该多帧图像均有对应的时间戳。
示例性的,上述摄像机可以为车辆现有设置的前视摄像机。
示例性的,在步骤101之后,上述方法还可以包括:将该轮速计数据和多帧图像录制成ROS bag数据包。其中,ROS为机器人操作系统(Robot Operating System),是用于编写机器人软件程序的一种具有高度灵活性的软件架构。
在步骤102中,按照时间先后顺序,将轮速计数据和多帧图像进行融合,得到多帧图像中的每一帧图像的位姿信息。
一些实施例中,步骤102可以包括:按照时间先后顺序从ROS bag数据包读取ROSbag数据,将ROS bag数据中的轮速计数据与多帧图像在SLAM(Simultaneous Localizationand Mapping,即时定位与地图构建)的框架下进行融合,得到每一帧图像的位姿信息,该位姿信息为当前帧图像对应的相机位姿,并将每一帧图像的位姿信息保存至轨迹文件中。
在步骤103中,确定每一帧图像中的图像目标元素在摄像机坐标系下的第一坐标,图像目标元素为多种图像元素中的部分图像元素。
其中,每一帧图像的各个像素均可以对应一个语义类别,语义类别可以包括以下一项或多项:背景、路面车道线、指示箭头、减速带、斑马线、停止线、车位线、柱子和雪糕筒。图像元素即为上述语义类别,多种图像元素即为背景、路面车道线、指示箭头、减速带、斑马线、停止线、车位线、柱子和雪糕筒。
示例性的,上述方法还可以包括确定多帧图像中的每一帧图像中各个像素对应的语义类别的步骤,该步骤包括:读取多帧图像中的每一帧图像,通过深度学习模型对该帧图像进行识别分割,得到该帧图像中每一像素对应的语义类别,并基于语义类别生成MASK图像。MASK图像为与该帧图像具有相同大小的图像,且MASK图像中的每个像素点表示该帧图像中对应位置像素点的语义。
一些实施例中,步骤103可以包括:对某一帧图像,读取该帧图像对应的目标帧MASK图像;对于目标帧MASK图像中的每一像素点,若该像素点对应的图像元素为图像目标元素,则根据该图像元素在目标帧MASK图像中的第二坐标确定第一坐标;基于第一坐标确定该像素点是否位于感兴趣区域,若不位于感兴趣区域则将该像素点删除。
例如,上述根据该图像元素在目标帧MASK图像中的第二坐标确定所述第一坐标,包括:该图像元素的第二坐标为pix(u,v),则第一坐标coor cam (x,y,z)通过
Figure 723074DEST_PATH_IMAGE002
计算得到,其中m 11m 12m 21m 22m 31m 32为摄像机与车辆的外参。
示例性的,步骤103具体可以包括以下步骤:
步骤A1,将MASK图像读取到计算机内存中,读取循环获取每一个像素对应的类别。如果该类别为路面车道线、指示箭头、减速带、斑马线、停止线和车位线中的任意一种类别,则执行步骤A2;否则,获取下一像素并继续执行步骤A1。
步骤A2,假设上述任意一个元素的在图像中的坐标为pix(u,v),该点在摄像机下的坐标点为coor cam (x,y,z),则该元素在摄像机下的坐标可由如下公式计算:
Figure 990107DEST_PATH_IMAGE001
其中m 11m 12m 21m 22m 31m 32为摄像机与车辆的外参,其一般情况下为一个3*4的矩阵。
步骤A3,在步骤A2中计算出目标元素在相机坐标系下的点的坐标后,判断该点是否为感兴趣区域内。判断该点是否位于感兴趣区域内的条件为:当
Figure 189007DEST_PATH_IMAGE004
&&
Figure 44837DEST_PATH_IMAGE006
时,该点位于感兴趣区域内,保留该点;若该点不位于刚新区区域内,则删除该点。其中,6和10仅为示例性说明,并不以此为限。6和10的阈值数据是根据当前相机安装的位置,以及相聚测距的精度调试所得。根据具体设备以及安装位置,使用该阈值能够获得较高精度的语义点云数据。
在步骤104中,基于位姿信息和第一坐标,确定图像目标元素的点云坐标。
一些实施例中,步骤104可以包括:获取当前帧图像的位姿信息;根据当前帧图像的位姿信息和所述第一坐标,通过P w =T cam *P cam 计算图像目标元素的点云坐标,P cam 为第一坐标,T cam 为位姿信息。
举例说明,步骤104具体可以包括以下步骤:
步骤B1,根据该视频数据的时间戳在轨迹文件中搜索出对应的摄像机的位姿信息,并保存下来。
步骤B2,使用步骤B1中搜索到的摄像机的位姿信息以及步骤步骤103中计算所得的目标元素点在摄像机下的第一坐标,计算出该点在三维世界中的点云坐标,即在地球坐标系下的点云坐标。
假设该点在摄像机下的第一坐标为P cam ,该摄像机的位姿信息为T cam ,该点在三维坐标系下的点云坐标为P w ,则有P w =T cam *P cam
在步骤105中,根据点云坐标和图像目标元素的语义类别,生成语义点云地图。
其中,计算出该点在三维坐标系下的点云坐标后,确定该点对应的图像目标元素,并将图像目标元素的语义类别赋值为该点云的类别属性。
对于每一帧图像执行上述步骤103至步骤105,得到每一帧图像对应的语义点云,对每一帧视频数据得到的语义点云进行拼接即可得到语义点云地图。
应理解,上述实施例中各步骤的序号的大小并不意味着执行顺序的先后,各过程的执行顺序应以其功能和内在逻辑确定,而不应对本申请实施例的实施过程构成任何限定。
对应于上文实施例所述的语义点云地图构建方法,图2示出了本申请实施例提供的语义点云地图构建装置的结构框图,为了便于说明,仅示出了与本申请实施例相关的部分。
参见图2,本申请实施例中的语义点云地图构建装置可以包括获取模块201、位姿模块202、第一确定模块203、第二确定模块204和生成模块205。
其中,获取模块201用于获取车辆的轮速计数据和摄像机采集的图像数据,所述图像数据包括多帧图像,所述轮速计数据和所述多帧图像均有对应的时间戳。
位姿模块202用于按照时间先后顺序,将所述轮速计数据和所述多帧图像进行融合,得到所述多帧图像中的每一帧图像的位姿信息。
第一确定模块203用于确定每一帧图像中的图像目标元素在摄像机坐标系下的第一坐标,所述图像目标元素为多种图像元素中的部分图像元素。
第二确定模块204用于基于所述位姿信息和所述第一坐标,确定所述图像目标元素的点云坐标。
生成模块205用于根据所述点云坐标和所述图像目标元素的语义类别,生成语义点云地图。
可选的,上述装置还可以包括:录制模块,用于将所述轮速计数据和所述多帧图像录制成ROS bag数据包;位姿模块202具体用于:按照时间先后顺序从所述ROS bag数据包读取ROS bag数据,将所述轮速计数据与所述多帧图像在SLAM的框架下进行融合,得到每一帧图像的位姿信息。
可选的,上述装置还可以包括:语义确定模块,用于读取所述多帧图像中的每一帧图像,通过深度学习模型对该帧图像进行识别分割,得到该帧图像中每一像素对应的语义类别,并基于所述语义类别生成MASK图像,所述MASK图像为与该帧图像具有相同大小的图像,且MASK图像中的每个像素点表示该帧图像中对应位置像素点的语义;其中,所述语义类别包括以下一项或多项:背景、路面车道线、指示箭头、减速带、斑马线、停止线、车位线、柱子和雪糕筒。
可选的,第一确定模块203具体用于:对某一帧图像,读取该帧图像对应的目标帧MASK图像;对于所述目标帧MASK图像中的每一像素点,若该像素点对应的图像元素为所述图像目标元素,则根据该图像元素在所述目标帧MASK图像中的第二坐标确定所述第一坐标;基于所述第一坐标确定该像素点是否位于感兴趣区域,若不位于所述感兴趣区域则将该像素点删除。
可选的,上述根据该图像元素在目标帧MASK图像中的第二坐标确定所述第一坐标,包括:该图像元素的第二坐标为pix(u,v),则第一坐标coor cam (x,y,z)通过
Figure DEST_PATH_IMAGE007
计算得到,其中m 11m 12m 21m 22m 31m 32为摄像机与车辆的外参。
可选的,第二确定模块204具体用于:获取当前帧图像的位姿信息;根据当前帧图像的位姿信息和所述第一坐标,通过P w =T cam *P cam 计算所述图像目标元素的点云坐标,P cam 为所述第一坐标,T cam 为所述位姿信息。
可选的,生成模块205具体用于:将所述图像目标元素的语义类别赋值为该点云的类别属性;根据该点云的类别属性和点云坐标,生成语义点云地图。
需要说明的是,上述装置/单元之间的信息交互、执行过程等内容,由于与本申请方法实施例基于同一构思,其具体功能及带来的技术效果,具体可参见方法实施例部分,此处不再赘述。
所属领域的技术人员可以清楚地了解到,为了描述的方便和简洁,仅以上述各功能单元、模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能单元、模块完成,即将所述装置的内部结构划分成不同的功能单元或模块,以完成以上描述的全部或者部分功能。实施例中的各功能单元、模块可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中,上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。另外,各功能单元、模块的具体名称也只是为了便于相互区分,并不用于限制本申请的保护范围。上述系统中单元、模块的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
本申请实施例还提供了一种电子设备,参见图3,该电子设备300可以包括:至少一个处理器310、存储器320以及存储在所述存储器320中并可在所述至少一个处理器310上运行的计算机程序,所述处理器310执行所述计算机程序时实现上述任意各个方法实施例中的步骤,例如图2所示实施例中的步骤101至步骤105。或者,处理器310执行所述计算机程序时实现上述各装置实施例中各模块/单元的功能,例如图2所示模块201至205的功能。
示例性的,计算机程序可以被分割成一个或多个模块/单元,一个或者多个模块/单元被存储在存储器320中,并由处理器310执行,以完成本申请。所述一个或多个模块/单元可以是能够完成特定功能的一系列计算机程序段,该程序段用于描述计算机程序在电子设备300中的执行过程。
本领域技术人员可以理解,图3仅仅是终端设备的示例,并不构成对终端设备的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件,例如输入输出设备、网络接入设备、总线等。
处理器310可以是中央处理单元(Central Processing Unit,CPU),还可以是其他通用处理器、数字信号处理器 (Digital Signal Processor,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现成可编程门阵列 (Field-Programmable Gate Array,FPGA) 或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。
存储器320可以是终端设备的内部存储单元,也可以是终端设备的外部存储设备,例如插接式硬盘,智能存储卡(Smart Media Card,SMC),安全数字(Secure Digital,SD)卡,闪存卡(Flash Card)等。所述存储器320用于存储所述计算机程序以及终端设备所需的其他程序和数据。所述存储器320还可以用于暂时地存储已经输出或者将要输出的数据。
总线可以是工业标准体系结构(Industry Standard Architecture,ISA)总线、外部设备互连(Peripheral Component,PCI)总线或扩展工业标准体系结构(ExtendedIndustry Standard Architecture,EISA)总线等。总线可以分为地址总线、数据总线、控制总线等。为便于表示,本申请附图中的总线并不限定仅有一根总线或一种类型的总线。
本申请实施例提供的语义点云地图构建方法可以应用于服务器、计算机、车载设备、平板电脑、笔记本电脑、手机等电子设备上,本申请实施例对电子设备的具体类型不作任何限制。
本申请实施例还提供了一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,所述计算机程序被处理器执行时实现可实现上述语义点云地图构建方法各个实施例中的步骤。
本申请实施例提供了一种计算机程序产品,当计算机程序产品在移动终端上运行时,使得移动终端执行时实现可实现上述语义点云地图构建方法各个实施例中的步骤。
所述集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本申请实现上述实施例方法中的全部或部分流程,可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一计算机可读存储介质中,该计算机程序在被处理器执行时,可实现上述各个方法实施例的步骤。其中,所述计算机程序包括计算机程序代码,所述计算机程序代码可以为源代码形式、对象代码形式、可执行文件或某些中间形式等。所述计算机可读介质至少可以包括:能够将计算机程序代码携带到拍照装置/终端设备的任何实体或装置、记录介质、计算机存储器、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,RandomAccess Memory)、电载波信号、电信信号以及软件分发介质。例如U盘、移动硬盘、磁碟或者光盘等。在某些司法管辖区,根据立法和专利实践,计算机可读介质不可以是电载波信号和电信信号。
在上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述或记载的部分,可以参见其它实施例的相关描述。
以上所述实施例仅用以说明本申请的技术方案,而非对其限制;尽管参照前述实施例对本申请进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本申请各实施例技术方案的精神和范围,均应包含在本申请的保护范围之内。

Claims (10)

1.一种语义点云地图构建方法,其特征在于,包括:
获取车辆的轮速计数据和摄像机采集的图像数据,所述图像数据包括多帧图像,所述轮速计数据和所述多帧图像均有对应的时间戳;
按照时间先后顺序,将所述轮速计数据和所述多帧图像进行融合,得到所述多帧图像中的每一帧图像的位姿信息;
确定每一帧图像中的图像目标元素在摄像机坐标系下的第一坐标,所述图像目标元素为多种图像元素中的部分图像元素;
基于所述位姿信息和所述第一坐标,确定所述图像目标元素的点云坐标;
根据所述点云坐标和所述图像目标元素的语义类别,生成语义点云地图。
2.如权利要求1所述的语义点云地图构建方法,其特征在于,所述方法还包括:将所述轮速计数据和所述多帧图像录制成ROS bag数据包;
所述按照时间先后顺序,将所述轮速计数据和所述多帧图像进行融合,得到所述多帧图像中的每一帧图像的位姿信息,包括:
按照时间先后顺序从所述ROS bag数据包读取ROS bag数据,将所述轮速计数据与所述多帧图像在SLAM的框架下进行融合,得到每一帧图像的位姿信息。
3.如权利要求1所述的语义点云地图构建方法,其特征在于,所述方法还包括:
读取所述多帧图像中的每一帧图像,通过深度学习模型对该帧图像进行识别分割,得到该帧图像中每一像素对应的语义类别,并基于所述语义类别生成MASK图像,所述MASK图像为与该帧图像具有相同大小的图像,且MASK图像中的每个像素点的值表示该帧图像中对应位置像素点的语义;
其中,所述语义类别包括以下一项或多项:背景、路面车道线、指示箭头、减速带、斑马线、停止线、车位线、柱子和雪糕筒。
4.如权利要求3所述的语义点云地图构建方法,其特征在于,所述确定每一帧图像中的图像目标元素在摄像机坐标系下的第一坐标,包括:
对某一帧图像,读取该帧图像对应的目标帧MASK图像;
对于所述目标帧MASK图像中的每一像素点,若该像素点对应的图像元素为所述图像目标元素,则根据该图像元素在所述目标帧MASK图像中的第二坐标确定所述第一坐标;
基于所述第一坐标确定该像素点是否位于感兴趣区域,若不位于所述感兴趣区域则将该像素点删除。
5.如权利要求4所述的语义点云地图构建方法,其特征在于,所述根据该图像元素在所述目标帧MASK图像中的第二坐标确定所述第一坐标,包括:
该图像元素的第二坐标为pix(u,v),则第一坐标coor cam (x,y,z)通过
Figure 74154DEST_PATH_IMAGE001
计算得到,其中m 11m 12m 21m 22m 31m 32为摄像机与车辆的外参。
6.如权利要求1所述的语义点云地图构建方法,其特征在于,所述基于所述位姿信息和所述第一坐标,确定所述图像目标元素的点云坐标,包括:
获取当前帧图像的位姿信息;
根据当前帧图像的位姿信息和所述第一坐标,通过P w =T cam *P cam 计算图像目标元素的点云坐标,P cam 为第一坐标,T cam 为位姿信息。
7.如权利要求6所述的语义点云地图构建方法,其特征在于,所述根据所述点云坐标和所述图像目标元素的语义类别,生成语义点云地图,包括:
将所述图像目标元素的语义类别赋值为该点云的类别属性;
根据该点云的类别属性和点云坐标,生成语义点云地图。
8.一种语义点云地图构建装置,其特征在于,包括:
获取模块,用于获取车辆的轮速计数据和摄像机采集的图像数据,所述图像数据包括多帧图像,所述轮速计数据和所述多帧图像均有对应的时间戳;
位姿模块,用于按照时间先后顺序,将所述轮速计数据和所述多帧图像进行融合,得到所述多帧图像中的每一帧图像的位姿信息;
第一确定模块,用于确定每一帧图像中的图像目标元素在摄像机坐标系下的第一坐标,所述图像目标元素为多种图像元素中的部分图像元素;
第二确定模块,用于基于所述位姿信息和所述第一坐标,确定所述图像目标元素的点云坐标;
生成模块,用于根据所述点云坐标和所述图像目标元素的语义类别,生成语义点云地图。
9.一种终端设备,包括存储器和处理器,所述存储器中存储有可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现如权利要求1至7任一项所述的方法。
10.一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1至7任一项所述的方法。
CN202211081506.0A 2022-09-06 2022-09-06 语义点云地图构建方法、装置及电子设备 Active CN115164918B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202211081506.0A CN115164918B (zh) 2022-09-06 2022-09-06 语义点云地图构建方法、装置及电子设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202211081506.0A CN115164918B (zh) 2022-09-06 2022-09-06 语义点云地图构建方法、装置及电子设备

Publications (2)

Publication Number Publication Date
CN115164918A true CN115164918A (zh) 2022-10-11
CN115164918B CN115164918B (zh) 2023-02-03

Family

ID=83481113

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202211081506.0A Active CN115164918B (zh) 2022-09-06 2022-09-06 语义点云地图构建方法、装置及电子设备

Country Status (1)

Country Link
CN (1) CN115164918B (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115638788A (zh) * 2022-12-23 2023-01-24 安徽蔚来智驾科技有限公司 语义矢量地图的构建方法、计算机设备及存储介质
CN116309943A (zh) * 2023-05-24 2023-06-23 联友智连科技有限公司 一种停车场语义地图路网构建方法、装置及电子设备

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106780576A (zh) * 2016-11-23 2017-05-31 北京航空航天大学 一种面向rgbd数据流的相机位姿估计方法
CN110057373A (zh) * 2019-04-22 2019-07-26 上海蔚来汽车有限公司 用于生成高精细语义地图的方法、装置和计算机存储介质
CN111462135A (zh) * 2020-03-31 2020-07-28 华东理工大学 基于视觉slam与二维语义分割的语义建图方法
US20200293751A1 (en) * 2019-03-11 2020-09-17 Beijing Horizon Robotics Technology Research And Development Co., Ltd. Map construction method, electronic device and readable storage medium
CN112116654A (zh) * 2019-06-20 2020-12-22 杭州海康威视数字技术股份有限公司 一种车辆位姿确定方法、装置及电子设备
CN113052855A (zh) * 2021-02-26 2021-06-29 苏州迈思捷智能科技有限公司 一种基于视觉-imu-轮速计融合的语义slam方法
CN113189613A (zh) * 2021-01-25 2021-07-30 广东工业大学 一种基于粒子滤波的机器人定位方法
CN113362247A (zh) * 2021-06-11 2021-09-07 山东大学 一种激光融合多目相机的语义实景三维重建方法及系统
CN113516692A (zh) * 2021-05-18 2021-10-19 上海汽车集团股份有限公司 一种多传感器融合的slam方法和装置
CN113554698A (zh) * 2020-04-23 2021-10-26 杭州海康威视数字技术股份有限公司 车辆位姿信息生成方法、装置及电子设备、存储介质

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106780576A (zh) * 2016-11-23 2017-05-31 北京航空航天大学 一种面向rgbd数据流的相机位姿估计方法
US20200293751A1 (en) * 2019-03-11 2020-09-17 Beijing Horizon Robotics Technology Research And Development Co., Ltd. Map construction method, electronic device and readable storage medium
CN110057373A (zh) * 2019-04-22 2019-07-26 上海蔚来汽车有限公司 用于生成高精细语义地图的方法、装置和计算机存储介质
CN112116654A (zh) * 2019-06-20 2020-12-22 杭州海康威视数字技术股份有限公司 一种车辆位姿确定方法、装置及电子设备
CN111462135A (zh) * 2020-03-31 2020-07-28 华东理工大学 基于视觉slam与二维语义分割的语义建图方法
CN113554698A (zh) * 2020-04-23 2021-10-26 杭州海康威视数字技术股份有限公司 车辆位姿信息生成方法、装置及电子设备、存储介质
CN113189613A (zh) * 2021-01-25 2021-07-30 广东工业大学 一种基于粒子滤波的机器人定位方法
CN113052855A (zh) * 2021-02-26 2021-06-29 苏州迈思捷智能科技有限公司 一种基于视觉-imu-轮速计融合的语义slam方法
CN113516692A (zh) * 2021-05-18 2021-10-19 上海汽车集团股份有限公司 一种多传感器融合的slam方法和装置
CN113362247A (zh) * 2021-06-11 2021-09-07 山东大学 一种激光融合多目相机的语义实景三维重建方法及系统

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115638788A (zh) * 2022-12-23 2023-01-24 安徽蔚来智驾科技有限公司 语义矢量地图的构建方法、计算机设备及存储介质
CN115638788B (zh) * 2022-12-23 2023-03-21 安徽蔚来智驾科技有限公司 语义矢量地图的构建方法、计算机设备及存储介质
CN116309943A (zh) * 2023-05-24 2023-06-23 联友智连科技有限公司 一种停车场语义地图路网构建方法、装置及电子设备
CN116309943B (zh) * 2023-05-24 2023-08-08 联友智连科技有限公司 一种停车场语义地图路网构建方法、装置及电子设备

Also Published As

Publication number Publication date
CN115164918B (zh) 2023-02-03

Similar Documents

Publication Publication Date Title
EP3505869B1 (en) Method, apparatus, and computer readable storage medium for updating electronic map
WO2020248614A1 (zh) 地图生成方法、驾驶控制方法、装置、电子设备及系统
CN113554698B (zh) 车辆位姿信息生成方法、装置及电子设备、存储介质
CN115164918B (zh) 语义点云地图构建方法、装置及电子设备
CN111582189B (zh) 交通信号灯识别方法、装置、车载控制终端及机动车
CN113034566B (zh) 高精度地图构建方法、装置、电子设备及存储介质
CN112116654A (zh) 一种车辆位姿确定方法、装置及电子设备
WO2020043081A1 (zh) 定位技术
CN112667837A (zh) 图像数据自动标注方法及装置
CN113358125B (zh) 一种基于环境目标检测和环境目标地图的导航方法及系统
CN114459471B (zh) 定位信息确定方法、装置、电子设备及存储介质
JPWO2020039937A1 (ja) 位置座標推定装置、位置座標推定方法およびプログラム
CN111353453A (zh) 用于车辆的障碍物检测方法和装置
CN115143952A (zh) 基于视觉辅助的自动驾驶车辆定位方法、装置
CN114509065B (zh) 地图构建方法、系统、车辆终端、服务器端及存储介质
CN114419922B (zh) 车位识别方法及装置
WO2024055966A1 (zh) 一种多相机目标检测方法、装置
CN117079238A (zh) 道路边沿检测方法、装置、设备及存储介质
WO2023184869A1 (zh) 室内停车场的语义地图构建及定位方法和装置
CN116045964A (zh) 高精地图更新方法及装置
CN113048988B (zh) 一种导航地图对应场景的变化元素检测方法及装置
CN115790568A (zh) 基于语义信息的地图生成方法及相关设备
CN115344655A (zh) 地物要素的变化发现方法、装置及存储介质
CN112880692B (zh) 地图数据标注方法及装置、存储介质
Tu et al. Extrinsic Parameter Co-calibration of a Monocular Camera and a LiDAR Using Only a Chessboard

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant