CN118155039A - 多源信息融合的定位地图构建方法、装置、介质及设备 - Google Patents

多源信息融合的定位地图构建方法、装置、介质及设备 Download PDF

Info

Publication number
CN118155039A
CN118155039A CN202410585333.9A CN202410585333A CN118155039A CN 118155039 A CN118155039 A CN 118155039A CN 202410585333 A CN202410585333 A CN 202410585333A CN 118155039 A CN118155039 A CN 118155039A
Authority
CN
China
Prior art keywords
point cloud
visual
coordinate system
features
positioning map
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202410585333.9A
Other languages
English (en)
Other versions
CN118155039B (zh
Inventor
董晓晗
潘洁
李奇
吴海涛
亓立壮
李延港
刘承浩
孙明正
刘冲
周英
逯行政
魏宏伟
朱宏亮
张昊泽
徐鑫
陈俊美
杨杰
张亦卓
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Qilu Aerospace Information Research Institute
Aerospace Information Research Institute of CAS
Original Assignee
Qilu Aerospace Information Research Institute
Aerospace Information Research Institute of CAS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Qilu Aerospace Information Research Institute, Aerospace Information Research Institute of CAS filed Critical Qilu Aerospace Information Research Institute
Priority to CN202410585333.9A priority Critical patent/CN118155039B/zh
Publication of CN118155039A publication Critical patent/CN118155039A/zh
Application granted granted Critical
Publication of CN118155039B publication Critical patent/CN118155039B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • G06V10/806Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/24Aligning, centring, orientation detection or correction of the image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/255Detecting or recognising potential candidate objects based on visual cues, e.g. shapes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/757Matching configurations of points or features

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Image Processing (AREA)

Abstract

本发明属于定位地图构建领域,为解决目前建图达不到预期效果的问题,提供了一种多源信息融合的定位地图构建方法、装置、介质及设备。其中,多源信息融合的定位地图构建方法包括识别出点云关键帧的视觉特征;估算视觉特征在相机测量坐标系中的空间变化,得到视觉位程图;将视觉特征与视觉位程图进行配准,得到相机测量坐标系下的视觉匹配信息;从点云数据中提取点云特征,计算相邻两帧点云数据的点云特征之间的相邻帧约束,利用激光雷达坐标系下的视觉匹配信息对相邻帧约束进行修正,得到修正后的点云特征,进而在水平方向投影得到局部子图,对局部子图进行闭环检测操作,得到全局定位地图,能够将多源信息相互耦合,定位速度快且精准。

Description

多源信息融合的定位地图构建方法、装置、介质及设备
技术领域
本发明属于定位地图构建领域,尤其涉及一种多源信息融合的定位地图构建方法、装置、介质及设备。
背景技术
本部分的陈述仅仅是提供了与本发明相关的背景技术信息,不必然构成在先技术。
同步定位与地图构建(SLAM或Simultaneous localization and mapping)是一种概念:希望机器人从未知环境的未知地点出发,在运动过程中通过重复观测到的地图特征(比如,墙角,柱子等)定位自身位置和姿态,再根据自身位置增量式的构建地图,从而达到同时定位和地图构建的目的。同步定位与地图构建技术广泛应用于无人机巡检、地理测绘、机器人等领域。
现有的同步定位与地图构建技术中,虽然采用了多传感器融合定位技术,但是本质上还是使用视觉相机和激光雷达分别进行SLAM匹配,没有真正的融合两个数据源同时进行一个SLAM匹配,而且容易受到环境变化和传感器噪声的影响,导致最终建图达不到预期效果。
发明内容
为了解决上述技术问题,本发明提供一种多源信息融合的定位地图构建方法、装置、介质及设备,其能够将多源信息相互耦合,获得周围环境高精度匹配点云,定位速度快且精准。
为了实现上述目的,本发明采用如下技术方案:
本发明的第一个方面提供了一种多源信息融合的定位地图构建方法。
在一个或多个实施例中,提供了一种多源信息融合的定位地图构建方法,包括:
获取同一时间和空间中的相机测量坐标系下的视觉数据和激光雷达坐标系下的点云数据;
从点云数据中提取出点云关键帧,基于点云关键帧对应的视觉数据,识别出点云关键帧的视觉特征;
估算视觉特征在相机测量坐标系中的空间变化,得到视觉位程图;将视觉特征与视觉位程图进行配准,得到相机测量坐标系下的视觉匹配信息,并将其转换到激光雷达坐标系下;
从点云数据中提取点云特征,计算相邻两帧点云数据的点云特征之间的相邻帧约束,利用激光雷达坐标系下的视觉匹配信息对相邻帧约束进行修正,得到修正后的点云特征;
将修正后的点云特征向水平方向投影,构建出局部子图并将其加入到全局定位地图中,再通过对局部子图进行闭环检测操作来优化全局定位地图。
本发明的第二个方面提供了一种多源信息融合的定位地图构建装置。
在一个或多个实施例中,提供了一种多源信息融合的定位地图构建装置,其包括:
数据获取模块,其用于获取同一时间和空间中的相机测量坐标系下的视觉数据和激光雷达坐标系下的点云数据;
视觉特征识别模块,其用于从点云数据中提取出点云关键帧,基于点云关键帧对应的视觉数据,识别出点云关键帧的视觉特征;
视觉匹配模块,其用于估算视觉特征在相机测量坐标系中的空间变化,得到视觉位程图;将视觉特征与视觉位程图进行配准,得到相机测量坐标系下的视觉匹配信息,并将其转换到激光雷达坐标系下;
点云特征修正模块,其用于从点云数据中提取点云特征,计算相邻两帧点云数据的点云特征之间的相邻帧约束,利用激光雷达坐标系下的视觉匹配信息对相邻帧约束进行修正,得到修正后的点云特征;
全局定位地图构建模块,其用于将修正后的点云特征向水平方向投影,构建出局部子图并将其加入到全局定位地图中,再通过对局部子图进行闭环检测操作来优化全局定位地图。
在一个或多个实施例中,提供了一种多源信息融合的定位地图构建装置,其包括:
视觉惯性测量子模块和激光雷达惯性测量子模块;
所述视觉惯性测量子模块和激光雷达惯性测量子模块用于分别获取同一时间和空间中的相机测量坐标系下的视觉数据和激光雷达坐标系下的点云数据;
所述视觉惯性测量子模块用于:
从点云数据中提取出点云关键帧,基于点云关键帧对应的视觉数据,识别出点云关键帧的视觉特征;
估算视觉特征在相机测量坐标系中的空间变化,得到视觉位程图;将视觉特征与视觉位程图进行配准,得到相机测量坐标系下的视觉匹配信息,并传送至激光雷达惯性测量子模块;
所述激光雷达惯性测量子模块用于:
将相机测量坐标系下的视觉匹配信息转换到激光雷达坐标系下;
从点云数据中提取点云特征,计算相邻两帧点云数据的点云特征之间的相邻帧约束,利用激光雷达坐标系下的视觉匹配信息对相邻帧约束进行修正,得到修正后的点云特征;
将修正后的点云特征向水平方向投影,构建出局部子图并将其加入到全局定位地图中,再通过对局部子图进行闭环检测操作来优化全局定位地图。
本发明的第三个方面提供了一种计算机可读存储介质。
一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现如上述所述的多源信息融合的定位地图构建方法中的步骤。
本发明的第四个方面提供了一种电子设备。
一种电子设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时实现如上述所述的多源信息融合的定位地图构建方法中的步骤。
与现有技术相比,本发明的有益效果是:
本发明基于点云关键帧对应的视觉数据来识别点云关键帧的视觉特征,再将视觉特征与视觉位程图进行配准,得到相机测量坐标系下的视觉匹配信息并进行坐标转换,通过计算相邻两帧点云数据的点云特征之间的相邻帧约束,利用激光雷达坐标系下的视觉匹配信息对相邻帧约束进行修正,进而对点云特征进行修正,最后将修正后的点云特征向水平方向投影,构建出局部子图并将其加入到全局定位地图中,再通过对局部子图进行闭环检测操作来优化全局定位地图,本发明利用视觉数据和点云数据的双重优势,将两者相互耦合,提高了它们各自的鲁棒性和准确性,在无纹理结构和光照条件较差的条件下仍能进行精准的同步定位与地图匹配,获得高精度匹配地图,解决了现有的同步定位与地图构建技术容易受到环境变化和传感器噪声的影响而导致的建图达不到预期效果的问题。
附图说明
构成本发明的一部分的说明书附图用来提供对本发明的进一步理解,本发明的示意性实施例及其说明用于解释本发明,并不构成对本发明的不当限定。
图1是本发明实施例的一种多源信息融合的定位地图构建方法的流程示意图;
图2是本发明实施例的一种多源信息融合的定位地图构建装置结构示意图;
图3是本发明实施例的另一种多源信息融合的定位地图构建装置结构示意图;
图4是本发明实施例的一种电子设备的示意图。
具体实施方式
下面结合附图与实施例对本发明作进一步说明。
应该指出,以下详细说明都是例示性的,旨在对本发明提供进一步的说明。除非另有指明,本文使用的所有技术和科学术语具有与本发明所属技术领域的普通技术人员通常理解的相同含义。
需要注意的是,这里所使用的术语仅是为了描述具体实施方式,而非意图限制根据本发明的示例性实施方式。如在这里所使用的,除非上下文另外明确指出,否则单数形式也意图包括复数形式,此外,还应当理解的是,当在本说明书中使用术语“包含”和/或“包括”时,其指明存在特征、步骤、操作、器件、组件和/或它们的组合。
图1是本发明实施例中的一种多源信息融合的定位地图构建方法流程示意图,如图1所示的本实施例中的一种多源信息融合的定位地图构建方法可以包括:
S101,获取同一时间和空间中的相机测量坐标系下的视觉数据和激光雷达坐标系下的点云数据。
在步骤S101中,视觉数据包括设定地理位置点处的周围环境和地物的影像数据以及位姿相关数据,点云数据包括现实世界的设定地理位置点处的周围环境和地物三维相对点云信息及其对应位姿相关信息。
其中,地理位置可采用GNSS信号接收器,比如型号为GNSS-850的设备来实现。
视觉数据可采用视觉数据采集器(如型号为Ladybug5+)得到。
点云数据可采用激光雷达点云采集器(如型号为Velodyne VLP-16)得到。
位姿相关数据可采用INS惯性感知器(如型号为Novatel CPT7)得到。
S102,从点云数据中提取出点云关键帧,基于点云关键帧对应的视觉数据,识别出点云关键帧的视觉特征。
在具体实施例中,可按照八叉树结构对点云数据进行等间隔(比如间隔20帧等)下采样提取出点云关键帧,这样避免了点云数据量冗余。
在其他实施例中,也可按照其他预设规则提取点云关键帧。
在识别点云关键帧的视觉特征的过程中,可采用角点分析进行全序检测并通过现有的特征点识别算法(比如KLT,即Kanade-Lucas-Tomasi算法)进行识别。
S103,估算视觉特征在相机测量坐标系中的空间变化,得到视觉位程图;将视觉特征与视觉位程图进行配准,得到相机测量坐标系下的视觉匹配信息,并将其转换到激光雷达坐标系下。
此处需要说明的是,估算视觉特征在相机测量坐标系中的空间变化,可采用现有技术,比如利用优化视觉重投影误差和惯性感知的方法等,此处不再详述。
在视觉特征与视觉位程图进行配准的过程中,通过检查特征深度点位姿信息对视觉特征位置和姿态进行调整,得到准确的相机测量坐标系下的视觉匹配信息,为后续地图建立构建基础。
S104,从点云数据中提取点云特征,计算相邻两帧点云数据的点云特征之间的相邻帧约束,利用激光雷达坐标系下的视觉匹配信息对相邻帧约束进行修正,得到修正后的点云特征。
在具体实施过程中,从点云数据中提取点云特征之前,还包括:
计算每帧点云中的所有点曲率,并按照KD-Tree搜寻树对相邻点进行位置纠正,得到校准点云;
从校准点云中提取点云特征。
其中,S为曲率值,为加入位姿后三维坐标,/>为原始三维坐标;C为点云集合,和/>是集合C中的不同索引,表示不同的三维坐标点。
具体地,所述点云特征包括点云的边缘特征和平面特征。
在一个或多个实施例中,点云的边缘特征的提取过程为:
步骤a1:以点云采集设备中心为圆心,按照水平方向360度等分将点云进行投影,得到平面二维点云图并进行去噪处理。
例如,采用高斯滤波对平面点云按照预设曝光参数规则加权平均,去除其中的高频噪声点。
其中,为高斯滤波器,/>和/>为二维点云图坐标,/>为标准差。
步骤a2:计算去噪后的平面二维点云图中各个点云强度的一阶导数和二阶导数。
其中,为水平方向Sobel算子,/>为垂直方向Sobel算子,/>为点/>处的梯度幅度,/>为在点/>水平方向的一阶导数,/>为在点垂直方向的一阶导数。
步骤a3:根据点云强度的一阶导数和二阶导数,筛选出真正的边缘特征点。
例如,将强度变化超过设定范围的特征点和特征线显示出来,通过阈值化方法检测梯度,筛选出真正的边缘特征点。
步骤a4:将筛选出的边缘特征点按照反投影方法重新组合为三维点云,得到点云的边缘特征。
在一个或多个实施例中,点云的平面特征的提取过程为:
步骤b1:对于点云中每个点,根据其周围的邻点使用最小二乘法拟合局部平面来提取法线,同时根据每个点周围法线的一致性计算每个点局部平面度得分,将高得分的点作为初始种子点,通过遍历邻近点并检查它们与种子平面的距离来扩散种子平面,将距离在设定阈值内的点添加到种子平面中,同时更新种子平面的参数以适应新的点。
其中,为邻点/>的权重,/>为局部周围邻点范围,/>为每个点的加权法线值,为点/>的法向量,/>为邻点/>位置向量,/>为点云中的数据点数量。
其中,为局部密度,/>为局部平面的法向量,/>为局部平面的面积,/>为局部平面的得分。
步骤b2:对所有点按分数降序并重复上述步骤,得到最终得到点云的平面特征。
具体地,相邻帧约束为:相邻两帧点云数据的点云特征的点到点、点到线和点到面约束组合。
点到点、点到线和点到面约束,得到以下约束方程:
其中,是点到点约束,/>是点到线约束,/>是点到面约束,/>表示第帧中点的位置,/>表示第/>帧中点的位置,/>表示第/>帧中的线/>上点的位置,/>表示第/>帧中/>个点的位置,/>表示表示第/>帧中的线/>垂直平分线对应的位置,表示第/>帧中平面/>上点的位置,/>表示第𝑗帧中的平面/>法向量对应的位置。
S105,将修正后的点云特征向水平方向投影,构建出局部子图并将其加入到全局定位地图中,再通过对局部子图进行闭环检测操作来优化全局定位地图。
在步骤S105中,将点云的边缘特征和平面特征合并得到总体特征点云,按照自适应体元滤波降低数据量,往水平方向投影得到局部子图。
具体地,在地图构建中,根据特征点时间匹配度将相邻帧约束按照列文伯格-马夸尔特最小化投影误差的方法加入到地图构建匹配序列中,其中,匹配序列中的点云在水平方向投影得到局部子图,并对已构建地图进行误差约束。
其中,为单个投影点误差,/>为点云相邻帧最小投影误差值,为特征点/>的像素坐标,/>为特征点/>的尺度因子,/>为相机内参矩阵,/>为相邻帧之间的相对位姿的优化变量,包含平移和旋转信息;/>为投影误差计算的点数,/>为特征点三维坐标,/>为相对位姿增量。
具体地,根据修正后的点云特征的位置信息、尺度信息和方向信息计算点云特征因子与描述因子,与已经构建的地图特征点进行KNN匹配,在匹配的时候选择个和特征点最相似的点,并选择最相似点作为匹配点,将局部子图加入到全局定位地图中。其中/>为大于或等于1的正整数,
在步骤S105中,生成局部子图的程序节点为一个子节点,每个局部子图在生成时根据匹配度都会有一个评分等级,根据每个子节点的得分上限调整访问子节点顺序,首先访问边界改变最有希望的子节点,提高搜索效率,采用如下公式计算节点上限:
其中,表示子节点数量,/>为聚类/>中所有子节点,/>为计算子节点与聚类全局参数的最大值,/>为子节点占全局比例,/>为子节点阈值。
通过累积获得的设定次数(比如20次)高精度定位坐标信息采用深度优先搜索方法计算转换矩阵,对子节点位姿进行调整,将相对姿态换算为绝对位姿。
其中,表示转换后的子节点坐标,/>为绕/>轴的旋转矩阵,/>为原始子节点坐标,/>分别为沿/>轴的平移距离,/>为平移向量,Head为偏航角,为俯仰角,/>为翻滚角。
接收局部子图绝对位姿,按照时间顺序计算预积分残差与雅可比矩阵并对全局定位地图的姿态进行调整,预积分残差和雅可比矩阵如下:
其中,表示在时刻/>处的旋转矩阵,将姿态从参考系/>转换到角速度参考系;/>为时刻/>处相对于角速度参考系/>的位置向量;/>为时刻/>处相对于角速度参考系/>的速度向量;/>为时刻/>到/>的时间间隔;/>为重力向量在角速度参考系/>的表示;/>为位置预积分量,/>为速度预积分量,/>为角度预积分量,/>为加速度计的偏差,/>为陀螺仪的偏差;/>、/>、/>分别为位置、速度、旋转的预积分量;/>为时刻/>处的四元数;/>为雅可比矩阵;/>为向量外积或张量积。
其中,当点云和局部子图的位姿不改变时,对局部子图进行闭环检测;
在对局部子图进行闭环检测的过程中,使用非线性最小二乘法对点云关键帧的描述因子与修正后的点云特征的描述因子进行匹配。
使用非线性最小二乘进行约束,残差如下:
其中,为鲁棒核函数,/>为相对位姿,/>为协方差矩阵,/>为局部子图,/>为点云数据帧,/>为局部子图/>的位姿;/>为点云数据帧/>的位姿;/>()为残差函数,用于描述局部子图/>和点云数据帧/>之间的相对位姿关系的误差。
这样实现了在遮挡条件较严重时根据协方差矩阵大小,自主选择是否依赖绝对定位信息,提高了对地图整体更新自适应性及构建效率。
图2是本发明实施例中一种多源信息融合的定位地图构建装置结构示意图,本实施例与图1的多源信息融合的定位地图构建方法相对应,如图2所示,本实施例中的一种多源信息融合的定位地图构建装置可以包括:
数据获取模块201,其用于获取同一时间和空间中的相机测量坐标系下的视觉数据和激光雷达坐标系下的点云数据;
视觉特征识别模块202,其用于从点云数据中提取出点云关键帧,基于点云关键帧对应的视觉数据,识别出点云关键帧的视觉特征;
视觉匹配模块203,其用于估算视觉特征在相机测量坐标系中的空间变化,得到视觉位程图;将视觉特征与视觉位程图进行配准,得到相机测量坐标系下的视觉匹配信息,并将其转换到激光雷达坐标系下;
点云特征修正模块204,其用于从点云数据中提取点云特征,计算相邻两帧点云数据的点云特征之间的相邻帧约束,利用激光雷达坐标系下的视觉匹配信息对相邻帧约束进行修正,得到修正后的点云特征;
全局定位地图构建模块205,其用于将修正后的点云特征向水平方向投影,构建出局部子图并将其加入到全局定位地图中,再通过对局部子图进行闭环检测操作来优化全局定位地图。
此处需要说明的是,图2中的多源信息融合的定位地图构建装置中的数据获取模块201、视觉特征识别模块202、视觉匹配模块203、点云特征修正模块204和全局定位地图构建模块205与图1中的多源信息融合的定位地图构建方法中的步骤S101~S105中的具体实施过程相同,此处不累述。
图3是本发明实施例中另一种多源信息融合的定位地图构建装置结构示意图,如图3所示,本实施例中的多源信息融合的定位地图构建装置可以包括:
视觉惯性测量子模块和激光雷达惯性测量子模块;
所述视觉惯性测量子模块和激光雷达惯性测量子模块用于分别获取同一时间和空间中的相机测量坐标系下的视觉数据和激光雷达坐标系下的点云数据;
所述视觉惯性测量子模块用于:
从点云数据中提取出点云关键帧,基于点云关键帧对应的视觉数据,识别出点云关键帧的视觉特征;
估算视觉特征在相机测量坐标系中的空间变化,得到视觉位程图;将视觉特征与视觉位程图进行配准,得到相机测量坐标系下的视觉匹配信息,并传送至激光雷达惯性测量子模块;
所述激光雷达惯性测量子模块用于:
将相机测量坐标系下的视觉匹配信息转换到激光雷达坐标系下;
从点云数据中提取点云特征,计算相邻两帧点云数据的点云特征之间的相邻帧约束,利用激光雷达坐标系下的视觉匹配信息对相邻帧约束进行修正,得到修正后的点云特征;
将修正后的点云特征向水平方向投影,构建出局部子图并将其加入到全局定位地图中,再通过对局部子图进行闭环检测操作来优化全局定位地图。
视觉惯性测量子模块包含INS惯性感知器,视觉数据采集器和视觉数据处理器;其中,INS惯性感知器实时提供装置整体的位姿(包含三个方向加速度和三个方向角速度)给视觉数据处理器;视觉数据采集器用于采集周围环境和地物的影像,并发送给视觉数据处理器;视觉数据处理器用于接收视觉和位姿相关数据并利用激光雷达惯性测量子模块提供的点云关键帧进行视觉特征识别,并提供视觉匹配信息给激光雷达惯性测量子模块。
激光雷达惯性测量子模块包含GNSS信号接收器,INS惯性感知器,激光雷达点云采集器和雷达数据处理器;其中,GNSS信号接收器负责接收各种类型卫星信号并提供给雷达数据处理器以进行绝对定位初始化;INS惯性感知器实时提供装置整体的位姿(包含三个方向加速度和三个方向角速度)给雷达数据处理器;激光雷达点云采集器用于采集现实世界周围环境和地物三维相对点云信息并提供给雷达数据处理器;雷达数据处理器通过获得的各种原始数据和视觉惯性测量子模块提供的视觉匹配信息进行点云扫描匹配并进行高精度定位。
此处需要说明的是,图3中的多源信息融合的定位地图构建装置中的视觉惯性测量子模块和激光雷达惯性测量子模块与图1中的多源信息融合的定位地图构建方法中的步骤的具体实施过程相同,此处不累述。
参照图4,给出一种电子设备的示意图。需要说明的是,图4示出的电子设备400仅是一个示例,不应对本发明实施例的功能和使用范围带来任何限制。
如图4所示,电子设备400包括中央处理单元(CPU)401,其可以根据存储在只读存储器(ROM)402中的程序或者从存储部分408加载到随机访问存储器(RAM)403中的程序而执行各种适当的动作和处理。在RAM 403中,还存储有系统操作所需的各种程序和数据。中央处理单元 401、ROM 402以及RAM 403通过总线404彼此相连。输入/输出(I/O)接口405也连接至总线404。
以下部件连接至I/O接口405:包括键盘、鼠标等的输入部分406;包括诸如阴极射线管(CRT)、液晶显示器(LCD)等以及扬声器等的输出部分407;包括硬盘等的存储部分408;以及包括诸如局域网(LAN)卡、调制解调器等的网络接口卡的通信部分409。通信部分409经由诸如因特网的网络执行通信处理。驱动器410也根据需要连接至I/O接口405。可拆卸介质411,诸如磁盘、光盘、磁光盘、半导体存储器等等,根据需要安装在驱动器410上,以便于从其上读出的计算机程序根据需要被安装入存储部分408。
本实施例的电子设备中的中央处理单元 401执行所述程序时实现如图1所示的多源信息融合的定位地图构建方法中的步骤。
特别地,根据本申请的实施例,上文参考流程图描述的过程可以被实现为计算机软件程序。例如,本申请的实施例包括一种计算机程序产品,其包括承载在计算机可读介质上的计算机程序,该计算机程序包含用于执行图1所示的方法的程序代码。在这样的实施例中,该计算机程序可以通过通信部分409从网络上被下载和安装,和/或从可拆卸介质411被安装。在该计算机程序被中央处理单元401执行时,执行本申请的装置中限定的各种功能。
其中,图1所示的方法所对应的计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,所述的程序可存储于一计算机可读取存储介质中,该程序在执行时,可包括如上述各方法的实施例的流程。其中,所述的存储介质可为磁碟、光盘、只读存储记忆体(Read-Only Memory,ROM)或随机存储记忆体(Random AccessMemory,RAM)等。
以上所述仅为本发明的优选实施例而已,并不用于限制本发明,对于本领域的技术人员来说,本发明可以有各种更改和变化。凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

Claims (10)

1.一种多源信息融合的定位地图构建方法,其特征在于,包括:
获取同一时间和空间中的相机测量坐标系下的视觉数据和激光雷达坐标系下的点云数据;
从点云数据中提取出点云关键帧,基于点云关键帧对应的视觉数据,识别出点云关键帧的视觉特征;
估算视觉特征在相机测量坐标系中的空间变化,得到视觉位程图;将视觉特征与视觉位程图进行配准,得到相机测量坐标系下的视觉匹配信息,并将其转换到激光雷达坐标系下;
从点云数据中提取点云特征,计算相邻两帧点云数据的点云特征之间的相邻帧约束,利用激光雷达坐标系下的视觉匹配信息对相邻帧约束进行修正,得到修正后的点云特征;
将修正后的点云特征向水平方向投影,构建出局部子图并将其加入到全局定位地图中,再通过对局部子图进行闭环检测操作来优化全局定位地图。
2.如权利要求1所述的多源信息融合的定位地图构建方法,其特征在于,从点云数据中提取点云特征之前,还包括:
计算每帧点云中的所有点曲率,并按照KD-Tree搜寻树对相邻点进行位置纠正,得到校准点云;
从校准点云中提取点云特征。
3.如权利要求1所述的多源信息融合的定位地图构建方法,其特征在于,所述点云特征包括点云的边缘特征和平面特征。
4.如权利要求3所述的多源信息融合的定位地图构建方法,其特征在于,点云的边缘特征的提取过程为:
以点云采集设备中心为圆心,按照水平方向360度等分将点云进行投影,得到平面二维点云图并进行去噪处理;
计算去噪后的平面二维点云图中各个点云强度的一阶导数和二阶导数;
根据点云强度的一阶导数和二阶导数,筛选出真正的边缘特征点;
将筛选出的边缘特征点按照反投影方法重新组合为三维点云,得到点云的边缘特征。
5.如权利要求3所述的多源信息融合的定位地图构建方法,其特征在于,点云的平面特征的提取过程为:
对于点云中每个点,根据其周围的邻点使用最小二乘法拟合局部平面来提取法线,同时根据每个点周围法线的一致性计算每个点局部平面度得分,将高得分的点作为初始种子点,通过遍历邻近点并检查它们与种子平面的距离来扩散种子平面,将距离在设定阈值内的点添加到种子平面中,同时更新种子平面的参数以适应新的点;
对所有点按分数降序并重复上述步骤,得到最终得到点云的平面特征。
6.如权利要求1所述的多源信息融合的定位地图构建方法,其特征在于,当点云和局部子图的位姿不改变时,对局部子图进行闭环检测;
在对局部子图进行闭环检测的过程中,使用非线性最小二乘法对点云关键帧的描述因子与修正后的点云特征的描述因子进行匹配。
7.一种多源信息融合的定位地图构建装置,其特征在于,包括:
数据获取模块,其用于获取同一时间和空间中的相机测量坐标系下的视觉数据和激光雷达坐标系下的点云数据;
视觉特征识别模块,其用于从点云数据中提取出点云关键帧,基于点云关键帧对应的视觉数据,识别出点云关键帧的视觉特征;
视觉匹配模块,其用于估算视觉特征在相机测量坐标系中的空间变化,得到视觉位程图;将视觉特征与视觉位程图进行配准,得到相机测量坐标系下的视觉匹配信息,并将其转换到激光雷达坐标系下;
点云特征修正模块,其用于从点云数据中提取点云特征,计算相邻两帧点云数据的点云特征之间的相邻帧约束,利用激光雷达坐标系下的视觉匹配信息对相邻帧约束进行修正,得到修正后的点云特征;
全局定位地图构建模块,其用于将修正后的点云特征向水平方向投影,构建出局部子图并将其加入到全局定位地图中,再通过对局部子图进行闭环检测操作来优化全局定位地图。
8.一种多源信息融合的定位地图构建装置,其特征在于,包括:
视觉惯性测量子模块和激光雷达惯性测量子模块;
所述视觉惯性测量子模块和激光雷达惯性测量子模块用于分别获取同一时间和空间中的相机测量坐标系下的视觉数据和激光雷达坐标系下的点云数据;
所述视觉惯性测量子模块用于:
从点云数据中提取出点云关键帧,基于点云关键帧对应的视觉数据,识别出点云关键帧的视觉特征;
估算视觉特征在相机测量坐标系中的空间变化,得到视觉位程图;将视觉特征与视觉位程图进行配准,得到相机测量坐标系下的视觉匹配信息,并传送至激光雷达惯性测量子模块;
所述激光雷达惯性测量子模块用于:
将相机测量坐标系下的视觉匹配信息转换到激光雷达坐标系下;
从点云数据中提取点云特征,计算相邻两帧点云数据的点云特征之间的相邻帧约束,利用激光雷达坐标系下的视觉匹配信息对相邻帧约束进行修正,得到修正后的点云特征;
将修正后的点云特征向水平方向投影,构建出局部子图并将其加入到全局定位地图中,再通过对局部子图进行闭环检测操作来优化全局定位地图。
9.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,该程序被处理器执行时实现如权利要求1-6中任一项所述的多源信息融合的定位地图构建方法中的步骤。
10.一种电子设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,其特征在于,所述处理器执行所述程序时实现如权利要求1-6中任一项所述的多源信息融合的定位地图构建方法中的步骤。
CN202410585333.9A 2024-05-13 2024-05-13 多源信息融合的定位地图构建方法、装置、介质及设备 Active CN118155039B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202410585333.9A CN118155039B (zh) 2024-05-13 2024-05-13 多源信息融合的定位地图构建方法、装置、介质及设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202410585333.9A CN118155039B (zh) 2024-05-13 2024-05-13 多源信息融合的定位地图构建方法、装置、介质及设备

Publications (2)

Publication Number Publication Date
CN118155039A true CN118155039A (zh) 2024-06-07
CN118155039B CN118155039B (zh) 2024-07-26

Family

ID=91290536

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202410585333.9A Active CN118155039B (zh) 2024-05-13 2024-05-13 多源信息融合的定位地图构建方法、装置、介质及设备

Country Status (1)

Country Link
CN (1) CN118155039B (zh)

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112396656A (zh) * 2020-11-24 2021-02-23 福州大学 一种视觉与激光雷达融合的室外移动机器人位姿估计方法
CN112486171A (zh) * 2020-11-30 2021-03-12 中科院软件研究所南京软件技术研究院 一种基于视觉的机器人避障方法
CN113436260A (zh) * 2021-06-24 2021-09-24 华中科技大学 基于多传感器紧耦合的移动机器人位姿估计方法和系统
CN114518108A (zh) * 2020-11-18 2022-05-20 郑州宇通客车股份有限公司 一种定位地图构建方法及装置
CN115240047A (zh) * 2022-08-04 2022-10-25 中国矿业大学(北京) 一种融合视觉回环检测的激光slam方法及系统
CN115655262A (zh) * 2022-12-26 2023-01-31 广东省科学院智能制造研究所 基于深度学习感知的多层级语义地图构建方法和装置
US20230118945A1 (en) * 2021-11-02 2023-04-20 Apollo Intelligent Driving Technology (Beijing) Co., Ltd. Method of processing data for autonomous vehicle, electronic device, storage medium and autonomous vehicle
CN116228969A (zh) * 2023-01-06 2023-06-06 北京林业大学 一种基于多传感器融合的林区定位与三维重建方法及系统
CN116972846A (zh) * 2023-07-13 2023-10-31 北京理工大学 融合多传感器信息的视觉临场感环境构建方法

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114518108A (zh) * 2020-11-18 2022-05-20 郑州宇通客车股份有限公司 一种定位地图构建方法及装置
CN112396656A (zh) * 2020-11-24 2021-02-23 福州大学 一种视觉与激光雷达融合的室外移动机器人位姿估计方法
CN112486171A (zh) * 2020-11-30 2021-03-12 中科院软件研究所南京软件技术研究院 一种基于视觉的机器人避障方法
CN113436260A (zh) * 2021-06-24 2021-09-24 华中科技大学 基于多传感器紧耦合的移动机器人位姿估计方法和系统
US20230118945A1 (en) * 2021-11-02 2023-04-20 Apollo Intelligent Driving Technology (Beijing) Co., Ltd. Method of processing data for autonomous vehicle, electronic device, storage medium and autonomous vehicle
CN115240047A (zh) * 2022-08-04 2022-10-25 中国矿业大学(北京) 一种融合视觉回环检测的激光slam方法及系统
CN115655262A (zh) * 2022-12-26 2023-01-31 广东省科学院智能制造研究所 基于深度学习感知的多层级语义地图构建方法和装置
CN116228969A (zh) * 2023-01-06 2023-06-06 北京林业大学 一种基于多传感器融合的林区定位与三维重建方法及系统
CN116972846A (zh) * 2023-07-13 2023-10-31 北京理工大学 融合多传感器信息的视觉临场感环境构建方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
张伟伟;陈超;徐军;: "融合激光与视觉点云信息的定位与建图方法", 计算机应用与软件, no. 07, 12 July 2020 (2020-07-12) *

Also Published As

Publication number Publication date
CN118155039B (zh) 2024-07-26

Similar Documents

Publication Publication Date Title
CN113989450B (zh) 图像处理方法、装置、电子设备和介质
CN113269840A (zh) 一种用于相机和多激光雷达的联合标定方法及电子设备
CN112197773B (zh) 基于平面信息的视觉和激光定位建图方法
CN113916130B (zh) 一种基于最小二乘法的建筑物位置测量方法
CN116625354B (zh) 一种基于多源测绘数据的高精度地形图生成方法及系统
CN114677435A (zh) 一种点云全景融合要素提取方法和系统
CN114325634A (zh) 一种基于激光雷达的高鲁棒性野外环境下可通行区域提取方法
CN112446844B (zh) 一种基于点云特征提取与配准融合方法
CN114612665A (zh) 基于法向量直方图特征的位姿估计及动态车辆检测方法
CN113327296A (zh) 基于深度加权的激光雷达与相机在线联合标定方法
CN112767459A (zh) 基于2d-3d转换的无人机激光点云与序列影像配准方法
CN116309817A (zh) 一种基于rgb-d相机的托盘检测与定位方法
CN110927765B (zh) 激光雷达与卫星导航融合的目标在线定位方法
Jelinek et al. Fast total least squares vectorization
CN116844124A (zh) 三维目标检测框标注方法、装置、电子设备和存储介质
CN107765257A (zh) 一种基于反射强度辅助外部校准的激光探测与测量方法
CN118314031A (zh) 一种基于摄影和激光雷达测量自然资源的数据融合方法
CN109946682A (zh) 基于ICESat/GLAS的GF3数据基线估计方法
CN117570968A (zh) 基于视觉路标的地图构建与维护方法、装置及存储介质
CN110853103B (zh) 一种用于深度学习姿态估计的数据集制作方法
CN118155039B (zh) 多源信息融合的定位地图构建方法、装置、介质及设备
Song et al. Registration for 3D LiDAR datasets using pyramid reference object
CN115407302A (zh) 激光雷达的位姿估计方法、装置和电子设备
CN114004951B (zh) 联合点云强度和几何结构的道路标志提取方法及系统
CN118274795B (zh) 一种火情经纬度坐标定位方法及装置

Legal Events

Date Code Title Description
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant