CN113012191A - 一种基于点云多视角投影图的激光里程计算法 - Google Patents

一种基于点云多视角投影图的激光里程计算法 Download PDF

Info

Publication number
CN113012191A
CN113012191A CN202110267205.6A CN202110267205A CN113012191A CN 113012191 A CN113012191 A CN 113012191A CN 202110267205 A CN202110267205 A CN 202110267205A CN 113012191 A CN113012191 A CN 113012191A
Authority
CN
China
Prior art keywords
view
point cloud
projection
pose
loss function
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202110267205.6A
Other languages
English (en)
Other versions
CN113012191B (zh
Inventor
陈宗海
裴浩渊
王纪凯
戴德云
徐萌
林士琪
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
University of Science and Technology of China USTC
Original Assignee
University of Science and Technology of China USTC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by University of Science and Technology of China USTC filed Critical University of Science and Technology of China USTC
Priority to CN202110267205.6A priority Critical patent/CN113012191B/zh
Publication of CN113012191A publication Critical patent/CN113012191A/zh
Application granted granted Critical
Publication of CN113012191B publication Critical patent/CN113012191B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/215Motion-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/269Analysis of motion using gradient-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • General Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Computational Linguistics (AREA)
  • Biomedical Technology (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Image Analysis (AREA)

Abstract

本发明提出一种基于点云多视角投影图的激光里程计算法,应用于移动机器人以及自动驾驶平台,包括如下步骤:步骤1、对三维激光点云数据进行多视角二维投影,得到环境的柱面全景投影视图、鸟瞰图,进一步对投影进行分割得到多视角点云投影图;步骤2、构建多视角位姿估计网络,在点云投影图上提取环境几何结构特征;步骤3、计算基于位姿绝对值的位姿损失函数以及基于稳定点区域的光度重投影误差损失函数;步骤4、根据位姿损失函数训练神经网络模型,所述神经网络模型能够根据输入的前后帧点云数据估计相对位姿变换。

Description

一种基于点云多视角投影图的激光里程计算法
技术领域
本发明涉及移动机器人技术以及自动驾驶领域,尤其涉及深度学习方法和SLAM(同步定位与建图)框架中的激光里程计相关领域。
背景技术
随着制造工艺的提升和人们对安全问题的重视程度日益增长,激光雷达在自动驾驶、无人物流等前沿应用中具有巨大的应用潜力。因而,基于激光点云的目标检测、语义分割、里程计、重定位等一系列三维视觉任务成为了相关领域的研究热点。然而,由于激光点云的无序性和稀疏性,在其被广泛应用于无人驾驶和机器人领域之前,还需要解决以下几个问题:
1)在交通场景中64线激光雷达的一次扫描数据包含10^5个点云,任何逐点检索操作将导致算法不能够实时运行,进而影响到算法在移动平台的部署以及会引来一系列严重的安全性问题。
2)点云的无序性体现在将点云数据打乱顺序不影响最终对环境信息的表达。因而在对点云进行特征提取时只能提取其顺序不变的特征,目前常见的做法是使用maxpooling对点云的全局特征进行提取,但是导致了点云局部特征信息的损失。
发明内容
本发明的目的是提供一种可应用于移动机器人以及自动驾驶平台的基于点云多视角投影图的激光里程计算法,该算法能够发挥激光点云对环境感知的鲁棒性、精确性,同时利用成熟的二维卷积对点云投影图进行高效处理,应用投影图的多视角特征鲁棒地提取环境几何结构,提升三维激光里程计在复杂交通场景下的位姿估计精度和效率,从而得到较为精确的轨迹。
本发明的技术方案为:一种基于点云多视角投影图的激光里程计算法,应用于移动机器人以及自动驾驶平台,包括如下步骤:
步骤1、对三维激光点云数据进行多视角二维投影,得到环境的柱面全景投影视图、鸟瞰图,进一步对投影进行分割得到多视角点云投影图;
步骤2、构建多视角位姿估计网络,在点云投影图上提取环境几何结构特征;
步骤3、计算基于位姿绝对值的位姿损失函数以及基于稳定点区域的光度重投影误差损失函数;
步骤4、根据位姿损失函数训练神经网络模型,所述神经网络模型能够根据输入的前后帧点云数据估计相对位姿变换。
进一步的,在步骤1中,分别根据俯视视角、环视视角对点云投影,得到鸟瞰图以及柱面全景投影图,在柱面全景投影图的基础上,构造多视角点云投影图。
进一步的,在步骤2中构建多视角位姿估计网络,包括图像特征提取网络、旋转预测网络、平移预测网络,对步骤1中得到的点云投影图分别提取特征,然后用旋转预测网络和平移预测网络对融合特征进行处理,得到旋转量预测以及平移量预测,具体过程为:
使用柱面投影图特征提取网络、鸟瞰图特征提取网络以及基于FlowNets的多视角光流特征提取网络,对各个投影图分别进行处理,然后融合特征,构建两个相同的深层全连接网络,分别用于输出旋转估计量以及平移估计量。
进一步的,在步骤3中,所述构造基于位姿绝对值的位姿损失函数为基于欧拉角和平移量的L2损失函数,计算基于稳定区域的光度重投影误差损失函数为基于双线性插值的重投影误差损失函数,具体过程为:
首先计算基于欧拉角和平移量的L2损失函数:
Figure BDA0002972576130000021
其中
Figure BDA0002972576130000022
分别表示平移量真值和旋转量真值,p、q表示平移量和旋转量的预测值,k为权重;
然后将前后帧点云根据预测的相对位姿变换对齐:
P′tgt=TPsrc
其中Psrc表示前一帧点云,P′tgt表示变换到后一帧点云的坐标系的前一帧点云,T为预测的相对位姿变换;
并分别构建稳定区域掩模:
Figure BDA0002972576130000023
Figure BDA0002972576130000024
M=M1*M2
其中Φ()表示柱面投影函数,rthreshold为稳定区域判定阈值,
Figure BDA0002972576130000031
表示求解当变量(i,j)在集合E范围内变化时的最小值,
Figure BDA0002972576130000032
分别表示两帧点云的柱面投影图对应的稳定区域掩膜的第i行、第j列的值,M为最终的稳定区域掩膜,表示两帧点云的柱面投影图的稳定区域的交集。
然后根据像素之间的对应关系,在每一个像素的邻域内对柱面投影图进行双线性插值:
Figure BDA0002972576130000033
其中Δu1、Δu2为插值目标位置到其附近上下两个像素的纵向距离,Δv1、Δv2为插值目标位置到其附近上下两个像素的横向距离;
构建基于双线性插值的重投影误差损失函数:
Figure BDA0002972576130000034
其中H、W为柱面投影图的高和宽,Mij为稳定区域掩膜在(i,j)处的值;
最后得到总的损失函数:
Loss=w1*Lpose+w2*Lpho
其中w1、w2为损失项的对应权重。
有益效果:
本激光里程计方法能够处理复杂、动态交通场景下的户外大范围轨迹跟踪,其端到端的特性无需额外的数据预处理步骤,运行高效;基于稳定静态区域的光度重投影损失函数弥补了端到端模型的精度缺陷,双线性插值求解匹配深度值克服了量化误差带来的精度损失。此外,该方案整体成本较低,不需要对环境及机器人自身进行改造,可移植性强。
附图说明
图1为本发明实施例提供的复杂车辆环境下的基于点云多视角柱面投影图的三维激光里程计模型。
图2为基于三维点云柱面投影图的多视角分割示意图。
图3为多视角位姿估计网络的结构示意图。
图4为计算点云柱面投影图中像素的邻域梯度时,像素及其四邻域的示意图。
图5为计算基于稳定点区域的光度重投影误差时双线性插值示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整的描述,显然,所描述的实施例仅为本发明的一部分实施例,而不是全部的实施例,基于本发明中的实施例,本领域的普通技术人员在不付出创造性劳动的前提下所获得的所有其他实施例,都属于本发明的保护范围。
根据本发明的实施例,为了克服现有技术方案中存在的缺陷而提出针对复杂交通场景以及移动机器人平台,提出一种基于三维点云多视角投影的激光里程计算法,该算法充分考虑成本与精度的要求,设计出一种鲁棒性强、成本低,精度高的里程计算法,该方案中车辆装有一台64线激光雷达设备。具体包括如下步骤:
步骤1、对三维激光点云数据进行多视角二维投影,得到环境的柱面全景投影视图、鸟瞰图,进一步对投影进行分割得到多视角点云投影图;
根据本发明的实施例,首先对相邻两帧的三维点云数据分别进行俯视投影得到鸟瞰图,然后对两帧点云分别进行柱面投影,即将点云包含的三维坐标信息以及计算得到的点云到激光雷达的距离信息作为柱面投影图的通道数据,得到三维点云的2.5D表示,投影函数Φ可以描述为:
w=arctan2(y,x)/Δθ
Figure BDA0002972576130000041
Figure BDA0002972576130000042
其中(x,y,z)是点云的三维坐标,(w,h)是柱面投影图的像素坐标,Δθ、Δφ分别为激光雷达的水平、竖直分辨率,r是柱面投影图的像素值,代表点云到激光雷达的距离。
最后根据得到的柱面投影图,分割得到多视角投影图。如对于高、宽分别为H和W的柱面投影图,可在横向将其等比例地切分为前、后、左、右四块,其中后视图由柱面投影图的两端拼接在一起,得到四张高、宽分别为H和W/4的多视角投影图,如图2所示。然后分别左右延展一定的像素(如20个)确保不会有信息丢失,得到尺寸为64*340的四张多视角柱面投影图。
步骤2、构建多视角位姿估计网络,在点云投影图上提取环境几何结构特征;
根据本发明的实施例,首先构建多视角位姿估计网络,在点云投影图上提取多视角下的环境几何结构特征,将所提取的多视角特征输入到端到端多视角位姿估计网络中得到六自由度位姿预测,多视角位姿估计网络包括柱面图特征提取网络、鸟瞰图特征提取网络、多视角特征提取网络以及两个伪孪生深层全连接位姿预测网络。首先点云的多种投影表示分别输入到对应的特征提取网络中,然后将提取的特征向量深度融合,并分别输入到两个全连接位姿预测网络中对平移量和旋转量分别进行预测,如图3所示。
下面对各个网络进行详细介绍:
根据本发明的实施例,柱面投影图特征提取网络、鸟瞰图特征提取网络两个网络的输入分别为点云的柱面投影图以及鸟瞰图,其网络结构均基于VGG-16。由于柱面投影图的长宽比较大,因此柱面特征提取网络的最后三层卷积层仅在水平方向进行降采样。
根据本发明的实施例,多视角特征提取网络的输入为基于柱面图的多视角分割图。模型结构基于flownets,一个使用编解码结构的高效、轻量的光流特征提取网络。在实际中考虑到多视角分割图尺寸较小,因此仅用其前三层降采样网络和最后两层上采样网络提取光流特征。多视角分割图以前后视图、左右视图为划分,分别输入到该模块中,得到前后、左右的光流特征图。
根据本发明的实施例,特征融合网络为了融合柱面图特征、鸟瞰图特征以及多视角光流特征图,需要先使用均值池化对特征图进行自适应降采样以得到尺寸一致的特征图,然后将等尺寸的特征图进行通道连接融合,最后转化成特征向量输入到全连接位姿预测网络中。
根据本发明的实施例,伪孪生深层全连接位姿预测网络如下:
六自由度位姿中的旋转量与平移量不同,在笛卡尔坐标系中旋转量误差相对于三维坐标具有非线性的特点,因此需要对旋转量和平移量分别构造一个全连接网络进行预测,即伪孪生深层全连接位姿预测网络。旋转量位姿预测网络由5层全连接层构成,每层全连接层后接LeakyReLU激活层,并在第3、4层的激活函数后接Dropout层抑制过拟合。平移量位姿预测层与旋转量位姿预测层相同。每层神经元数量为512、128、64、16、3。
其中选择欧拉角作为旋转量的表示,欧拉角包含三个参数i、j、k,分别表示绕X、Y、Z轴的旋转角度。平移量包含x、y、z三个参数,表示在三维空间中的坐标。
步骤3、计算基于位姿绝对值的位姿损失函数以及基于稳定点区域的光度重投影误差损失函数;损失函数由两部分组成,基于欧拉角和平移量的L2损失和基于双线性插值的重投影误差。
基于欧拉角和平移量的L2损失:
根据真值标签和预测的位姿量计算二者之间的L2距离损失:
Figure BDA0002972576130000051
其中
Figure BDA0002972576130000052
分别表示平移量真值和旋转量真值,p、q表示平移量和旋转量的预测值。k为权重。
基于双线性插值的重投影误差损失函数计算过程如下:
1、根据预测的相对位姿变换T将参考点云Psrc转换到目标点云Ptgt的坐标系中:
P′tgt=TPsrc
2、分别计算两个点云的稳定点掩模。
具体的,对于柱面图上坐标为(i,j)的像素,考虑其与四邻域内的四个像素构成的集合E,如图4。
计算像素(i,j)的邻域梯度:
Figure BDA0002972576130000061
根据领域梯度,得到稳定点掩模M:
Figure BDA0002972576130000062
对于点云P′tgt、Ptgt分别计算得到稳定点掩模M1,M2,则最终的稳定点掩模:
M=M1*M2
3、由于在激光点云的柱面投影图中,其像素值代表距离,因而天然满足光度一致假设,可以构造基于静态区域的光度损失函数:
Figure BDA0002972576130000063
需要注意的是,柱面投影函数Φ()会不可避免地引入量化误差。实际上,柱面投影函数分为投影和下取整两个步骤,即:
Figure BDA0002972576130000064
φ(P)表示投影后的点云未经下取整时在图像中的精确像素坐标,经过下取整后得到整数形式的像素坐标。
因此,为了避免上述下取整操作带来的精度损失,上述光度损失函数中使用了经过双线性插值后的点云柱面投影距离图
Figure BDA0002972576130000065
具体地:
对于柱面投影图Φ(P′tgt)中坐标为(i,j)的像素点Φ(P′tgt)i,j,根据Φ(P′tgt)i,j未经下取整的精确像素坐标Φ(P′tgt)i,j,在柱面投影图Φ(Ptgt)的点集(Φ(Ptgt)i,j,Φ(Ptgt)i+1,j,Φ(Ptgt)i,j+1,Φ(Ptgt)i+1,j+1)中计算φ(P′tgt)i,j位置的插值距离值
Figure BDA0002972576130000066
(如图5)。
Figure BDA0002972576130000067
其中Δu1、Δu2为插值目标位置φ(P′tgt)i,j到Φ(Ptgt)i,j、Φ(Ptgt)i,j+1的纵向距离,Δv1、Δv2为插值目标位置φ(P′tgt)i,j到Φ(Ptgt)i,j+1,Φ(Ptgt)i+1,j+1的横向距离。
据此可以求出基于静态稳定区域的光度损失函数Lpho
最后,计算总的损失函数:
Loss=w1*Lpose+w2*Lpho
其中w1、w2为损失项的对应权重。
步骤4、根据位姿损失函数训练神经网络模型,保存权重,所述神经网络模型能够根据输入的前后帧点云数据估计相对位姿变换。
完成网络训练后,网络即可根据输入的前后帧点云数据鲁棒、高效地估计相对位姿变换。
尽管上面对本发明说明性的具体实施方式进行了描述,以便于本技术领域的技术人员理解本发明,且应该清楚,本发明不限于具体实施方式的范围,对本技术领域的普通技术人员来讲,只要各种变化在所附的权利要求限定和确定的本发明的精神和范围内,这些变化是显而易见的,一切利用本发明构思的发明创造均在保护之列。

Claims (4)

1.一种基于点云多视角投影图的激光里程计算法,应用于移动机器人以及自动驾驶平台,其特征在于,包括如下步骤:
步骤1、对三维激光点云数据进行多视角二维投影,得到环境的柱面全景投影视图、鸟瞰图,进一步对投影进行分割得到多视角点云投影图;
步骤2、构建多视角位姿估计网络,在点云投影图上提取环境几何结构特征;
步骤3、计算基于位姿绝对值的位姿损失函数以及基于稳定点区域的光度重投影误差损失函数;
步骤4、根据位姿损失函数训练神经网络模型,所述神经网络模型能够根据输入的前后帧点云数据估计相对位姿变换。
2.根据权利要求1所述基于点云多视角投影图的激光里程计算法,其特征在于,在步骤1中,分别根据俯视视角、环视视角对点云投影,得到鸟瞰图以及柱面全景投影图,在柱面全景投影图的基础上,构造多视角点云投影图。
3.根据权利要求1所述基于点云多视角投影图的激光里程计算法,其特征在于,在步骤2中构建多视角位姿估计网络,包括图像特征提取网络、旋转预测网络、平移预测网络,对步骤1中得到的点云投影图分别提取特征,然后用旋转预测网络和平移预测网络对融合特征进行处理,得到旋转量预测以及平移量预测,具体过程为:
使用柱面投影图特征提取网络、鸟瞰图特征提取网络以及基于FlowNets的多视角光流特征提取网络,对各个投影图分别进行处理,然后融合特征,构建两个相同的深层全连接网络,分别用于输出旋转估计量以及平移估计量。
4.根据权利要求1所述基于点云多视角投影图的激光里程计算法,其特征在于,在步骤3中,所述构造基于位姿绝对值的位姿损失函数为基于欧拉角和平移量的L2损失函数,计算基于稳定区域的光度重投影误差损失函数为基于双线性插值的重投影误差损失函数,具体过程为:
首先计算基于欧拉角和平移量的L2损失函数:
Figure FDA0002972576120000011
其中
Figure FDA0002972576120000012
分别表示平移量真值和旋转量真值,p、q表示平移量和旋转量的预测值,k为权重;
然后将前后帧点云根据预测的相对位姿变换对齐:
P′tgt=TPsrc
其中Psrc表示前一帧点云,P′tgt表示变换到后一帧点云的坐标系的前一帧点云,T为预测的相对位姿变换;
并分别构建稳定区域掩模:
Figure FDA0002972576120000021
Figure FDA0002972576120000022
M=M1*M2
其中Φ()表示柱面投影函数,rthreshold为稳定区域判定阈值,
Figure FDA0002972576120000023
表示求解当变量(i,j)在集合E范围内变化时的最小值,
Figure FDA0002972576120000024
分别表示两帧点云的柱面投影图对应的稳定区域掩膜的第i行、第j列的值,M为最终的稳定区域掩膜,表示两帧点云的柱面投影图的稳定区域的交集;
然后根据像素之间的对应关系,在每一个像素的邻域内对柱面投影图进行双线性插值:
Figure FDA0002972576120000025
其中Δu1、Δu2为插值目标位置到其附近上下两个像素的纵向距离,Δv1、Δv2为插值目标位置到其附近上下两个像素的横向距离;
构建基于双线性插值的重投影误差损失函数:
Figure FDA0002972576120000026
其中H、W为柱面投影图的高和宽,Mij为稳定区域掩膜在(i,j)处的值;
最后得到总的损失函数:
Loss=w1*Lpose+w2*Lpho
其中w1、w2为损失项的对应权重。
CN202110267205.6A 2021-03-11 2021-03-11 一种基于点云多视角投影图的激光里程计算法 Active CN113012191B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110267205.6A CN113012191B (zh) 2021-03-11 2021-03-11 一种基于点云多视角投影图的激光里程计算法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110267205.6A CN113012191B (zh) 2021-03-11 2021-03-11 一种基于点云多视角投影图的激光里程计算法

Publications (2)

Publication Number Publication Date
CN113012191A true CN113012191A (zh) 2021-06-22
CN113012191B CN113012191B (zh) 2022-09-02

Family

ID=76405571

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110267205.6A Active CN113012191B (zh) 2021-03-11 2021-03-11 一种基于点云多视角投影图的激光里程计算法

Country Status (1)

Country Link
CN (1) CN113012191B (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113838193A (zh) * 2021-09-29 2021-12-24 北京市商汤科技开发有限公司 数据处理方法、装置、计算机设备及存储介质
CN116527663A (zh) * 2023-04-10 2023-08-01 北京城市网邻信息技术有限公司 信息处理方法、装置、电子设备及存储介质

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20160193729A1 (en) * 2015-01-06 2016-07-07 Discovery Robotics Method and system for determining precise robotic position and orientation using near-simultaneous radio frequency measurements
CN107144292A (zh) * 2017-06-08 2017-09-08 杭州南江机器人股份有限公司 一种运动设备的里程计方法以及里程计装置
WO2017155970A1 (en) * 2016-03-11 2017-09-14 Kaarta, Inc. Laser scanner with real-time, online ego-motion estimation
CN107796397A (zh) * 2017-09-14 2018-03-13 杭州迦智科技有限公司 一种机器人双目视觉定位方法、装置和存储介质
CN109506642A (zh) * 2018-10-09 2019-03-22 浙江大学 一种机器人多相机视觉惯性实时定位方法及装置
CN110715670A (zh) * 2019-10-22 2020-01-21 山西省信息产业技术研究院有限公司 一种基于gnss差分定位构建驾考全景三维地图的方法
CN111145255A (zh) * 2019-12-27 2020-05-12 浙江省北大信息技术高等研究院 一种结合深度学习和几何优化的位姿计算方法和系统
CN111369608A (zh) * 2020-05-29 2020-07-03 南京晓庄学院 一种基于图像深度估计的视觉里程计方法
CN111798475A (zh) * 2020-05-29 2020-10-20 浙江工业大学 一种基于点云深度学习的室内环境3d语义地图构建方法
CN112258600A (zh) * 2020-10-19 2021-01-22 浙江大学 一种基于视觉与激光雷达的同时定位与地图构建方法
CN112308918A (zh) * 2020-10-26 2021-02-02 杭州电子科技大学 一种基于位姿解耦估计的无监督单目视觉里程计方法

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20160193729A1 (en) * 2015-01-06 2016-07-07 Discovery Robotics Method and system for determining precise robotic position and orientation using near-simultaneous radio frequency measurements
WO2017155970A1 (en) * 2016-03-11 2017-09-14 Kaarta, Inc. Laser scanner with real-time, online ego-motion estimation
CN107144292A (zh) * 2017-06-08 2017-09-08 杭州南江机器人股份有限公司 一种运动设备的里程计方法以及里程计装置
CN107796397A (zh) * 2017-09-14 2018-03-13 杭州迦智科技有限公司 一种机器人双目视觉定位方法、装置和存储介质
CN109506642A (zh) * 2018-10-09 2019-03-22 浙江大学 一种机器人多相机视觉惯性实时定位方法及装置
CN110715670A (zh) * 2019-10-22 2020-01-21 山西省信息产业技术研究院有限公司 一种基于gnss差分定位构建驾考全景三维地图的方法
CN111145255A (zh) * 2019-12-27 2020-05-12 浙江省北大信息技术高等研究院 一种结合深度学习和几何优化的位姿计算方法和系统
CN111369608A (zh) * 2020-05-29 2020-07-03 南京晓庄学院 一种基于图像深度估计的视觉里程计方法
CN111798475A (zh) * 2020-05-29 2020-10-20 浙江工业大学 一种基于点云深度学习的室内环境3d语义地图构建方法
CN112258600A (zh) * 2020-10-19 2021-01-22 浙江大学 一种基于视觉与激光雷达的同时定位与地图构建方法
CN112308918A (zh) * 2020-10-26 2021-02-02 杭州电子科技大学 一种基于位姿解耦估计的无监督单目视觉里程计方法

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
WENDONG DING等: "LiDAR Inertial Odometry Aided Robust LiDAR Localization System in Changing City Scenes", 《2020 IEEE INTERNATIONAL CONFERENCE ON ROBOTICS AND AUTOMATION (ICRA)》 *
ZHENZHEN XIANG等: "ViLiVO: Virtual LiDAR-Visual Odometry for an Autonomous Vehicle with a Multi-Camera System", 《2019 IEEE/RSJ INTERNATIONAL CONFERENCE ON INTELLIGENT ROBOTS AND SYSTEMS (IROS)》 *
杨理欣: "基于多相机的同步定位与建图方法研究", 《中国优秀硕士学位论文全文数据库 信息科技辑》 *
王刚: "基于多视角立体视觉的三维重建研究", 《中国优秀硕士学位论文全文数据库 信息科技辑》 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113838193A (zh) * 2021-09-29 2021-12-24 北京市商汤科技开发有限公司 数据处理方法、装置、计算机设备及存储介质
CN116527663A (zh) * 2023-04-10 2023-08-01 北京城市网邻信息技术有限公司 信息处理方法、装置、电子设备及存储介质
CN116527663B (zh) * 2023-04-10 2024-04-26 北京城市网邻信息技术有限公司 信息处理方法、装置、电子设备及存储介质

Also Published As

Publication number Publication date
CN113012191B (zh) 2022-09-02

Similar Documents

Publication Publication Date Title
CN108665496B (zh) 一种基于深度学习的端到端的语义即时定位与建图方法
CN111626217B (zh) 一种基于二维图片和三维点云融合的目标检测和追踪方法
CN109726627B (zh) 一种神经网络模型训练及通用接地线的检测方法
CN111563415B (zh) 一种基于双目视觉的三维目标检测系统及方法
CN113819890B (zh) 测距方法、装置、电子设备及存储介质
EP3920095A1 (en) Image processing method and apparatus, moveable platform, unmanned aerial vehicle and storage medium
US11442464B2 (en) Bird's eye view map based recognition and motion prediction for autonomous systems
EP3822852B1 (en) Method, apparatus, computer storage medium and program for training a trajectory planning model
CN113012191B (zh) 一种基于点云多视角投影图的激光里程计算法
EP4211651A1 (en) Efficient three-dimensional object detection from point clouds
CN114648551B (zh) 轨迹预测方法及装置
Shi et al. Grid-centric traffic scenario perception for autonomous driving: A comprehensive review
CN112257668A (zh) 主辅路判断方法、装置、电子设备及存储介质
Dwivedi et al. Bird's Eye View Segmentation Using Lifted 2D Semantic Features.
CN114815810A (zh) 无人机协同的水上清洁机器人路径规划方法及设备
CN114049362A (zh) 一种基于transformer的点云实例分割方法
Li et al. Multi-modal neural feature fusion for automatic driving through perception-aware path planning
Berrio et al. Fusing lidar and semantic image information in octree maps
WO2023155903A1 (en) Systems and methods for generating road surface semantic segmentation map from sequence of point clouds
CN114648639B (zh) 一种目标车辆的检测方法、系统及装置
CN116129234A (zh) 一种基于注意力的4d毫米波雷达与视觉的融合方法
Jeong et al. Fast and Lite Point Cloud Semantic Segmentation for Autonomous Driving Utilizing LiDAR Synthetic Training Data
Treible et al. Learning dense stereo matching for digital surface models from satellite imagery
CN116868239A (zh) 静态占用跟踪
Xie et al. Circular Accessible Depth: A Robust Traversability Representation for UGV Navigation

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant