CN106599108B - 一种三维环境中多模态环境地图构建方法 - Google Patents

一种三维环境中多模态环境地图构建方法 Download PDF

Info

Publication number
CN106599108B
CN106599108B CN201611077303.9A CN201611077303A CN106599108B CN 106599108 B CN106599108 B CN 106599108B CN 201611077303 A CN201611077303 A CN 201611077303A CN 106599108 B CN106599108 B CN 106599108B
Authority
CN
China
Prior art keywords
point cloud
map
dimensional
coordinate system
unmanned vehicle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201611077303.9A
Other languages
English (en)
Other versions
CN106599108A (zh
Inventor
刘勇
张高明
张涛
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhejiang University ZJU
Original Assignee
Zhejiang University ZJU
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhejiang University ZJU filed Critical Zhejiang University ZJU
Priority to CN201611077303.9A priority Critical patent/CN106599108B/zh
Publication of CN106599108A publication Critical patent/CN106599108A/zh
Application granted granted Critical
Publication of CN106599108B publication Critical patent/CN106599108B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/3407Route searching; Route guidance specially adapted for specific applications
    • G01C21/3415Dynamic re-routing, e.g. recalculating the route when the user deviates from calculated route or after detecting real-time traffic data or accidents
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/29Geographical information databases

Landscapes

  • Engineering & Computer Science (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Databases & Information Systems (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Navigation (AREA)
  • Instructional Devices (AREA)

Abstract

本发明公开了一种三维环境中多模态环境地图构建方法。以建图模式多次运行无人车,每一次运行得到不同的关键帧坐标序列。基于欧式距离计算不同关键帧坐标间的地理接近性,以此识别不同次运行关键帧序列的交叉点,这些交叉点作为拓扑地图的节点,将多条轨迹联结在一起,构成一整个地图。在此拓扑地图上执行基于启发式图搜索算法的路径规划,即可获得路径交叉点序列,用这个路径交叉点序列可以索引得到原始的稠密关键帧坐标,这些坐标作为轨迹规划的结果,输入到无人车控制执行系统,实现无人车的位置跟踪。

Description

一种三维环境中多模态环境地图构建方法
技术领域
本发明属于移动机器人自主导航技术领域,特别是针对三维环境的多模态环境地图构建方法。
背景技术
地图构建技术是移动机器人导航系统的核心功能,构建地图是为了后续的重用,如果仅仅执行单次作业,那么构建地图的意义并不明显。地图是对环境的描述,是一种建模行为,其意义在于为机器人的行为决策提供必要的描述。传统的地图形式有度量地图,拓扑地图及混合地图。度量地图能精确用于导航,但表达不够紧凑,会占用计算机系统大量的内存资源,拓扑地图形式简单,易于存储,但是不足以用于导航。混合地图的计算则较为复杂。
发明内容
本发明所要解决的技术问题是提供一种三维环境中多模态环境地图构建方法,以提供同时支持自定位、路径规划和控制的地图数据系统。为此,本发明提供以下技术方案:
一种三维环境中多模态环境地图构建方法,包括以下步骤:
步骤1,无人车为随机探索环境的自动运行模式,无人车的双目相机采集环境图像,建立稀疏视觉特征地图,该地图的参考坐标系称为特征地图坐标系,坐标原点是无人车启动时相机的中心,正前方为z轴正方向,正右方为x轴正方向,并以二进制文件形式将特征地图的数据存储至车载计算机本地磁盘;
步骤2,从车载计算机的本地磁盘读取地图数据文件至内存,无人车设定为定位模式,定位成功后,接收用户设置的目标位置坐标信息;有位置关系变化后,反复尝试重定位;
步骤3,步骤2中每次成功定位后,稠密立体匹配双目相机的左右图像,获得三维点云序列;
步骤4,从三维点云中拟合得到无人车的底盘的平面模型;
从三维点云序列中随机选取3个三维点;检测3个三维点是否共线,若共线,则重新选取;估计出一个平面方程其中,是平面方程的参数,x、y、z是三维点云的坐标;
统计点云序列中有多少三维点符合这一平面方程,记这个数量为K;重复执行这个统计过程L次,考察选择K值最大的一个平面方程,若其K值大于某一事先设定的阈值Kthresh,那么,这个方程就是地盘平面模型Π:ax+by+cz+d=0,否则,认为本次计算失败,沿用上一次计算的结果作为当前的平面模型Π;
步骤5,将三维点云序列变换至特征地图坐标系,并根据点云序列的高度属性,利用八叉树栅格地图(Octomap)方法,构建三维栅格地图;
5-1,点云变换:
采用如下齐次变换公式,将点云坐标从相机坐标系变换至至特征地图坐标系(如附图中图2);
其中,AP表示点云P在特征地图坐标系下的坐标,BP表示点云P在相机坐标系下的坐标,表示特征地图坐标系到相机坐标系的变换矩阵;
5-2,基于步骤4中的平面模型Π划分稠密点云为地面部分和高于地面部分,高于地面部分视为障碍物点云,操作如下:
获取三维点云序列中的一个点云P,计算P到平面Π的距离其中,Px、Py、Pz是点P的坐标;
若d≤dthresh,将P加入可通行区域点云集合Pfree,其中,dthresh是事先设定的距离阈值。
5-3,基于5-2中点云高度属性的判断,即可通行区域点云集合Pfree对应地面部分,其余点云对应高于地面的障碍部分,利用八叉树栅格地图方法(如附图中图3),以点云集合{AP}构建三维栅格地图;
步骤6,对步骤5中的三维栅格地图进行降维处理,之后进行离散化,得到二维栅格地图,具体步骤如下:
6-1,根据双目相机的高度,将高于双目相机的点云在三维栅格地图中对应的节点剔除,与此同时,将三维栅格单元的坐标值投影到特征地图坐标系的x-z平面;
6-2,对经过降维的三维栅格地图,进行栅格单元中心点的坐标的离散化处理,得到二维栅格地图,包括如下步骤:
确定二维栅格地图中坐标x的取值范围:xmin,xmax
确定二维栅格地图中坐标z的取值范围:zmin,zmax
输入二维栅格地图节点中心的连续坐标值:xc,zc
圆整至邻近的整数值:xr,zr
利用坐标范围映射数组索引:xd=xmin+xr,zd=zmin+zr
xd、zd即是离散化的二维栅格地图节点的坐标值。
在上述技术方案的基础上,本发明还可以采用一下进一步的技术方案:
将可用于无人车自定位的特征地图与可用于无人车全局路径规划的栅格地图进行关联,基于双目相机图像构建稀疏视觉特征地图,利用双目相机获取的三维点云构建栅格地图。
通过判断无人车的底盘所在地平面模型确定点云的可通行性,以利用八叉树栅格地图方法快速构建和更新三维栅格地图。
由于采用本发明的技术方案,本发明的有益效果为:本发明提出的多模态环境地图本质上是一种松耦合的基于映射关系的地图数据结构。既能用于精确导航,又易于表达,实质上是用稀疏图映射稠密度量图。这种多模态的地图可用于无人车自定位、路径规划和控制。
附图说明
图1是本发明车辆、底盘、地面示意图。
图2是本发明坐标变换示意图。
图3是本发明三维空间结构示意图。
图4是本发明八叉树数据结构示意图。
图5是本发明目相机立体成像过程示意图。
图6本发明降维后的二维栅格地图示意图。
图7是本发明二维栅格地图的离散化流程示意图。
图8是本发明二维栅格地图的离散化结果示意图。
具体实施方式
为了更好地理解本发明的技术方案,以下结合附图作进一步描述。一种三维环境中多模态环境地图构建方法,包括以下步骤:
步骤1,无人车为随机探索环境的自动运行模式,无人车的双目相机采集环境图像,建立稀疏视觉特征地图,该地图的参考坐标系称为特征地图坐标系,坐标原点是无人车启动时相机的中心,正前方为z轴正方向,正右方为x轴正方向,并以二进制文件形式将特征地图的数据存储至车载计算机本地磁盘。
为使无人车尽可能采集到尽可能丰富的环境信息,采用一种随机游走的运动策略,即任意时刻,使无人车尽可能朝向空旷的地带运动,这一方面保证了车辆自动运行的安全,同时,也能采集到足够多的环境特征点。
采取如下步骤计算随机游走的运动方向:
1)激光雷达获取点云
从水平安装的2D激光雷达获取点云序列{(θi,di)|i=1,2,…,M}。
激光雷达以预设的角度步长每次扫描周围一定角度范围、一定距离范围,当光线照射至物体时,即可返回该处的角度和距离信息,这种角度和距离信息即构成一个点云。如此持续扫描,就可获得连续的二维点云信息。
2)定义安全行驶方向矢量
其中,rthresh是预设的避障半径。
3)计算安全行驶方向
计算x方向的矢量和:
计算y放向的矢量和:
x方向矢量和归一化:
y方向矢量和归一化:
计算行驶方向角:
从而,得到安全行驶方向θsteer,以此作为角度操纵控制量发送给执行器,即可驱动无人车驶向安全方向。
建立稀疏视觉特征地图的过程。
1)特征点的计算和位姿跟踪
从图像中抽取ORB特征点:
首先,按如下步骤提取FAST角点;
然后,利用灰度质心法为FAST角点添加方向信息;
在提取了有方向信息的FAST角点后,对每个特征点计算ORB描述子,采用BRIEF算法进行描述;
匹配前后帧的特征点,在图像It中提取到特征点在图像It+1中提取到特征点采用快速近似最近邻(FLANN)算法进行匹配;根据这些匹配对计算两帧间的位姿变换矩阵;
2)基于图优化方法优化全局误差
3)基于词包模型实现闭环检测
要做闭环检测,以校正无人车位姿和地图的累积误差,这里,采用基于表面特征的场景匹配算法,即词包模型。词包模型的原理是视觉词典和词汇统计直方图向量的余弦距离比较,余弦距离公式为
4)地图数据的序列化和反序列化。
为实现地图重用,以便每次重新运行无人车时不必重新建图,或者,为了在原有地图的基础上扩充新区域的地图,必须对内存中的地图数据进行序列化和反序列化。采用boost函数库的serialization类库进行序列化和反序列化操作。序列化的对象是关键帧数据及关键帧对应的特征点云数据。
步骤2,从车载计算机的本地磁盘读取地图数据文件至内存,无人车设定为定位模式,定位成功后,接收用户设置的目标位置坐标信息;有位置关系变化后,反复尝试重定位;
步骤3,步骤2中每次成功定位后,稠密立体匹配双目相机的左右图像,获得三维点云序列。双目立体视觉三维测量基于视差原理。如图5所示,基线长度B是左右相机投影中心连线的距离。双目相机的焦距为f。左右相机同一时刻拍摄空间物体同一点P(xp,yp,zp),并分别在左右图像上生成像点Pl(Xl,Yl)和Pr(Xr,Yr)。
从而,点P的图像坐标Y相同,即有Yl=Yr=Y。则由三角形相似原理有如下关系:
从而,可以计算视差:
Disp=Xl-Xr
由此,可计算点P在相机坐标系下的三维坐标为:
因此,只要能得到左右相机图像平面上的匹配点对,即可计算出匹配点对应的空间点的三维坐标。
为了保证实时控制系统的计算性能,采用快速的绝对差相关算法(SSD)计算图相对的匹配点,计算公式如下:
其中,
dmax和dmin分别时最小和最大视差;
m是方形模板的尺寸,单位是像素;
Ileft和Iright分别是双目相机的左右图像。
从而,只要计算出满足视差范围容许值的绝对差最小的匹配对,就可以认为匹配成功。
步骤4,从三维点云中拟合得到无人车的底盘的平面模型;
从三维点云序列中随机选取3个三维点;检测3个三维点是否共线,若共线,则重新选取;估计出一个平面方程其中,是平面方程的参数,x、y、z是三维点云的坐标;
统计点云序列中有多少三维点符合这一平面方程,记这个数量为K;重复执行这个统计过程L次,考察选择K值最大的一个平面方程,若其K值大于某一事先设定的阈值Kthresh,那么,这个方程就是地盘平面模型Π:ax+by+cz+d=0,否则,认为本次计算失败,沿用上一次计算的结果作为当前的平面模型Π;
步骤5,将三维点云序列变换至特征地图坐标系,并根据点云序列的高度属性,利用八叉树栅格地图(Octomap)方法,构建三维栅格地图;
5-1,点云变换:
采用如下齐次变换公式,将点云坐标从相机坐标系变换至至特征地图坐标系如图2所示;
其中,AP表示点云P在特征地图坐标系下的坐标,BP表示点云P在相机坐标系下的坐标,表示特征地图坐标系到相机坐标系的变换矩阵;
5-2,基于步骤4中的平面模型Π划分稠密点云为地面部分和高于地面部分,高于地面部分视为障碍物点云,操作如下:
获取三维点云序列中的一个点云P,计算P到平面Π的距离其中,Px、Py、Pz是点P的坐标;
若d≤dthresh,将P加入可通行区域点云集合Pfree,其中,dthresh是事先设定的距离阈值。
5-3,基于5-2中点云高度属性的判断,即可通行区域点云集合Pfree对应地面部分,其余点云对应高于地面的障碍部分,利用八叉树栅格地图方法,如图3和图4所示,以点云集合{AP}构建三维栅格地图。
从点云中拟合地面;计算每个点到拟合的平面距离;若计算的距离小于某个阈值,则判定为非占据,否则,判定为占据;
步骤6,对步骤5中的三维栅格地图进行降维处理,之后进行离散化,得到二维栅格地图,具体步骤如下:
6-1,根据双目相机的高度,将高于双目相机的点云在三维栅格地图中对应的节点剔除,与此同时,将三维栅格单元的坐标值投影到特征地图坐标系的x-z平面;
6-2,对经过降维的三维栅格地图,如图6所示,进行栅格单元中心点的坐标的离散化处理,如图7所示,得到二维栅格地图,如图8所示,包括如下步骤:
确定二维栅格地图中坐标x的取值范围:xmin,xmax
确定二维栅格地图中坐标z的取值范围:zmin,zmax
输入二维栅格地图节点中心的连续坐标值:xc,zc
圆整至邻近的整数值:xr,zr
利用坐标范围映射数组索引:xd=xmin+xr,zd=zmin+zr
xd、zd即是离散化的二维栅格地图节点的坐标值。
在上述技术方案的基础上,本发明还可以采用一下进一步的技术方案:
将可用于无人车自定位的特征地图与可用于无人车全局路径规划的栅格地图进行关联,基于双目相机图像构建稀疏视觉特征地图,利用双目相机获取的三维点云构建栅格地图。
通过判断无人车的底盘所在地平面模型确定点云的可通行性,以利用八叉树栅格地图方法快速构建和更新三维栅格地图。

Claims (3)

1.一种三维环境中多模态环境地图构建方法,其特征在于,包括以下步骤:
步骤1,设置无人车为随机探索环境的自动运行模式,打开无人车的双目相机,采集环境图像,建立稀疏视觉特征地图,该地图的参考坐标系称为特征地图坐标系,坐标原点是无人车启动时相机的中心,正前方为z轴正方向,正右方为x轴正方向,并以二进制文件形式将特征地图的数据存储至车载计算机本地磁盘;
步骤2,从车载计算机的本地磁盘读取地图数据文件至内存,启动无人车,设置为定位模式,定位成功后,接收用户设置的目标位置坐标信息;有位置关系变化后,反复尝试重定位;
步骤3,成功定位后,稠密立体匹配双目相机的左右图像,获得三维点云序列;
步骤4,从三维点云中拟合得到无人车的底盘平面模型;
从三维点云序列中随机选取3个三维点;检测3个三维点是否共线,若共线,则重新选取;估计出一个平面方程 其中,是平面方程的参数,x、y、z是三维点云的坐标;
统计点云序列中有多少三维点符合这一平面方程,记这个数量为K;重复执行这个统计过程L次,考察选择K值最大的一个平面方程,若其K值大于某一事先设定的阈值Kthresh,那么,这个方程就是底盘平面模型Π:ax+by+cz+d=0,否则,认为本次计算失败,沿用上一次计算的结果作为当前的底盘平面模型Π;
步骤5,将三维点云序列变换至特征地图坐标系,并根据点云序列的高度属性,利用八叉树栅格地图方法,构建三维栅格地图;
5-1,点云变换:
采用如下齐次变换公式,将点云坐标从相机坐标系变换至特征地图坐标系,其中,相机坐标系是指坐标原点定义在相机光心的右手坐标系,特征地图坐标系是指坐标原点定义在无人车启动时的相机光心的右手坐标系;
其中,AP表示点云P在特征地图坐标系下的坐标,BP表示点云P在相机坐标系下的坐标,表示特征地图坐标系到相机坐标系的变换矩阵;
5-2,基于步骤4中的底盘平面模型Π划分稠密点云为地面部分和高于地面部分,高于地面部分视为障碍物点云,操作如下:
获取三维点云序列中的一个点云P,计算P到底盘平面模型Π的距离其中,Px、Py、Pz是点P的坐标;
若d≤dthresh,将P加入可通行区域点云集合Pfree,其中,dthresh是事先设定的距离阈值;
5-3,基于5-2中求得的点云P到底盘平面模型Π的距离的判断,即可通行区域点云集合Pfree对应地面部分,其余点云对应高于地面的障碍部分,利用八叉树栅格地图方法,以点云集合{AP}构建三维栅格地图;
步骤6,对步骤5中的三维栅格地图进行降维处理,之后进行离散化,得到二维栅格地图,具体步骤如下:
6-1,根据双目相机的高度,将高于双目相机的点云在三维栅格地图中对应的节点剔除,与此同时,将三维栅格单元的坐标值投影到特征地图坐标系的x-z平面;
6-2,对经过降维的三维栅格地图,进行栅格单元中心点的坐标的离散化处理,得到二维栅格地图,包括如下步骤:
确定二维栅格地图中坐标x的取值范围:xmin,xmax
确定二维栅格地图中坐标z的取值范围:zmin,zmax
输入二维栅格地图节点中心的连续坐标值:xc,zc
圆整至邻近的整数值:xr,zr
利用坐标范围映射数组索引:xd=xmin+xr,zd=zmin+zr;xd、zd即是离散化的二维栅格地图节点的坐标值。
2.如权利要求 1所述的一种三维环境中多模态环境地图构建方法,其特征在于:将可用于无人车自定位的特征地图与可用于无人车全局路径规划的栅格地图进行关联,基于双目相机图像构建稀疏视觉特征地图,利用双目相机获取的三维点云构建栅格地图。
3.如权利要求 1所述的一种三维环境中多模态环境地图构建方法,其特征在于:通过判断无人车的底盘所在地平面模型确定点云的可通行性,以利用八叉树栅格地图方法快速构建和更新三维栅格地图。
CN201611077303.9A 2016-11-30 2016-11-30 一种三维环境中多模态环境地图构建方法 Active CN106599108B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201611077303.9A CN106599108B (zh) 2016-11-30 2016-11-30 一种三维环境中多模态环境地图构建方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201611077303.9A CN106599108B (zh) 2016-11-30 2016-11-30 一种三维环境中多模态环境地图构建方法

Publications (2)

Publication Number Publication Date
CN106599108A CN106599108A (zh) 2017-04-26
CN106599108B true CN106599108B (zh) 2019-12-31

Family

ID=58593892

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201611077303.9A Active CN106599108B (zh) 2016-11-30 2016-11-30 一种三维环境中多模态环境地图构建方法

Country Status (1)

Country Link
CN (1) CN106599108B (zh)

Families Citing this family (34)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106969770B (zh) * 2017-05-31 2021-04-06 深圳中智卫安机器人技术有限公司 一种机器人及其导航方法、计算机可读存储介质
CN107363834B (zh) * 2017-07-20 2020-09-29 电子科技大学 一种基于认知地图的机械臂抓取方法
CN110019570B (zh) * 2017-07-21 2020-03-20 百度在线网络技术(北京)有限公司 用于构建地图的方法、装置及终端设备
CN107677279B (zh) * 2017-09-26 2020-04-24 上海思岚科技有限公司 一种定位建图的方法及系统
CN107917710B (zh) * 2017-11-08 2021-03-16 武汉大学 一种基于单线激光的室内实时定位与三维地图构建方法
CN109839922B (zh) * 2017-11-28 2020-11-10 百度在线网络技术(北京)有限公司 用于控制无人驾驶车辆的方法及装置
CN108648219B (zh) * 2018-04-08 2022-02-22 浙江大承机器人科技有限公司 一种基于双目的障碍物与可行区域检测方法
US10807236B2 (en) * 2018-04-30 2020-10-20 Beijing Jingdong Shangke Information Technology Co., Ltd. System and method for multimodal mapping and localization
CN108694381A (zh) * 2018-05-11 2018-10-23 星络科技有限公司 对象定位方法和对象轨迹追踪方法
CN110763243B (zh) * 2018-07-27 2021-08-24 杭州海康威视数字技术股份有限公司 一种滑动地图更新方法和装置
US10953545B2 (en) * 2018-08-13 2021-03-23 Beijing Jingdong Shangke Information Technology Co., Ltd. System and method for autonomous navigation using visual sparse map
CN109282822B (zh) * 2018-08-31 2020-05-05 北京航空航天大学 构建导航地图的存储介质、方法和设备
CN109186608B (zh) * 2018-09-27 2021-10-15 大连理工大学 一种面向重定位的稀疏化三维点云地图生成方法
CN109544443B (zh) * 2018-11-30 2023-03-10 北京小马智行科技有限公司 一种路线图生成方法及装置
CN109737974B (zh) * 2018-12-14 2020-11-27 中国科学院深圳先进技术研究院 一种3d导航语义地图更新方法、装置及设备
WO2020147134A1 (en) * 2019-01-19 2020-07-23 Beijing Didi Infinity Technology And Development Co., Ltd. Systems and methods for generating, updating and enhancing large-scale high-precision 3d road maps and multi-level road graphs
CN111829531A (zh) * 2019-04-15 2020-10-27 北京京东尚科信息技术有限公司 二维地图构建方法、装置、机器人定位系统和存储介质
CN110413716B (zh) * 2019-07-17 2021-11-05 北京三快在线科技有限公司 数据存储和数据查询方法、装置及电子设备
CN112288865B (zh) * 2019-07-23 2024-07-16 比亚迪股份有限公司 地图的构建方法、装置、设备及存储介质
CN112631266A (zh) * 2019-09-20 2021-04-09 杭州海康机器人技术有限公司 一种移动机器人感知障碍信息的方法、装置
CN110781262B (zh) * 2019-10-21 2023-06-02 中国科学院计算技术研究所 基于视觉slam的语义地图的构建方法
CN110827415B (zh) * 2019-11-11 2022-08-23 吉林大学 一种全天候未知环境无人自主工作平台
CN110880173A (zh) * 2019-11-13 2020-03-13 珠海格力智能装备有限公司 空调底板的外轮廓提取方法及装置
CN111156983B (zh) * 2019-11-19 2023-06-13 石化盈科信息技术有限责任公司 目标设备定位方法、装置、存储介质以及计算机设备
CN110910498B (zh) * 2019-11-21 2021-07-02 大连理工大学 一种利用激光雷达和双目相机构建栅格地图的方法
CN111158384B (zh) * 2020-04-08 2020-08-04 炬星科技(深圳)有限公司 机器人建图方法、设备及存储介质
CN114111779B (zh) * 2020-08-26 2024-06-28 深圳市杉川机器人有限公司 一种建立工作区域地图的方法及自移动设备
CN112950781B (zh) * 2021-03-19 2023-04-25 中山大学 特种场景的多传感器动态加权融合的点云地图构建方法
CN113515128B (zh) * 2021-07-30 2022-11-08 华东理工大学 一种无人车实时路径规划方法及存储介质
WO2023032334A1 (ja) * 2021-08-31 2023-03-09 ソニーグループ株式会社 情報処理装置、情報処理方法、およびプログラム
CN116016384B (zh) * 2022-12-23 2024-04-16 西安电子科技大学 基于环形布局的可扩展片上网络拓扑结构及其路由方法
CN115690924B (zh) * 2022-12-30 2023-04-18 北京理工大学深圳汽车研究院(电动车辆国家工程实验室深圳研究院) 一种用于无人车的潜在用户识别方法和装置
CN116222577B (zh) * 2023-04-27 2023-07-21 苏州浪潮智能科技有限公司 闭环检测方法、训练方法、系统、电子设备及存储介质
CN117437382B (zh) * 2023-12-19 2024-03-19 成都电科星拓科技有限公司 一种数据中心部件的更新方法及系统

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103226833A (zh) * 2013-05-08 2013-07-31 清华大学 一种基于三维激光雷达的点云数据分割方法
US8712679B1 (en) * 2010-10-29 2014-04-29 Stc.Unm System and methods for obstacle mapping and navigation
CN104764457A (zh) * 2015-04-21 2015-07-08 北京理工大学 一种用于无人车的城市环境构图方法
CN105843223A (zh) * 2016-03-23 2016-08-10 东南大学 一种基于空间词袋模型的移动机器人三维建图与避障方法
CN106097431A (zh) * 2016-05-09 2016-11-09 王红军 一种基于三维栅格地图的物体整体识别方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8712679B1 (en) * 2010-10-29 2014-04-29 Stc.Unm System and methods for obstacle mapping and navigation
CN103226833A (zh) * 2013-05-08 2013-07-31 清华大学 一种基于三维激光雷达的点云数据分割方法
CN104764457A (zh) * 2015-04-21 2015-07-08 北京理工大学 一种用于无人车的城市环境构图方法
CN105843223A (zh) * 2016-03-23 2016-08-10 东南大学 一种基于空间词袋模型的移动机器人三维建图与避障方法
CN106097431A (zh) * 2016-05-09 2016-11-09 王红军 一种基于三维栅格地图的物体整体识别方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
An efficient probabilistic 3D mapping framework based on octrees;Hornung A, Wurm K M, Bennewitz M;《Autonomous Robots》;20131231;第34卷(第3期);Hornung A, Wurm K M, Bennewitz M *
基于双目立体视觉的微小型无人机的室内三维地图构建系统的设计与研究;余小欢;《中国优秀硕士学位论文全文数据库 信息科技辑》;20151215(第12期);全文 *
无人驾驶智能车三维环境建模与地图构建;啜国明;《中国优秀硕士学位论文全文数据库 基础科学辑》;20120715(第07期);全文 *

Also Published As

Publication number Publication date
CN106599108A (zh) 2017-04-26

Similar Documents

Publication Publication Date Title
CN106599108B (zh) 一种三维环境中多模态环境地图构建方法
Rangesh et al. No blind spots: Full-surround multi-object tracking for autonomous vehicles using cameras and lidars
Lin et al. Autonomous aerial navigation using monocular visual‐inertial fusion
CN106548486B (zh) 一种基于稀疏视觉特征地图的无人车位置跟踪方法
Kim et al. Deep learning based vehicle position and orientation estimation via inverse perspective mapping image
JP6595182B2 (ja) マッピング、位置特定、及び姿勢補正のためのシステム及び方法
Zhou et al. T-LOAM: Truncated least squares LiDAR-only odometry and mapping in real time
CN111612728B (zh) 一种基于双目rgb图像的3d点云稠密化方法和装置
Ding et al. Vehicle pose and shape estimation through multiple monocular vision
Postica et al. Robust moving objects detection in lidar data exploiting visual cues
IL198560A (en) A method and vision system based on motion definition
CN113240734B (zh) 一种基于鸟瞰图的车辆跨位判断方法、装置、设备及介质
Ruf et al. Real-time on-board obstacle avoidance for UAVs based on embedded stereo vision
GB2610410A (en) Incremental dense 3-D mapping with semantics
CN113536959A (zh) 一种基于立体视觉的动态障碍物检测方法
Xiong et al. Road-Model-Based road boundary extraction for high definition map via LIDAR
Cai et al. A lightweight feature map creation method for intelligent vehicle localization in urban road environments
Saif et al. Vision based 3D Object Detection using Deep Learning: Methods with Challenges and Applications towards Future Directions
Gao et al. Complete and accurate indoor scene capturing and reconstruction using a drone and a robot
Yan et al. RH-Map: Online Map Construction Framework of Dynamic Object Removal Based on 3D Region-wise Hash Map Structure
Thomas et al. Delio: Decoupled lidar odometry
Li et al. RF-LOAM: Robust and Fast LiDAR Odometry and Mapping in Urban Dynamic Environment
Hu et al. A combined clustering and image mapping based point cloud segmentation for 3D object detection
CN112712062A (zh) 基于解耦截断物体的单目三维物体检测方法和装置
Vatavu et al. Modeling and tracking of dynamic obstacles for logistic plants using omnidirectional stereo vision

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant