CN110097553B - 基于即时定位建图与三维语义分割的语义建图系统 - Google Patents
基于即时定位建图与三维语义分割的语义建图系统 Download PDFInfo
- Publication number
- CN110097553B CN110097553B CN201910285181.XA CN201910285181A CN110097553B CN 110097553 B CN110097553 B CN 110097553B CN 201910285181 A CN201910285181 A CN 201910285181A CN 110097553 B CN110097553 B CN 110097553B
- Authority
- CN
- China
- Prior art keywords
- frustum
- semantic
- point cloud
- candidate
- mapping
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000013507 mapping Methods 0.000 title claims abstract description 40
- 230000011218 segmentation Effects 0.000 title claims abstract description 35
- 238000001514 detection method Methods 0.000 claims abstract description 14
- 238000000034 method Methods 0.000 claims description 22
- 239000011159 matrix material Substances 0.000 claims description 8
- 238000005516 engineering process Methods 0.000 claims description 7
- 238000005070 sampling Methods 0.000 claims description 7
- 230000004807 localization Effects 0.000 claims description 6
- 238000005457 optimization Methods 0.000 claims description 4
- 238000013519 translation Methods 0.000 claims description 4
- 238000012545 processing Methods 0.000 claims description 3
- 238000004364 calculation method Methods 0.000 claims description 2
- 238000010276 construction Methods 0.000 claims description 2
- 238000011176 pooling Methods 0.000 claims description 2
- 230000009466 transformation Effects 0.000 claims description 2
- 230000001186 cumulative effect Effects 0.000 claims 2
- 238000013473 artificial intelligence Methods 0.000 abstract 1
- 238000002474 experimental method Methods 0.000 abstract 1
- 102000008115 Signaling Lymphocytic Activation Molecule Family Member 1 Human genes 0.000 description 14
- 108010074687 Signaling Lymphocytic Activation Molecule Family Member 1 Proteins 0.000 description 14
- 230000008447 perception Effects 0.000 description 5
- 230000006870 function Effects 0.000 description 4
- 230000006872 improvement Effects 0.000 description 3
- 230000008569 process Effects 0.000 description 3
- 230000009286 beneficial effect Effects 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000015556 catabolic process Effects 0.000 description 1
- 238000006731 degradation reaction Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 230000001771 impaired effect Effects 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012549 training Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/60—Analysis of geometric attributes
- G06T7/66—Analysis of geometric attributes of image moments or centre of gravity
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/46—Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
- G06V10/462—Salient features, e.g. scale invariant feature transforms [SIFT]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Bioinformatics & Computational Biology (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Multimedia (AREA)
- Geometry (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种新型的基于即时定位与建图和三维点云语义分割的语义建图系统,属于计算机视觉和人工智能技术领域。本发明利用即时定位与建图建立稀疏地图并获取关键帧和相机位姿,利用点云语义分割基于关键帧进行语义分割。利用二维目标检测方法和点云拼接获取平截头体建议,设计一种贝叶斯更新方案将候选平截头体的语义标签进行整合,将带有最终修正标签的点插入到建立的稀疏地图中。实验表明本系统具有较高的效率和准确率。
Description
技术领域
本发明涉及计算机视觉技术领域,特别是涉及基于即时定位建图与三维语义分割的语义建图系统。
背景技术
服务型机器人一般由三个模块构成:人机交互、环境感知、运动控制。机器人感知周围环境,需要一套稳定、性能强大的传感器系统来充当“眼睛”,同时需要相应的算法和强有力的处理单元读懂物体。其中视觉传感器是不可或缺的一部分,相较于激光雷达、毫米波雷达,摄像头的分辨率更高,能获取足够的环境细节,如描述物体的外观和形状、读取标识等。尽管全球定位系统(Global Positioning System,GPS)有助于定位过程,但是由于高大树木、建筑、隧道等造成的干扰会使得GPS定位不可靠。
即时定位与建图(Simultaneous Localization and Mapping,SLAM)是指载有特定传感器的主体在没有先验信息的情况下,通过运动估计自身的轨迹,并建立周围环境的地图。其广泛应用于机器人,无人机,自动驾驶,增强现实,虚拟现实等应用中。SLAM可以划分为激光SLAM和视觉SLAM两类。由于起步早,激光SLAM在理论技术和工程应用上都较为成熟。然而高昂的成本、庞大的体积以及缺少语义信息使其在一些特定的应用场景中受限。根据相机类型,可将视觉SLAM分为三种:单目、双目以及深度SLAM。类似于激光雷达,深度相机可以通过采集点云来直接计算到障碍物的距离。深度相机结构简单,易于安装操作,而且成本低、使用场景广泛。
大部分的SLAM方案都是特征点或像素级别,为了完成一个特定的任务,或者与周围环境进行有意义的互动,机器人需要获取语义信息。SLAM系统应该能够选择有用信息,剔除无效信息。随着深度学习的发展,许多成熟的目标检测和语义分割的方法为精确的语义建图提供了条件。语义地图有利于提高机器人的自主性和鲁棒性,完成更复杂的任务,从路径规划转化为任务规划。
三维图像中的目标感知技术越来越成熟,三维理解的需求也越来越紧迫。由于点云的不规则性,大多数研究者会将点转化为规则的体素或者图像集合,利用深度网络进行预测。这样的转换不可避免地会导致数据量增大,空间点之间的相互关系被削弱。2017年提出的PointNet是第一个可以直接处理原始三维点云的深度神经网络。
现有大部分语义建图系统采用的是稠密建图,对二维图像进行语义感知,并将二维信息映射到三维环境模型中。首先稠密建图会导致系统性能下降,连续帧间存在信息冗余,有效利用帧间信息可以提高系统效率。对二维图像进行语义感知,无法充分利用空间信息,对于小物体和遮挡等情况较敏感。将二维信息映射到三维模型中,并利用条件随机场等方法对结果做修正。相比于直接对三维点云进行语义感知,这样的做法一定程度上降低了效率、削弱了系统性能。
发明内容
针对现有技术中存在的问题与不足,本发明提供基于即时定位建图与三维语义分割的语义建图系统,使用基于特征点的稀疏建图系统提取关键帧和相机位姿。针对关键帧,先利用成熟的二维目标检测方法提取感兴趣区域,再利用帧间信息即相机位姿,以及空间信息即图像深度,获取候选平截头体。利用点云语义分割方法对平截头体进行分割,设计一种贝叶斯更新方案将不同帧的分割结果进行融合。本发明旨在充分利用帧间信息和空间信息以提高系统性能,为达此目的,本发明提供基于即时定位建图与三维语义分割的语义建图系统,其计算处理步骤如下,利用稀疏建图技术与点云语义分割,建立包含感兴趣目标的半稠密语义地图,方法包括如下步骤:
(1)先对输入的图像帧序列进行即时定位与地图构建,获取关键帧与相机位姿。利用成熟的二维目标检测技术以及点云拼接,获得候选平截头体;
(2)再利用三维点云语义分割方法,对候选平截头体进行分割,利用贝叶斯更新方案,将多个候选平截头体的分割结果进行融合,将带有语义标签的空间点插入到稀疏地图中得到最终的半稠密语义地图。
作为本发明进一步改进,所述步骤(1)中先对输入视频帧序列进行即时定位与建图,再获取平截头体建议,具体步骤为:
步骤2.1:假设在时刻k,相机的位置为xk,相机输入数据为uk,xk=f(xk-1,uk,wk),wk为噪声,将其称为运动方程,在xk位置上观测到路标点yj,产生一系列观测数据zk,j,可以用观测方程来描述:zk,j=h(yj,xk,vk,j),其中vk,j为观测噪声,这两个方程描述了最基本的SLAM问题:已知运动测量的读数u,以及传感器读数z,估计定位问题x和建图问题y;
在提取匹配特征点后,可以直接使用PnP估计相机的运动,采用EPnP计算初始位姿,核心思想是用4个控制点来表示空间点,然后构建重投影误差问题:
将估计的位姿作为初始值,采用相应方法可以求解,最后为解决累计漂移的问题,构造全局光束平差代价函数:
进行全局优化以解决累计漂移的问题;
步骤2.2:在获取到相机位姿和关键帧之后,利用二维目标检测方法SSD产生包围框、标签和置信度,本系统只考虑感兴趣目标,提取包围框内的RGB数据和深度信息。若包围框参数为(x,y,x1,y1),包围框内像素的横坐标范围为[floor(rows*x),ceil(rows*x1)],纵坐标范围为[floor(cols*y),ceil(cols*y1)],其中floor为向下取整函数,ceil为向上取整,(rows,cols)为图像的尺寸,对于第i个像素Irefi=[rrefi,crefi]T,深度为drefi,相机坐标为:
步骤2.3:SLAM优化得到的位姿是旋转四元数的形式,一个四元数拥有一个实部和三个虚部:q=q0+q1i+q2j+q3k,其中i,j,k满足:
对应的旋转矩阵为:
作为本发明进一步改进,所述步骤(2)中获取候选平截头体,并对候选平截头体进行语义分割,具体步骤为:
步骤3.1:挑选具有固定间隔的关键帧以产生平截头体建议,给定间隔σ和序列长度S,第k个平截头体来自于第个关键帧,k∈{1,...,σ},剔除深度大于dth的外点,先进行均匀采样,再将点云拼接得到最终的候选平截头体;
步骤3.2:直接对三维点云进行语义分割,基于点云语义分割网络,其对于输入遮挡和小物体具有较强的鲁棒性,首先对候选平截头体进行预处理,先进行随机采样至2048个点,转化为h5文件,再送入点云语义分割网络中,网络的的关键在于使用最大池化作为对称函数,对于点Pwi=[xwi,ywi,zwi]T,i∈{1,...,N},目标分类网络输出L个候选类别上的L个置信度,语义分割网络对于N个点和M个语义种类上的N×M个置信度。
作为本发明进一步改进,所述步骤(2)中利用贝叶斯更新方案对不同分割结果进行融合,设计方法为:
本发明基于即时定位建图与三维语义分割的语义建图系统,有益效果如下;
本发明提供的基于即时定位建图与三维语义分割的语义建图方案可以高效准确地将输入视频帧序列转化为半稠密语义地图。本发明建立稀疏地图,并且只对关键帧进行处理,提高了语义建图系统的效率。充分利用空间信息和帧间信息,提高了系统性能,尤其对于遮挡和小物体等有较强的鲁棒性。本发明适用于很多场景,稀疏定位建图系统可以建立室内或室外场景的地图,基于深度学习的二维目标检测技术和三维点云语义分割方法只需要有效的训练便可以检测海量物体。
附图说明
图1为本发明基于SLAM和三维语义分割的语义建图系统流程图;
图2为本发明利用SLAM获得关键帧和相机位姿的流程图;
图3为本发明Point-Net的网络架构图;
图4为本发明利用ORB-SLAM获取的稀疏地图,包含相机位姿以及关键帧;
图5为本发明关键的中间结果图,依次为:(1)二维目标检测产生目标候选区域和类别置信度;(2)提取平截头体中的点云;(3)挑选固定间隔的关键帧产生的平截头体点云,进行均匀采样并拼接;(4)最终产生的包含感兴趣目标的语义地图;
图6为本发明最终获取的半稠密语义地图示例。
具体实施方式
下面结合附图与具体实施方式对本发明作进一步详细描述:
本发明提供基于即时定位建图与三维语义分割的语义建图系统,使用基于特征点的稀疏建图系统提取关键帧和相机位姿。针对关键帧,先利用成熟的二维目标检测方法提取感兴趣区域,再利用帧间信息即相机位姿,以及空间信息即图像深度,获取候选平截头体。利用点云语义分割方法对平截头体进行分割,设计一种贝叶斯更新方案将不同帧的分割结果进行融合。本发明旨在充分利用帧间信息和空间信息以提高系统性能。
下面基于Ubuntu16.04和Nvidia Geforce GTX 1080,借助于Tensorfiow ObjectDetection API、OpenCV、Point Cloud Library等工具,在TUM数据集rgbd_dataset_freiburg1_plant上为例,结合附图对本发明基于即时定位建图与三维语义分割的语义建图方案的具体实施方式作进一步详细说明。
步骤1:基于即时定位与建图获取稀疏地图、关键帧以及相机位姿,如图4所示。在特征点提取匹配阶段,FAST检测过程为:
1.在图像中选取像素p,亮度为Ip,设置阈值T;
2.以像素p为中心,选择半径为3的圆上的16个像素点;
3.如果圆上有连续的N个点的亮度大于Ip+T或小于Ip-T,那么像素p可被认为是特征点。
灰度质心法的步骤包括:
1.定义图像块B的矩为:mpq=∑x,y∈BxpyqI(x,y),p,q∈{0,1};
在局部BA中,重投影误差关于相机位姿李代数的一阶变化关系推导为:
重投影误差关于空间点的倒数推导为:
步骤2:基于关键帧和二维目标检测获得平截头体建议。首先利用SSD检测出目标的候选区域,得到包围框的参数(x,y,x1,y1),因此包围框内像素的横坐标范围为[floor(rows*x),ceil(rows*x1)],纵坐标范围为[floor(cols*y),ceil(cols*y1)],其中floor为向下取整函数,ceil为向上取整,(rows,cols)为图像的尺寸。假设上一步SLAM估计得到的该关键帧的位姿信息为(t1,t2,t3,q1,q2,q3,q0),构造旋转矩阵:
根据关系Pw=TwcPc可以获得包围框内像素对应的空间点的世界坐标,利用PCL库构造平截头体内的点云,至此获得每个关键帧的平截头体建议。
步骤3:获取候选平截头体并进行语义分割。挑选具有固定间隔的关键帧产生的平截头体建议,给定间隔σ=15和序列长度S=195,第k个平截头体来自于第{15n+k,n∈{0,1,...12}}个关键帧,k∈{1,...,15},剔除深度大于0.7米的外点。先对每个候选平截头体进行均匀采样,然后进行点云拼接。对得到的拼接点云进行随机采样至2048个,将平截头体旋转到中心视角,使其中心轴与图像平面正交。在送入Point-Net之前,将点云的XYZ坐标值减去中心点的值获得局部坐标。将二维检测器检测出的语义类别编码为一个独热类别向量,并将其拼接到中间点云特征中。
步骤4:基于贝叶斯方案将多帧结果进行融合。对于参考候选平截头体Prefw中的点Prefwi,表示其在第m个候选平截头体中的前向投影点。做一个几何校验,将转换到参考坐标系,只有当时,这个前向投影点才可以作为最终标签的影响因素,ε1为5毫米。
步骤5:将最终带有语义标签的点云插入到之前建立的稀疏地图中,以建立带有感兴趣目标的半稠密语义地图,如图6所示。在总的195帧关键帧中,针对植物这一类别,SSD在63帧中存在漏检情况。在获得点云分割结果之后,将带有语义标签的点反向投影到二维图像中,平均准确度为90.2%。
以上所述,仅是本发明的较佳实施例而已,并非是对本发明作任何其他形式的限制,而依据本发明的技术实质所作的任何修改或等同变化,仍属于本发明所要求保护的范围。
Claims (1)
1.基于即时定位建图与三维语义分割的语义建图系统,其计算处理步骤如下,其特征在于:利用稀疏建图技术与点云语义分割,建立包含感兴趣目标的半稠密语义地图,方法包括如下步骤:
(1)先对输入的图像帧序列进行即时定位与地图构建,获取关键帧与相机位姿,利用成熟的二维目标检测技术以及点云拼接,获得候选平截头体;
所述步骤(1)中先对输入视频帧序列进行即时定位与建图,再获取平截头体建议,具体步骤为:
步骤2.1:假设在时刻k,相机的位置为xk,相机输入数据为uk,xk=f(xk-1,uk,wk),wk为噪声,将其称为运动方程,在xk位置上观测到路标点yj,产生一系列观测数据zk,j,可以用观测方程来描述:zk,j=h(yj,xk,vk,j),其中vk,j为观测噪声,这两个方程描述了最基本的SLAM问题:已知运动测量的读数u,以及传感器读数z,估计定位问题x和建图问题y;
在提取匹配特征点后,可以直接使用PnP估许相机的运动,采用EPnP许算初始位姿,核心思想是用4个控制点来表示空间点,然后构建重投影误差问题:
将估许的位姿作为初始值,采用相应方法可以求解,最后为解决累许漂移的问题,构造全局光束平差代价函数:
进行全局优化以解决累许漂移的问题;
步骤2.2:在获取到相机位姿和关键帧之后,利用二维目标检测方法SSD产生包围框、标签和置信度,本系统只考虑感兴趣目标,提取包围框内的RGB数据和深度信息,若包围框参数为(x,y,x1,y1),包围框内像素的横坐标范围为[floor(rows*x),ceil(rows*x1)],纵坐标范围为[floor(cols*y),ceil(cols*y1)],其中floor为向下取整函数,ceil为向上取整,(rows,cols)为图像的尺寸,对于第i个像素深度为drefi,相机坐标为:
对应的旋转矩阵为:
(2)再利用三维点云语义分割方法,对候选平截头体进行分割,利用贝叶斯更新方案,将多个候选平截头体的分割结果进行融合,将带有语义标签的空间点插入到稀疏地图中得到最终的半稠密语义地图;
所述步骤(2)中获取候选平截头体,并对候选平截头体进行语义分割,具体步骤为:
步骤3.1:挑选具有固定间隔的关键帧以产生平截头体建议,给定间隔σ和序列长度S,第k个平截头体来自于第个关键帧,k∈{1,...,σ},剔除深度大干dth的外点,先进行均匀采样,再将点云拼接得到最终的候选平截头体;
步骤3.2:直接对三维点云进行语义分割,基于点云语义分割网络,其对于输入遮挡和小物体具有较强的鲁棒性,首先对候选平截头体进行预处理,先进行随机采样至2048个点,转化为h5文件,再送入点云语义分割网络中,网络的的关键在于使用最大池化作为对称函数,对于点Pwi=[xwi,ywi,zwi]T,i∈{1,...,N},目标分类网络输出L个候选类别上的L个置信度,语义分割网络对于N个点和M个语义种类上的N×M个置信度;
所述步骤(2)中利用贝叶斯更新方案对不同分割结果进行融合,设许方法为:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910285181.XA CN110097553B (zh) | 2019-04-10 | 2019-04-10 | 基于即时定位建图与三维语义分割的语义建图系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910285181.XA CN110097553B (zh) | 2019-04-10 | 2019-04-10 | 基于即时定位建图与三维语义分割的语义建图系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110097553A CN110097553A (zh) | 2019-08-06 |
CN110097553B true CN110097553B (zh) | 2023-05-02 |
Family
ID=67444592
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910285181.XA Active CN110097553B (zh) | 2019-04-10 | 2019-04-10 | 基于即时定位建图与三维语义分割的语义建图系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110097553B (zh) |
Families Citing this family (24)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110533716B (zh) * | 2019-08-20 | 2022-12-02 | 西安电子科技大学 | 一种基于3d约束的语义slam系统及方法 |
CN110827395B (zh) * | 2019-09-09 | 2023-01-20 | 广东工业大学 | 一种适用于动态环境的即时定位与地图构建方法 |
CN110751220B (zh) * | 2019-10-24 | 2022-02-11 | 江西应用技术职业学院 | 一种基于改进卷积神经网络结构的机器视觉室内定位方法 |
CN110827305B (zh) * | 2019-10-30 | 2021-06-08 | 中山大学 | 面向动态环境的语义分割与视觉slam紧耦合方法 |
CN110889349A (zh) * | 2019-11-18 | 2020-03-17 | 哈尔滨工业大学 | 一种基于vslam的稀疏三维点云图的视觉定位方法 |
CN111179427A (zh) * | 2019-12-24 | 2020-05-19 | 深圳市优必选科技股份有限公司 | 自主移动设备及其控制方法、计算机可读存储介质 |
CN113052846B (zh) * | 2019-12-27 | 2024-05-28 | 小米汽车科技有限公司 | 一种多线雷达点云稠密化方法和装置 |
CN111141264B (zh) * | 2019-12-31 | 2022-06-28 | 中国电子科技集团公司信息科学研究院 | 一种基于无人机的城市三维测绘方法和系统 |
CN111325796B (zh) * | 2020-02-28 | 2023-08-18 | 北京百度网讯科技有限公司 | 用于确定视觉设备的位姿的方法和装置 |
CN111325843B (zh) * | 2020-03-09 | 2022-04-08 | 北京航空航天大学 | 一种基于语义逆深度滤波的实时语义地图构建方法 |
CN111462135B (zh) * | 2020-03-31 | 2023-04-21 | 华东理工大学 | 基于视觉slam与二维语义分割的语义建图方法 |
CN111681279B (zh) * | 2020-04-17 | 2023-10-31 | 东南大学 | 基于改进李群非线性优化的行车吊臂空间位姿测量方法 |
CN111563442B (zh) * | 2020-04-29 | 2023-05-02 | 上海交通大学 | 基于激光雷达的点云和相机图像数据融合的slam方法及系统 |
CN111768498A (zh) * | 2020-07-09 | 2020-10-13 | 中国科学院自动化研究所 | 基于稠密语义三维地图与混合特征的视觉定位方法、系统 |
CN112017188B (zh) * | 2020-09-09 | 2024-04-09 | 上海航天控制技术研究所 | 一种空间非合作目标语义识别与重构方法 |
CN112419512B (zh) * | 2020-10-13 | 2022-09-13 | 南昌大学 | 一种基于语义信息的空中三维模型修复系统及方法 |
WO2022187251A1 (en) * | 2021-03-01 | 2022-09-09 | Waymo Llc | Generating scene flow labels from point clouds using object labels |
CN112991436B (zh) * | 2021-03-25 | 2022-09-06 | 中国科学技术大学 | 基于物体尺寸先验信息的单目视觉slam方法 |
CN113469886B (zh) * | 2021-07-23 | 2023-03-14 | 成都理工大学 | 一种基于三维重构的图像拼接方法 |
CN113808251B (zh) * | 2021-08-09 | 2024-04-12 | 杭州易现先进科技有限公司 | 一种基于语义分割的稠密重建的方法、系统、装置和介质 |
CN115222799B (zh) * | 2021-08-12 | 2023-04-11 | 达闼机器人股份有限公司 | 图像重力方向的获取方法、装置、电子设备及存储介质 |
CN114298581A (zh) * | 2021-12-30 | 2022-04-08 | 广州极飞科技股份有限公司 | 质量评估模型生成方法、质量评估方法、装置、电子设备和可读存储介质 |
CN114529800A (zh) * | 2022-01-12 | 2022-05-24 | 华南理工大学 | 一种旋翼无人机避障方法、系统、装置及介质 |
CN115421158B (zh) * | 2022-11-07 | 2023-04-07 | 中国人民解放军国防科技大学 | 自监督学习的固态激光雷达三维语义建图方法与装置 |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106327469B (zh) * | 2015-06-29 | 2019-06-18 | 北京航空航天大学 | 一种语义标签引导的视频对象分割方法 |
CN108596974B (zh) * | 2018-04-04 | 2020-08-04 | 清华大学 | 动态场景机器人定位建图系统及方法 |
CN109559320B (zh) * | 2018-09-18 | 2022-11-18 | 华东理工大学 | 基于空洞卷积深度神经网络实现视觉slam语义建图功能的方法及系统 |
CN109583457A (zh) * | 2018-12-03 | 2019-04-05 | 荆门博谦信息科技有限公司 | 一种机器人定位与地图构建的方法及机器人 |
-
2019
- 2019-04-10 CN CN201910285181.XA patent/CN110097553B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
CN110097553A (zh) | 2019-08-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110097553B (zh) | 基于即时定位建图与三维语义分割的语义建图系统 | |
CN111462135B (zh) | 基于视觉slam与二维语义分割的语义建图方法 | |
CN110349250B (zh) | 一种基于rgbd相机的室内动态场景的三维重建方法 | |
CN110070615B (zh) | 一种基于多相机协同的全景视觉slam方法 | |
CN111563442B (zh) | 基于激光雷达的点云和相机图像数据融合的slam方法及系统 | |
CN112132972B (zh) | 一种激光与图像数据融合的三维重建方法及系统 | |
WO2021233029A1 (en) | Simultaneous localization and mapping method, device, system and storage medium | |
US10192113B1 (en) | Quadocular sensor design in autonomous platforms | |
US10496104B1 (en) | Positional awareness with quadocular sensor in autonomous platforms | |
CN113985445B (zh) | 一种基于相机与激光雷达数据融合的3d目标检测算法 | |
US20170316569A1 (en) | Robust Anytime Tracking Combining 3D Shape, Color, and Motion with Annealed Dynamic Histograms | |
CN111201451A (zh) | 基于场景的激光数据和雷达数据进行场景中的对象检测的方法及装置 | |
CN111798475A (zh) | 一种基于点云深度学习的室内环境3d语义地图构建方法 | |
CN110706248A (zh) | 一种基于slam的视觉感知建图算法及移动机器人 | |
CN111998862B (zh) | 一种基于bnn的稠密双目slam方法 | |
CN114140527B (zh) | 一种基于语义分割的动态环境双目视觉slam方法 | |
CN113108773A (zh) | 一种融合激光与视觉传感器的栅格地图构建方法 | |
CN116879870B (zh) | 一种适用于低线束3d激光雷达的动态障碍物去除方法 | |
CN112419497A (zh) | 基于单目视觉的特征法与直接法相融合的slam方法 | |
CN112818925A (zh) | 一种城市建筑和树冠识别方法 | |
CN113985435A (zh) | 一种融合多激光雷达的建图方法及系统 | |
Priya et al. | 3dyolo: Real-time 3d object detection in 3d point clouds for autonomous driving | |
CN117409393A (zh) | 一种焦炉机车激光点云与视觉融合障碍物检测方法及系统 | |
Buck et al. | Capturing uncertainty in monocular depth estimation: Towards fuzzy voxel maps | |
CN116664851A (zh) | 一种基于人工智能的自动驾驶数据提取方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |