CN108229416A - 基于语义分割技术的机器人slam方法 - Google Patents

基于语义分割技术的机器人slam方法 Download PDF

Info

Publication number
CN108229416A
CN108229416A CN201810046213.6A CN201810046213A CN108229416A CN 108229416 A CN108229416 A CN 108229416A CN 201810046213 A CN201810046213 A CN 201810046213A CN 108229416 A CN108229416 A CN 108229416A
Authority
CN
China
Prior art keywords
semantic segmentation
characteristic point
plane domain
plane
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201810046213.6A
Other languages
English (en)
Other versions
CN108229416B (zh
Inventor
沈晔湖
王其聪
蒋全胜
汪帮富
苗静
吴永芝
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Suzhou Xiuyuan Technology Co.,Ltd.
Original Assignee
Suzhou University of Science and Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Suzhou University of Science and Technology filed Critical Suzhou University of Science and Technology
Priority to CN201810046213.6A priority Critical patent/CN108229416B/zh
Publication of CN108229416A publication Critical patent/CN108229416A/zh
Application granted granted Critical
Publication of CN108229416B publication Critical patent/CN108229416B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/26Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
    • G06V10/267Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion by performing operations on regions, e.g. growing, shrinking or watersheds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • G06V10/462Salient features, e.g. scale invariant feature transforms [SIFT]

Abstract

本发明公开了一种基于语义分割技术的机器人SLAM方法,包括:步骤1:获取机器人运动过程中拍摄的图像数据;步骤2:对图像数据进行语义分割处理,从而区分得到图像中的平面区域和非平面区域,检测非平面区域中的特征点;步骤3:构建所述特征点和平面区域的外观描述方式,从而建立特征点和平面区域在不同图像帧之间的匹配对应关系;步骤4:根据上述对应关系,构建一个似然函数;步骤5:最小化所述似然函数得到混合三维地图和相机运动参数。本发明利用语义分割技术对图像中平面区域和非平面区域进行区分,并检测非平面区域的特征点,当图像中难以提取特征点或特征点较少时,能够通过平面区域匹配提升定位和场景重建的稳定性。

Description

基于语义分割技术的机器人SLAM方法
技术领域
本发明涉及机器人导航技术领域,特别涉及一种基于语义分割技术的机器人SLAM方法。
背景技术
对于机器人视觉导航问题,主要研究从多幅图像帧(2幅及以上图像)中恢复场景的三维结构以及拍摄各图像帧的摄像机所对应的位置和姿态。在机器人导航领域中一般称为Simultaneous Localization and Mapping(即时定位与地图构建,SLAM),一般情况下场景的三维结构用无序的点云方式表达。
早期的SLAM方法基于矩阵分解技术。这类方法首先将观测匹配得到的特征点图像坐标构成一个矩阵,通过SVD分解技术得到特征点的三维坐标以及摄像机的位姿参数。20世纪90年代末,计算机视觉研究人员从摄影测量学领域引入了光束法平差技术(BundleAdjustment),该方法通过最小二乘优化三维场景点在各图像帧中的投影以及该点观测位置之间的欧氏距离实现同时场景点三维结构估计以及摄像机位姿参数计算。由于待优化的未知变量个数正比于三维场景点以及图像帧数,当图像序列规模较大时,光束法平差算法复杂度非常高,从而限制了该类方法在大规模环境下的应用。
现有的SLAM算法主要通过分析图像帧中的特征点实现,从而导致最终的输出结果是离散的三维点云,然而在诸如机器人抓握操纵物体和机器人自主导航(障碍物规避、路径规划等)等领域,需要知道场景的结构以及语义信息,仅仅提供三维点云是不够的,从而限制了SLAM的应用范围。此外基于特征点的方法一般需要图像中纹理相对丰富,对于光滑单调的场景,基于特征点的SLAM方法就无能为力了。
发明内容
本发明提供一种基于语义分割技术的机器人SLAM方法,以解决现有技术中存在的上述技术问题。
为解决上述技术问题,本发明提供一种基于语义分割技术的机器人SLAM方法,包括:
步骤1:获取机器人运动过程中拍摄的图像数据,该图像数据为单目摄像机拍摄的视频序列;
步骤2:对图像数据进行语义分割处理,从而区分得到图像中的平面区域和非平面区域,检测非平面区域中的特征点;
步骤3:构建所述特征点和平面区域的外观描述方式,从而建立特征点和平面区域在不同图像帧之间的匹配对应关系;
步骤4:根据上述对应关系,构建一个似然函数;
步骤5:最小化所述似然函数得到混合三维地图和相机运动参数。
作为优选,所述步骤2中:采用深度学习中的SegNet来实现对图像数据的语义分割,利用SIFT算法检测非平面区域中的特征点。
作为优选,所述步骤3中:采用SIFT特征描述算法作为特征点的外观描述矢量。
作为优选,利用K-d树算法匹配外观描述矢量得到不同图像中特征点之间的对应关系。
作为优选,所述步骤3中:采用颜色直方图和纹理特征作为平面区域的描述方式,其中,所述颜色直方图通过将图像中平面区域内所有像素转换到HSV色彩空间后构建H和S通道的二维直方图实现,纹理特征通过计算区域内像素的Laws纹理能量描述特征矢量表示;最后将颜色直方图构成的矢量和纹理特征矢量组合在一起构成平面区域的外观描述矢量。
作为优选,通过对语义分割结果进行特征计算和边缘统计得到平面区域的外观描述方式,通过特征矢量最近邻匹配结合极线约束来获得平面区域在不同图像帧之间的匹配对应关系。
作为优选,所述步骤4包括:通过因子图表达步骤3中的对应关系,根据所述因子图构建相应的似然函数。
作为优选,所述步骤5包括:对所述似然函数取负对数得到代价函数,对所述代价函数进行模拟退火结合梯度下降策略实现最小化,进而获得相机位置姿态参数、三维空间点以及平面参数信息。
作为优选,所述因子图还同时表达:三维空间中的特征点和平面区域之间的相互作用关系与在二维的图像中的相互作用关系一致。
作为优选,所述步骤5中:混合三维地图通过三维空间的点以及平面来表示,其中,三维空间的平面包含语义信息。
与现有技术相比,本发明的基于语义分割技术的机器人SLAM方法,利用语义分割技术对图像中平面区域和非平面区域进行区分,并检测非平面区域的特征点,当图像中难以提取特征点或特征点较少时,能够通过平面区域匹配提升定位和场景重建的稳定性;构建得到的三维混合地图中包含部分语义信息,如地面、墙面等,这类信息有助于其他模块的处理,如机器人可通行区域分析、行人检测等。
附图说明
图1为本发明基于语义分割技术的机器人SLAM方法流程图;
图2为本发明一具体实施方式中构建的因子图。
具体实施方式
为使本发明的上述目的、特征和优点能够更加明显易懂,下面结合附图对本发明的具体实施方式做详细的说明。需说明的是,本发明附图均采用简化的形式且均使用非精准的比例,仅用以方便、明晰地辅助说明本发明实施例的目的。
如图1所示,本发明提供一种基于语义分割技术的机器人SLAM方法,通过对单目摄像机拍摄的视频序列进行处理,来获得相机运动参数并同时构建环境混合三维地图。其具体包括以下:
步骤1:获取机器人运动过程中拍摄的图像数据,该图像数据为单目摄像机拍摄的视频序列。
步骤2:采用深度学习中的SegNet(语义分割算法)对图像数据进行语义分割处理,从而区分得到图像中的平面区域和非平面区域,利用SIFT(尺度不变特征转换)算法检测非平面区域中的特征点。
步骤3:构建所述特征点和平面区域的外观描述方式,从而建立特征点和平面区域在不同图像帧之间的匹配对应关系。具体地,采用SIFT特征描述算法作为特征点的外观描述矢量。采用颜色直方图和纹理特征作为平面区域的描述方式,其中,所述颜色直方图通过将图像中平面区域内所有像素转换到HSV色彩空间后构建H和S通道的二维直方图实现,纹理特征通过计算区域内像素的Laws纹理能量描述特征矢量表示;最后将颜色直方图构成的矢量和纹理特征矢量组合在一起构成平面区域的外观描述矢量。进一步的,利用K-d树(k-维树)算法匹配外观描述矢量得到不同图像中特征点之间的对应关系;通过对语义分割结果进行特征计算和边缘统计得到平面区域的外观描述方式,通过特征矢量最近邻匹配结合极线约束来获得平面区域在不同图像帧之间的匹配对应关系。
步骤4:根据上述对应关系,构建一个似然函数;具体地,通过因子图表达步骤3中的对应关系,根据所述因子图构建相应的似然函数。其中,所述因子图还同时表达:三维空间中的特征点和平面区域之间的相互作用关系与在二维的图像中的相互作用关系一致。
步骤5:最小化所述似然函数得到混合三维地图和相机运动参数。对所述似然函数取负对数得到代价函数,对所述代价函数进行模拟退火结合梯度下降策略实现最小化,进而获得相机位置姿态参数、三维空间点以及平面参数信息。
作为优选,所述步骤5中:混合三维地图通过三维空间的点以及平面来表示,其中,三维空间的平面包含语义信息。
继续参照图1,下面举例具体说明本发明的SLAM方法的操作步骤:
首先,步骤1:获取机器人运动过程中拍摄的图像数据。
所述图像数据为单目摄像机拍摄的视频序列,即为一组机器人在运动过程中拍摄的图像数据集合I={I1,...,Ik,...,IN},其中Ik是第k幅输入图像。
进一步的,所述步骤1还包括获取拍摄过程中的相机参数,该相机参数包括:已知相机内参数信息矩阵集合K和未知的相机外参数信息集合C,其中,K={Kk}为拍摄第k幅输入图像Ik时摄像机的内参数,C={Ck},Ck={Rk,Tk}为拍摄第k幅输入图像Ik时摄像机相对位姿参数。
接着,执行步骤2和3:采用深度学习中的SegNet对图像数据进行语义分割处理,选择符合平面语义信息的区域如地面和房屋外墙立面,进行图像帧间匹配,得到平面区域,平面区域以外的其他区域作为非平面区域,利用SIFT算法检测非平面区域中的特征点。接着,构建所述特征点和平面区域的外观描述方式,从而建立特征点和平面区域在不同图像帧之间的匹配对应关系。
具体地,对于平面区域:令图像中的平面区域所对应的三维空间平面集合为B={Br},其中每个三维空间平面Br的表达方式为Br=(Xr,Yr,Zr,nr,sr,cr)。(Xr,Yr,Zr)为三维空间平面的中心坐标;nr为三维空间平面的法向量;sr为三维空间平面的面积;cr为三维空间平面的语义类别。其中,B是未知的待估计参数。
本发明还定义三维空间平面和二维图像中平面的映射关系集合 表示第l个三维空间平面在第k幅图像中对应的平面,其表示为其中,L为对应二维图像中的平面在图像中的轮廓坐标序列;d表示该二维平面的外观描述矢量。
定义集合B与集合b之间的对应关系集合g,g={gr},其中gr={l1,l2,...}表示三维空间平面Br分别和等对应。其中,集合b可以通过对语义分割结果进行特征计算和边缘统计得到,集合g可以通过特征矢量最近邻匹配结合极线约束来获得。
对于特征点:定义地图中所有三维特征点坐标的集合Q,Q={Qs},地图中第s个三维特征点Qs的表示方式为Qs=(Xs,Ys,Zs),从而描述了特征点在世界坐标系下的三维坐标,本实施例中,集合Q是未知的待估计参数。
进一步的,定义三维特征点和二维图像点之间的映射关系集合表示第i个三维特征点在第k幅图像中的观测值,其表示为其中(x,y)表示第i个三维特征点在第k幅图像中的投影二维图像坐标;d表示该二维图像特征点的外观描述矢量。
进一步的,定义集合Q与集合q之间的对应关系集合u={us},其中us={i1,i2,...}表示三维点Qs分别和等对应。本发明中,图像中非平面区域的特征点利用SIFT算法检测得到,外观描述矢量d同样利用SIFT算法获得。不同图像中的特征点之间的对应关系通过利用K-d树算法匹配不同特征点的外观描述矢量来得到,从而可以获得集合q和集合u。
接着,执行步骤4,根据上述对应关系,构建一个似然函数。
需要说明的是,本发明中蕴含两个原理:其中一个原理为上述的对应关系,也即是说:三维空间中的特征点和平面区域与它们在图像中的投影点或投影区域对应;第二个原理为:三维空间中的特征点和平面区域之间的相互作用关系与在二维的图像中的相互作用关系一致,其中,二维的图像中特征点和平面区域的相互作用关系为通过机器学习习得的结果。将上述两个原理转化为如图2所示的因子图,图中,反映了上述的第一个原理;反映了上述的第二个原理。
根据所述因子图构建如下的似然函数,以求解所需变量:
接着执行步骤5,由于上式中包含乘积项,难以直接进行优化,因此本发明在实际操作过程中对该似然函数取负对数得到如下代价函数:
其中,表示场景(也即是三维空间)中特征点的似然函数,其可以通过重建特征点在各图像中的投影与检测到的特征点的空间临近关系来描述;表示场景中平面区域的似然函数,也就是反映了Br和图像中平面区域的观测量的一致程度;表示当图像中特征点和平面区域接触相关时,三维空间中对应的特征点和平面区域的距离应当非常接近。
具体地,为了获得的表达式,首先根据步骤2和3中获得的特征点、特征点的外观描述矢量d以及不同图像中特征点之间的对应关系,从而可以获得集合q和集合u。在此基础上,本发明采用三角化方法获得初始的特征点坐标Qs。从而有:
其中,Nc是相机图像数,σq为二维图像中投影测量误差的方差,是将Qs通过投影变换,变换到第k帧图像中的位置坐标。
为了获得的表达式,首先需要对三维空间平面集合Br进行初始化:为此先获取集合B与集合b之间的对应关系集合g,在此基础上,对于三维空间平面区域的中心坐标(Xr,Yr,Zr),通过对与该三维空间平面对应的二维图像中平面的中心点进行三角化实现初始化。对于三维空间平面的法向量nr,通过训练一个随机森林判别器,利用该随机森林判别器在平面区域内提取特征,将每幅图像中的平面分为水平、前向和侧向几类,从而得到平面区域在每幅图像中的法向量最后结合对应关系集合g,通过下式计算法向量初始值:
对于三维空间平面区域的面积,首先根据(Xr,Yr,Zr)和Ck计算平面和相机之间的距离然后根据nr和Ck计算平面法向量和相机视线之间的夹角最后计算第r个三维空间平面区域在第k幅图像投影区域的面积则三维空间平面区域的初始面积的计算方式如下:
对于平面的语义类别cr,则直接利用SegNet的输出进行初始化,并记录其相应的置信度P(cr=c)。
的表达式如下:
其中,衡量了类别相关的平面区域的外观矢量参数在不同图像中的一致性,其表达式如下:
其中Nsc是语义类别的种数,是第r个三维空间平面区域在第k幅图像中投影区域的外观描述特征矢量,可以通过对平面区域内提取色彩及纹理特征来得到。是均值为μ、方差为Σ的高斯分布。Pr(cr=l)和Σsc可以通过在训练样本中进行统计得到。
衡量了如下两种相似性:(1)三维空间中平面区域投影到各个图像中的面积和从图像中获取的平面区域的实际面积相似;(2)三维空间平面法向量映射到各个图像中与各个图像内根据平面区域估计得到平面法向量相似。因此,其表达式如下:
其中,是将三维空间平面区域投影到第k幅图像平面上的面积;是将三维空间平面法向量映射到第k幅图像中的法向量。
为了获得的表达式,则首先计算特征点和平面区域接触候选集合{Qs,Br}。该集合的构造方法如下:统计当Qs对应的图像点在Br对应的图像区域内部的次数,当该次数大于预先设定的阈值时,将Qs,Br设为该集合的元素。从而的表达式如下:
其中,ds,r为点Qs到平面Br之间的距离。
如此,便明确了代价函数即式(1)中各项的含义。最后,对代价函数进行模拟退火结合梯度下降策略,从而实现最小化,获得最终所需的结果,其主要步骤如下:
步骤100:初始化相机外参数信息集合C,并且令C0=C。此步骤相机外参数信息初始化可以通过传统的基于两相邻图像帧匹配特征点后计算本质矩阵E并对其进行SVD(奇异值)分解得到。并且按上述方法得到初始化的Q0=Q和B0=B。
步骤200:将下述步骤迭代运行M次。其中M为预先设定好的值,取决于结果要求精度和硬件的运算性能。当精度要求高或硬件的运算能力强时,可以适当增加M值,一般可取M=50。假设当前为第i次迭代。
步骤201:对相机外参数信息集合C进行扰动,即C′i=Ci-1+C',其中C'为高斯分布的高维矢量。
步骤202:固定C′i,对式(1)-log(ψ(Q,B,C|I))分别对Q,B求偏导数,以Qi-1,Bi-1为初始值,通过梯度下降法最小化-log(ψ(Q,B,C|I)),得到优化后的Qi和Bi
步骤203:固定Qi和Bi,对式(1)-log(ψ(Q,B,C|I))求相对C求偏导数,以Ci'为初始值,通过梯度下降法最小化-log(ψ(Q,B,C|I)),得到优化后的Ci
步骤204:计算p=(-log(ψ(Qi,Bi,Ci|I)))/(-log(ψ(Qi-1,Bi-1,Ci-1|I))),如果p<1,则以概率1-p接受此次结果,否则令:Ci=Ci-1,Qi=Qi-1,Bi=Bi-1,返回步骤200进行下次迭代。
显然,本领域的技术人员可以对发明进行各种改动和变型而不脱离本发明的精神和范围。这样,倘若本发明的这些修改和变型属于本发明权利要求及其等同技术的范围之内,则本发明也意图包括这些改动和变型在内。

Claims (10)

1.一种基于语义分割技术的机器人SLAM方法,其特征在于,包括:
步骤1:获取机器人运动过程中拍摄的图像数据,该图像数据为单目摄像机拍摄的视频序列;
步骤2:对图像数据进行语义分割处理,从而区分得到图像中的平面区域和非平面区域,检测非平面区域中的特征点;
步骤3:构建所述特征点和平面区域的外观描述方式,从而建立特征点和平面区域在不同图像帧之间的匹配对应关系;
步骤4:根据上述对应关系,构建一个似然函数;
步骤5:最小化所述似然函数得到混合三维地图和相机运动参数。
2.如权利要求1所述的基于语义分割技术的机器人SLAM方法,其特征在于,所述步骤2中:采用深度学习中的SegNet来实现对图像数据的语义分割,利用SIFT算法检测非平面区域中的特征点。
3.如权利要求1所述的基于语义分割技术的机器人SLAM方法,其特征在于,所述步骤3中:采用SIFT特征描述算法作为特征点的外观描述矢量。
4.如权利要求3所述的基于语义分割技术的机器人SLAM方法,其特征在于,利用K-d树算法匹配所述外观描述矢量得到不同图像中特征点之间的对应关系。
5.如权利要求1所述的基于语义分割技术的机器人SLAM方法,其特征在于,所述步骤3中:采用颜色直方图和纹理特征作为平面区域的外观描述方式,其中,所述颜色直方图通过将图像中平面区域内所有像素转换到HSV色彩空间后构建H和S通道的二维直方图实现,纹理特征通过计算区域内像素的Laws纹理能量描述特征矢量表示;最后将颜色直方图构成的矢量和纹理特征矢量组合在一起构成平面区域的外观描述矢量。
6.如权利要求5所述的基于语义分割技术的机器人SLAM方法,其特征在于,通过对语义分割结果进行特征计算和边缘统计得到平面区域的外观描述方式,通过特征矢量最近邻匹配结合极线约束来获得平面区域在不同图像帧之间的匹配对应关系。
7.如权利要求1所述的基于语义分割技术的机器人SLAM方法,其特征在于,所述步骤4包括:通过因子图表达步骤3中的对应关系,根据所述因子图构建相应的似然函数。
8.如权利要求7所述的基于语义分割技术的机器人SLAM方法,其特征在于,所述步骤5包括:对所述似然函数取负对数得到代价函数,对所述代价函数进行模拟退火结合梯度下降策略实现最小化,进而获得相机位置姿态参数、三维空间点以及平面参数信息。
9.如权利要求7所述的基于语义分割技术的机器人SLAM方法,其特征在于,所述因子图还同时表达:三维空间中的特征点和平面区域之间的相互作用关系与在二维的图像中的相互作用关系一致。
10.如权利要求1所述的基于语义分割技术的机器人SLAM方法,其特征在于,所述步骤5中:混合三维地图通过三维空间的点以及平面来表示,其中,三维空间的平面包含语义信息。
CN201810046213.6A 2018-01-17 2018-01-17 基于语义分割技术的机器人slam方法 Active CN108229416B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810046213.6A CN108229416B (zh) 2018-01-17 2018-01-17 基于语义分割技术的机器人slam方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810046213.6A CN108229416B (zh) 2018-01-17 2018-01-17 基于语义分割技术的机器人slam方法

Publications (2)

Publication Number Publication Date
CN108229416A true CN108229416A (zh) 2018-06-29
CN108229416B CN108229416B (zh) 2021-09-10

Family

ID=62667275

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810046213.6A Active CN108229416B (zh) 2018-01-17 2018-01-17 基于语义分割技术的机器人slam方法

Country Status (1)

Country Link
CN (1) CN108229416B (zh)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109064462A (zh) * 2018-08-06 2018-12-21 长沙理工大学 一种基于深度学习的钢轨表面缺陷检测方法
CN109506658A (zh) * 2018-12-26 2019-03-22 广州市申迪计算机系统有限公司 机器人自主定位方法和系统
CN109543634A (zh) * 2018-11-29 2019-03-29 达闼科技(北京)有限公司 定位过程中的数据处理方法、装置、电子设备和存储介质
CN109584302A (zh) * 2018-11-27 2019-04-05 北京旷视科技有限公司 相机位姿优化方法、装置、电子设备和计算机可读介质
CN109815847A (zh) * 2018-12-30 2019-05-28 中国电子科技集团公司信息科学研究院 一种基于语义约束的视觉slam方法
CN110487274A (zh) * 2019-07-30 2019-11-22 中国科学院空间应用工程与技术中心 用于弱纹理场景的slam方法、系统、导航车及存储介质
CN110853085A (zh) * 2018-08-21 2020-02-28 深圳地平线机器人科技有限公司 基于语义slam的建图方法和装置及电子设备
CN111046125A (zh) * 2019-12-16 2020-04-21 视辰信息科技(上海)有限公司 一种视觉定位方法、系统及计算机可读存储介质
CN113352328A (zh) * 2021-06-28 2021-09-07 深圳亿嘉和科技研发有限公司 一种铰接模型的辨识方法及机器人操作方法
CN113766147A (zh) * 2020-09-22 2021-12-07 北京沃东天骏信息技术有限公司 视频中嵌入图像的方法、平面预测模型获取方法和装置

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102831446A (zh) * 2012-08-20 2012-12-19 南京邮电大学 单目视觉slam中基于图像外观的闭环检测方法
CN103713900A (zh) * 2013-12-20 2014-04-09 北京工业大学 一种基于朴素贝叶斯算法的机器人模块语义分类方法
CN104374395A (zh) * 2014-03-31 2015-02-25 南京邮电大学 基于图的视觉slam方法
CN106272423A (zh) * 2016-08-31 2017-01-04 哈尔滨工业大学深圳研究生院 一种针对大尺度环境的多机器人协同制图与定位的方法
CN107063258A (zh) * 2017-03-07 2017-08-18 重庆邮电大学 一种基于语义信息的移动机器人室内导航方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102831446A (zh) * 2012-08-20 2012-12-19 南京邮电大学 单目视觉slam中基于图像外观的闭环检测方法
CN103713900A (zh) * 2013-12-20 2014-04-09 北京工业大学 一种基于朴素贝叶斯算法的机器人模块语义分类方法
CN104374395A (zh) * 2014-03-31 2015-02-25 南京邮电大学 基于图的视觉slam方法
CN106272423A (zh) * 2016-08-31 2017-01-04 哈尔滨工业大学深圳研究生院 一种针对大尺度环境的多机器人协同制图与定位的方法
CN107063258A (zh) * 2017-03-07 2017-08-18 重庆邮电大学 一种基于语义信息的移动机器人室内导航方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
RACHID BELAROUSSI等: "Semi-Dense 3D Semantic Mapping from Monocular SLAM", 《HTTPS://ARXIV.ORG/PDF/1611.04144.PDF》 *

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109064462A (zh) * 2018-08-06 2018-12-21 长沙理工大学 一种基于深度学习的钢轨表面缺陷检测方法
CN110853085B (zh) * 2018-08-21 2022-08-19 深圳地平线机器人科技有限公司 基于语义slam的建图方法和装置及电子设备
CN110853085A (zh) * 2018-08-21 2020-02-28 深圳地平线机器人科技有限公司 基于语义slam的建图方法和装置及电子设备
CN109584302A (zh) * 2018-11-27 2019-04-05 北京旷视科技有限公司 相机位姿优化方法、装置、电子设备和计算机可读介质
CN109584302B (zh) * 2018-11-27 2023-12-01 北京旷视科技有限公司 相机位姿优化方法、装置、电子设备和计算机可读介质
CN109543634A (zh) * 2018-11-29 2019-03-29 达闼科技(北京)有限公司 定位过程中的数据处理方法、装置、电子设备和存储介质
CN109506658B (zh) * 2018-12-26 2021-06-08 广州市申迪计算机系统有限公司 机器人自主定位方法和系统
CN109506658A (zh) * 2018-12-26 2019-03-22 广州市申迪计算机系统有限公司 机器人自主定位方法和系统
CN109815847A (zh) * 2018-12-30 2019-05-28 中国电子科技集团公司信息科学研究院 一种基于语义约束的视觉slam方法
CN109815847B (zh) * 2018-12-30 2020-12-01 中国电子科技集团公司信息科学研究院 一种基于语义约束的视觉slam方法
CN110487274A (zh) * 2019-07-30 2019-11-22 中国科学院空间应用工程与技术中心 用于弱纹理场景的slam方法、系统、导航车及存储介质
CN111046125A (zh) * 2019-12-16 2020-04-21 视辰信息科技(上海)有限公司 一种视觉定位方法、系统及计算机可读存储介质
CN113766147A (zh) * 2020-09-22 2021-12-07 北京沃东天骏信息技术有限公司 视频中嵌入图像的方法、平面预测模型获取方法和装置
CN113766147B (zh) * 2020-09-22 2022-11-08 北京沃东天骏信息技术有限公司 视频中嵌入图像的方法、平面预测模型获取方法和装置
CN113352328A (zh) * 2021-06-28 2021-09-07 深圳亿嘉和科技研发有限公司 一种铰接模型的辨识方法及机器人操作方法

Also Published As

Publication number Publication date
CN108229416B (zh) 2021-09-10

Similar Documents

Publication Publication Date Title
CN108229416A (zh) 基于语义分割技术的机器人slam方法
CN109829398B (zh) 一种基于三维卷积网络的视频中的目标检测方法
Walch et al. Image-based localization using lstms for structured feature correlation
Mu et al. Slam with objects using a nonparametric pose graph
JP6430064B2 (ja) データを位置合わせする方法及びシステム
Sodhi et al. In-field segmentation and identification of plant structures using 3D imaging
Sock et al. Multi-view 6D object pose estimation and camera motion planning using RGBD images
Eade et al. Edge landmarks in monocular SLAM
CN109102547A (zh) 基于物体识别深度学习模型的机器人抓取位姿估计方法
CN107967457A (zh) 一种适应视觉特征变化的地点识别与相对定位方法及系统
CN113985445A (zh) 一种基于相机与激光雷达数据融合的3d目标检测算法
CN108171715B (zh) 一种图像分割方法及装置
Tulyakov et al. Robust real-time extreme head pose estimation
CN111340873A (zh) 一种多视角图像的物体最小外包络尺寸测算方法
Meger et al. Explicit Occlusion Reasoning for 3D Object Detection.
Quintana et al. Door detection in 3D colored laser scans for autonomous indoor navigation
Rubio et al. Efficient monocular pose estimation for complex 3D models
Li et al. RGBD relocalisation using pairwise geometry and concise key point sets
Ferguson et al. A 2d-3d object detection system for updating building information models with mobile robots
Sturm et al. An appearance-based visual compass for mobile robots
Diamantas et al. Depth estimation in still images and videos using a motionless monocular camera
CN114766347A (zh) 一种玉米抽雄作业的目标三维位置获取方法
Liu et al. Deep learning of directional truncated signed distance function for robust 3D object recognition
Ward et al. A model-based approach to recovering the structure of a plant from images
CN110135474A (zh) 一种基于深度学习的倾斜航空影像匹配方法和系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
TR01 Transfer of patent right
TR01 Transfer of patent right

Effective date of registration: 20220629

Address after: 215000 No. 331, affinity Road, Zhangpu Town, Kunshan City, Suzhou City, Jiangsu Province

Patentee after: Suzhou Xiuyuan Technology Co.,Ltd.

Address before: 230000 Room 203, building 2, phase I, e-commerce Park, Jinggang Road, Shushan Economic Development Zone, Hefei City, Anhui Province

Patentee before: Hefei Jiuzhou Longteng scientific and technological achievement transformation Co.,Ltd.

Effective date of registration: 20220629

Address after: 230000 Room 203, building 2, phase I, e-commerce Park, Jinggang Road, Shushan Economic Development Zone, Hefei City, Anhui Province

Patentee after: Hefei Jiuzhou Longteng scientific and technological achievement transformation Co.,Ltd.

Address before: 215009 CREE Road, Suzhou hi tech Zone, Suzhou, Jiangsu Province, No. 1

Patentee before: SUZHOU University OF SCIENCE AND TECHNOLOGY