CN112396167B - 一种外观相似度与空间位置信息融合的回环检测方法 - Google Patents

一种外观相似度与空间位置信息融合的回环检测方法 Download PDF

Info

Publication number
CN112396167B
CN112396167B CN202011603737.4A CN202011603737A CN112396167B CN 112396167 B CN112396167 B CN 112396167B CN 202011603737 A CN202011603737 A CN 202011603737A CN 112396167 B CN112396167 B CN 112396167B
Authority
CN
China
Prior art keywords
image
similarity
scene
robot
convolution
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202011603737.4A
Other languages
English (en)
Other versions
CN112396167A (zh
Inventor
谢武
瞿元昊
杨明浩
强保华
陈锐东
陈金龙
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Institute of Automation of Chinese Academy of Science
Guilin University of Electronic Technology
Original Assignee
Institute of Automation of Chinese Academy of Science
Guilin University of Electronic Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Institute of Automation of Chinese Academy of Science, Guilin University of Electronic Technology filed Critical Institute of Automation of Chinese Academy of Science
Priority to CN202011603737.4A priority Critical patent/CN112396167B/zh
Publication of CN112396167A publication Critical patent/CN112396167A/zh
Application granted granted Critical
Publication of CN112396167B publication Critical patent/CN112396167B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C11/00Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
    • G01C11/04Interpretation of pictures
    • G01C11/06Interpretation of pictures by comparison of two or more pictures of the same area
    • G01C11/08Interpretation of pictures by comparison of two or more pictures of the same area the pictures not being supported in the same relative position as when they were taken
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/005Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 with correlation of navigation data from several sources, e.g. map or contour matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T9/00Image coding
    • G06T9/002Image coding using neural networks

Abstract

本发明公开了一种外观相似度与空间位置信息融合的回环检测方法,包括步骤:将装有视觉传感器和定位系统的机器人置于场景中自由探索,同时采集图像与相应的空间坐标信息。通过以卷积神经网络为核心的孪生网络框架训练相似度计算模型。采用训练完成的模型将新采集的场景图像与已有图像进行相似度判别,相似度大于一定阈值时,则认为机器人曾经经过该场景。在判别为机器人经过该场景的情况下,计算两张场景图像对应空间坐标的水平距离差,若距离差小于一定阈值,则判定机器人经过的路径产生闭合环路。本方法从外观相似度与里程计两个方面同时进行约束,从而达到检测机器人移动路径中闭合环路的目的。

Description

一种外观相似度与空间位置信息融合的回环检测方法
技术领域
本发明涉及一种机器人即时定位与地图构建工程中的回环检测方法,具体是一种外观相似度与空间位置信息融合的回环检测方法。
背景技术
机器人的即时定位与地图构建(SLAM)依赖机器人对自身空间位置的准确判断以及对行走路径的累积记录。在现实情况下,随着路径不断延伸,机器人在建图过程中会产生一些累积误差。
回环检测是一种有效的误差消除方法,它能够通过检测机器人行走路径中的闭合环路,主动削减位姿估计过程中的递推次数,从而达到减小累积误差的目的。然而现有的一些回环检测方法仍存在一些缺陷,如:
基于相似度计算的回环检测方法稳定性不够高,在光线变化的环境下效果较差;
基于词袋模型的回环检测方法太依赖既定的词典,对于特殊场景难有较好的适应性;
基于空间坐标的回环检测方法虽然准确度较高,但是难以用于地图构建和有效路径的判断。
近年来,随着多传感器融合探测的发展,在一定程度上弥补了单一传感器对回环检测方案带来的局限性;而深度学习技术的迅速进步也为回环检测带来了更多创新的可能。
发明内容
针对上述现有技术中指出的缺陷,本发明提出了一种针对性使用视觉传感器与空间定位装置作为主要传感器的回环检测方法,以适用于视觉传感器与空间定位装置融合使用的机器人即时定位与地图构建系统。
实现本发明目的的技术方案是:
一种外观相似度与空间位置信息融合的回环检测方法,包括如下步骤:
(1)将安装有视觉传感器和定位装置的机器人置于场景中自由移动,同时采集场景图像和相应的空间坐标信息;
(2)将采集得到的图像通过卷积自编码器(CAE)编码压缩后,经由机器人传送至后端计算机,然后针对目标样本图像,后端计算机通过最邻近结点算法(KNN)对压缩图像的特征矩阵进行相似度排序;
(3)将排序得到的与目标样本图像相似度最高的5张图像进行自编码器解码还原,然后将还原后的图像与目标样本图像分别组成5组样本,通过以卷积神经网络为核心的孪生网络模型再次计算相似度;
(4)若相似度大于或等于一定阈值时,则认为机器人曾移动经过目标图像对应场景;若相似度小于该阈值时,则判定机器人没有移动经过目标图像对应场景;
(5)在判定机器人移动经过目标场景的情况下,计算两张场景图像对应空间坐标的水平距离差,若该距离差小于一定阈值时,则判定机器人移动路径产生闭合环路,从而完成回环检测。
步骤(2)所述对图像进行自编码器编码压缩的方法,是:
设输入的RGB图像宽为w,高为h,将其转化为
Figure 383633DEST_PATH_IMAGE001
的矩阵,然后输入卷积自编 码器(CAE)的输入层;卷积自编码器的编码压缩部分为连续的三组卷积与池化网络结构,每 一组内先执行卷积,再执行池化,卷积层选择三通道的二维卷积,池化层选择最大池化 (Maxpooling),保留图像的更多纹理信息;卷积与池化过程如公式(1)、(2)所示:
Figure 205833DEST_PATH_IMAGE002
(1)
Figure DEST_PATH_IMAGE003
Figure 657674DEST_PATH_IMAGE004
(2)
其中,卷积核的大小是
Figure 584042DEST_PATH_IMAGE005
X k 表示第k个输入通道的二维特征图,Y l 表示第l个输 出通道的二维特征图,H kl 表示第k行、第l列二维卷积核,a l 表示最大池化层的输出;编码压 缩完成后得到的
Figure 804939DEST_PATH_IMAGE006
个元素的一维向量则是输入图像的特征向量。
步骤(2)所述对压缩图像的特征矩阵进行相似度排序的方法,是:
对输入的所有场景图像特征向量,根据与目标图像特征向量的相似程度,由相似度从高到低进行排序;利用KNN测量自编码器压缩完成的一维特征向量之间元素的欧氏距离,采用欧氏距离来代表两个特征向量间的相似程度;一维特征向量如公式(3)所示,KNN距离测量算法如公式(4)所示:
Figure 892980DEST_PATH_IMAGE007
Figure 691172DEST_PATH_IMAGE008
(3)
Figure 31018DEST_PATH_IMAGE009
(4)
Figure 231055DEST_PATH_IMAGE010
其中d代表特征向量间的欧氏距离,X、Y表示两个特征向量,x n y n 表示特征向量中的元素;然后,对所有计算出的d值由小到大进行排序,再根据设定的阈值k,将排序得出d值最小的k个特征向量作为与目标图像相似程度最高的场景图像向量输出。
步骤(3)所述对图像进行自编码器解码还原的方法,是:
将图像的特征向量输入卷积自编码器进行解码还原,卷积自编码器的解码还原部 分设计为连续的三组反卷积,每一组反卷积内先执行卷积,再执行上采样,以达到反卷积的 目的;其中的卷积层与步骤(2)中的卷积层方法相同,但是在输入格式上对称;为了扩大被 压缩的特征向量,使其还原为原本
Figure 489998DEST_PATH_IMAGE001
大小的矩阵;采用双线性插值的方法,如公式 (5)所示:
Figure DEST_PATH_IMAGE011
(5)
其中(x, y)表示插入点P的坐标,f(x, y)表示点P插入的值,(x 1 ,y 1 )、(x 1 , y 2 )、(x 2 , y 1 )和(x 2 , y 2 )分别是插入点P的邻近点,Q 11 、Q 21 、Q 12 、Q 22 分别是这四个点对应的值。
解码还原完成后得到的矩阵可将其转化为可显示的、与原图内容和大小相同的RGB图像。
步骤(3)所述以卷积神经网络为核心的孪生网络模型计算相似度的计算方法,包括如下步骤:
a.将相同结构的两个卷积神经网络(CNN)共享权重,分别输入目标样本图像矩阵和测试样本图像矩阵;经过卷积网络提取特征,其中,损失函数采用对比损失(ContrastiveLoss)进行约束,如公式(6)所示:
Figure 414966DEST_PATH_IMAGE012
(6)
其中
Figure 558503DEST_PATH_IMAGE013
,代表两个样本特征的欧氏距离,y为两个样本是否匹配的标 签,y=1代表两个样本相似或者匹配,y=0则代表不匹配,margin为设定的阈值;两个结构与 权重都相同卷积神经网络各自的输出分别为目标样本特征向量A和测试样本特征向量B
b.计算目标样本特征向量A和测试样本特征向量B之间的欧氏距离ED1,当ED1的值小于设定阈值ed1时,则判定目标样本图像与测试样本图像相似,否则判定为不相似;判定为相似的两张图像对应的场景被认为机器人曾经移动经过。
步骤(5)所述判定机器人移动路径产生闭合环路的判定方法,包括如下步骤:
a.当步骤(4)判定两张场景图像相似、即机器人移动经过某一场景时,获取这两张图像拍摄时对应的空间坐标,并计算这两个坐标点的水平欧氏距离ED2
b.当两个坐标点水平距离ED2小于设定阈值ed2时,则判定机器人的移动路径产生闭合环路。
本发明的有益效果是:
1. 针对性的使用视觉传感器与空间定位装置作为主要传感器的回环检测方法,弥补两种传感器单独使用时的局限性,减少机器人记录路径的误差,增强地图构建的精确度和鲁棒性;
2. 利用卷积神经网络提取图像特征的优势和空间定位装置的高精度设计算法,从外观相似度与空间位置两个方面同时进行约束,从而达到检测机器人移动路径中闭合环路的目的,提升了采用单一传感器回环检测方法的精确度与鲁棒性。
3. 该方法可以广泛用于安装普通视觉传感器(如单目相机)和空间定位装置(如UWB)的机器人SLAM系统。
附图说明
图1为本发明实施例回环检测方法的方法流程图;
图2为本发明实施例孪生网络框架计算相似度的流程图。
具体实施方式
下面结合附图和实施例对本发明作进一步的阐述。
实施例:
如图1所示,一种外观相似度与空间位置信息融合的回环检测方法,首先,将装备视觉传感器和空间定位装置的机器人置于场景中漫游,尽可能地采集RGB图像信息和图相对应的空间位置坐标。具体方法步骤如下:
1)图像编码压缩
设输入的RGB图像宽为w,高为h,将其转化为
Figure 347467DEST_PATH_IMAGE001
的矩阵,然后输入卷积自编 码器(CAE)的输入层。卷积自编码器的编码压缩部分为连续的三组卷积与池化网络结构,每 一组内先执行卷积,再执行池化,卷积层选择三通道的二维卷积,池化层选择最大池化 (Maxpooling),保留图像的更多纹理信息。卷积与池化的具体过程如公式(1)、(2)所示。
Figure 308470DEST_PATH_IMAGE002
(1)
Figure 691041DEST_PATH_IMAGE014
Figure 231744DEST_PATH_IMAGE004
(2)
其中,卷积核的大小是
Figure 406373DEST_PATH_IMAGE005
X k 表示第k个输入通道的二维特征图,Y l 表示第l个输 出通道的二维特征图,H kl 表示第k行、第l列二维卷积核,a l 表示最大池化层的输出。编码压 缩完成后得到的
Figure 882485DEST_PATH_IMAGE006
个元素的一维向量则是输入图像的特征向量。该向量能够传输至后 端计算机。
2)最邻近结点算法相似度排序
对输入的所有场景图像特征向量,根据与目标图像特征向量的相似程度,由相似度从高到低进行排序。排序算法采用的核心算法是最邻近结点算法(KNN),该算法能根据测量不同特征值之间的距离进行分类。本步骤中利用KNN测量自编码器压缩完成的一维特征向量之间元素的欧氏距离,采用欧氏距离来代表两个特征向量间的相似程度。一维特征向量如公式(4)所示,KNN距离测量算法如公式(5)所示:
Figure 142565DEST_PATH_IMAGE007
Figure 486959DEST_PATH_IMAGE008
(4)
Figure 889996DEST_PATH_IMAGE009
(5)
Figure 927222DEST_PATH_IMAGE015
其中d代表特征向量间的欧氏距离,X、Y表示两个特征向量,x n y n 表示特征向量中的元素。然后,对所有计算出的d值由小到大进行排序,再根据设定的阈值k,将排序得出d值最小的k个特征向量作为与目标图像相似程度最高的场景图像向量输出。
3)图像解码还原
将d值最小的k个图像特征向量输入卷积自编码器进行解码还原。卷积自编码器的 解码还原部分设计为连续的三组反卷积,每一组反卷积内先执行卷积,再执行上采样,以达 到反卷积的目的。其中的卷积层与1)中的卷积层方法相同,但是在输入格式上对称。上采样 步骤的目的是为了扩大被压缩的特征向量,使其还原为原本
Figure 143440DEST_PATH_IMAGE001
大小的矩阵。实际操 作中可采用双线性插值的方法,如公式(3)所示:
Figure 432470DEST_PATH_IMAGE011
(3)
其中(x, y)表示插入点P的坐标,f(x, y)表示点P插入的值,(x 1 ,y 1 )、(x 1 , y 2 )、(x 2 , y 1 )和(x 2 , y 2 )分别是插入点P的邻近点,Q 11 、Q 21 、Q 12 、Q 22 分别是这四个点对应的值。
解码还原完成后得到的矩阵可将其转化为可显示的、与原图内容和大小相同的RGB图像。
4)基于孪生网络框架的相似度计算方法(如图2所示)
a.将3)中还原的k个图像样本与目标图像组成k组样本对,每一对样本对中的两个样本分别以矩阵的形式分别输入结构相同、权重共享的两个卷积神经网络(CNN),经过卷积网络提取特征。其中,网络模型的损失函数采用对比损失(Contrastive Loss)进行约束,具体如公式(6)所示L:
Figure 316112DEST_PATH_IMAGE012
(6)
其中
Figure 399606DEST_PATH_IMAGE013
,代表两个样本特征的欧氏距离,y为两个样本是否匹配的标 签,y=1代表两个样本相似或者匹配,y=0则代表不匹配,margin为设定的阈值。
最终两个结构与权重都相同卷积神经网络各自的输出分别为目标样本特征向量A和测试样本特征向量B
b.计算目标样本特征向量A和测试样本特征向量B之间的欧氏距离ED1,当ED1的值小于设定阈值ed1时,则判定目标样本图像与测试样本图像相似,否则判定为不相似。判定为相似的两张图像对应的场景被认为机器人曾经移动经过。
5)结合空间坐标判断闭合环路
a.当4)中判定两张场景图像相似、即机器人移动经过某一场景时,获取这两张图像拍摄时对应的空间坐标,并计算这两个坐标点的水平欧氏距离ED2
b.当两个坐标点水平距离ED2小于设定阈值ed2时,则判定机器人的移动路径产生闭合环路。
以上所提出的方法适用于同时安装视觉传感器与空间定位装置的机器人系统,该方法能够以较高的效率与准确性完成机器人SLAM工程的回环检测工作。使用该方法时,需要将视觉传感器安装在机器人平台的适宜位置(距离地面垂直距离0.5m-1m),需要对空间定位装置提前进行校准。

Claims (6)

1.一种外观相似度与空间位置信息融合的回环检测方法,其特征是:包括如下步骤:
(1)将安装有视觉传感器和定位装置的机器人置于场景中自由移动,同时采集场景图像和相应的空间坐标信息;
(2)将采集得到的图像通过卷积自编码器(CAE)编码压缩后,经由机器人传送至后端计算机,然后针对目标样本图像,后端计算机通过最邻近结点算法(KNN)对压缩图像的特征矩阵进行相似度排序;
(3)将排序得到的与目标样本图像相似度最高的5张图像进行自编码器解码还原,然后将还原后的图像与目标样本图像分别组成5组样本,通过以卷积神经网络为核心的孪生网络模型再次计算相似度;
(4)若相似度大于或等于一定阈值时,则认为机器人曾移动经过目标图像对应场景;若相似度小于该阈值时,则判定机器人没有移动经过目标图像对应场景;
(5)在判定机器人移动经过目标场景的情况下,计算两张场景图像对应空间坐标的水平距离差,若该距离差小于一定阈值时,则判定机器人移动路径产生闭合环路,从而完成回环检测。
2.根据权利要求1所述的回环检测方法,其特征是:步骤(2)所述对图像进行自编码器编码压缩的方法,是:
设输入的RGB图像宽为w,高为h,将其转化为
Figure DEST_PATH_IMAGE002
的矩阵,然后输入卷积自编码器(CAE)的输入层;卷积自编码器的编码压缩部分为连续的三组卷积与池化网络结构,每一组内先执行卷积,再执行池化,卷积层选择三通道的二维卷积,池化层选择最大池化(Maxpooling),保留图像的更多纹理信息;卷积与池化过程如公式(1)、(2)所示:
Figure DEST_PATH_IMAGE004
(1)
Figure DEST_PATH_IMAGE006
Figure DEST_PATH_IMAGE008
(2)
其中,卷积核的大小是
Figure DEST_PATH_IMAGE010
X k 表示第k个输入通道的二维特征图,Y l 表示第l个输出通道的二维特征图,H kl 表示第k行、第l列二维卷积核,a l 表示最大池化层的输出;编码压缩完成后得到的
Figure DEST_PATH_IMAGE012
个元素的一维向量则是输入图像的特征向量。
3.根据权利要求1所述的回环检测方法,其特征是:步骤(2)所述对压缩图像的特征矩阵进行相似度排序的方法,是:
对输入的所有场景图像特征向量,根据与目标图像特征向量的相似程度,由相似度从高到低进行排序;利用KNN测量自编码器压缩完成的一维特征向量之间元素的欧氏距离,采用欧氏距离来代表两个特征向量间的相似程度;一维特征向量如公式(3)所示,KNN距离测量算法如公式(4)所示:
Figure DEST_PATH_IMAGE014
Figure DEST_PATH_IMAGE016
(3)
Figure DEST_PATH_IMAGE018
(4)
Figure DEST_PATH_IMAGE020
其中d代表特征向量间的欧氏距离,X、Y表示两个特征向量,x n y n 表示特征向量中的元素;然后,对所有计算出的d值由小到大进行排序,再根据设定的阈值k,将排序得出d值最小的k个特征向量作为与目标图像相似程度最高的场景图像向量输出。
4.根据权利要求1所述的回环检测方法,其特征是:步骤(3)所述对图像进行自编码器解码还原的方法,是:
将图像的特征向量输入卷积自编码器进行解码还原,卷积自编码器的解码还原部分设计为连续的三组反卷积,每一组反卷积内先执行卷积,再执行上采样,以达到反卷积的目的;其中的卷积层与步骤(2)中的卷积层方法相同,但是在输入格式上对称;为了扩大被压缩的特征向量,使其还原为原本
Figure 214626DEST_PATH_IMAGE002
大小的矩阵;采用双线性插值的方法,如公式(5)所示:
Figure DEST_PATH_IMAGE022
(5)
其中(x, y)表示插入点P的坐标,f(x, y)表示点P插入的值,(x 1 ,y 1 )、(x 1 , y 2 )、(x 2 ,y 1 )和(x 2 , y 2 )分别是插入点P的邻近点,Q 11 、Q 21 、Q 12 、Q 22 分别是这四个点对应的值;
解码还原完成后得到的矩阵可将其转化为可显示的、与原图内容和大小相同的RGB图像。
5.根据权利要求1所述的回环检测方法,其特征是:步骤(3)所述以卷积神经网络为核心的孪生网络模型计算相似度的计算方法,包括如下步骤:
a.将相同结构的两个卷积神经网络(CNN)共享权重,分别输入目标样本图像矩阵和测试样本图像矩阵;经过卷积网络提取特征,其中,损失函数采用对比损失(ContrastiveLoss)进行约束,如公式(6)所示:
Figure DEST_PATH_IMAGE024
(6)
其中
Figure DEST_PATH_IMAGE026
,代表两个样本特征的欧氏距离,y为两个样本是否匹配的标签,y=1代表两个样本相似或者匹配,y=0则代表不匹配,margin为设定的阈值;两个结构与权重都相同卷积神经网络各自的输出分别为目标样本特征向量A和测试样本特征向量B
b.计算目标样本特征向量A和测试样本特征向量B之间的欧氏距离ED1,当ED1的值小于设定阈值ed1时,则判定目标样本图像与测试样本图像相似,否则判定为不相似;判定为相似的两张图像对应的场景被认为机器人曾经移动经过。
6.根据权利要求1所述的回环检测方法,其特征是:步骤(5)所述判定机器人移动路径产生闭合环路的判定方法,包括如下步骤:
a.当步骤(4)判定两张场景图像相似、即机器人移动经过某一场景时,获取这两张图像拍摄时对应的空间坐标,并计算这两个坐标点的水平欧氏距离ED2
b.当两个坐标点水平距离ED2小于设定阈值ed2时,则判定机器人的移动路径产生闭合环路。
CN202011603737.4A 2020-12-30 2020-12-30 一种外观相似度与空间位置信息融合的回环检测方法 Active CN112396167B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011603737.4A CN112396167B (zh) 2020-12-30 2020-12-30 一种外观相似度与空间位置信息融合的回环检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011603737.4A CN112396167B (zh) 2020-12-30 2020-12-30 一种外观相似度与空间位置信息融合的回环检测方法

Publications (2)

Publication Number Publication Date
CN112396167A CN112396167A (zh) 2021-02-23
CN112396167B true CN112396167B (zh) 2022-07-15

Family

ID=74625537

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011603737.4A Active CN112396167B (zh) 2020-12-30 2020-12-30 一种外观相似度与空间位置信息融合的回环检测方法

Country Status (1)

Country Link
CN (1) CN112396167B (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113850864B (zh) * 2021-09-14 2024-04-12 中南大学 一种面向室外移动机器人的gnss/lidar回环检测方法
CN115631319B (zh) * 2022-11-02 2023-06-23 北京科技大学 一种基于交叉注意力网络的回环检测方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104851094A (zh) * 2015-05-14 2015-08-19 西安电子科技大学 一种基于rgb-d的slam算法的改进方法
CN111325794A (zh) * 2020-02-23 2020-06-23 哈尔滨工业大学 一种基于深度卷积自编码器的视觉同时定位与地图构建方法
CN111753789A (zh) * 2020-07-01 2020-10-09 重庆邮电大学 基于堆栈式组合自编码器的机器人视觉slam闭环检测方法
CN111832484A (zh) * 2020-07-14 2020-10-27 星际(重庆)智能装备技术研究院有限公司 一种基于卷积感知哈希算法的回环检测方法

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10867061B2 (en) * 2018-09-28 2020-12-15 Todd R. Collart System for authorizing rendering of objects in three-dimensional spaces
CN109800692B (zh) * 2019-01-07 2022-12-27 重庆邮电大学 一种基于预训练卷积神经网络的视觉slam回环检测方法
CN110555881A (zh) * 2019-08-29 2019-12-10 桂林电子科技大学 一种基于卷积神经网络的视觉slam测试方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104851094A (zh) * 2015-05-14 2015-08-19 西安电子科技大学 一种基于rgb-d的slam算法的改进方法
CN111325794A (zh) * 2020-02-23 2020-06-23 哈尔滨工业大学 一种基于深度卷积自编码器的视觉同时定位与地图构建方法
CN111753789A (zh) * 2020-07-01 2020-10-09 重庆邮电大学 基于堆栈式组合自编码器的机器人视觉slam闭环检测方法
CN111832484A (zh) * 2020-07-14 2020-10-27 星际(重庆)智能装备技术研究院有限公司 一种基于卷积感知哈希算法的回环检测方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
An End-To-End Siamese Convolutional Neural Network for Loop Closure Detection in Visual Slam System;H. Liu 等;《2018 IEEE International Conference on Acoustics, Speech and Signal》;20180913;3121-3125 *
基于孪生网络的视觉SLAM闭环检测研究和实现;邱凯;《中国优秀博硕士学位论文全文数据库(硕士)》;20190515;I140-447 *
基于深度学习的视觉SLAM闭环检测与优化;胡航;《中国优秀博硕士学位论文全文数据库(硕士)》;20171201;1-91 *

Also Published As

Publication number Publication date
CN112396167A (zh) 2021-02-23

Similar Documents

Publication Publication Date Title
CN110111366B (zh) 一种基于多级损失量的端到端光流估计方法
CN110009674B (zh) 基于无监督深度学习的单目图像景深实时计算方法
CN113469094A (zh) 一种基于多模态遥感数据深度融合的地表覆盖分类方法
CN108038420B (zh) 一种基于深度视频的人体行为识别方法
CN102741884B (zh) 移动体检测装置及移动体检测方法
CN107424161B (zh) 一种由粗至精的室内场景图像布局估计方法
CN106780631B (zh) 一种基于深度学习的机器人闭环检测方法
CN113657388B (zh) 一种融合图像超分辨率重建的图像语义分割方法
CN112396167B (zh) 一种外观相似度与空间位置信息融合的回环检测方法
CN110246148B (zh) 多模态的深度信息融合和注意力学习的显著性检测方法
CN111667535B (zh) 一种针对遮挡场景下的六自由度位姿估计方法
CN110059728B (zh) 基于注意力模型的rgb-d图像视觉显著性检测方法
CN112580590A (zh) 一种基于多语义特征融合网络的指静脉识别方法
CN114049335B (zh) 一种基于时空注意力的遥感影像变化检测方法
CN113592927B (zh) 一种结构信息引导的跨域图像几何配准方法
CN114332639B (zh) 一种非线性残差自注意力机制的卫星姿态视觉测量方法
CN105957107A (zh) 行人检测与跟踪方法及装置
CN111832484A (zh) 一种基于卷积感知哈希算法的回环检测方法
CN108335327B (zh) 摄像机姿态估计方法和摄像机姿态估计装置
CN113343822B (zh) 一种基于3d卷积的光场显著性目标检测方法
CN114565655A (zh) 一种基于金字塔分割注意力的深度估计方法及装置
CN112288776A (zh) 一种基于多时间步金字塔编解码器的目标跟踪方法
CN114299405A (zh) 一种无人机图像实时目标检测方法
CN114663880A (zh) 基于多层级跨模态自注意力机制的三维目标检测方法
CN116222577A (zh) 闭环检测方法、训练方法、系统、电子设备及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant