CN110781790A - 基于卷积神经网络与vlad的视觉slam闭环检测方法 - Google Patents
基于卷积神经网络与vlad的视觉slam闭环检测方法 Download PDFInfo
- Publication number
- CN110781790A CN110781790A CN201910996478.7A CN201910996478A CN110781790A CN 110781790 A CN110781790 A CN 110781790A CN 201910996478 A CN201910996478 A CN 201910996478A CN 110781790 A CN110781790 A CN 110781790A
- Authority
- CN
- China
- Prior art keywords
- image
- images
- vlad
- similarity
- netvlad
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 39
- 238000013527 convolutional neural network Methods 0.000 title claims abstract description 19
- 230000000007 visual effect Effects 0.000 title claims description 14
- 238000000034 method Methods 0.000 claims abstract description 20
- 239000011159 matrix material Substances 0.000 claims abstract description 17
- 238000012549 training Methods 0.000 claims abstract description 11
- 238000011176 pooling Methods 0.000 claims abstract description 10
- 239000013598 vector Substances 0.000 claims description 19
- 230000006870 function Effects 0.000 claims description 11
- 238000004364 calculation method Methods 0.000 claims description 4
- 230000008859 change Effects 0.000 claims description 3
- 238000005259 measurement Methods 0.000 claims description 3
- 230000004913 activation Effects 0.000 claims description 2
- 230000002776 aggregation Effects 0.000 claims description 2
- 238000004220 aggregation Methods 0.000 claims description 2
- 238000011478 gradient descent method Methods 0.000 claims description 2
- 238000007781 pre-processing Methods 0.000 claims description 2
- 230000004044 response Effects 0.000 claims description 2
- 238000012163 sequencing technique Methods 0.000 claims description 2
- 230000007613 environmental effect Effects 0.000 abstract 1
- 238000013135 deep learning Methods 0.000 description 8
- 238000002474 experimental method Methods 0.000 description 5
- 238000010586 diagram Methods 0.000 description 4
- 230000008569 process Effects 0.000 description 3
- 238000010276 construction Methods 0.000 description 2
- 230000004807 localization Effects 0.000 description 2
- 238000010606 normalization Methods 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Abstract
本发明公开了基于卷积神经网络和VLAD的闭环检测方法,包括以下步骤:对VGG16网络进行裁剪,然后在最后一层加入基于VLAD思想的池化层NetVLAD,构建新的网络模型VGG‑NetVLAD;利用含有三元组的大型数据集训练网络模型的参数;将当前查询图像输入到VGG‑NetVLAD中,提取NetVLAD层的输出作为图像的特征表达;采用余弦距离作为衡量图像间相似性的标准,计算当前查询图像与其他图像的相似性得分;统计每两幅图像间的得分最终构成相似性矩阵;根据阈值大小判断产生的闭环区域,输出准确率召回率曲线。本方法考虑了图像的局部空间特性和传统人工设计的特征易受环境变化的影响,有效地提高了闭环检测的准确率和召回率,并满足了实时性要求,对构建全局一致的地图具有重要意义。
Description
技术领域
本发明涉及图像处理、深度学习和视觉同时定位与地图构建领域,具体涉及一种基于卷积神经网络与VLAD的闭环检测方法。
背景技术
近年来,闭环检测已经成为了移动机器人导航领域的关键问题和研究热点,尤其是在视觉同时定位与地图构建(Visual Simultaneous Localization and Mapping,VSLAM)的问题上。视觉SLAM主要由视觉里程计、后端图优化、闭环检测和建图四部分组成。其中闭环检测也称为位置识别,它是指机器人在导航过程中使用视觉传感器提供的图像来识别是否经过了以前到达的位置。假设在当前时刻和较早时刻相机捕获了两幅图像,那么闭合检测的任务就是根据这两幅图像的相似性来判断这两个时刻的位置是否相同。正确的闭环检测可以为后端优化的姿态图中增加边缘约束,进一步优化机器人的运动估计,消除视觉里程计产生的累计位姿误差。而错误的闭环检测会导致地图绘制失败。因此,一个好的闭环检测算法对于构建全局一致性地图乃至整个SLAM系统都至关重要。
传统的闭环检测算法大致可以分为两类:词袋模型算法和全局描述子算法。然而,这些方法所使用的都是人为设计的低层特征,对光照、天气等因素的影响很敏感,因此缺乏必要的鲁棒性。
随着大规模数据集的公开以及各种硬件的升级,深度学习得到了迅速发展。深度学习能够通过多层神经网络对输入的图像提取抽象的高层特征,从而更好地应对环境的变化,这种优势使其在图像分类和图像检索中得到了广泛应用。考虑到闭环检测问题与图像检索十分相似,研究者们开始尝试将深度学习应用于闭环检测。
发明内容
为了进一步提高闭环检测算法的准确率和鲁棒性,本发明提出了一种基于卷积神经网络与VLAD的闭环检测方法。该网络保留了VGG16的部分结构,并在最后一层引入了基于VLAD思想的池化层NetVLAD。将NetVLAD层输出的特征作为图像的表达,然后采用余弦距离作为相似性度量的标准,计算图像间的相似性。
本发明通过以下技术方案实现:
一种基于卷积神经网络与VLAD的视觉SLAM闭环检测方法,包括以下步骤:
第一步、构建融合VGG16和VLAD的网络模型VGG-NetVLAD:对VGG16进行剪裁,然后在最后一层加入池化层NetVLAD。
第二步、利用大型数据集训练网络模型得到最优参数。
第三步、将待查询图像和待匹配图像进行预处理,然后输入到网络中,提取NetVLAD层输出的特征作为图像的表达。
第四步、对第三步得到的特征向量,采用余弦距离作为衡量两幅图像相似性的标准,计算相似度得分。
第五步、重复第三步、第四步,计算所有图像间的相似度,构建最终的相似性矩阵。
第六步、通过设定阈值判断相似性矩阵中何处产生了闭环,并输出闭环检测的准确率召回率曲线。
第一步中:
对VGG16网络进行了裁剪,去掉了最后一个卷积层conv5_3之后的池化层和全连接层,包括RELU激活函数,并将NetVLAD层连接到卷积层conv5_3之后,作为新的池化层。NetVLAD层将VLAD的思想引入到了卷积神经网络中。VLAD是一种常用于实例检索和图像分类的描述方法,可以捕获局部特征在图像中聚合的统计信息,储存了每个单词与其对应聚类中心的残差和。若VLAD的输入为单幅图像的N个D维特征向量{xi},参数为K个聚类中心Ck,则输出为一个K×D维的特征向量,将其写成矩阵的形式,记做V,计算公式如下:
其中xi(j)和Ck(j)分别代表第i个特征向量和第k个聚类中心的第j个元素,ak(xi)表示第i个特征向量对应第k个聚类中心的权重,当该特征属于这个聚类中心时,权重为1,否则为0。由于VLAD是一个离散函数,无法通过反向传播,所以NetVLAD层采用了一种近似的方式,将ak(xi)软分配到多个聚类中心,使其可微:
其中wk'=2αck,bk=-α||ck||2,α是一个正常数,控制响应随距离大小的衰减。最终NetVLAD层输出的特征向量为:
第二步中:
采用地点识别数据集训练构建的网络模型,获得最优参数。数据集中图片为为全景图,每个全景图由一组不同方向的透视图组成,每个透视图只有代表其在地图上大致位置的GPS标签,属于弱监督信息,导致两个地理位置很近的查询图像不一定描述了相同的场景,因为它们可能处于不同的拍摄方向。训练目标为:给定一个查询图像q,要在数据集所有图像Ii中找到与q位置距离最近的图像Ii*。数据集根据GPS信息将与其距离相近(10米以内)的图像作为正样本集合距离很远(超过25米)的图像作为负样本集合构建一个新的三元组数据集在三元组中,正样本中至少包含一幅能与查询图像匹配的图像。训练每一个三元组时,要学习一种最优的图像表示方法fθ使得查询图像q与最佳匹配图像的距离小于查询图像q与任何一个负样本图像的距离:
针对上述弱监督训练的问题,采用了排序损失函数:
其中l为hinge loss函数:l(x)=max(x,0),m为附加常数。Lθ代表所有负样本图像的损失之和,对于每一个负样本图像,当其与查询图像的距离大于查询与最佳匹配图像的距离与m之和,则损失为0,否则其损失值与m成正比。通过采用随机梯度下降法对参数进行优化,使网络可提取最优的图像表达。
第三步中:
先将图片大小调整为224*224像素,并减去RGB通道的均值数据。然后将图片输入到已在数据集上训练好的网络模型中,提取NetVLAD层的输出作为图像的特征表达。
第四步中:
假设当前图像为In,之前某一时刻图像为Ip,分别输入到VGG-NetVLAD模型中得到特征向量vn和vp。为了计算两图像的相似程度,采用向量间的余弦距离作为度量标准,余弦相似度计算方式如下:
第五步中:
将第四步中得到的每一个相似性得分储存起来,直至比较完所有图像间的相似性。通过统计所有图像间的相似性得分构建相似性矩阵,矩阵中第i行第j列的值代表图像Ii与图像Ij的相似性得分。
第六步中:
设定相似性阈值,当图像间的相似性得分超过阈值时,认为两图像为同一地点,产生了闭环,否则就判定不是闭环。根据不同的阈值大小,输出闭环检测的准确率召回率曲线。
本发明充分考虑了卷积神经网络提取的是全局特征,忽略了图像的局部空间特性,于是在剪裁后的VGG16网络最后添加了NetVLAD层,将VLAD的思想引入到卷积神经网络,其参数可以通过端到端的学习获得。将训练好的网络作为图像的特征提取器,在两个公开数据集上进行闭环检测实验。实验结果表明,本方法与传统的BoW和其他三种深度学习方法相比,在保证高召回率的情况下提升了准确率,同时满足了闭环检测的实时性。
附图说明
图1是本发明的整体流程示意图
图2是基于VGG16与VLAD的网络模型示意图
图3(a)是本方法与其他闭环检测方法在New College left数据集上的准确率召回率曲线对比图
图3(b)是本方法与其他闭环检测方法在在New College right数据集上的准确率召回率曲线对比图
图4(a)本方法与其他闭环检测方法在在City Center left数据集上的准确率召回率曲线对比图
图4(b)是本方法与其他闭环检测方法在在City Centerright数据集上的准确率召回率曲线对比图
具体实施方式
下面对本发明的实施例作详细说明,本实施例在本发明技术方案为前提下进行实施,给出了详细的实施方式和具体的操作过程,但本发明的保护范围不限于下述的实施例。
实施例:
具体实施过程如图1所示:
第一步,构建融合VGG16与VLAD的网络模型。图2为构建好的网络模型示意图。网络分为VGG16部分结构和NetVLAD池化层两个部分,第一个部分去掉了VGG16最后一个卷积层conv5_3之后的池化层和全连接层,包括RELU激活函数。NetVLAD作为网络的最后一层,可被分解为几个基本的CNN层,并连接形成一个有向无环图。其中soft-assignment过程可以分为两个步骤:1)将最后一个卷积层输出的特征{xi}通过一个含有K个1×1卷积核的卷积层,得到输出:2)然后将sk(xi)通过soft-max函数得到得到矩阵V后,需将V中每一列D维向量进行L2归一化,并将矩阵V转换成向量,再对向量整体进行一次L2归一化,最后输出的特征向量维度为K×D。
第二步,训练网络模型的参数。训练采用的是地点识别数据集,数据集中的图片为为全景图,每个全景图由一组不同方向的透视图组成,每个透视图只有代表其在地图上大致位置的GPS标签,属于弱监督信息。针对这一问题,采用弱监督排序损失函数,实现当给定一个查询图像q时,能在数据集所有图像Ii中找到与q位置距离最近的图像Ii*。
第三步,先将图像大小调整为224*224像素,并减去RGB通道的均值数据。然后将图片输入到已在数据集上训练好的网络模型中,提取NetVLAD层输出的特征。闭环检测实验在New College和City Center两个数据集上进行,数据集中的图片是由左右两个相机同时拍摄得到的,但属于同一地点的两个图像内容完全不同。为了更好的进行闭环检测,将两个数据集各自进行归类,把数据集中左相机采集的图像和右相机采集的图像分为两部分,分别进行4组闭环检测实验
第四步,计算图像间相似性得分。根据步骤三得到的特征向量,采用余弦距离计算图像间的相似性得分。两张图像越相似,得分越接近1。
第五步,统计所有图像间的相似性得分,构建相似性矩阵。矩阵中第i行第j列的值代表图像Ii与图像Ij的相似性得分。
第六步,设定阈值,检测是否发生闭环。在进行检测时,由于输入的图像是由相机在连续时间内拍摄的,因此相邻图像的内容重复性很高,容易被检测成同一位置,但实际的运动轨迹并未形成闭环。为了避免产生大量的错误结果,本方法考虑了图像相似度对比的时间阈值,对于当前图像,不考虑与其拍摄的间隔时间小于阈值的图像进行比较。由于难以获取每个图像具体的拍摄时间,所以采取设定图像比较范围的方式,假设当前检测的图像为It,在时间阈值内与It相邻的图像数量为d,则图像It的相似性比较范围为第一帧至第t-d帧。
实施效果
为了验证本发明的准确性,在New College left、New College right、CityCenterleft和City Center right四个数据集上分别进行实验,输出了准确率召回率曲线。图3(a)、图3(b)为New College left、New College right两个数据集上的曲线对比图。图4(a)、图4(b)为City Center left、City Center right两个数据集上的曲线对比图。从图中可以看出,在四组实验中本方法的准确性均高于传统的词袋模型和其他三种深度学习方法,在保证高召回率的情况下提升了准确率,有助于移动机器人在导航中构建全局一致的运动轨迹和地图。
Claims (7)
1.一种基于卷积神经网络与VLAD的视觉SLAM闭环检测方法,其特征在于,包括以下步骤:
第一步、构建融合VGG16和VLAD的网络模型VGG-NetVLAD:对VGG16进行剪裁,然后在最后一层加入池化层NetVLAD;
第二步、利用大型数据集训练网络模型得到最优参数;
第三步、将待查询图像和待匹配图像进行预处理,然后输入到网络中,提取NetVLAD层输出的特征作为图像的表达;
第四步、对第三步得到的特征向量,采用余弦距离作为衡量两幅图像相似性的标准,计算相似度得分;
第五步、重复第三步、第四步,计算所有图像间的相似度,构建最终的相似性矩阵;
第六步、通过设定阈值判断相似性矩阵中何处产生了闭环,并输出闭环检测的准确率召回率曲线。
2.根据权利要求1所述的基于卷积神经网络与VLAD的视觉SLAM闭环检测方法,其特征在于,第一步中:
对VGG16网络进行了裁剪,去掉了最后一个卷积层conv5_3之后的池化层和全连接层,包括RELU激活函数,并将NetVLAD层连接到卷积层conv5_3之后,作为新的池化层;NetVLAD层将VLAD的思想引入到了卷积神经网络中;VLAD是一种常用于实例检索和图像分类的描述方法,可以捕获局部特征在图像中聚合的统计信息,储存了每个单词与其对应聚类中心的残差和;若VLAD的输入为单幅图像的N个D维特征向量{xi},参数为K个聚类中心Ck,则输出为一个K×D维的特征向量,将其写成矩阵的形式,记做V,计算公式如下:
其中xi(j)和Ck(j)分别代表第i个特征向量和第k个聚类中心的第j个元素,ak(xi)表示第i个特征向量对应第k个聚类中心的权重,当该特征属于这个聚类中心时,权重为1,否则为0;由于VLAD是一个离散函数,无法通过反向传播,所以NetVLAD层采用了一种近似的方式,将ak(xi)软分配到多个聚类中心,使其可微:
其中wk'=2αck,bk=-α||ck||2,α是一个正常数,控制响应随距离大小的衰减;最终NetVLAD层输出的特征向量为:
3.根据权利要求1所述的基于卷积神经网络与VLAD的视觉SLAM闭环检测方法,其特征在于,第二步中:
采用地点识别数据集训练构建的网络模型,获得最优参数;数据集中图片为为全景图,每个全景图由一组不同方向的透视图组成,每个透视图只有代表其在地图上大致位置的GPS标签,属于弱监督信息,导致两个地理位置很近的查询图像不一定描述了相同的场景,因为它们可能处于不同的拍摄方向;训练目标为:给定一个查询图像q,要在数据集所有图像Ii中找到与q位置距离最近的图像Ii*;数据集根据GPS信息将与其距离相近(10米以内)的图像作为正样本集合距离很远(超过25米)的图像作为负样本集合构建一个新的三元组数据集在三元组中,正样本中至少包含一幅能与查询图像匹配的图像;训练每一个三元组时,要学习一种最优的图像表示方法fθ使得查询图像q与最佳匹配图像的距离小于查询图像q与任何一个负样本图像的距离:
针对上述弱监督训练的问题,采用了排序损失函数:
其中l为hinge loss函数:l(x)=max(x,0),m为附加常数;Lθ代表所有负样本图像的损失之和,对于每一个负样本图像,当其与查询图像的距离大于查询与最佳匹配图像的距离与m之和,则损失为0,否则其损失值与m成正比;通过采用随机梯度下降法对参数进行优化,使网络可提取最优的图像表达。
4.根据权利要求1所述的基于卷积神经网络与VLAD的视觉SLAM闭环检测方法,其特征在于,第三步中:
先将图片大小调整为224*224像素,并减去RGB通道的均值数据;然后将图片输入到已在数据集上训练好的网络模型中,提取NetVLAD层的输出作为图像的特征表达。
6.根据权利要求1所述的基于卷积神经网络与VLAD的视觉SLAM闭环检测方法,其特征在于,第五步中:
将第四步中得到的每一个相似性得分储存起来,直至比较完所有图像间的相似性;通过统计所有图像间的相似性得分构建相似性矩阵,矩阵中第i行第j列的值代表图像Ii与图像Ij的相似性得分。
7.根据权利要求1所述的基于卷积神经网络与VLAD的视觉SLAM闭环检测方法,其特征在于,第六步中:
设定相似性阈值,当图像间的相似性得分超过阈值时,认为两图像为同一地点,产生了闭环,否则就判定不是闭环;根据不同的阈值大小,输出闭环检测的准确率召回率曲线。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910996478.7A CN110781790A (zh) | 2019-10-19 | 2019-10-19 | 基于卷积神经网络与vlad的视觉slam闭环检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910996478.7A CN110781790A (zh) | 2019-10-19 | 2019-10-19 | 基于卷积神经网络与vlad的视觉slam闭环检测方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN110781790A true CN110781790A (zh) | 2020-02-11 |
Family
ID=69386022
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910996478.7A Pending CN110781790A (zh) | 2019-10-19 | 2019-10-19 | 基于卷积神经网络与vlad的视觉slam闭环检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110781790A (zh) |
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111504331A (zh) * | 2020-04-29 | 2020-08-07 | 杭州环峻科技有限公司 | 一种由粗到细的全景智能车辆定位方法和装置 |
CN111553193A (zh) * | 2020-04-01 | 2020-08-18 | 东南大学 | 一种基于轻量级深层神经网络的视觉slam闭环检测方法 |
CN111582447A (zh) * | 2020-04-30 | 2020-08-25 | 电子科技大学 | 基于多种网络特征的闭环检测方法 |
CN111627065A (zh) * | 2020-05-15 | 2020-09-04 | Oppo广东移动通信有限公司 | 一种视觉定位方法及装置、存储介质 |
CN112380371A (zh) * | 2020-11-27 | 2021-02-19 | 广东电网有限责任公司肇庆供电局 | 一种基于局部和卷积神经网络特征的闭环检测方法 |
CN112464989A (zh) * | 2020-11-02 | 2021-03-09 | 北京科技大学 | 一种基于目标检测网络的闭环检测方法 |
CN112699954A (zh) * | 2021-01-08 | 2021-04-23 | 北京工业大学 | 一种基于深度学习和词袋模型的闭环检测方法 |
CN112766305A (zh) * | 2020-12-25 | 2021-05-07 | 电子科技大学 | 一种基于端到端度量网络的视觉slam闭环检测方法 |
CN112797976A (zh) * | 2021-01-18 | 2021-05-14 | 上海钛米机器人股份有限公司 | 定位检测方法、装置、计算机设备以及可读存储介质 |
CN113033555A (zh) * | 2021-03-25 | 2021-06-25 | 天津大学 | 基于度量学习的视觉slam闭环检测方法 |
CN113628104A (zh) * | 2021-08-30 | 2021-11-09 | 中国人民解放军国防科技大学 | 针对无序图像增量式SfM的初始图像对选取方法 |
CN114694013A (zh) * | 2022-04-11 | 2022-07-01 | 北京理工大学 | 一种分布式多机协同视觉slam方法与系统 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107330357A (zh) * | 2017-05-18 | 2017-11-07 | 东北大学 | 基于深度神经网络的视觉slam闭环检测方法 |
CN109800692A (zh) * | 2019-01-07 | 2019-05-24 | 重庆邮电大学 | 一种基于预训练卷积神经网络的视觉slam回环检测方法 |
CN110222218A (zh) * | 2019-04-18 | 2019-09-10 | 杭州电子科技大学 | 基于多尺度NetVLAD和深度哈希的图像检索方法 |
-
2019
- 2019-10-19 CN CN201910996478.7A patent/CN110781790A/zh active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107330357A (zh) * | 2017-05-18 | 2017-11-07 | 东北大学 | 基于深度神经网络的视觉slam闭环检测方法 |
CN109800692A (zh) * | 2019-01-07 | 2019-05-24 | 重庆邮电大学 | 一种基于预训练卷积神经网络的视觉slam回环检测方法 |
CN110222218A (zh) * | 2019-04-18 | 2019-09-10 | 杭州电子科技大学 | 基于多尺度NetVLAD和深度哈希的图像检索方法 |
Cited By (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111553193A (zh) * | 2020-04-01 | 2020-08-18 | 东南大学 | 一种基于轻量级深层神经网络的视觉slam闭环检测方法 |
CN111504331A (zh) * | 2020-04-29 | 2020-08-07 | 杭州环峻科技有限公司 | 一种由粗到细的全景智能车辆定位方法和装置 |
CN111582447A (zh) * | 2020-04-30 | 2020-08-25 | 电子科技大学 | 基于多种网络特征的闭环检测方法 |
CN111627065B (zh) * | 2020-05-15 | 2023-06-20 | Oppo广东移动通信有限公司 | 一种视觉定位方法及装置、存储介质 |
CN111627065A (zh) * | 2020-05-15 | 2020-09-04 | Oppo广东移动通信有限公司 | 一种视觉定位方法及装置、存储介质 |
CN112464989A (zh) * | 2020-11-02 | 2021-03-09 | 北京科技大学 | 一种基于目标检测网络的闭环检测方法 |
CN112464989B (zh) * | 2020-11-02 | 2024-02-20 | 北京科技大学 | 一种基于目标检测网络的闭环检测方法 |
CN112380371A (zh) * | 2020-11-27 | 2021-02-19 | 广东电网有限责任公司肇庆供电局 | 一种基于局部和卷积神经网络特征的闭环检测方法 |
CN112766305A (zh) * | 2020-12-25 | 2021-05-07 | 电子科技大学 | 一种基于端到端度量网络的视觉slam闭环检测方法 |
CN112766305B (zh) * | 2020-12-25 | 2022-04-22 | 电子科技大学 | 一种基于端到端度量网络的视觉slam闭环检测方法 |
CN112699954A (zh) * | 2021-01-08 | 2021-04-23 | 北京工业大学 | 一种基于深度学习和词袋模型的闭环检测方法 |
CN112699954B (zh) * | 2021-01-08 | 2024-04-16 | 北京工业大学 | 一种基于深度学习和词袋模型的闭环检测方法 |
CN112797976A (zh) * | 2021-01-18 | 2021-05-14 | 上海钛米机器人股份有限公司 | 定位检测方法、装置、计算机设备以及可读存储介质 |
CN113033555B (zh) * | 2021-03-25 | 2022-12-23 | 天津大学 | 基于度量学习的视觉slam闭环检测方法 |
CN113033555A (zh) * | 2021-03-25 | 2021-06-25 | 天津大学 | 基于度量学习的视觉slam闭环检测方法 |
CN113628104A (zh) * | 2021-08-30 | 2021-11-09 | 中国人民解放军国防科技大学 | 针对无序图像增量式SfM的初始图像对选取方法 |
CN114694013B (zh) * | 2022-04-11 | 2022-11-15 | 北京理工大学 | 一种分布式多机协同视觉slam方法与系统 |
CN114694013A (zh) * | 2022-04-11 | 2022-07-01 | 北京理工大学 | 一种分布式多机协同视觉slam方法与系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110781790A (zh) | 基于卷积神经网络与vlad的视觉slam闭环检测方法 | |
CN111127513B (zh) | 一种多目标跟踪方法 | |
CN110717411A (zh) | 一种基于深层特征融合的行人重识别方法 | |
CN108921107B (zh) | 基于排序损失和Siamese网络的行人再识别方法 | |
CN111460968B (zh) | 基于视频的无人机识别与跟踪方法及装置 | |
CN110209859B (zh) | 地点识别及其模型训练的方法和装置以及电子设备 | |
CN109800692B (zh) | 一种基于预训练卷积神经网络的视觉slam回环检测方法 | |
CN111126360A (zh) | 基于无监督联合多损失模型的跨域行人重识别方法 | |
CN109816689A (zh) | 一种多层卷积特征自适应融合的运动目标跟踪方法 | |
CN109800624A (zh) | 一种基于行人重识别的多目标跟踪方法 | |
CN109190561B (zh) | 一种视频播放中的人脸识别方法及系统 | |
CN110765906A (zh) | 一种基于关键点的行人检测算法 | |
CN110781262A (zh) | 基于视觉slam的语义地图的构建方法 | |
CN108549866B (zh) | 基于密集卷积神经网络的遥感飞机识别方法 | |
CN110728216A (zh) | 一种基于行人属性自适应学习的无监督行人再识别方法 | |
CN109711245B (zh) | 一种基于图像候选区域的闭环检测方法 | |
CN111860297A (zh) | 一种应用于室内固定空间的slam回环检测方法 | |
CN110968711B (zh) | 一种基于序列图像特征的自主无人系统位置识别定位方法 | |
CN110969648A (zh) | 一种基于点云序列数据的3d目标跟踪方法及系统 | |
CN110533661A (zh) | 基于图像特征级联的自适应实时闭环检测方法 | |
CN112465854A (zh) | 基于无锚点检测算法的无人机跟踪方法 | |
CN112084895A (zh) | 一种基于深度学习的行人重识别方法 | |
CN116363694A (zh) | 一种多元信息匹配的无人系统跨摄像头多目标跟踪方法 | |
CN111105436B (zh) | 目标跟踪方法、计算机设备及存储介质 | |
CN114861761A (zh) | 一种基于孪生网络特征与几何验证的回环检测方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WD01 | Invention patent application deemed withdrawn after publication |
Application publication date: 20200211 |