CN107886129A - 一种基于视觉词袋的移动机器人地图闭环检测方法 - Google Patents
一种基于视觉词袋的移动机器人地图闭环检测方法 Download PDFInfo
- Publication number
- CN107886129A CN107886129A CN201711116211.1A CN201711116211A CN107886129A CN 107886129 A CN107886129 A CN 107886129A CN 201711116211 A CN201711116211 A CN 201711116211A CN 107886129 A CN107886129 A CN 107886129A
- Authority
- CN
- China
- Prior art keywords
- image
- key frame
- closed
- frame
- key
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/28—Determining representative reference patterns, e.g. by averaging or distorting; Generating dictionaries
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/23—Clustering techniques
- G06F18/232—Non-hierarchical techniques
- G06F18/2321—Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
- G06F18/23213—Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions with fixed number of clusters, e.g. K-means clustering
Landscapes
- Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Probability & Statistics with Applications (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于视觉词袋的移动机器人地图闭环检测方法,该方法提出基于视觉字典的图像相似性检测算法,并将该算法作为闭环检测的前端,即通过图像相似性检测可判断候选闭环节点,然后采用时间约束和空间位置验证的方法进一步确定闭环节点;经过大量实验证明,本发明提出的闭环检测方法能够对各种不同的闭环进行准确的检测,且算法计算速度快,可适应SLAM对闭环检测部分较高的实时性要求。
Description
技术领域
本发明属于地图创建领域,特别涉及一种基于视觉词袋的移动机器人地图闭环检测方法。
背景技术
在同步定位与地图创建SLAM中,闭环检测是指根据传感器获得的信息判断当前时刻机器人是否处在之前访问过的某个区域,或者说机器人当前所处的位置是否在已经创建的地图中有了相应的描述。在基于图优化的SLAM方法中,闭环检测是非常关键的一个环节,正确的闭环检测有助于修正里程计误差,从而得到误差小、全局信息一致的地图,但错误的闭环检测反而会加大误差甚至会毁坏整个地图。
闭环检测不仅是未知环境中地图创建的一个重点,同时也是一个难点,主要体现在如下几个方面:
(1)SLAM一般运行在相似的场景中,而相似的场景不一定来自于同一场景,即产生了感知歧义,这种情况最终会导致错误的闭环检测结果。
(2)在进行闭环检测时,需要将当前观测数据与已处理且存储的信息作比较,从而确定它们是否处于相同场景下,而需要处理和存储的数据随着SLAM系统运行时间的增长而加大,因此,数据规模大也是闭环检测面临的一个难点问题。
(3)图优化的前提是建立完整的闭环约束,对闭环进行优化后可以减小累积误差,但是错误的闭环结果对最终的计算精度会产生很大影响,严重时甚至导致整个地图严重失真,由此可见,判断闭环检测准确性显得尤为重要。一般地,评价闭环检测方法的一个重要指标是准确率-召回率曲线,其中,准确性描述了正确检测出来的闭环数占总的检测个数的百分比;而召回率则描述了正确检测出来的闭环数占真实闭环数的百分比。实际上,SLAM要求闭环检测的正确率达到接近100%,同时具有较高的召回率,这样才能通过闭环约束对运动轨迹进行有效地矫正。
发明内容
本发明针对现有的SLAM对闭环检测较高的实时性要求,提出了一种基于视觉词袋的移动机器人地图闭环检测方法,通过图像相似性检测判断候选闭环节点,采用时间约束和空间位置验证的方法进一步确定闭环节点,能够对各种不同的闭环进行准确的检测,且算法计算速度快。
一种基于视觉词袋的移动机器人地图闭环检测方法,包括以下步骤:
步骤1:利用场景中的多幅图像中的ORB特征点,构建场景图像视觉字典模型;
步骤2:在移动机器人前进过程中,通过自身的摄像头实时采集当前场景图像序列;
步骤3:利用场景图像视觉字典模型,依次提取当前场景图像序列中每一帧图像对应的字典向量;
步骤4:基于字典向量间的相似性以及图像的相对运动估计,提取当前场景图像序列中的关键帧,并将提取关键帧按提取顺序进行存储;
若当前待判断图像满足以下公式,则判定为关键帧:
S≤Skf∪R≥Rkf∪T≥Tkf
其中,S、R、t依次表示当前待判断图像与上一次获得的关键帧图像之间的视觉字典相似性、旋转分量、平移分量,Skf表示第一相似性阈值,Rkf表示旋转分量阈值,Tkf表示平移分量阈值;
以第一帧待判断图像作为第一帧关键帧;
步骤5:基于最新提取的关键帧和关键帧存储序列中的关键帧,进行闭环检测;
步骤5.1:以关键帧存储序列中未被选取的第一帧关键帧作为待比较关键帧Ik;
步骤5.2:将最新提取关键帧It与待比较关键帧的时间间隔进行判断,若t-k≥εt,则进入步骤5.3,否则,判断所有关键帧是否被选取完,若是,则返回步骤4,否则,选取关键帧存储序列中未被选取的下一帧关键帧作为待比较关键帧,重复步骤5.2;
步骤5.3:若则最新提取关键帧It作为候选闭环节点,同时进入步骤5.4,否则,选取关键帧存储序列中未被选取的下一帧关键帧作为待比较关键帧,重复步骤5.2;
表示It和Ik对应的视觉向量的相似性;
步骤5.4:若It和Ik之间的相对运动估计Tt,k对应的欧氏距离Dt,k不大于设定的距离阈值εd,则It和Ik形成闭环,否则,选取关键帧存储序列中未被选取的下一帧关键帧作为待比较关键帧,重复步骤5.2,直到关键帧存储序列中所有关键帧均被选取完毕,进入步骤3,对场景图像序列帧下一帧图像是否为关键真的判断;
其中,εt表示时间间隔阈值,εS表示第二相似性阈值,εd表示距离阈值。
进一步地,所述场景图像视觉字典模型的构建过程如下:
步骤A:设定字典树的分支因子k和树的层数L,kL大于f﹒m;
其中,f为构建视觉词典的图像帧数和m为单幅图像中包含的最大的ORB特征点数量;
步骤B:对所有图像序列的ORB特征点集进行K均值聚类,得到分成k个分支,然后对每个分支再进行递归的K均值聚类,直到达到L层,进入步骤C;
步骤C:将每个分支的聚类中心作为字典树的节点,提取叶子节点并将其组合为向量,该向量即为视觉字典。
进一步地,所述K均值聚类中使用的聚类中心采用以下步骤获得:
1)从用于构建视觉字典的所有图像对应的ORB特征点数据集中随机选取某个点作为种子点;
2)对于数据样本中的每个点x,计算它与最近聚类中心之间的距离D(x);
3)随机选取一个新的点作为聚类中心,样本中某点被选取作为聚类中心的概率正比于D(x)2;
4)重复步骤2)与步骤3)直到k个聚类中心被选取出来。
进一步地,所述图像的视觉字典向量为:
W(I)=[ω1(I),ω2(I),…,ωC(I)]
其中,wi表示图像I在视觉字典第i个叶子节点对应单词处的得分,C表示图像中单词总量;Ci表示在图像I中第i个叶子节点对应单词出现的次数;N为参与训练的图片总量;Ni表示在N中具有第i个叶子节点对应单词的图像总数。
进一步地,所述两幅图像对应的视觉字典向量间的相似性按照以下公式计算:
其中,vi和vj分别表示两幅图像对应的视觉字典向量。
有益效果
本发明提供了一种基于视觉词袋的移动机器人地图闭环检测方法,该方法提出基于视觉字典的图像相似性检测算法,并将该算法作为闭环检测的前端,即通过图像相似性检测可判断候选闭环节点,然后采用时间约束和空间位置验证的方法进一步确定闭环节点;经过大量实验证明,本发明提出的闭环检测方法能够对各种不同的闭环进行准确的检测,且算法计算速度快,可适应SLAM对闭环检测部分较高的实时性要求。
附图说明
图1为图像视觉字典的表示方法图;
图2为视觉字典的生成过程示意图;
图3为图像与视觉间所对应的逆向数据库示意图;
图4为空间位置的验证方法示意图;
图5为图像间相似性验证示意图,
图6为场景中单闭环路径以及多闭环路径进行闭环检测的两条路径对应的真实轨迹;
图7为闭环检测的准确率和召回率曲线;
图8为单闭环路径对应的闭环检测结果;
图9多闭环路径对应的闭环检测结果。
具体实施方式
下面将结合附图和实施例对本发明做进一步的说明
一种基于视觉词袋的移动机器人地图闭环检测方法,包括以下步骤:
步骤1:视觉字典模型的建立;
如图1所示,首先采用离线训练的方式对场景中多幅图像提取ORB特征点,然后训练成树状的视觉字典,而在SLAM运行过程中会实时地检测闭环,获得机器人当前观测到的图像后,通过查询已建立的视觉字典来获取对应的字典向量,该字典向量即对应了该图像所在位置处的场景描述。
在图像特征的分层量化过程中,词汇的生成是在对特征的分层K-Means聚类的基础上而建立的,如图2所示,视觉字典树生成过程主要包括图像特征提取、分层K均值聚类、字典生成三个过程。在图像特征提取方面,由于本发明选择ORB算子则作为特征提取算法,并且使用BRIEF作为特征描述算子,计算高效是其最大的优势,其优势从运动估计求解过程直接延续到闭环检测环节;特征的分层量化是指对待训练的特征集进行循环的K均值聚类,从而生成树状的数据存储结构。该环节执行过程如下:
(1)首先定义字典树的分支因子k和树的层数L。
(2)对原始特征集进行一次K均值聚类,从而将特征集分成k个分支,然后对每个分支再进行递归的K均值聚类,直到达到L层为止。
(3)将每个分支的聚类中心作为树的节点,最终提取叶子节点并将其组合为向量,该向量即为视觉字典。
由此可知,字典树节点个数的总数为(kL+1-k)/(k-1)个,而视觉单词个数(即叶子结点)为kL,因此具有一个若干层和若干分支的树能够轻易地产生上万个视觉单词,同样的计算复杂度,该方式对图像的表征能力远大于线性结构的模型,并且图像特征在查询视觉字典时,通过树形结构的搜索,每层只需执行k次线性比较,这种最近邻搜索方式明显优于平面字典结构的纯线性的搜索方式。因而该视觉字典树模型在视觉单词的表征能力和计算效率方面具有明显优势。
传统的K-Means算法存在两个明显的缺陷:
1)需要预先指定K值(即聚类中心的个数)但实际上数据集在处理之前很难确定应该分成几类;2)种子点是随机选取的,而初始点选择的不同对最终的聚类结果有很大影响;这两个缺陷有可能造成最终的聚类结果与数据的实际分布有很大差距。对于图像局部特征的聚类而言,在K值较小时,第一种缺陷对最终结果并无太大影响,而第二种缺陷会产生明显影响,为了解决这种情况带来的影响,本发明所述方法选择K-Means++算法替代传统的K-Means算法,该算法执行过程如下:
1)从数据集中随机选取某个点作为种子点;
2)对于数据样本中的每个点x,计算它与最近聚类中心之间的距离D(x);
3)随机选取一个新的点作为聚类中心,样本中某点被选取作为聚类中心的概率正比于D(x)2;
4)重复步骤2)与步骤3)直到k个聚类中心被选取出来;
5)利用以上步骤选取的k个聚类中心执行标准的K-Means算法。
步骤2:关键帧提取;
本发明对获取的所有图像进行关键帧提取,使用关键帧表示场景信息。场景中某一区域可以用一帧图像表示,那么该帧可称为该区域的关键帧。
由此可见,关键帧与该区域中其它帧应该具有较多的相似性特征;相反,不同关键帧之间存在较少的相似性特征。
本发明采用基于视觉字典的相似性检测方法外加旋转、平移量信息来提取关键帧,即当前图像与前一帧关键帧之间满足以下任何一项则认为是关键帧:
1)相对运动估计中平移分量T达到设定的阈值;
2)相对运动估计中旋转分量R达到设定的阈值;
3)两幅图像间的相似性得分S小于设定的阈值;其数学描述如下:
S≤Skf∪R≥Rkf∪T≥Tkf
其中,Skf、Rkf、Tkf分别表示判断关键帧时设定的阈值。
基于字典模型的图像相似性度量是建立视觉字典后,为了求解图像间的相似性,对照视觉字典对图像进行查询,即对图像进行深度最近邻搜索,为每个特征寻找与之最近的单词,最终形成图像对应的视觉字典向量,最后采用相似性得分准则确定图像间的相似性。
本发明采用TF-IDF熵作为图像在该视觉单词处的得分权重。设图像I在视觉字典第i个叶子结点对应单词处的得分为:
其中,C表示图像中单词总量;Ci表示在图像I中第i个叶子节点对应单词出现的次数;N为参与训练的图片总量;Ni表示在N中具有第i个叶子节点对应单词的图像总数。则图像I在视觉字典中的得分向量(即对应的字典向量)为:
W(I)=[ω1(I),ω2(I),…,ωC(I)]
由此可知,某个单词在训练数据集中出现次数越少,它所对应的得分权重越大,同时说明该单词的表征能力越强。
在检测闭环时,获取当前帧的视觉字典向量后,就可以与之前已获取的观测信息所对应的字典向量进行比较,以求出它们之间的相似性。假设当前帧所对应的字典向量为vi,场景中已获取的某帧图像所对应的字典向量为vj,图像间的相似性度量标准如下:
由上式可知,图像间的相似性η(vi,vj)∈[0,1],其值为1则表示两幅图像完全一样,其为0时表示两幅图像完全没有共同特征。
当从图像数据库中查询与当前图像相似的图像时,不同图像以及视觉字典向量中视觉单词分布的不同将会使得相似性得分的差别很大,为了在查询相似图像时使相似性得分更加规范化,图像间的相似性度量标准可改为如下形式:
其中,vi、vi-1以及vj分别为数据库中第i、i-1以及j时刻获取的图像所对应的视觉字典向量。在图像数据库中,第i时刻获取的图像与第i-1时刻(i时刻的前一时刻)获取的图像之间具有最高的相似性,将之作为基准值,将使得所有图像在一个共同的标准下进行相似性度量,因而使得相似性得分具有参考意义。
由于SLAM要求系统能够实时检测闭环,因此在查询相似图像时,对数据查询效率要求的很高。鉴于此,这里对于所有已获取的图像在求取视觉向量后为之建立逆向索引数据库,以方便快速地进行数据查询,其结构如图3所示。
步骤3:获取当前图像帧Ic,查询视觉字典并求取其对应的视觉字典向量Vt,检测当前帧与已访问过的前一关键帧Ip之间的相似性若大于阈值Skf,或当前帧与上一关键帧之间的旋转量R和平移量T中某一个大于阈值,即S≤Skf∪R≥Rkf∪T≥Tkf,则将该帧图像设为关键帧It,否则转到下一帧继续判断。
(2)对于已访问过的关键帧{I1,I2…It-1},取其中某帧Ik,当Ik与当前关键帧It之间获取的时间间隔大于阈值εt时,即t-k≥εt,则执行后续操作,否则继续按顺序从{I1,I2…It-1}中取关键帧进行时间约束的验证,当所有关键帧都比较完时转到步骤(1)。
(3)将符合时间约束的关键帧Ik与当前关键帧It进行相似性比较,若相似性得分大于阈值εS,则将该关键帧作为候选闭环节点,否则转到步骤(2)。
(4)对于候选闭环节点,需要求取它与当前关键帧之间的相对运动估计Tt,k,当两帧间的欧式距离Dt,k小于闭环约束所要求的距离阈值εd时,即可确定该候选关键帧与当前关键帧之间形成闭环<It,Ik>,否则转到步骤(2)。
时间约束验证:
本发明在闭环检测过程中,设置一定的时间间隔限制,使得当前关键帧只跟那些与其获取时间具有一定时间间隔的关键帧进行闭环检测,设当前关键帧对应的获取时间为tc,之前的某个关键帧的获取时间为tp,则仅当tc-tp≥εt时,才对这两幅图像执行后续闭环检测流程(相似性检测和空间距离验证)。
空间距离验证:
本发明首先对提取的关键帧采用基于视觉词典方法求取相似性图像,将这些图像作为候选闭环节点,然后采用两幅图像间的空间位置关系作进一步验证,最终判断候选节点是否能够形成闭环。当确定当前关键帧It与之前已访问过的某个关键帧Ik为相似帧时,求解这两幅图像间的相对运动估计Tt,k,当且仅当两个节点间的距离在一定范围内时才确定为闭环节点,即Dt,k≤εd,其中εd为设定的距离阈值,如图4所示。
本发明采用某除冰实验场景作为实验场景,对提出的闭环检测方案进行验证。首先在离线的情况下对在该场景采集到的443帧图片进行训练形成视觉字典,其中字典树的分支因子k取3,层数L取8,然后分别对基于视觉字典模型的图像相似性检测以及上文所述的闭环检测方案进行实验验证。
图像相似性验证:
取实验场景中6帧连续的图像以及另外1帧来源于其他场景的图像进行相似性验证,其中图像间的相似性用表示,其中i∈{2,3,4,5,6,7},分别表示第一帧与其他帧之间的相似性,结果如图5所示;
从上面结果可以直观看出图像间的相似性随着图像间的重叠度的减少而减小,由此可见,视觉字典向量可以有效的对图像进行描述;另外,对比图①和图⑥可知,在图像间几乎无重叠区的情况下,仍然计算出了一定的相似性值;而对比图①和图⑦可知,这两幅完全不同的图像之间的相似性几乎为0,由此可见相同场景中的不同位置处的图像有时会存在一定的感知歧义,因此单纯采用基于外观相似的方式检测闭环是不可靠的。
闭环检测效果验证:
本发明闭环检测方案中需要设定多个重要的参数,其中关键帧选取过程中的参数可以根据实际需要进行设定,且对阈值选取的要求并不是十分严格,可根据计算机的处理速度的和存储量大小进行合理选择。但对于闭环检测中相似性阈值的选取而言就显得至关重要了,不同阈值会对后续优化结果产生很大的影响,因此,首先分别对场景中单闭环路径以及多闭环路径采用不同的相似性阈值进行闭环检测,以选取最佳的相似性阈值α。两条路径下所使用的采样频率约为30HZ,单闭环路径下共采集到320帧图片,多闭环路径下采集到430帧图片。这两条路径的真实轨迹如图6所示,将闭环检测结果与真实轨迹对比,可以得出闭环检测的正确率与召回率。实验中设定的时间间隔约束为10s,根据运动估计算法的实际性能将距离约束设定为0.3m,当相似性阈值α∈[0.5,0.8]时,检测结果所对应的准确率和召回率曲线如图7所示。由图7可知,综合单闭环和多闭环路径下闭环检测的结果,当二者的闭环检测的准确率均保持在100%时,可达到的最大召回率为62%,此时对应的相似性阈值α为6.5。正确的闭环有助于减小累积误差,而错误的闭环有可能会破坏整个位姿图,因此本发明将优先考虑闭环检测的准确性,即保持正确率为100%的情况下使召回率达到最高,本实验将该场景中的相似性阈值设为0.65,其闭环检测后对应的轨迹分别如图8和图9所示。图中“*”所示的点为关键帧所对应的位置。
现有的闭环检测的主要方法有基于距离的方法以及基于外观相似的方法等,为了对比本发明提出的闭环检测算法与这些常见算法的各项性能指标,分别就多单环场景下闭环检测的准确率、召回率以及闭环区域内的图像进行闭环检测所需的平均时间这三个指标进行对比,其中本发明提出的闭环检测算法所需时间包括生成字典向量、图像相似性检测以及几何验证几个部分所需时间之和,性能对比如表1所示。
表1各种闭环检测方法性能对比
综合上述实验结果可知,采用基于距离的方法具有较高的时间复杂度,不利于SLAM系统的实时运行;当采用外观相似的方法时,由于实验场景存在视觉混淆,从而具有一定的感知歧义,若不加以限制直接将该方法用于闭环检测将会产生错误的检测结果,而加入时间约束和空间位置验证后可以保证闭环检测的正确率达到100%;另一方面,本发明提出的闭环检测方法在保证结果正确率为100%的情况下仍然能获得较高的召回率(其中单闭环可达70%,多闭环可达62%),不仅能够对简单的闭环进行高效的检测,同时也能够保证在多闭环复杂系统中有效运行。
实验证明,本发明提出的算法能够对各种不同的闭环进行准确的检测,且算法计算速度快,可适应SLAM对闭环检测部分较高的实时性要求。
Claims (5)
1.一种基于视觉词袋的移动机器人地图闭环检测方法,其特征在于,包括以下步骤:
步骤1:利用场景中的多幅图像中的ORB特征点,构建场景图像视觉字典模型;
步骤2:在移动机器人前进过程中,通过自身的摄像头实时采集当前场景图像序列;
步骤3:利用场景图像视觉字典模型,依次提取当前场景图像序列中每一帧图像对应的字典向量;
步骤4:基于字典向量间的相似性以及图像的相对运动估计,提取当前场景图像序列中的关键帧,并将提取关键帧按提取顺序进行存储;
若当前待判断图像满足以下公式,则判定为关键帧:
S≤Skf∪R≥Rkf∪T≥Tkf
其中,S、R、T依次表示当前待判断图像与上一次获得的关键帧图像之间的视觉字典相似性、旋转分量、平移分量,Skf表示第一相似性阈值,Rkf表示旋转分量阈值,Tkf表示平移分量阈值;
以第一帧待判断图像作为第一帧关键帧;
步骤5:基于最新提取的关键帧和关键帧存储序列中的关键帧,进行闭环检测;
步骤5.1:以关键帧存储序列中未被选取的第一帧关键帧作为待比较关键帧Ik;
步骤5.2:将最新提取关键帧It与待比较关键帧的时间间隔进行判断,若t-k≥εt,则进入步骤5.3,否则,判断所有关键帧是否被选取完,若是,则返回步骤4,否则,选取关键帧存储序列中未被选取的下一帧关键帧作为待比较关键帧,重复步骤5.2;
步骤5.3:若则最新提取关键帧It作为候选闭环节点,同时进入步骤5.4,否则,选取关键帧存储序列中未被选取的下一帧关键帧作为待比较关键帧,重复步骤5.2;
表示It和Ik对应的视觉向量的相似性;
步骤5.4:若It和Ik之间的相对运动估计Tt,k对应的欧氏距离Dt,k不大于设定的距离阈值εd,则It和Ik形成闭环,否则,选取关键帧存储序列中未被选取的下一帧关键帧作为待比较关键帧,重复步骤5.2,直到关键帧存储序列中所有关键帧均被选取完毕,进入步骤3,对场景图像序列帧下一帧图像是否为关键真的判断;
其中,εt表示时间间隔阈值,εS表示第二相似性阈值,εd表示距离阈值。
2.根据权利要求1所述的方法,其特征在于,所述场景图像视觉字典模型的构建过程如下:
步骤A:设定字典树的分支因子k和树的层数L,kL大于f﹒m;
其中,f为构建视觉词典的图像帧数和m为单幅图像中包含的最大的ORB特征点数量;
步骤B:对所有图像序列的ORB特征点集进行K均值聚类,得到分成k个分支,然后对每个分支再进行递归的K均值聚类,直到达到L层,进入步骤C;
步骤C:将每个分支的聚类中心作为字典树的节点,提取叶子节点并将其组合为向量,该向量即为视觉字典。
3.根据权利要求2所述的方法,其特征在于,所述K均值聚类中使用的聚类中心采用以下步骤获得:
1)从用于构建视觉字典的所有图像对应的ORB特征点数据集中随机选取某个点作为种子点;
2)对于数据样本中的每个点x,计算它与最近聚类中心之间的距离D(x);
3)随机选取一个新的点作为聚类中心,样本中某点被选取作为聚类中心的概率正比于D(x)2;
4)重复步骤2)与步骤3)直到k个聚类中心被选取出来。
4.根据权利要求1-3任一项所述的方法,其特征在于,所述图像的视觉字典向量为:
W(I)=[ω1(I),ω2(I),…,ωC(I)]
<mrow>
<msub>
<mi>&omega;</mi>
<mi>i</mi>
</msub>
<mrow>
<mo>(</mo>
<mi>I</mi>
<mo>)</mo>
</mrow>
<mo>=</mo>
<mfrac>
<msub>
<mi>C</mi>
<mi>i</mi>
</msub>
<mi>C</mi>
</mfrac>
<mi>l</mi>
<mi>o</mi>
<mi>g</mi>
<mfrac>
<mi>N</mi>
<msub>
<mi>N</mi>
<mi>i</mi>
</msub>
</mfrac>
</mrow>
其中,wi表示图像I在视觉字典第i个叶子节点对应单词处的得分,C表示图像中单词总量;Ci表示在图像I中第i个叶子节点对应单词出现的次数;N为参与训练的图片总量;Ni表示在N中具有第i个叶子节点对应单词的图像总数。
5.根据权利要求4所述的方法,其特征在于,所述两幅图像对应的视觉字典向量间的相似性按照以下公式计算:
<mrow>
<mi>S</mi>
<mrow>
<mo>(</mo>
<msub>
<mi>v</mi>
<mi>i</mi>
</msub>
<mo>,</mo>
<msub>
<mi>v</mi>
<mi>j</mi>
</msub>
<mo>)</mo>
</mrow>
<mo>=</mo>
<mfrac>
<mrow>
<mi>&eta;</mi>
<mrow>
<mo>(</mo>
<msub>
<mi>v</mi>
<mi>i</mi>
</msub>
<mo>,</mo>
<msub>
<mi>v</mi>
<mi>j</mi>
</msub>
<mo>)</mo>
</mrow>
</mrow>
<mrow>
<mi>&eta;</mi>
<mrow>
<mo>(</mo>
<msub>
<mi>v</mi>
<mi>i</mi>
</msub>
<mo>,</mo>
<msub>
<mi>v</mi>
<mrow>
<mi>i</mi>
<mo>-</mo>
<mn>1</mn>
</mrow>
</msub>
<mo>)</mo>
</mrow>
</mrow>
</mfrac>
</mrow>
<mrow>
<mi>&eta;</mi>
<mrow>
<mo>(</mo>
<msub>
<mi>v</mi>
<mi>i</mi>
</msub>
<mo>,</mo>
<msub>
<mi>v</mi>
<mi>j</mi>
</msub>
<mo>)</mo>
</mrow>
<mo>=</mo>
<mn>1</mn>
<mo>-</mo>
<mfrac>
<mn>1</mn>
<mn>2</mn>
</mfrac>
<mo>|</mo>
<mrow>
<mfrac>
<msub>
<mi>v</mi>
<mi>i</mi>
</msub>
<mrow>
<mo>|</mo>
<msub>
<mi>v</mi>
<mi>i</mi>
</msub>
<mo>|</mo>
</mrow>
</mfrac>
<mo>-</mo>
<mfrac>
<msub>
<mi>v</mi>
<mi>j</mi>
</msub>
<mrow>
<mo>|</mo>
<msub>
<mi>v</mi>
<mi>j</mi>
</msub>
<mo>|</mo>
</mrow>
</mfrac>
</mrow>
<mo>|</mo>
</mrow>
其中,vi和vj分别表示两幅图像对应的视觉字典向量。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201711116211.1A CN107886129B (zh) | 2017-11-13 | 2017-11-13 | 一种基于视觉词袋的移动机器人地图闭环检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201711116211.1A CN107886129B (zh) | 2017-11-13 | 2017-11-13 | 一种基于视觉词袋的移动机器人地图闭环检测方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN107886129A true CN107886129A (zh) | 2018-04-06 |
CN107886129B CN107886129B (zh) | 2021-06-08 |
Family
ID=61776754
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201711116211.1A Active CN107886129B (zh) | 2017-11-13 | 2017-11-13 | 一种基于视觉词袋的移动机器人地图闭环检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN107886129B (zh) |
Cited By (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109272021A (zh) * | 2018-08-22 | 2019-01-25 | 广东工业大学 | 一种基于宽度学习的智能移动机器人导航方法 |
CN109447170A (zh) * | 2018-11-05 | 2019-03-08 | 贵州大学 | 移动机器人同步定位与地图构建系统的字典优化方法 |
CN109579844A (zh) * | 2018-12-04 | 2019-04-05 | 电子科技大学 | 定位方法及系统 |
CN109726675A (zh) * | 2018-12-28 | 2019-05-07 | 芜湖哈特机器人产业技术研究院有限公司 | 一种基于k中心算法的移动机器人slam闭环检测方法 |
CN109800692A (zh) * | 2019-01-07 | 2019-05-24 | 重庆邮电大学 | 一种基于预训练卷积神经网络的视觉slam回环检测方法 |
CN109886065A (zh) * | 2018-12-07 | 2019-06-14 | 武汉理工大学 | 一种在线增量式回环检测方法 |
CN110070578A (zh) * | 2019-03-15 | 2019-07-30 | 西安电子科技大学 | 一种回环检测方法 |
CN110390356A (zh) * | 2019-07-03 | 2019-10-29 | Oppo广东移动通信有限公司 | 视觉词典生成方法及装置、存储介质 |
CN110443263A (zh) * | 2018-05-02 | 2019-11-12 | 北京京东尚科信息技术有限公司 | 闭环检测方法和装置 |
CN110472585A (zh) * | 2019-08-16 | 2019-11-19 | 中南大学 | 一种基于惯导姿态轨迹信息辅助的vi-slam闭环检测方法 |
CN111787485A (zh) * | 2020-06-02 | 2020-10-16 | Oppo广东移动通信有限公司 | 一种电子围栏创建方法及装置、存储介质 |
CN111950597A (zh) * | 2020-07-15 | 2020-11-17 | 重庆邮电大学 | 机器人基于原图光照不变图词袋模型改进的闭环检测方法 |
CN113191435A (zh) * | 2021-05-07 | 2021-07-30 | 南京邮电大学 | 基于改进型的视觉词典树的图像闭环检测方法 |
CN116399326A (zh) * | 2023-04-06 | 2023-07-07 | 安徽工程大学 | 一种基于自适应关键帧选取的机器人地图构建方法、存储介质及设备 |
CN117409388A (zh) * | 2023-12-11 | 2024-01-16 | 天津中德应用技术大学 | 一种改进词袋模型的智能汽车视觉slam闭环检测方法 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20120194644A1 (en) * | 2011-01-31 | 2012-08-02 | Microsoft Corporation | Mobile Camera Localization Using Depth Maps |
CN105843223A (zh) * | 2016-03-23 | 2016-08-10 | 东南大学 | 一种基于空间词袋模型的移动机器人三维建图与避障方法 |
CN105856230A (zh) * | 2016-05-06 | 2016-08-17 | 简燕梅 | 一种可提高机器人位姿一致性的orb关键帧闭环检测slam方法 |
CN106846479A (zh) * | 2017-02-15 | 2017-06-13 | 山东大学 | 基于深度摄像头的隧道三维建模系统及方法 |
-
2017
- 2017-11-13 CN CN201711116211.1A patent/CN107886129B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20120194644A1 (en) * | 2011-01-31 | 2012-08-02 | Microsoft Corporation | Mobile Camera Localization Using Depth Maps |
CN105843223A (zh) * | 2016-03-23 | 2016-08-10 | 东南大学 | 一种基于空间词袋模型的移动机器人三维建图与避障方法 |
CN105856230A (zh) * | 2016-05-06 | 2016-08-17 | 简燕梅 | 一种可提高机器人位姿一致性的orb关键帧闭环检测slam方法 |
CN106846479A (zh) * | 2017-02-15 | 2017-06-13 | 山东大学 | 基于深度摄像头的隧道三维建模系统及方法 |
Non-Patent Citations (4)
Title |
---|
DAVIDE SCARAMUZZA等: ""Closing the loop in appearance-guided omnidirectional visual odometry by using vocabulary trees"", 《ROBOTICS AND AUTONOMOUS SYSTEMS》 * |
YANG LIU等: ""Indexing visual features: Real-time loop closure detection using a tree structure"", 《2012 IEEE INTERNATIONAL CONFERENCE ON ROBOTICS AND AUTOMATION》 * |
李博: ""基于场景外观建模的移动机器人视觉闭环检测研究"", 《中国博士学位论文全文数据库·信息科技辑》 * |
郑顺凯: ""自然环境中基于图优化的单目视觉SLAM的研究"", 《中国优秀硕士学位论文全文数据库·信息科技辑》 * |
Cited By (25)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110443263A (zh) * | 2018-05-02 | 2019-11-12 | 北京京东尚科信息技术有限公司 | 闭环检测方法和装置 |
CN109272021A (zh) * | 2018-08-22 | 2019-01-25 | 广东工业大学 | 一种基于宽度学习的智能移动机器人导航方法 |
CN109272021B (zh) * | 2018-08-22 | 2022-03-04 | 广东工业大学 | 一种基于宽度学习的智能移动机器人导航方法 |
CN109447170A (zh) * | 2018-11-05 | 2019-03-08 | 贵州大学 | 移动机器人同步定位与地图构建系统的字典优化方法 |
CN109579844A (zh) * | 2018-12-04 | 2019-04-05 | 电子科技大学 | 定位方法及系统 |
CN109579844B (zh) * | 2018-12-04 | 2023-11-21 | 电子科技大学 | 定位方法及系统 |
CN109886065A (zh) * | 2018-12-07 | 2019-06-14 | 武汉理工大学 | 一种在线增量式回环检测方法 |
CN109726675A (zh) * | 2018-12-28 | 2019-05-07 | 芜湖哈特机器人产业技术研究院有限公司 | 一种基于k中心算法的移动机器人slam闭环检测方法 |
CN109800692A (zh) * | 2019-01-07 | 2019-05-24 | 重庆邮电大学 | 一种基于预训练卷积神经网络的视觉slam回环检测方法 |
CN109800692B (zh) * | 2019-01-07 | 2022-12-27 | 重庆邮电大学 | 一种基于预训练卷积神经网络的视觉slam回环检测方法 |
CN110070578B (zh) * | 2019-03-15 | 2023-07-18 | 西安电子科技大学 | 一种回环检测方法 |
CN110070578A (zh) * | 2019-03-15 | 2019-07-30 | 西安电子科技大学 | 一种回环检测方法 |
CN110390356A (zh) * | 2019-07-03 | 2019-10-29 | Oppo广东移动通信有限公司 | 视觉词典生成方法及装置、存储介质 |
CN110390356B (zh) * | 2019-07-03 | 2022-03-08 | Oppo广东移动通信有限公司 | 视觉词典生成方法及装置、存储介质 |
CN110472585A (zh) * | 2019-08-16 | 2019-11-19 | 中南大学 | 一种基于惯导姿态轨迹信息辅助的vi-slam闭环检测方法 |
CN110472585B (zh) * | 2019-08-16 | 2020-08-04 | 中南大学 | 一种基于惯导姿态轨迹信息辅助的vi-slam闭环检测方法 |
CN111787485B (zh) * | 2020-06-02 | 2022-10-21 | Oppo广东移动通信有限公司 | 一种电子围栏创建方法及装置、存储介质 |
CN111787485A (zh) * | 2020-06-02 | 2020-10-16 | Oppo广东移动通信有限公司 | 一种电子围栏创建方法及装置、存储介质 |
CN111950597B (zh) * | 2020-07-15 | 2022-10-18 | 重庆邮电大学 | 机器人基于原图光照不变图词袋模型改进的闭环检测方法 |
CN111950597A (zh) * | 2020-07-15 | 2020-11-17 | 重庆邮电大学 | 机器人基于原图光照不变图词袋模型改进的闭环检测方法 |
CN113191435B (zh) * | 2021-05-07 | 2022-08-23 | 南京邮电大学 | 基于改进型的视觉词典树的图像闭环检测方法 |
CN113191435A (zh) * | 2021-05-07 | 2021-07-30 | 南京邮电大学 | 基于改进型的视觉词典树的图像闭环检测方法 |
CN116399326A (zh) * | 2023-04-06 | 2023-07-07 | 安徽工程大学 | 一种基于自适应关键帧选取的机器人地图构建方法、存储介质及设备 |
CN116399326B (zh) * | 2023-04-06 | 2023-10-13 | 安徽工程大学 | 一种基于自适应关键帧选取的机器人地图构建方法、存储介质及设备 |
CN117409388A (zh) * | 2023-12-11 | 2024-01-16 | 天津中德应用技术大学 | 一种改进词袋模型的智能汽车视觉slam闭环检测方法 |
Also Published As
Publication number | Publication date |
---|---|
CN107886129B (zh) | 2021-06-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107886129B (zh) | 一种基于视觉词袋的移动机器人地图闭环检测方法 | |
CN113378632B (zh) | 一种基于伪标签优化的无监督域适应行人重识别方法 | |
CN105844669B (zh) | 一种基于局部哈希特征的视频目标实时跟踪方法 | |
CN112258554B (zh) | 基于注意力机制的双流层次孪生网络目标跟踪方法 | |
CN108682027A (zh) | 基于点、线特征融合的vSLAM实现方法及系统 | |
CN110490158B (zh) | 一种基于多级模型的鲁棒人脸对齐方法 | |
CN110851645A (zh) | 一种基于深度度量学习下相似性保持的图像检索方法 | |
He et al. | Target-aware tracking with long-term context attention | |
CN110991321B (zh) | 一种基于标签更正与加权特征融合的视频行人再识别方法 | |
CN112595322B (zh) | 一种融合orb闭环检测的激光slam方法 | |
CN109087337B (zh) | 基于分层卷积特征的长时间目标跟踪方法及系统 | |
CN111667506A (zh) | 一种基于orb特征点的运动估计方法 | |
CN111768430B (zh) | 一种基于多特征级联匹配的高速公路外场车辆跟踪方法 | |
CN114861761B (zh) | 一种基于孪生网络特征与几何验证的回环检测方法 | |
CN109886065A (zh) | 一种在线增量式回环检测方法 | |
CN109784155B (zh) | 基于验证和纠错机制的视觉目标跟踪方法、智能机器人 | |
CN111723852B (zh) | 针对目标检测网络的鲁棒训练方法 | |
CN109034237A (zh) | 基于卷积神经元网络路标和序列搜索的回环检测方法 | |
CN113988269A (zh) | 一种基于改进孪生网络的回环检测及优化方法 | |
CN109598261B (zh) | 一种基于区域分割的三维人脸识别方法 | |
Guo et al. | Triplet relationship guided sampling consensus for robust model estimation | |
Qunzhu et al. | Improvement of random forest cascade regression algorithm and its application in fatigue detection | |
CN116664867B (zh) | 一种基于多证据融合选取训练样本的特征提取方法及装置 | |
Gu et al. | An improved loop closure detection for RatSLAM | |
CN110210342A (zh) | 一种人脸图像匹配方法及其系统、可读存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
TA01 | Transfer of patent application right |
Effective date of registration: 20191104 Address after: Yuelu District City, Hunan province 410082 Changsha Lushan Road No. 1 Applicant after: Hunan University Applicant after: Shenzhen Research Institute of Hunan University Address before: Yuelu District City, Hunan province 410082 Changsha Lushan South Road, South Campus Hunan University College of electrical and Information Engineering Applicant before: Hunan University |
|
TA01 | Transfer of patent application right | ||
GR01 | Patent grant | ||
GR01 | Patent grant |