CN106840166B - 一种基于词袋树群模型的机器人定位和导航方法 - Google Patents

一种基于词袋树群模型的机器人定位和导航方法 Download PDF

Info

Publication number
CN106840166B
CN106840166B CN201710081020.XA CN201710081020A CN106840166B CN 106840166 B CN106840166 B CN 106840166B CN 201710081020 A CN201710081020 A CN 201710081020A CN 106840166 B CN106840166 B CN 106840166B
Authority
CN
China
Prior art keywords
bag
words tree
model
words
tree
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201710081020.XA
Other languages
English (en)
Other versions
CN106840166A (zh
Inventor
刘宏
金永庆
宋章军
张国栋
赵晨阳
吴观明
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Peking University Shenzhen Graduate School
Shenzhen Silver Star Intelligent Technology Co Ltd
Original Assignee
Peking University Shenzhen Graduate School
Shenzhen Silver Star Intelligent Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Peking University Shenzhen Graduate School, Shenzhen Silver Star Intelligent Technology Co Ltd filed Critical Peking University Shenzhen Graduate School
Priority to CN201710081020.XA priority Critical patent/CN106840166B/zh
Publication of CN106840166A publication Critical patent/CN106840166A/zh
Application granted granted Critical
Publication of CN106840166B publication Critical patent/CN106840166B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/20Instruments for performing navigational calculations
    • G01C21/206Instruments for performing navigational calculations specially adapted for indoor navigation

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Automation & Control Theory (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开一种基于词袋树群模型的机器人定位和导航方法。该方法为:1)输入长时间的包含低动态室内场景变化的视频流;2)从视频流图像中离线抽取特征;3)对得到的特征通过k‑means++算法进行聚类;4)对聚类得到的子空间进行迭代聚类;5)对迭代聚类后的特征建立词袋树模型;6)建立词袋树群模型;7)通过统计原理对低动态物体的运动规律进行统计;8)根据词袋树群模型,利用所述运动规律分析确定当前时刻对应的词袋树模型;9)将确定的词袋树模型用于回环检测,实现机器人在低动态环境下的定位和导航。本发明能够在避免使用昂贵的激光传感器情况下,低成本地实现机器人在室内等低动态环境下长时间自主定位和导航。

Description

一种基于词袋树群模型的机器人定位和导航方法
技术领域
本发明属于机器人自主定位与导航和机器人视觉技术领域,具体涉及一种基于词袋模型的机器人定位和导航方法;通过基于时间构建词袋树群模型,在低动态环境下基于概率估计模型对词袋模型树进行选择,词袋树群模型能够为长时间的室内同步定位和建图机器人的回环检测提供依赖。
背景技术
机器人自主定位和导航是一门交叉学科,近十几年来,机器人自主定位和导航以及机器人视觉已经有了很大的进步。尽管机器人视觉在特定的场景和数据库中已经达到高的精度,也有一部分的服务机器人走进生活,但是机器人视觉在机器人的自主导航与定位的应用也只在近几年才得以运用,在实现机器人自主视觉定位和导航的问题上还没有很好的解决,特别是机器人应对动态复杂场景和长时间的定位和导航方面仍然需要很大的努力。
目前并没有很多针对低动态环境下的机器人长时间视觉定位和导航的方法,基本上所有的方法都是针对提高特征提取算子的鲁棒性,虽然现在的Scale-invariantfeature transform(SIFT)[1]的算子鲁棒性很好,但是需要使用GPU加速,ORiented Brief(ORB)[2]特征提取算子效果较好并且速度较快,但是也仍然不能在实际使用中实现长时间的定位和导航。其中SIFT见文献“D.G.Lowe,Distinctive image features from scale-invariant keypoints,International Journal of Computer Vision,vol.60,no.2,pp.91–110,2004.”,ORB见文献“E.Rublee,V.Rabaud,K.Konolige,and G.Bradski,ORB:anefficient alternative to SIFT or SURF,in IEEE International Conference onComputer Vision(ICCV),Barcelona,Spain,November 2011,pp.2564–2571.”。
目前,市场上能比较好的应用在服务机器人上的方案是使用激光传感器,这种方案在使用二维激光的情况下能获取环境的二维平面结构。激光传感器不受光照的影响,同时更加高效,也不需要性能很高的处理器,嵌入式的芯片就能满足这种计算需求。但是激光传感器的价格非常昂贵,并且不能处理黑色吸收光的物质或者黑色的环境;不能处理玻璃等会改变激光传播路径的透明物质的建模;抖动对建图的影响非常大。所以使用价格低廉的视觉传感器开发低成本同时能实现长时间定位和导航的方案非常有必要性。
发明内容
针对现有技术存在的技术问题,本发明的目的是提供一种基于词袋树群模型的机器人定位和导航方法,能够使用价格低廉的视觉传感器实现机器人的长时间定位和导航。
本发明采用的技术方案如下:
一种基于词袋树群模型的机器人定位和导航方法,包括以下步骤:
1)输入长时间的包含低动态室内场景变化的视频流;
2)从视频流图像中离线抽取特征;
3)对得到的特征通过k-means++算法进行聚类;
4)对聚类得到的子空间进行迭代聚类;
5)对迭代聚类后的特征建立词袋树模型;
6)每隔一定时间保存建立的词袋树模型,拷贝后继续更新,得到词袋树群模型;
7)通过统计原理对低动态物体的运动规律进行统计;
8)根据步骤6)得到的词袋树群模型,利用所述运动规律分析确定当前时刻对应的词袋树模型;
9)将步骤8)确定的词袋树模型用于回环检测,实现机器人在低动态环境下的定位和导航。
进一步地,步骤5)对词袋树模型中的每个特征,保存其正向索引和反向索引。
进一步地,所述正向索引中包含每一帧图像的特征以及该特征所在树的父节点,所述反向索引存储每一个特征所在的图像的序号以及在该图像中所占的比重,其值为词频与反向文本频率的乘积。
进一步地,步骤6)间隔一定时间后保存已经建立的树模型,并且复制上一个树模型,对这个复制的树模型进行更新,直到间隔时间到或者已经出现运动重复,从而构建词袋树群模型。
进一步地,步骤8)根据所述运动规律得出三个概率最大的词袋树模型,并依次将此时通过环境获得的特征向量与三个概率最大的词袋树模型中的特征分别进行匹配。
进一步地,在所述匹配过程中,通过反向索引快速定位到所需要比较的相似图像,通过正向索引快速检查图像中的特征。
进一步地,步骤9)中,成功匹配树模型后,则将所述树模型作为机器人定位与回环检测的数据库,并利用新得到的图像不断更新。
本发明的有益效果如下:
本发明使用价格低廉的视觉传感器,通过图像处理技术将图片转化为特征向量存储在词袋树模型的树结构中,利用概率模型选择对应状态下的词袋树来进行定位与导航系统中的回环检测部分,最后实现机器人在室内等低动态环境下自主定位和导航。本发明避免了使用昂贵的激光传感器,以及激光带来的问题,同时弥补了现有的特征提取算子的缺点。
附图说明
图1.词袋树群构建流程图。
图2.基于状态选择的词袋树群模型使用流程图。
图3.基于状态选择的词袋树群模型图。
具体实施方式
为使本发明的上述目的、特征和优点能够更加明显易懂,下面通过具体实施例和附图,对本发明做进一步说明。
1.基于DBoW2的词袋树群模型建立
DBoW2(参考文献:Galvez-López D,Tardos J D.Bags of Binary Words forFast Place Recognition in Image Sequences[J].IEEE Transactions on Robotics,2012,28(5):1188-1197.)将图像进行结构化描述。DBoW2思想是将图像特征整合成视觉单词,将图像特征空间转化成离散的视觉字典,并用树的结构存储视觉单词,加快特征以及相似图像的检索。将新的图像特征映射到视觉字典中最近邻视觉字典,再通过计算视觉字典间的距离计算图像的相似度,从而完成识别、图像分类、检索等任务。
本发明的基于DBoW2的词袋树群是基于DBoW2的原理建立多个树形结构用于存储不同时间或者不同状态的环境特征,以应对复杂多变的环境。词袋树群的具体构建过程如图1所示,包括以下步骤:
a)从训练图像中离线提取ORB特征;
b)将抽取的特征用k-means++算法聚类,将描述子空间划分成K类;
c)将划分的每个描述子空间,继续利用k-means++算法做聚类;
d)按照上述循环,将描述子建立成树形结构tree1;
e)在经过设定时间T后,保存tree1树,并映射出树形结构,并命名tree2用于更新;
f)重复上述操作,优化树群存储空间,直到环境重复,树群treeN构建完成。
图3为基于状态选择的词袋树群模型示意图,其中tree1~treeN表示形成的N个树形结构,Direct index image表示直接图像索引,用来记录树中保存的图像序号,Node表示树中的节点,Feature表示节点下存储的特征的值,反向索引中V=0.79表示特征在对应图像中所占的比重。
2.基于状态选择的词袋树使用方法
针对已经建好的词袋树群,其包含了室内环境变化的多种状态,通过统计可以得到室内大部分低动态物体的运动规律,例如室内光照方向,门窗的开关以及家具的位置在一天中都符合一定的规律,以及人的活动都满足一定的时间规律,通过统计学原理对该规律进行分析,选择对应不同时间段的词袋树模型作为室内机器人的定位与导航的回环检测的数据库。同时由于词袋模型都是可以线下或者在机器人空闲时刻训练的,能满足实时性的要求。具体步骤如图2所示,包括以下步骤:
a)通过统计学模型对家具中的门窗,光线的移动以及低动态特定家具的运动规律进行统计;
b)根据以上状态的估计确定目前状态所在的时间范围;
c)根据时间选择对应的前三个概率值最高的词袋树模型作为回环检测的库;
d)如果均匹配错误进入对所有的树进行一次遍历,如果均不能匹配则建立新的词袋树;
e)机器人停止运动时对词袋树进行优化。
3.本发明方法的整体流程
参考图1,图2,本发明方法的流程的具体设计如下:
1)输入长时间的包含低动态室内场景变化的视频流
本发明是针对包含低动态的室内场景的应用,滤除掉高动态的运动物体后,在对仅包含低动态的室内场景建图后保证机器人的长时间的定位与导航有效性,同时家具环境中光照的移动和强弱变化、门窗和座椅等均符合低动态的定义。视频流获取时一定要保证环境的真实性和连续性,不能出现对摄像头的遮挡等行为。
2)提取特征向量,并通过k-means++算法进行聚类
首先对输入的视频中的图像提取特征向量,然后将提取的特征通过k-means++算法进行聚类,对子空间进行迭代聚类,这样可以对特征进行聚类。相同的划分同一类,迭代次数即树的深度需要人为定义。实际操作中,确定一个迭代次数的值,多次迭代以后仍在同一个最小子空间的特征视为同一类。
3)基于DBoW2建立词袋树模型,
对以上聚类后的特征建立树结构以保存特征,同时保存特征的正向索引(Directindex image)和反向索引(Inverse index word)。正向索引中包含每一帧图像的特征以及该特征所在树的父节点,反向索引存储每一个特征所在的图像的序号以及在该图像中所占的比重,这里比重的值为TF*IDF,也就是词频TF与反向文本频率IDF的乘积。其中词频是指给定的词语在该文本中出现的频率,反向文本频率是指一个词语普遍重要性的度量,某一特定词语的反向文本频率,可以用总文件数目除以包含该词语的文件的数目,再将得到的商取对数得到。
通过反向索引能快速定位到需要比较的相似的图像,而避免了对所有图像进行比较,正向索引则能快速检查图像中的特征。在实际操作中,对输入的每一个图像都要计算正向索引和反向索引。
4)建立词袋树群模型
间隔一定时间T后保存已经建立的树模型,映射出该树模型结构并用于之后的更新,直到经过设定的时间T,即图1中的Time>T,其中Time表示累加时间,T表示设定的时间阈值。
5)重复上述操作,直到建立N个词袋树模型。
6)通过统计原理对家具等低动态物体运动规律进行统计
现有的特定的图像处理技术,已经能判断门的开关以及窗户的开关,以及家具的位置移动。通过一定的假设,并在后期对生活家具的数据的检验和校正中更正运动规律,对运动规律划分为多个时间点以方便后续对应到词袋树模型。
7)借助统计分析确定此时刻对应的词袋树模型
根据以上的统计分析对应的时间点来选择合适的词袋树模型,得出三个概率最大的词袋树,并作为室内机器人定位和导航的回环检测模块的数据库。
8)依次检验三个树模型
在实际应用中,如果当前通过环境获得的特征向量在概率最大的三个词袋树模型找到匹配,则将机器人重新定位,并优化词袋树群模型,将词袋树群模型中不匹配或者冗余的特征点去除;如果不能匹配则搜索剩下所有的词袋树,如果仍然不能匹配,则将重新生成词袋树,将此时通过环境获得的特征向量加入新的词袋树中。
以上实施例仅用以说明本发明的技术方案而非对其进行限制,本领域的普通技术人员可以对本发明的技术方案进行修改或者等同替换,而不脱离本发明的精神和范围,本发明的保护范围应以权利要求书所述为准。

Claims (6)

1.一种基于词袋树群模型的机器人定位和导航方法,其特征在于,包括以下步骤:
1)输入长时间的包含低动态室内场景变化的视频流;
2)从视频流图像中离线抽取特征;
3)对得到的特征通过k-means++算法进行聚类;
4)对聚类得到的子空间进行迭代聚类;
5)对迭代聚类后的特征建立词袋树模型;
6)每隔一定时间保存建立的词袋树模型,拷贝后继续更新,得到词袋树群模型;词袋树群模型中的多个树形结构用于存储不同时间或者不同状态的环境特征;
7)通过统计原理对低动态物体的运动规律进行统计;
8)根据步骤6)得到的词袋树群模型,利用所述运动规律分析确定当前时刻对应的词袋树模型,包括:
根据所述运动规律得出三个概率最大的词袋树模型,并依次将此时通过环境获得的特征向量与三个概率最大的词袋树模型中的特征分别进行匹配;
如果能够匹配,则将机器人重新定位,并优化词袋树群模型,将词袋树群模型中不匹配或者冗余的特征点去除;如果不能匹配,则搜索剩下所有的词袋树模型,如果仍然不能匹配,则将重新生成词袋树模型,将此时通过环境获得的特征向量加入新的词袋树模型中;
9)将步骤8)确定的词袋树模型用于回环检测,实现机器人在低动态环境下的定位和导航。
2.如权利要求1所述的方法,其特征在于,步骤5)对词袋树模型中的每个特征,保存其正向索引和反向索引。
3.如权利要求2所述的方法,其特征在于,所述正向索引中包含每一帧图像的特征以及该特征所在树的父节点,所述反向索引存储每一个特征所在的图像的序号以及在该图像中所占的比重,其值为词频与反向文本频率的乘积。
4.如权利要求1所述的方法,其特征在于,步骤6)间隔一定时间后保存已经建立的词袋树模型,并且复制上一个词袋树模型,对这个复制的词袋树模型进行更新,直到间隔时间到或者已经出现运动重复,从而构建词袋树群模型。
5.如权利要求1所述的方法,其特征在于,在所述匹配过程中,通过反向索引快速定位到所需要比较的相似图像,通过正向索引快速检查图像中的特征。
6.如权利要求5所述的方法,其特征在于,步骤9)中,成功匹配词袋树模型后,则将所述词袋树模型作为机器人定位与回环检测的数据库,并利用新得到的图像不断更新。
CN201710081020.XA 2017-02-15 2017-02-15 一种基于词袋树群模型的机器人定位和导航方法 Active CN106840166B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201710081020.XA CN106840166B (zh) 2017-02-15 2017-02-15 一种基于词袋树群模型的机器人定位和导航方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201710081020.XA CN106840166B (zh) 2017-02-15 2017-02-15 一种基于词袋树群模型的机器人定位和导航方法

Publications (2)

Publication Number Publication Date
CN106840166A CN106840166A (zh) 2017-06-13
CN106840166B true CN106840166B (zh) 2020-07-10

Family

ID=59128113

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710081020.XA Active CN106840166B (zh) 2017-02-15 2017-02-15 一种基于词袋树群模型的机器人定位和导航方法

Country Status (1)

Country Link
CN (1) CN106840166B (zh)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107704867A (zh) * 2017-08-24 2018-02-16 哈尔滨工业大学 一种视觉定位中基于衡量因子的图像特征点误匹配剔除方法
CN108986168B (zh) * 2018-06-13 2022-08-23 深圳市感动智能科技有限公司 一种基于深度度量学习结合词袋树模型的机器人回环检测方法和装置
CN109272021B (zh) * 2018-08-22 2022-03-04 广东工业大学 一种基于宽度学习的智能移动机器人导航方法
CN110245639B (zh) * 2019-06-10 2021-03-02 北京航空航天大学 一种基于特征匹配的词袋生成方法及装置
CN110958583B (zh) * 2019-10-31 2021-02-09 西南科技大学 一种基于位置与强度双重聚类的室内定位方法
CN113392697A (zh) * 2021-04-26 2021-09-14 上海师范大学 一种基于词袋模型的人体动作识别方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103064945A (zh) * 2012-12-26 2013-04-24 吉林大学 基于本体的情境搜索方法
CN105843223A (zh) * 2016-03-23 2016-08-10 东南大学 一种基于空间词袋模型的移动机器人三维建图与避障方法
CN106092104A (zh) * 2016-08-26 2016-11-09 深圳微服机器人科技有限公司 一种室内机器人的重定位方法及装置
CN103810500B (zh) * 2014-02-25 2017-04-05 北京工业大学 一种基于有监督学习概率主题模型的地点图像识别方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9443011B2 (en) * 2011-05-18 2016-09-13 Microsoft Technology Licensing, Llc Searching for images by video

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103064945A (zh) * 2012-12-26 2013-04-24 吉林大学 基于本体的情境搜索方法
CN103810500B (zh) * 2014-02-25 2017-04-05 北京工业大学 一种基于有监督学习概率主题模型的地点图像识别方法
CN105843223A (zh) * 2016-03-23 2016-08-10 东南大学 一种基于空间词袋模型的移动机器人三维建图与避障方法
CN106092104A (zh) * 2016-08-26 2016-11-09 深圳微服机器人科技有限公司 一种室内机器人的重定位方法及装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
视觉SLAM中闭环检测算法的研究;董海霞 等;《智能工业与信息安全》;20160531;第1-3页 *

Also Published As

Publication number Publication date
CN106840166A (zh) 2017-06-13

Similar Documents

Publication Publication Date Title
CN106840166B (zh) 一种基于词袋树群模型的机器人定位和导航方法
Li et al. Graph-based asynchronous event processing for rapid object recognition
CN108986168B (zh) 一种基于深度度量学习结合词袋树模型的机器人回环检测方法和装置
CN112101430B (zh) 用于图像目标检测处理的锚框生成方法及轻量级目标检测方法
CN110070074B (zh) 一种构建行人检测模型的方法
CN107229757B (zh) 基于深度学习和哈希编码的视频检索方法
CN108288270B (zh) 一种基于通道修剪与全卷积深度学习的目标检测方法
CN109671102B (zh) 一种基于深度特征融合卷积神经网络的综合式目标跟踪方法
CN110781262B (zh) 基于视觉slam的语义地图的构建方法
CN111310631B (zh) 一种旋翼作业飞行机器人目标跟踪方法及系统
CN111476302A (zh) 基于深度强化学习的Faster-RCNN目标物体检测方法
EP2959431A1 (en) Method and device for calculating a camera or object pose
Stumm et al. Probabilistic place recognition with covisibility maps
CN107169117B (zh) 一种基于自动编码器和dtw的手绘图人体运动检索方法
CN109902619B (zh) 图像闭环检测方法及系统
Deng et al. A voxel graph cnn for object classification with event cameras
Li et al. Robust object tracking with discrete graph-based multiple experts
CN110728694A (zh) 一种基于持续学习的长时视觉目标跟踪方法
Kasaei et al. Local-LDA: Open-ended learning of latent topics for 3D object recognition
CN111339917A (zh) 一种真实场景下玻璃检测的方法
CN111462184A (zh) 基于孪生神经网络线性表示模型的在线稀疏原型跟踪方法
Yang et al. Probabilistic projective association and semantic guided relocalization for dense reconstruction
CN116883457B (zh) 一种基于检测跟踪联合网络和混合密度网络的轻量化多目标跟踪方法
Ouyang et al. Aerial target detection based on the improved YOLOv3 algorithm
CN115293639A (zh) 一种基于隐马尔可夫模型的战场态势研判方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant