CN111368860A - 重定位方法及终端设备 - Google Patents

重定位方法及终端设备 Download PDF

Info

Publication number
CN111368860A
CN111368860A CN201811589600.0A CN201811589600A CN111368860A CN 111368860 A CN111368860 A CN 111368860A CN 201811589600 A CN201811589600 A CN 201811589600A CN 111368860 A CN111368860 A CN 111368860A
Authority
CN
China
Prior art keywords
image
bag
words model
feature
feature descriptor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201811589600.0A
Other languages
English (en)
Other versions
CN111368860B (zh
Inventor
熊友军
蒋晨晨
毕占甲
张健
庞建新
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ubtech Robotics Corp
Original Assignee
Ubtech Robotics Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ubtech Robotics Corp filed Critical Ubtech Robotics Corp
Priority to CN201811589600.0A priority Critical patent/CN111368860B/zh
Publication of CN111368860A publication Critical patent/CN111368860A/zh
Application granted granted Critical
Publication of CN111368860B publication Critical patent/CN111368860B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/751Comparing pixel values or logical combinations thereof, or feature values having positional relevance, e.g. template matching

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Artificial Intelligence (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Abstract

本发明涉及计算机技术领域,提供了一种重定位方法及终端设备。该方法包括:获取在区域内进行同时定位与地图构建过程中通过视觉传感器采集到的第一图像;提取所述第一图像的特征描述子,并根据所述第一图像的特征描述子构建词袋模型;在对所述区域内的待定位目标进行重定位时,获取所述待定位目标当前周围的第二图像,并提取所述第二图像的特征描述子;将所述第二图像的特征描述子与所述词袋模型进行匹配,并根据匹配结果确定所述待定位目标的位置。本发明能够使得重定位过程中待定位目标周围的图像与词袋模型的匹配更加准确,进而提高定位准确度。

Description

重定位方法及终端设备
技术领域
本发明涉及计算机技术领域,尤其涉及一种重定位方法及终端设备。
背景技术
目前室内服务机器人比较成熟的定位导航方案大部分都是基于激光SLAM(Simultaneous Localization And Mapping,同时定位与地图构建)技术,因为激光SLAM方案在定位精度与鲁棒性方面都优于视觉SLAM方案。但是激光SLAM在大场景下,依然没法很好的解决重定位问题。基于以上背景,需要采用其他传感器帮助机器人进行重定位。增加的传感器要满足价格不能过高,生成的地图不能太大,重定位要迅速且准确。而视觉传感器基本满足这些点。
传统的基于视觉进行重定位的方法比较成熟的方案就是DBOW2方法,其全称是Bags of binary words for fast place recognition in image sequence。但是DBOW2有一个缺点,它需要先线下训练大批图像生成词袋模型,且模型数据量很大,可以达到130M之多,在SLAM架构里占用很大空间;而且生成的模型是不是针对某一场景的,如果当前场景和训练用图像场景有很大区别,则会导致错匹配。如果使用此方法,需要保存的地图数据包括每帧图像的特征点位置、特征点的描述子等。一般每帧需要提取两千个特征点才能使后续重定位成功,每个特征点描述子为256维。这样对于含有5000帧图像的地图,地图大小会超过1GB,很难进行后续的保存加载与传输。
发明内容
有鉴于此,本发明实施例提供了重定位方法及终端设备,以解决目前基于视觉进行重定位的方法在当前场景和模型训练用的图像场景存在较大区别时容易导致错误匹配,定位出错的问题。
本发明实施例的第一方面提供了重定位方法,包括:
获取在区域内进行同时定位与地图构建过程中通过视觉传感器采集到的第一图像;
提取所述第一图像的特征描述子,并根据所述第一图像的特征描述子构建词袋模型;
在对所述区域内的待定位目标进行重定位时,获取所述待定位目标当前周围的第二图像,并提取所述第二图像的特征描述子;
将所述第二图像的特征描述子与所述词袋模型进行匹配,并根据匹配结果确定所述待定位目标的位置。
本发明实施例的第二方面提供了重定位装置,包括:
第一获取模块,用于获取在区域内进行同时定位与地图构建过程中通过视觉传感器采集到的第一图像;
构建模块,用于提取所述第一图像的特征描述子,并根据所述第一图像的特征描述子构建词袋模型;
第二获取模块,用于在对所述区域内的待定位目标进行重定位时,获取所述待定位目标当前周围的第二图像,并提取所述第二图像的特征描述子;
处理模块,用于将所述第二图像的特征描述子与所述词袋模型进行匹配,并根据匹配结果确定所述待定位目标的位置。
本发明实施例的第三方面提供了终端设备,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现第一方面中的重定位方法。
本发明实施例的第四方面提供了计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,所述计算机程序被处理器执行时实现第一方面中的重定位方法。
本发明实施例与现有技术相比存在的有益效果是:获取在区域内进行同时定位与地图构建过程中通过视觉传感器采集到的第一图像;提取第一图像的特征描述子,并根据第一图像的特征描述子构建词袋模型;在对区域内的待定位目标进行重定位时,获取待定位目标当前周围的第二图像,并提取第二图像的特征描述子;将第二图像的特征描述子与词袋模型进行匹配,并根据匹配结果确定待定位目标的位置。本发明实施例在同时定位与地图构建过程中根据采集到的图像构建得到词袋模型,在对待定位目标进行重定位时,通过待定位目标周围的图像和词袋模型进行匹配实现重定位。本发明实施例中词袋模型是根据当前区域的图像构建得到的,能够使得重定位过程中待定位目标周围的图像与词袋模型的匹配更加准确,进而提高定位准确度。
附图说明
为了更清楚地说明本发明实施例中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1是本发明实施例提供的重定位方法的实现流程图;
图2是本发明实施例提供的重定位方法中根据第一图像的特征描述子构建词袋模型的实现流程图;
图3是本发明实施例提供的重定位方法中根据第一图像的特征描述子生成词袋模型的实现流程图;
图4是本发明实施例提供的重定位方法中一个词袋模型的示意图;
图5是本发明实施例提供的重定位方法中根据第一图像的特征描述子对词袋模型进行更新的实现流程图;
图6是本发明实施例提供的重定位方法中将第二图像的特征描述子与所述词袋模型进行匹配的实现流程图;
图7是本发明实施例提供的重定位装置的示意图;
图8是本发明实施例提供的终端设备的示意图。
具体实施方式
以下描述中,为了说明而不是为了限定,提出了诸如特定系统结构、技术之类的具体细节,以便透彻理解本发明实施例。然而,本领域的技术人员应当清楚,在没有这些具体细节的其它实施例中也可以实现本发明。在其它情况中,省略对众所周知的系统、装置、电路以及方法的详细说明,以免不必要的细节妨碍本发明的描述。
为了说明本发明所述的技术方案,下面通过具体实施例来进行说明。
图1为本发明实施例提供的重定位方法的实现流程图,详述如下:
S101,获取在区域内进行同时定位与地图构建过程中通过视觉传感器采集到的第一图像。
在本实施例中,当移动目标在区域内进行同时定位与地图构建(SimultaneousLocalization And Mapping,SLAM)时,可以通过视觉传感器采集移动目标SLAM过程中的图像。其中,移动目标可以是移动机器人、无人机等具备移动功能的目标,在此不作限定。SLAM可以为激光SLAM、视觉SLAM等,在此不作限定。例如,在机器人进行激光SLAM过程中,可以通过视觉传感器以一定的帧率接收图像。
S102,提取所述第一图像的特征描述子,并根据所述第一图像的特征描述子构建词袋模型。
在本实施例中,可以从第一图像中提取特征描述子,再根据第一图像的特征描述子构建词袋模型。其中,特征描述子为图像中的特征点对应的描述子。可选地,可以从第一图像中提取各个特征点,并生成各个特征点对应的特征描述子。其中,特征描述子可以为二值类的描述子,例如ORB,BRIEF,BRISK等,在此不作限定。
作为本发明的一个实施例,如图2所示,S102中“根据所述第一图像的特征描述子构建词袋模型”可以包括:
S201,若所述第一图像为首帧图像,则根据所述第一图像的特征描述子生成所述词袋模型。
S202,若所述第一图像为首帧图像之后的图像,则根据所述第一图像的特征描述子对所述词袋模型进行更新。
在本实施例中,首帧图像为开始构建词袋模型的第一帧图像。首帧图像之后的图像为相对于首帧图像在时间上靠后的图像。其中,首帧图像可以为视觉传感器采集到的第一帧图像,也可以是采集到的第预设张数的图像,或者在预设时刻采集到的图像,可以根据实际需求确定,在此不作限定。
当移动目标在区域内进行SLAM过程时,可以从视觉传感器采集到的图像中选取一帧图像作为首帧图像,根据该首帧图像的特征描述子首先生成词袋模型,然后再根据在时间上相对于该首帧图像靠后的图像,对生成的词袋模型进行更新。随着SLAM过程的进行,根据视觉传感器采集的图像对词袋模型实时进行更新。
作为本发明的一个实施例,如图3所示,S201中“根据所述第一图像的特征描述子生成所述词袋模型”可以包括:
S301,建立初始词袋模型。
S302,将所述第一图像的各个特征描述子分配到所述初始词袋模型中距离各个特征描述子最近的节点上。
在本实施例中,可以首先建立一个初始词袋模型。以词袋模型为词袋树为例,可以首先建立一个词袋树模型。然后将第一图像的各个特征描述子依次分配到初始词袋模型中距离各个特征描述子最近的节点上,从而生成词袋模型。其中,特征描述子到节点之间的距离可以采用汉明距离计算。容易想到的,也可以采用欧氏距离、余弦相似度等进行距离计算,在此不作限定。
可选地,词袋模型的各个节点拥有的子节点个数均不大于预设个数阈值。其中,预设个数阈值的取值在此不作限定,例如预设个数阈值为2,3等。在特征描述子分配过程中,若词袋模型的一个节点所拥有的子节点个数大于预设个数阈值,则为该节点的其中一个子节点产生分支。
在一个具体的实施示例中,对于首帧图像的特征描述点,先建立一个词袋模型。例如图4为一个词袋模型的示意图,可以随机选取K个点(在图4中K=2,也就是一个节点包含两个子节点)。然后将首帧图像中提取的特征描述点,分配到距离其最近的子节点上。如果某个节点的子节点超过3个,则继续在此子节点随机产生分支。这个过程一直迭代,直到每个节点所拥有的特征描述子不多于S个(在图4中S=3)。每个叶子节点所包含的特征描述子称为视觉单词,视觉单词用于后续对词袋模型的更新及匹配。
作为本发明的一个实施例,如图5所示,S202中“根据所述第一图像的特征描述子对所述词袋模型进行更新”可以包括:
S501,获取所述第一图像的第二特征描述子,并在所述词袋模型中查找第一视觉单词;所述第一视觉单词为与所述第二特征描述子相似的视觉单词;所述视觉单词为所述词袋模型的各个叶子节点对应的特征描述子。
在本实施例中,第一特征描述子用于表示首帧图像中的特征描述子,对应于词袋模型的生成过程;第二特征描述子用于表示首帧图像之后的图像中的特征描述子,对应于词袋模型的更新过程。第一特征描述子和第二特征描述子仅用于进行区分说明,不作为限定。
将词袋模型中的叶子节点对应的特征描述子作为视觉单词,一个叶子节点可以对应于一个或多个视觉单词。两个特征描述子相似是指两个特征描述子之间的距离不大于预设距离阈值。第一视觉单词为与第二特征描述子之间距离不大于预设距离阈值的视觉单词。可以在当前的词袋模型中查找与第二特征描述子相似的视觉单词,作为第一视觉单词。
S502,若在所述词袋模型中查找到所述第一视觉单词,则将所述第二特征描述子与所述第一视觉单词进行融合,生成新的视觉单词,并将所述新的视觉单词代替所述第一视觉单词。
S503,若在所述词袋模型中没有查找到所述第一视觉单词,则将所述第二特征描述子分配到距离所述第二特征描述子最近的节点上。
在本实施例中,若在词袋模型中查找到第一视觉单词,表明词袋模型中存在与该第二特征描述子相似的视觉单词,可以将该第二特征描述子与查找到的第一视觉单词进行融合,生成新的视觉单词,并将新的视觉单词代替查找的第一视觉单词,作为节点对应的视觉单词。
若在词袋模型中没有查找到第一视觉单词,表明词袋模型中不存在与该第二特征描述子相似的视觉单词,可以按照S103的方式将第二特征描述子分配到距离第二特征描述子最近的节点上。
在一个具体的实施示例中,对于首帧图像之后的图像中的特征描述子,如果对于某一特征描述子,能在词袋模型中找到一个与其相似的视觉单词,则进行特征描述子融合,产生新的视觉单词替代之前的视觉单词。如果在词袋模型中没有找到匹配的视觉单词,则按照之间的词袋模型生成过程中的方法,从词袋模型的根部搜索,直到将该特征描述点归到某个叶子节点。如果导致叶子节点数超过S,则随机产生分支。
在SLAM过程中同步构建词袋模型,保存每个视觉单词所在的所有图像。在SLAM完成后,完整的迭代式保存整个词袋模型的所有信息,可以将词袋模型转换到ymal文件,完成模型构建工作。如果每帧构建词袋模型的处理耗时过多,可以调整特征描述子的维度,例如把256维的描述子变成128维,以节省计算资源。而且本实施例的这个词袋模型本身就包含了地图的所有信息,而不是像传统的DBOW2那样,需要模型和地图分开存储。
S103,在对所述区域内的待定位目标进行重定位时,获取所述待定位目标当前周围的第二图像,并提取所述第二图像的特征描述子。
在本实施例中,待定位目标可以为移动机器人、无人机等目标。S101中进行SLAM的移动目标和S103中需要进行重定位的待定位目标可以为同一目标,也可以为不同的目标,在此不作限定。例如,可以对第一机器人在区域内进行SLAM,并构建词袋模型,然后在第一机器人需要在该区域内进行重定位时,可以根据之前构建的词袋模型进行重定位。也可以对第一机器人在区域内进行SLAM,并构建词袋模型,然后在第二机器人需要在该区域内进行重定位时,可以根据之前第一机器人SLAM构建的词袋模型对第二机器人进行重定位。
获取待定位目标当前周围的第二图像,可以为通过视觉图像传感器获取待定位目标当前周围的图像。例如,当机器人开机后进行重定位时,首先加载保存的词袋模型,然后使机器人旋转一周,获取当前图像。可以从第二图像中提取图像的特征点,然后生成各个特征点对应的特征描述子。
S104,将所述第二图像的特征描述子与所述词袋模型进行匹配,并根据匹配结果确定所述待定位目标的位置。
在本实施例中,可以将第二图像的特征描述子与词袋模型进行匹配,得到匹配结果,然后根据匹配结果确定待定位目标的位置。
本发明实施例获取在区域内进行同时定位与地图构建过程中通过视觉传感器采集到的第一图像;提取第一图像的特征描述子,并根据第一图像的特征描述子构建词袋模型;在对区域内的待定位目标进行重定位时,获取待定位目标当前周围的第二图像,并提取第二图像的特征描述子;将第二图像的特征描述子与词袋模型进行匹配,并根据匹配结果确定待定位目标的位置。本发明实施例在同时定位与地图构建过程中根据采集到的图像构建得到词袋模型,在对待定位目标进行重定位时,通过待定位目标周围的图像和词袋模型进行匹配实现重定位。本发明实施例中词袋模型是根据当前区域的图像构建得到的,能够使得重定位过程中待定位目标周围的图像与词袋模型的匹配更加准确,进而提高定位准确度。
作为本发明的一个实施例,如图6所示,S104中“将所述第二图像的特征描述子与所述词袋模型进行匹配”可以包括:
S601,在所述词袋模型中查找所述第二图像的各个特征描述子对应的第二视觉单词;所述视觉单词为所述词袋模型的各个叶子节点对应的特征描述子。
S602,确定各个第二视觉单词所在的第三图像。
S603,统计各个第三图像的出现次数,并从所有第三图像中选取出现次数较高的预设帧数的第三图像作为候选图像。
S604,将所述第二图像分别与各个候选图像进行匹配,获得所述匹配结果。
在本实施例中,从所有第三图像中选取出现次数较高的预设帧数的第三图像作为候选图像,可以先按照出现次数从大到小对所有第三图像进行排序,然后选取其中排序靠前的预设帧数的第三图像。预设帧数可以根据实际情况确定,在此不作限定,例如预设帧数可以取为3,5,10等。可以将第二图像分别与各个候选图像进行相似性匹配,然后从各个候选图像中选取出匹配度最高的一个图像。
在一个具体的实施示例中,对每个特征描述子搜索词袋模型中对应的视觉单词。然后提取这些视觉单词所在的所有的图像,记录每个图像被选中的次数,然后按顺序排列这些图像,只取前面X(预设帧数)个帧图像作为候选。让当前帧图像与这些候选帧图像进行RANSAC(RANdom SAmple Consensus,随机抽样一致)匹配并计算相对位姿,选出内点最多的帧作为最终匹配结果。
本发明实施例可以针对当前场景生成一个词袋模型,且可以随着机器人建图过程增量式的进行更新,那么不仅使图片与模型匹配更准确,且可以降低模型大小。这种线上生成模型的情况,可以把地图和模型合为一体。实验发现极端情况下每帧只需要保存80个特征点,每个特征点只需要64维便可以与模型进行匹配实现重定位,得到的地图。
本发明实施例提出一种基于线上词袋模型,且模型可以保存的机器人重定位方法。具有以下优点:1)在建图时可以实时生成词袋模型且可保存;2)重定位所需地图相比传统方法较小,只需要RGB图像就可以重定位,而不需要深度信息,有效减少地图大小;2)匹配迅速且准确,能够提高重定位准确率高,重定位速度快,尤其对于大场景下,使机器人的自主重定位功能有很大的增强;3)可以很容易的融合到激光SLAM和视觉SLAM框架;4)还支持更改描述子维度大小,可以有效降低计算量。
本发明实施例获取在区域内进行同时定位与地图构建过程中通过视觉传感器采集到的第一图像;提取第一图像的特征描述子,并根据第一图像的特征描述子构建词袋模型;在对区域内的待定位目标进行重定位时,获取待定位目标当前周围的第二图像,并提取第二图像的特征描述子;将第二图像的特征描述子与词袋模型进行匹配,并根据匹配结果确定待定位目标的位置。本发明实施例在同时定位与地图构建过程中根据采集到的图像构建得到词袋模型,在对待定位目标进行重定位时,通过待定位目标周围的图像和词袋模型进行匹配实现重定位。本发明实施例中词袋模型是根据当前区域的图像构建得到的,能够使得重定位过程中待定位目标周围的图像与词袋模型的匹配更加准确,进而提高定位准确度。
应理解,上述实施例中各步骤的序号的大小并不意味着执行顺序的先后,各过程的执行顺序应以其功能和内在逻辑确定,而不应对本发明实施例的实施过程构成任何限定。
对应于上文实施例所述的重定位方法,图7示出了本发明实施例提供的重定位装置的示意图。为了便于说明,仅示出了与本实施例相关的部分。
参照图7,该装置包括第一获取模块71、构建模块72、第二获取模块73和处理模块74。
第一获取模块71,用于获取在区域内进行同时定位与地图构建过程中通过视觉传感器采集到的第一图像。
构建模块72,用于提取所述第一图像的特征描述子,并根据所述第一图像的特征描述子构建词袋模型。
第二获取模块73,用于在对所述区域内的待定位目标进行重定位时,获取所述待定位目标当前周围的第二图像,并提取所述第二图像的特征描述子。
处理模块74,用于将所述第二图像的特征描述子与所述词袋模型进行匹配,并根据匹配结果确定所述待定位目标的位置。
可选地,所述构建模块72用于:
从所述第一图像中提取各个特征点,并生成各个特征点对应的特征描述子。
可选地,所述构建模块72用于:
若所述第一图像为首帧图像,则根据所述第一图像的特征描述子生成所述词袋模型;
若所述第一图像为首帧图像之后的图像,则根据所述第一图像的特征描述子对所述词袋模型进行更新。
可选地,所述构建模块72用于:
建立初始词袋模型;
将所述第一图像的各个特征描述子分配到所述初始词袋模型中距离各个特征描述子最近的节点上。
可选地,所述词袋模型的各个节点拥有的子节点个数均不大于预设个数阈值。
可选地,所述构建模块72用于:
获取所述第一图像的第二特征描述子,并在所述词袋模型中查找第一视觉单词;所述第一视觉单词为与所述第二特征描述子相似的视觉单词;所述视觉单词为所述词袋模型的各个叶子节点对应的特征描述子;
若在所述词袋模型中查找到所述第一视觉单词,则将所述第二特征描述子与所述第一视觉单词进行融合,生成新的视觉单词,并将所述新的视觉单词代替所述第一视觉单词;
若在所述词袋模型中没有查找到所述第一视觉单词,则将所述第二特征描述子分配到距离所述第二特征描述子最近的节点上。
可选地,所述处理模块74用于:
在所述词袋模型中查找所述第二图像的各个特征描述子对应的第二视觉单词;所述视觉单词为所述词袋模型的各个叶子节点对应的特征描述子;
确定各个第二视觉单词所在的第三图像;
统计各个第三图像的出现次数,并从所有第三图像中选取出现次数较高的预设帧数的第三图像作为候选图像;
将所述第二图像分别与各个候选图像进行匹配,获得所述匹配结果。
本发明实施例获取在区域内进行同时定位与地图构建过程中通过视觉传感器采集到的第一图像;提取第一图像的特征描述子,并根据第一图像的特征描述子构建词袋模型;在对区域内的待定位目标进行重定位时,获取待定位目标当前周围的第二图像,并提取第二图像的特征描述子;将第二图像的特征描述子与词袋模型进行匹配,并根据匹配结果确定待定位目标的位置。本发明实施例在同时定位与地图构建过程中根据采集到的图像构建得到词袋模型,在对待定位目标进行重定位时,通过待定位目标周围的图像和词袋模型进行匹配实现重定位。本发明实施例中词袋模型是根据当前区域的图像构建得到的,能够使得重定位过程中待定位目标周围的图像与词袋模型的匹配更加准确,进而提高定位准确度。
图8是本发明一实施例提供的终端设备的示意图。如图8所示,该实施例的终端设备8包括:处理器80、存储器81以及存储在所述存储器81中并可在所述处理器80上运行的计算机程序82,例如程序。所述处理器80执行所述计算机程序82时实现上述各个方法实施例中的步骤,例如图1所示的步骤101至104。或者,所述处理器80执行所述计算机程序82时实现上述各装置实施例中各模块/单元的功能,例如图7所示模块71至74的功能。
示例性的,所述计算机程序82可以被分割成一个或多个模块/单元,所述一个或者多个模块/单元被存储在所述存储器81中,并由所述处理器80执行,以完成本发明。所述一个或多个模块/单元可以是能够完成特定功能的一系列计算机程序指令段,该指令段用于描述所述计算机程序82在所述终端设备8中的执行过程。
所述终端设备8可以是桌上型计算机、笔记本、掌上电脑及云端服务器等计算设备。所述终端设备可包括,但不仅限于,处理器80、存储器81。本领域技术人员可以理解,图8仅仅是终端设备8的示例,并不构成对终端设备8的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件,例如所述终端设备还可以包括输入输出设备、网络接入设备、总线、显示器等。
所称处理器80可以是中央处理单元(Central Processing Unit,CPU),还可以是其他通用处理器、数字信号处理器(Digital Signal Processor,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现成可编程门阵列(Field-Programmable Gate Array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。
所述存储器81可以是所述终端设备8的内部存储单元,例如终端设备8的硬盘或内存。所述存储器81也可以是所述终端设备8的外部存储设备,例如所述终端设备8上配备的插接式硬盘,智能存储卡(Smart Media Card,SMC),安全数字(Secure Digital,SD)卡,闪存卡(Flash Card)等。进一步地,所述存储器81还可以既包括所述终端设备8的内部存储单元也包括外部存储设备。所述存储器81用于存储所述计算机程序以及所述终端设备所需的其他程序和数据。所述存储器81还可以用于暂时地存储已经输出或者将要输出的数据。
所属领域的技术人员可以清楚地了解到,为了描述的方便和简洁,仅以上述各功能单元、模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能单元、模块完成,即将所述装置的内部结构划分成不同的功能单元或模块,以完成以上描述的全部或者部分功能。实施例中的各功能单元、模块可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中,上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。另外,各功能单元、模块的具体名称也只是为了便于相互区分,并不用于限制本申请的保护范围。上述系统中单元、模块的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
在上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述或记载的部分,可以参见其它实施例的相关描述。
本领域普通技术人员可以意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、或者计算机软件和电子硬件的结合来实现。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本发明的范围。
在本发明所提供的实施例中,应该理解到,所揭露的装置/终端设备和方法,可以通过其它的方式实现。例如,以上所描述的装置/终端设备实施例仅仅是示意性的,例如,所述模块或单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通讯连接可以是通过一些接口,装置或单元的间接耦合或通讯连接,可以是电性,机械或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本发明各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
所述集成的模块/单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明实现上述实施例方法中的全部或部分流程,也可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一计算机可读存储介质中,该计算机程序在被处理器执行时,可实现上述各个方法实施例的步骤。其中,所述计算机程序包括计算机程序代码,所述计算机程序代码可以为源代码形式、对象代码形式、可执行文件或某些中间形式等。所述计算机可读介质可以包括:能够携带所述计算机程序代码的任何实体或装置、记录介质、U盘、移动硬盘、磁碟、光盘、计算机存储器、只读存储器(Read-Only Memory,ROM)、随机存取存储器(RandomAccess Memory,RAM)、电载波信号、电信信号以及软件分发介质等。需要说明的是,所述计算机可读介质包含的内容可以根据司法管辖区内立法和专利实践的要求进行适当的增减,例如在某些司法管辖区,根据立法和专利实践,计算机可读介质不包括是电载波信号和电信信号。
以上所述实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围,均应包含在本发明的保护范围之内。

Claims (10)

1.一种重定位方法,其特征在于,包括:
获取在区域内进行同时定位与地图构建过程中通过视觉传感器采集到的第一图像;
提取所述第一图像的特征描述子,并根据所述第一图像的特征描述子构建词袋模型;
在对所述区域内的待定位目标进行重定位时,获取所述待定位目标当前周围的第二图像,并提取所述第二图像的特征描述子;
将所述第二图像的特征描述子与所述词袋模型进行匹配,并根据匹配结果确定所述待定位目标的位置。
2.如权利要求1所述的重定位方法,其特征在于,所述提取所述第一图像的特征描述子包括:
从所述第一图像中提取各个特征点,并生成各个特征点对应的特征描述子。
3.如权利要求1所述的重定位方法,其特征在于,所述根据所述第一图像的特征描述子构建词袋模型包括:
若所述第一图像为首帧图像,则根据所述第一图像的特征描述子生成所述词袋模型;
若所述第一图像为首帧图像之后的图像,则根据所述第一图像的特征描述子对所述词袋模型进行更新。
4.如权利要求3所述的重定位方法,其特征在于,所述根据所述第一图像的特征描述子生成所述词袋模型包括:
建立初始词袋模型;
将所述第一图像的各个特征描述子分配到所述初始词袋模型中距离各个特征描述子最近的节点上。
5.如权利要求3所述的重定位方法,其特征在于,所述词袋模型的各个节点拥有的子节点个数均不大于预设个数阈值。
6.如权利要求3所述的重定位方法,其特征在于,所述根据所述第一图像的特征描述子对所述词袋模型进行更新包括:
获取所述第一图像的第二特征描述子,并在所述词袋模型中查找第一视觉单词;所述第一视觉单词为与所述第二特征描述子相似的视觉单词;所述视觉单词为所述词袋模型的各个叶子节点对应的特征描述子;
若在所述词袋模型中查找到所述第一视觉单词,则将所述第二特征描述子与所述第一视觉单词进行融合,生成新的视觉单词,并将所述新的视觉单词代替所述第一视觉单词;
若在所述词袋模型中没有查找到所述第一视觉单词,则将所述第二特征描述子分配到距离所述第二特征描述子最近的节点上。
7.如权利要求1至6任一项所述的重定位方法,其特征在于,所述将所述第二图像的特征描述子与所述词袋模型进行匹配包括:
在所述词袋模型中查找所述第二图像的各个特征描述子对应的第二视觉单词;所述视觉单词为所述词袋模型的各个叶子节点对应的特征描述子;
确定各个第二视觉单词所在的第三图像;
统计各个第三图像的出现次数,并从所有第三图像中选取出现次数较高的预设帧数的第三图像作为候选图像;
将所述第二图像分别与各个候选图像进行匹配,获得所述匹配结果。
8.一种重定位装置,其特征在于,包括:
第一获取模块,用于获取在区域内进行同时定位与地图构建过程中通过视觉传感器采集到的第一图像;
构建模块,用于提取所述第一图像的特征描述子,并根据所述第一图像的特征描述子构建词袋模型;
第二获取模块,用于在对所述区域内的待定位目标进行重定位时,获取所述待定位目标当前周围的第二图像,并提取所述第二图像的特征描述子;
处理模块,用于将所述第二图像的特征描述子与所述词袋模型进行匹配,并根据匹配结果确定所述待定位目标的位置。
9.一种终端设备,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现如权利要求1至7任一项所述方法的步骤。
10.一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1至7任一项所述方法的步骤。
CN201811589600.0A 2018-12-25 2018-12-25 重定位方法及终端设备 Active CN111368860B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201811589600.0A CN111368860B (zh) 2018-12-25 2018-12-25 重定位方法及终端设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201811589600.0A CN111368860B (zh) 2018-12-25 2018-12-25 重定位方法及终端设备

Publications (2)

Publication Number Publication Date
CN111368860A true CN111368860A (zh) 2020-07-03
CN111368860B CN111368860B (zh) 2024-04-26

Family

ID=71207894

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201811589600.0A Active CN111368860B (zh) 2018-12-25 2018-12-25 重定位方法及终端设备

Country Status (1)

Country Link
CN (1) CN111368860B (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111505662A (zh) * 2020-04-29 2020-08-07 北京理工大学 一种无人驾驶车辆定位方法及系统
CN112101378A (zh) * 2020-08-20 2020-12-18 上海姜歌机器人有限公司 机器人重定位方法、装置及设备
CN113936064A (zh) * 2021-12-17 2022-01-14 荣耀终端有限公司 定位方法和装置

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120194644A1 (en) * 2011-01-31 2012-08-02 Microsoft Corporation Mobile Camera Localization Using Depth Maps
CN105843925A (zh) * 2016-03-23 2016-08-10 中国科学技术大学 一种基于改进bow算法的相似图片搜索方法
CN107677279A (zh) * 2017-09-26 2018-02-09 上海思岚科技有限公司 一种定位建图的方法及系统
US20180089832A1 (en) * 2016-09-29 2018-03-29 Intel Corporation Place recognition algorithm
CN108986168A (zh) * 2018-06-13 2018-12-11 深圳市感动智能科技有限公司 一种基于深度度量学习结合词袋树模型的机器人回环检测方法和装置

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120194644A1 (en) * 2011-01-31 2012-08-02 Microsoft Corporation Mobile Camera Localization Using Depth Maps
CN105843925A (zh) * 2016-03-23 2016-08-10 中国科学技术大学 一种基于改进bow算法的相似图片搜索方法
US20180089832A1 (en) * 2016-09-29 2018-03-29 Intel Corporation Place recognition algorithm
CN107677279A (zh) * 2017-09-26 2018-02-09 上海思岚科技有限公司 一种定位建图的方法及系统
CN108986168A (zh) * 2018-06-13 2018-12-11 深圳市感动智能科技有限公司 一种基于深度度量学习结合词袋树模型的机器人回环检测方法和装置

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111505662A (zh) * 2020-04-29 2020-08-07 北京理工大学 一种无人驾驶车辆定位方法及系统
CN111505662B (zh) * 2020-04-29 2021-03-23 北京理工大学 一种无人驾驶车辆定位方法及系统
CN112101378A (zh) * 2020-08-20 2020-12-18 上海姜歌机器人有限公司 机器人重定位方法、装置及设备
CN113936064A (zh) * 2021-12-17 2022-01-14 荣耀终端有限公司 定位方法和装置

Also Published As

Publication number Publication date
CN111368860B (zh) 2024-04-26

Similar Documents

Publication Publication Date Title
CN110307838B (zh) 机器人重定位方法、装置、计算机可读存储介质及机器人
CN110322500B (zh) 即时定位与地图构建的优化方法及装置、介质和电子设备
CN111815754B (zh) 一种三维信息确定方法、三维信息确定装置及终端设备
US8798357B2 (en) Image-based localization
CN108645411B (zh) 基于粒子群算法的机器人路径规划方法、装置及终端设备
US20210183097A1 (en) Spare Part Identification Using a Locally Learned 3D Landmark Database
JP6830137B2 (ja) 動的障害物の位置校正方法、装置、機器、及び記憶媒体
CN110986969B (zh) 地图融合方法及装置、设备、存储介质
CN110648363A (zh) 相机姿态确定方法、装置、存储介质及电子设备
CN111612841A (zh) 目标定位方法及装置、移动机器人及可读存储介质
CN111368860B (zh) 重定位方法及终端设备
CN109313809B (zh) 一种图像匹配方法、装置及存储介质
CN112198878B (zh) 一种即时地图构建方法、装置、机器人及存储介质
CN111784776A (zh) 视觉定位方法及装置、计算机可读介质和电子设备
CN111832579B (zh) 地图兴趣点数据处理方法、装置、电子设备以及可读介质
CN105447869A (zh) 基于粒子群优化算法的摄像机自标定方法及装置
CN113592015B (zh) 定位以及训练特征匹配网络的方法和装置
CN112258647B (zh) 地图重建方法及装置、计算机可读介质和电子设备
CN114674328B (zh) 地图生成方法、装置、电子设备、存储介质、及车辆
CN111104965A (zh) 车辆目标识别的方法及装置
CN109816709B (zh) 基于单目摄像头的深度估计方法、装置及设备
CN116415652A (zh) 一种数据生成方法、装置、可读存储介质及终端设备
CN112948605A (zh) 点云数据的标注方法、装置、设备及可读存储介质
CN113435502B (zh) 站点流量确定方法、装置、设备及存储介质
US11599743B2 (en) Method and apparatus for obtaining product training images, and non-transitory computer-readable storage medium

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant