CN109489663A - 一种定位方法及装置、移动设备和计算机可读存储介质 - Google Patents
一种定位方法及装置、移动设备和计算机可读存储介质 Download PDFInfo
- Publication number
- CN109489663A CN109489663A CN201811224722.XA CN201811224722A CN109489663A CN 109489663 A CN109489663 A CN 109489663A CN 201811224722 A CN201811224722 A CN 201811224722A CN 109489663 A CN109489663 A CN 109489663A
- Authority
- CN
- China
- Prior art keywords
- block
- image block
- image
- location information
- map
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/20—Instruments for performing navigational calculations
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
Landscapes
- Engineering & Computer Science (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Automation & Control Theory (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Theoretical Computer Science (AREA)
- Image Analysis (AREA)
Abstract
本公开提供一种定位方法及装置、移动设备和计算机可读存储介质。其中,定位方法包括:对待定位图像进行分割,得到多个图像块;将至少一个图像块输入预先建立的地图中,并获得与输入的每个图像块相似的第一预设数量的图像区块,其中,地图中已删除易混淆区块,易混淆区块是指影响定位精度的图像区块;根据第一预设数量的图像区块,获得输入的每个图像块的定位信息;根据获得的每个图像块的定位信息,获得待定位图像的定位信息。本公开实施例,通过对获取的待定位图像进行分割,以突出辨识度高的区块的定位精度,同时,由于地图中已删除影响定位精度的易混淆区块,因此,可以去除易混淆区块对定位的影响,提高定位成功率。
Description
技术领域
本公开涉及定位技术,尤其涉及一种定位方法及装置、移动设备和计算机可读存储介质。
背景技术
随着社会的进步和科技的发展,定位技术在技术手段、定位精度、可用性等方面均取得质的飞越,并且逐步从航海、航天、航空、测绘、军事、自然灾害预防等领域逐步渗透到社会生活的方方面面,成为人们日常中不可或缺的重要应用。
随着智能移动机器人逐渐实用化,其对于定位导航的需求也越来越高,为了完成自主驾驶、无人驾驶或无人配送等任务,机器人必须知道自己所处的精确位置。移动机器人的定位和地图创建是移动机器人领域的热点研究问题。
目前,可以利用即时定位与地图创建(Simultaneous localization andmapping,简称SLAM)技术进行定位。该定位方式包括视觉SLAM方式。
视觉SLAM方式先使用vslam技术或sfm技术构建视觉地图,然后将需要定位的视觉数据(图片)与地图做匹配,获得定位信息。其中,一种常用的定位方式是基于特征点的直接匹配计算获得定位信息,另一种常用的定位方式是基于整张图像特征描述的匹配,通过这些描述找到地图中与其最相近的图像,然后再根据通常的描述点匹配计算得到定位信息。
但是,基于特征点匹配的直接定位方式的计算速度很慢,且不适合大尺度的空间。而基于整副图像的特征检索方式虽然速度很快,也比较适合大尺度空间的定位,但其定位成功率不高。
发明内容
有鉴于此,本公开提供一种定位方法及装置、移动设备和计算机可读存储介质。
具体地,本公开是通过如下技术方案实现的:
根据本公开实施例的第一方面,提供一种定位方法,所述方法包括:
对待定位图像进行分割,得到多个图像块;
将所述多个图像块中的至少一个图像块输入预先建立的地图中,并从所述地图中获得与输入的每个图像块相似的第一预设数量的图像区块,其中,所述地图中已删除易混淆区块,所述易混淆区块是指影响定位精度的图像区块;
根据所述与输入的每个图像块相似的第一预设数量的图像区块,获得输入的每个图像块的定位信息;
根据获得的所述每个图像块的定位信息,获得所述待定位图像的定位信息。
在一实施例中,所述根据所述与输入的每个图像块相似的第一预设数量的图像区块,获得输入的每个图像块的定位信息,包括:
从所述与每个图像块相似的第一预设数量的图像区块中获得匹配率最高的图像区块;
根据所述匹配率最高的图像区块获得所述每个图像块的定位信息。
在一实施例中,所述根据获得的所述每个图像块的定位信息,获得所述待定位图像的定位信息,包括:
若确定至少两个图像块的定位信息相同,则将所述至少两个图像块的定位信息作为所述待定位图像的定位信息;
若确定所有图像块的定位信息均不相同,则获取所有图像块中与相似图像区块匹配率最高的图像块,并将所获取的匹配率最高的图像块的定位信息作为所述待定位图像的定位信息。
在一实施例中,所述将所述多个图像块中的至少一个图像块输入预先建立的地图中,包括:
根据每个图像块中的特征点对所述多个图像块进行排序;
根据排序结果从所述多个图像块中选择第二预设数量的图像块;
将所述第二预设数量的图像块输入所述地图中。
在一实施例中,所述地图通过以下方法预先建立:
构建词袋模型;
对用于建图的图像进行分割,得到多个图像区块;
基于所述词袋模型为所述多个图像区块建立逆向索引关系;
确定所述地图中的所述易混淆区块;
从所述地图中删除所述易混淆区块。
在一实施例中,所述所述地图中的易混淆区块通过以下方式确定:
针对所述地图中的每个图像区块,采用图像索引的方式从所述地图中确定特征点排序排名在前但与当前图像区块不匹配的第三预设数量的图像区块;
根据所述当前图像区块和所确定的所述与当前图像区块不匹配的第三预设数量的图像区块的匹配率,计算出所述当前图像区块的易混淆率;
若所述易混淆率大于预设阈值,则确定所述当前图像区块为所述易混淆区块。
根据本公开实施例的第二方面,提供一种定位装置,所述装置包括:
分割模块,用于对待定位图像进行分割,得到多个图像块;
输入获得模块,用于将所述分割模块得到的所述多个图像块中的至少一个图像块输入预先建立的地图中,并从所述地图中获得与输入的每个图像块相似的第一预设数量的图像区块,其中,所述地图中已删除易混淆区块,所述易混淆区块是指影响定位精度的图像区块;
获得模块,用于根据所述与所述输入获得模块获得的与输入的每个图像块相似的第一预设数量的图像区块,获得输入的每个图像块的定位信息;
定位模块,用于根据所述获得模块获得的所述每个图像块的定位信息,获得所述待定位图像的定位信息。
在一实施例中,所述获得模块包括:
第一获得子模块,用于从所述与每个图像块相似的第一预设数量的图像区块中获得匹配率最高的图像区块;
第二获得子模块,用于根据所述第一获得子模块获得的所述匹配率最高的图像区块获得所述每个图像块的定位信息。
根据本公开实施例的第三方面,提供一种计算机可读存储介质,所述存储介质存储有计算机程序,所述计算机程序用于执行上述定位方法。
根据本公开实施例的第四方面,提供一种移动设备,包括视觉传感器、处理器、存储器及存储在所述存储器上并可在处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现上述定位方法。
本公开实施例,通过对获取的待定位图像进行分割,得到多个图像块,以突出辨识度高的区域的定位精度,通过将多个图像块中的至少一个图像块输入预先建立的地图中,以从地图中获得与输入的每个图像块相似的第一预设数量的图像区块,并根据与输入的每个图像块相似的第一预设数量的图像区块,获得输入的每个图像块的定位信息,然后根据获得的每个图像块的定位信息,获得待定位图像的定位信息,由于该实施例的地图中已删除影响定位精度的易混淆区块,因此,可以去除易混淆区块对定位的影响,提高定位成功率。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,并不能限制本公开。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本发明的实施例,并与说明书一起用于解释本发明的原理。
图1是本公开一示例性实施例示出的一种定位方法的流程图;
图2是本公开一示例性实施例示出的一种获得输入的每个图像块的定位信息的流程图;
图3是本公开一示例性实施例示出的一种建立地图的流程图;
图4是本公开一示例性实施例示出的一种确定地图中的易混淆区块的流程图;
图5是本公开一示例性实施例示出的一种定位装置所在移动设备的硬件结构图;
图6是本公开一示例性实施例示出的一种定位装置的框图;
图7是本公开一示例性实施例示出的另一种定位装置的框图。
具体实施方式
这里将详细地对示例性实施例进行说明,其示例表示在附图中。下面的描述涉及附图时,除非另有表示,不同附图中的相同数字表示相同或相似的要素。以下示例性实施例中所描述的实施方式并不代表与本公开相一致的所有实施方式。相反,它们仅是与如所附权利要求书中所详述的、本公开的一些方面相一致的装置和方法的例子。
在本公开使用的术语是仅仅出于描述特定实施例的目的,而非旨在限制本公开。在本公开和所附权利要求书中所使用的单数形式的“一种”、“所述”和“该”也旨在包括多数形式,除非上下文清楚地表示其他含义。还应当理解,本文中使用的术语“和/或”是指并包含一个或多个相关联的列出项目的任何或所有可能组合。
应当理解,尽管在本公开可能采用术语第一、第二、第三等来描述各种信息,但这些信息不应限于这些术语。这些术语仅用来将同一类型的信息彼此区分开。例如,在不脱离本公开范围的情况下,第一信息也可以被称为第二信息,类似地,第二信息也可以被称为第一信息。取决于语境,如在此所使用的词语“如果”可以被解释成为“在……时”或“当……时”或“响应于确定”。
图1是本公开一示例性实施例示出的一种定位方法的流程图,该定位方法可应用于移动设备上,该移动设备可以包括但不局限于无人车、机器人等,如图1所示,该定位方法包括:
步骤S101,对待定位图像进行分割,得到多个图像块。
其中,可以通过位于移动设备中的视觉传感器获取待定位图像,并可以采用多种分割方式例如基于图形的图像分割(graph-based image segmentation)或深度学习的分割方式等对该待定位图像进行分割。
步骤S102,将多个图像块中的至少一个图像块输入预先建立的地图中,并从地图中获得与输入的每个图像块相似的第一预设数量的图像区块,其中,地图中已删除易混淆区块,易混淆区块是指影响定位精度的图像区块。
其中,第一预设数量可以根据需要灵活设置。
为了提高定位速度,该实施例中可以将多个图像块中的部分图像块即多个图像块中的一个或几个图像块输入预先建立的地图中,以从地图中获得与输入的每个图像块相似的第一预设数量的图像区块。
其中,将多个图像块中的部分图像块输入地图中的方式可以为:对多个图像块进行排序,根据排序结果从多个图像块中选择第二预设数量的图像块,将第二预设数量的图像块输入地图中。其中,第二预设数量可以根据需要灵活设置。排序方式可以是按照图像块中的特征点数目进行排序,选择拥有特征点最多的第二预设数量的图像块。
在该实施例中,可以将所述多个图像块中的至少一个图像块输入预先建立的地图,以建立输入的每个图像块对应的词袋模型,基于建立的词袋模型与用于建图的图像区块计算相似性,根据相似性排名获得与输入的每个图像块相似的第一预设数量的图像区块。
步骤S103,根据与输入的每个图像块相似的第一预设数量的图像区块,获得输入的每个图像块的定位信息。
其中,如图2所示,根据与输入的每个图像块相似的第一预设数量的图像区块,获得输入的每个图像块的定位信息可以包括:
步骤S1031,从与每个图像块相似的第一预设数量的图像区块中获得匹配率最高的图像区块。
其中,可以通过特征点匹配的方式获得与每个图像块匹配率最高的图像区块。
步骤S1032,根据匹配率最高的图像区块获得每个图像块的定位信息。
其中,地图中保存有每个图像区块对应的绝对位置信息,因此,可以通过匹配率最高的图像区块的绝对位置信息来计算对应图像块的绝对位置信息。然后计算每个图像块及其对应的匹配率最高的图像区块之间的相对位移。最后,根据上述绝对位置信息和相对位移,得到每个图像块的定位信息。
其中,可以对每个图像块(称为A)及其对应的匹配率最高的图像区块(称为B)计算相对运动来获得二者的相对位移。
在该实施例中,根据图像块A特征点的二维(2D)信息可以选择透视n点定位(Perspective-n-Point,简称PnP)算法计算相对运动,也可以使用3D-3D的迭代最近点(iterative closest point,简称ICP)算法计算相对运动。同时,为去除外点,提高计算精度,可以加入随机采样一致性(RANSAC)算法。
在获得每个图像块的绝对位置信息以及每个图像块及其对应的匹配率最高的图像区块之间的相对位移之后,可以根据该绝对位置信息和相对位移得到每个图像块的定位信息。
假设,图像块a的位姿(绝对定位)为Ta,与其匹配率最高的图像区块b的位姿为Tb,而图像区块b到图像块a的相对位移为Tab,则Ta=Tab*Tb。
其中,Tb在建图时已知,而Tab则可以通过透视n点定位(pnp)或ICP计算获得。
该实施例,通过获得与每个图像块匹配率最高的图像区块,并通过匹配率最高的图像区块获得每个图像块的绝对位置信息以及相对位移,从而得到每个图像块的定位信息,实现方式简单。
步骤S104,根据获得的每个图像块的定位信息,获得待定位图像的定位信息。
在该实施例中,若确定至少两个图像块的定位信息相同,则将至少两个图像块的定位信息作为待定位图像的定位信息。若确定所有图像块的定位信息均不相同,则获取所有图像块中与相似图像区块匹配率最高的图像块,并将所获取的匹配率最高的图像块的定位信息作为待定位图像的定位信息。
上述实施例,通过对获取的待定位图像进行分割,得到多个图像块,以突出辨识度高的区域的定位精度,通过将多个图像块中的至少一个图像块输入预先建立的地图中,并从地图中获得与输入的每个图像块相似的第一预设数量的图像区块,根据与输入的每个图像块相似的第一预设数量的图像区块,获得输入的每个图像块的定位信息,然后根据获得的每个图像块的定位信息,获得待定位图像的定位信息,由于该实施例的地图中已删除影响定位精度的易混淆区块,因此,可以去除易混淆区块对定位的影响,提高定位成功率。
图3是本公开一示例性实施例示出的一种建立地图的流程图,如图3所示,地图可以通过以下方式预先建立:
步骤S300,构建词袋模型。
步骤S301,对用于建图的图像进行分割,得到多个图像区块。
其中,可以采用多种分割方式例如基于图形的图像分割(graph-based imagesegmentation)或深度学习的分割方式等对该待定位图像进行分割。
需要说明的是,建立地图过程中采用的图像分割方式与定位过程中采用的图像分割方式相同。
步骤S302,基于词袋模型为多个图像区块建立逆向索引关系。
在该实施例中,可以对用于建图的图像提取特征点,以建立词袋模型,然后根据词袋模型,建立逆向索引关系。
在该实施例中,通过建立逆向索引,可以快速查找相似的图像块,从而避免暴力搜索。
步骤S303,确定地图中的易混淆区块。
如图4所示,确定地图中的易混淆区块可以包括:
步骤S3031,针对地图中的每个图像区块,采用图像索引的方式从地图中确定特征点排序排名在前但与当前图像区块不匹配的第三预设数量的图像区块。
其中,第三预设数量可以根据需要灵活设置。排名靠前的图像区块是指通过词袋模型匹配靠前的图像区块,与当前图像区块不匹配的图像区块是指与当前图像区块的特征点匹配率不高的图像区块。
步骤S3032,根据当前图像区块和所确定的与当前图像区块不匹配的第三预设数量的图像区块的匹配率,计算出当前图像区块的易混淆率。
假设,当前图像区块为区块w,区块w的特征点数为Sw,所确定的与区块w不匹配的第三预设数量的图像区块为区块i,i的取值为1至N,并且每个区块i与区块w匹配上的特征点数计为Swi,则区块w的易混淆率ρ为:
步骤S3033,若该易混淆率大于预设阈值,则确定当前图像区块为易混淆区块。
其中,预设阈值可以根据需要灵活设置。
若当前图像区块的易混淆率大于预设阈值,则可以确定当前图像区块为易混淆区块。
该实施例,通过根据当前图像区块和所确定的与当前图像区块不匹配的第三预设数量的图像区块的匹配率,计算出当前图像区块的易混淆率,使得所计算的易混淆率更准确,从而使得所确定的易混淆区块更准确。
步骤S304,从地图中删除易混淆区块。
上述实施例,确定地图中的易混淆区块,并从地图中删除易混淆区块,从而剔除一些对定位没有帮助,甚至带来混淆的区块,有利于提高定位的鲁棒性和定位精度。
与前述定位方法的实施例相对应,本公开还提供了定位装置的实施例。
本公开定位装置的实施例可以应用在移动设备上。其中,该移动设备可以为无人车或机器人等。装置实施例可以通过软件实现,也可以通过硬件或者软硬件结合的方式实现。如图5所示,为本公开定位装置所在移动设备的一种硬件结构图,该电子设备包括视觉传感器500、处理器510、存储器520及存储在存储器520上并可在处理器510上运行的计算机程序,该处理器510执行该计算机程序时实现上述定位方法。除了图5所示的处理器510及存储器520之外,实施例中装置所在的电子设备通常根据该定位的实际功能,还可以包括其他硬件,对此不再赘述。
图6是本公开一示例性实施例示出的一种定位装置的框图,该定位装置可以位于移动设备中,该移动设备可以包括但不局限于无人车、机器人等,如图6所示,该装置包括:分割模块61、输入获得模块62、获得模块63和定位模块64。
分割模块61用于对待定位图像进行分割,得到多个图像块。
其中,可以通过位于移动设备中的视觉传感器获取待定位图像,并可以采用多种分割方式例如基于图形的图像分割(graph-based image segmentation)或深度学习的分割方式等对该待定位图像进行分割。
输入获得模块62用于将分割模块61得到的多个图像块中的至少一个图像块输入预先建立的地图中,并从地图中获得与输入的每个图像块相似的第一预设数量的图像区块,其中,地图中已删除易混淆区块,易混淆区块是指影响定位精度的图像区块。
其中,第一预设数量可以根据需要灵活设置。
为了提高定位速度,该实施例中可以将多个图像块中的部分图像块即多个图像块中的一个或几个图像块输入预先建立的地图中,以从地图中获得与输入的每个图像块相似的第一预设数量的图像区块。
其中,将多个图像块中的部分图像块输入地图中的方式可以为:对多个图像块进行排序,根据排序结果从多个图像块中选择第二预设数量的图像块,将第二预设数量的图像块输入地图中。
其中,第二预设数量可以根据需要灵活设置。排序方式可以是按照图像块中的特征点数目进行排序,选择拥有特征点最多的第二预设数量的图像块。
在该实施例中,可以将所述多个图像块中的至少一个图像块输入预先建立的地图,以建立输入的每个图像块对应的词袋模型,基于建立的词袋模型与用于建图的图像区块计算相似性,根据相似性排名获得与输入的每个图像块相似的第一预设数量的图像区块。
获得模块63用于根据与输入获得模块62获得的与输入的每个图像块相似的第一预设数量的图像区块,获得输入的每个图像块的定位信息。
其中,根据与输入的每个图像块相似的第一预设数量的图像区块,获得输入的每个图像块的定位信息的过程可以如图2所示,此处不赘述。
定位模块64用于根据获得模块63获得的每个图像块的定位信息,获得待定位图像的定位信息。
在该实施例中,若确定至少两个图像块的定位信息相同,则将至少两个图像块的定位信息作为待定位图像的定位信息。若确定所有图像块的定位信息均不相同,则获取所有图像块中与相似图像区块匹配率最高的图像块,并将所获取的匹配率最高的图像块的定位信息作为待定位图像的定位信息。
上述实施例,通过对获取的待定位图像进行分割,得到多个图像块,以突出辨识度高的区域的定位精度,通过将多个图像块中的至少一个图像块输入预先建立的地图中,并从地图中获得与输入的每个图像块相似的第一预设数量的图像区块,根据与输入的每个图像块相似的第一预设数量的图像区块,获得输入的每个图像块的定位信息,然后根据获得的每个图像块的定位信息,获得待定位图像的定位信息,由于该实施例的地图中已删除影响定位精度的易混淆区块,因此,可以去除易混淆区块的影响,提高定位成功率。
图7是本公开一示例性实施例示出的另一种定位装置的框图,在图6所示实施例的基础上,如图7所示,获得模块63可以包括:第一获得子模块631和第二获得子模块632。
第一获得子模块631用于从所述与每个图像块相似的第一预设数量的图像区块中获得匹配率最高的图像区块。
其中,可以通过特征点匹配的方式获得与每个图像块匹配率最高的图像区块。
第二获得子模块632用于根据所述第一获得子模块631获得的所述匹配率最高的图像区块获得所述每个图像块的定位信息。
其中,地图中保存有每个图像区块对应的绝对位置信息,因此,可以通过匹配率最高的图像区块的绝对位置信息来计算对应图像块的绝对位置信息。然后计算每个图像块及其对应的匹配率最高的图像区块之间的相对位移。最后,根据上述绝对位置信息和相对位移,得到每个图像块的定位信息。
其中,可以对每个图像块(称为A)及其对应的匹配率最高的图像区块(称为B)计算相对运动来获得二者的相对位移。
在该实施例中,根据图像块A特征点的二维(2D)信息可以选择透视n点定位(Perspective-n-Point,简称PnP)算法计算相对运动,也可以使用3D-3D的迭代最近点(iterative closest point,简称ICP)算法计算相对运动。同时,为去除外点,提高计算精度,可以加入随机采样一致性(RANSAC)算法。
在获得每个图像块的绝对位置信息以及每个图像块及其对应的匹配率最高的图像区块之间的相对位移之后,可以根据该绝对位置信息和相对位移得到每个图像块的定位信息。
假设,图像块a的位姿(绝对定位)为Ta,与其匹配率最高的图像区块b的位姿为Tb,而图像区块b到图像块a的相对位移为Tab,则Ta=Tab*Tb。
其中,Tb在建图时已知,而Tab则可以通过透视n点定位(pnp)或ICP计算获得。
上述实施例,通过获得与每个图像块匹配率最高的图像区块,并通过匹配率最高的图像区块获得每个图像块的绝对位置信息以及相对位移,从而得到每个图像块的定位信息,实现方式简单。
上述装置中各个单元的功能和作用的实现过程具体详见上述方法中对应步骤的实现过程,在此不再赘述。
在示例性实施例中,还提供了一种计算机可读存储介质,该存储介质存储有计算机程序,该计算机程序用于执行上述定位方法,其中,该定位方法包括:
对待定位图像进行分割,得到多个图像块;
将多个图像块中的至少一个图像块输入预先建立的地图中,以从地图中获得与输入的每个图像块相似的第一预设数量的图像区块,其中,地图中已删除易混淆区块,易混淆区块是指影响定位精度的图像区块;
根据与输入的每个图像块相似的第一预设数量的图像区块,获得输入的每个图像块的定位信息;
根据获得的每个图像块的定位信息,获得待定位图像的定位信息。
上述计算机可读存储介质可以是只读存储器(ROM)、随机存取存储器(RAM)、光盘只读存储器(CD-ROM)、磁带、软盘和光数据存储设备等。
对于装置实施例而言,由于其基本对应于方法实施例,所以相关之处参见方法实施例的部分说明即可。以上所描述的装置实施例仅仅是示意性的,其中作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本公开方案的目的。本领域普通技术人员在不付出创造性劳动的情况下,即可以理解并实施。
本领域技术人员在考虑说明书及实践这里公开的发明后,将容易想到本公开的其它实施方案。本公开旨在涵盖本公开的任何变型、用途或者适应性变化,这些变型、用途或者适应性变化遵循本公开的一般性原理并包括本公开未公开的本技术领域中的公知常识或惯用技术手段。说明书和实施例仅被视为示例性的,本公开的真正范围和精神由权利要求指出。
还需要说明的是,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、商品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、商品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括要素的过程、方法、商品或者设备中还存在另外的相同要素。
以上仅为本公开的较佳实施例而已,并不用以限制本公开,凡在本公开的精神和原则之内,所做的任何修改、等同替换、改进等,均应包含在本公开保护的范围之内。
Claims (10)
1.一种定位方法,其特征在于,所述方法包括:
对待定位图像进行分割,得到多个图像块;
将所述多个图像块中的至少一个图像块输入预先建立的地图中,并从所述地图中获得与输入的每个图像块相似的第一预设数量的图像区块,其中,所述地图中已删除易混淆区块,所述易混淆区块是指影响定位精度的图像区块;
根据所述与输入的每个图像块相似的第一预设数量的图像区块,获得输入的每个图像块的定位信息;
根据获得的所述每个图像块的定位信息,获得所述待定位图像的定位信息。
2.根据权利要求1所述的方法,其特征在于,所述根据所述与输入的每个图像块相似的第一预设数量的图像区块,获得输入的每个图像块的定位信息,包括:
从所述与每个图像块相似的第一预设数量的图像区块中获得匹配率最高的图像区块;
根据所述匹配率最高的图像区块获得所述每个图像块的定位信息。
3.根据权利要求1所述的方法,其特征在于,所述根据获得的所述每个图像块的定位信息,获得所述待定位图像的定位信息,包括:
若确定至少两个图像块的定位信息相同,则将所述至少两个图像块的定位信息作为所述待定位图像的定位信息;
若确定所有图像块的定位信息均不相同,则获取所有图像块中与相似图像区块匹配率最高的图像块,并将所获取的匹配率最高的图像块的定位信息作为所述待定位图像的定位信息。
4.根据权利要求1所述的方法,其特征在于,所述将所述多个图像块中的至少一个图像块输入预先建立的地图中,包括:
根据每个图像块中的特征点对所述多个图像块进行排序;
根据排序结果从所述多个图像块中选择第二预设数量的图像块;
将所述第二预设数量的图像块输入所述地图中。
5.根据权利要求1-4任一项所述的方法,其特征在于,所述地图通过以下方法预先建立:
构建词袋模型;
对用于建图的图像进行分割,得到多个图像区块;
基于所述词袋模型为所述多个图像区块建立逆向索引关系;
确定所述地图中的所述易混淆区块;
从所述地图中删除所述易混淆区块。
6.根据权利要求5所述的方法,其特征在于,所述地图中的易混淆区块通过以下方式确定:
针对所述地图中的每个图像区块,采用图像索引的方式从所述地图中确定特征点排序排名在前但与当前图像区块不匹配的第三预设数量的图像区块;
根据所述当前图像区块和所确定的所述与当前图像区块不匹配的第三预设数量的图像区块的匹配率,计算出所述当前图像区块的易混淆率;
若所述易混淆率大于预设阈值,则确定所述当前图像区块为所述易混淆区块。
7.一种定位装置,其特征在于,所述装置包括:
分割模块,用于对待定位图像进行分割,得到多个图像块;
输入获得模块,用于将所述分割模块得到的所述多个图像块中的至少一个图像块输入预先建立的地图中,并从所述地图中获得与输入的每个图像块相似的第一预设数量的图像区块,其中,所述地图中已删除易混淆区块,所述易混淆区块是指影响定位精度的图像区块;
获得模块,用于根据所述与所述输入获得模块获得的与输入的每个图像块相似的第一预设数量的图像区块,获得输入的每个图像块的定位信息;
定位模块,用于根据所述获得模块获得的所述每个图像块的定位信息,获得所述待定位图像的定位信息。
8.根据权利要求7所述的装置,其特征在于,所述获得模块包括:
第一获得子模块,用于从所述与每个图像块相似的第一预设数量的图像区块中获得匹配率最高的图像区块;
第二获得子模块,用于根据所述第一获得子模块获得的所述匹配率最高的图像区块获得所述每个图像块的定位信息。
9.一种计算机可读存储介质,其特征在于,所述存储介质存储有计算机程序,所述计算机程序用于执行上述权利要求1-6任一项所述的定位方法。
10.一种移动设备,其特征在于,包括视觉传感器、处理器、存储器及存储在所述存储器上并可在处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现上述权利要求1-6任一项所述的定位方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811224722.XA CN109489663B (zh) | 2018-10-19 | 2018-10-19 | 一种定位方法及装置、移动设备和计算机可读存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811224722.XA CN109489663B (zh) | 2018-10-19 | 2018-10-19 | 一种定位方法及装置、移动设备和计算机可读存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109489663A true CN109489663A (zh) | 2019-03-19 |
CN109489663B CN109489663B (zh) | 2020-01-03 |
Family
ID=65692277
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811224722.XA Active CN109489663B (zh) | 2018-10-19 | 2018-10-19 | 一种定位方法及装置、移动设备和计算机可读存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109489663B (zh) |
Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002352241A (ja) * | 2001-05-25 | 2002-12-06 | Nippon Hoso Kyokai <Nhk> | ブロックマッチング装置 |
CN101600115A (zh) * | 2009-06-29 | 2009-12-09 | 中国航空工业集团公司洛阳电光设备研究所 | 一种剔除图像稳像系统周期性特征块的方法 |
CN102324030A (zh) * | 2011-09-09 | 2012-01-18 | 广州灵视信息科技有限公司 | 一种基于图像块特征的目标跟踪方法及跟踪系统 |
CN102592276A (zh) * | 2011-12-20 | 2012-07-18 | 中山大学 | 一种图像区域描述方法和基于该描述方法的复制图像检测方法 |
CN103249142A (zh) * | 2013-04-26 | 2013-08-14 | 东莞宇龙通信科技有限公司 | 一种定位方法、系统及移动终端 |
CN103399870A (zh) * | 2013-07-08 | 2013-11-20 | 华中科技大学 | 一种基于分类驱动的可视化词袋特征权重化方法和系统 |
CN106204648A (zh) * | 2016-07-05 | 2016-12-07 | 西安电子科技大学 | 一种基于背景剔除的目标跟踪方法及装置 |
CN107292907A (zh) * | 2017-07-14 | 2017-10-24 | 灵动科技(北京)有限公司 | 一种对跟随目标进行定位的方法以及跟随设备 |
CN107345812A (zh) * | 2016-05-06 | 2017-11-14 | 湖北淦德智能消防科技有限公司 | 一种图像定位方法、装置及手机 |
CN108647307A (zh) * | 2018-05-09 | 2018-10-12 | 京东方科技集团股份有限公司 | 图像处理方法、装置、电子设备及存储介质 |
CN108665477A (zh) * | 2018-04-17 | 2018-10-16 | 华中科技大学 | 一种实时目标匹配定位中的适配区域自适应选取方法 |
-
2018
- 2018-10-19 CN CN201811224722.XA patent/CN109489663B/zh active Active
Patent Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002352241A (ja) * | 2001-05-25 | 2002-12-06 | Nippon Hoso Kyokai <Nhk> | ブロックマッチング装置 |
CN101600115A (zh) * | 2009-06-29 | 2009-12-09 | 中国航空工业集团公司洛阳电光设备研究所 | 一种剔除图像稳像系统周期性特征块的方法 |
CN102324030A (zh) * | 2011-09-09 | 2012-01-18 | 广州灵视信息科技有限公司 | 一种基于图像块特征的目标跟踪方法及跟踪系统 |
CN102592276A (zh) * | 2011-12-20 | 2012-07-18 | 中山大学 | 一种图像区域描述方法和基于该描述方法的复制图像检测方法 |
CN103249142A (zh) * | 2013-04-26 | 2013-08-14 | 东莞宇龙通信科技有限公司 | 一种定位方法、系统及移动终端 |
CN103399870A (zh) * | 2013-07-08 | 2013-11-20 | 华中科技大学 | 一种基于分类驱动的可视化词袋特征权重化方法和系统 |
CN107345812A (zh) * | 2016-05-06 | 2017-11-14 | 湖北淦德智能消防科技有限公司 | 一种图像定位方法、装置及手机 |
CN106204648A (zh) * | 2016-07-05 | 2016-12-07 | 西安电子科技大学 | 一种基于背景剔除的目标跟踪方法及装置 |
CN107292907A (zh) * | 2017-07-14 | 2017-10-24 | 灵动科技(北京)有限公司 | 一种对跟随目标进行定位的方法以及跟随设备 |
CN108665477A (zh) * | 2018-04-17 | 2018-10-16 | 华中科技大学 | 一种实时目标匹配定位中的适配区域自适应选取方法 |
CN108647307A (zh) * | 2018-05-09 | 2018-10-12 | 京东方科技集团股份有限公司 | 图像处理方法、装置、电子设备及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN109489663B (zh) | 2020-01-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111563502B (zh) | 图像的文本识别方法、装置、电子设备及计算机存储介质 | |
CN105637564B (zh) | 产生未知对象的扩增现实内容 | |
US6262741B1 (en) | Tiling of object-based geographic information system (GIS) | |
US9625612B2 (en) | Landmark identification from point cloud generated from geographic imagery data | |
Corona et al. | Pose estimation for objects with rotational symmetry | |
US10950040B2 (en) | Labeling for three-dimensional occluded shapes | |
KR101965878B1 (ko) | 시각적 피처들을 이용한 이미지들의 자동 연결 | |
CN102360504A (zh) | 一种基于多自然特征的自适应虚实三维注册方法 | |
JP6001310B2 (ja) | データベースを生成する方法、ナビゲーション装置、及び、高さ情報を定める方法 | |
Tatzgern | Situated visualization in augmented reality | |
US20150371430A1 (en) | Identifying Imagery Views Using Geolocated Text | |
Ishihara et al. | Beacon-guided structure from motion for smartphone-based navigation | |
KR20190088379A (ko) | 자세 추정 방법, 추정된 자세를 이용하여 가상 객체를 디스플레이하는 방법, 및 이를 수행하는 장치들 | |
Singh et al. | Semantically guided geo-location and modeling in urban environments | |
CN109357676A (zh) | 一种移动设备的定位方法及装置和移动设备 | |
Mahadik et al. | A review of Augmented Reality and its application in context aware library system | |
CN109489663A (zh) | 一种定位方法及装置、移动设备和计算机可读存储介质 | |
Gardiner et al. | Viewer-based directional querying for mobile applications | |
Atashgah et al. | Prediction of aerial-image motion blurs due to the flying vehicle dynamics and camera characteristics in a virtual environment | |
Cheliotis et al. | A classification of augmented reality approaches for spatial data visualization | |
JP4634791B2 (ja) | 3次元グラフィカル環境における選択された画像オブジェクトを特定するシステムおよび方法 | |
CN107014373A (zh) | 在定位时用来产生一地理方位的方法及定位系统 | |
EP3385821A1 (en) | System and method for providing simulated environment | |
CN109269493A (zh) | 一种定位方法及装置、移动设备和计算机可读存储介质 | |
De Silva et al. | Sketch-based spatial queries for retrieving human locomotion patterns from continuously archived gps data |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |