CN111178366B - 一种移动机器人的定位方法和移动机器人 - Google Patents

一种移动机器人的定位方法和移动机器人 Download PDF

Info

Publication number
CN111178366B
CN111178366B CN201811339179.8A CN201811339179A CN111178366B CN 111178366 B CN111178366 B CN 111178366B CN 201811339179 A CN201811339179 A CN 201811339179A CN 111178366 B CN111178366 B CN 111178366B
Authority
CN
China
Prior art keywords
image
point
pixel point
feature
gradient direction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201811339179.8A
Other languages
English (en)
Other versions
CN111178366A (zh
Inventor
刘干
苏辉
蒋海青
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hangzhou Ezviz Network Co Ltd
Original Assignee
Hangzhou Ezviz Network Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hangzhou Ezviz Network Co Ltd filed Critical Hangzhou Ezviz Network Co Ltd
Priority to CN201811339179.8A priority Critical patent/CN111178366B/zh
Priority to PCT/CN2019/115745 priority patent/WO2020098532A1/zh
Publication of CN111178366A publication Critical patent/CN111178366A/zh
Application granted granted Critical
Publication of CN111178366B publication Critical patent/CN111178366B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • G06V10/462Salient features, e.g. scale invariant feature transforms [SIFT]
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/20Instruments for performing navigational calculations
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Multimedia (AREA)
  • Data Mining & Analysis (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Automation & Control Theory (AREA)
  • Image Analysis (AREA)
  • Manipulator (AREA)

Abstract

本申请提供一种移动机器人的定位方法和移动机器人。本申请提供的移动机器人的定位方法,包括:采集当前视野下的第一图像;将所述第一图像与预先存储的指定位置的样本数据进行匹配;若匹配成功,则将所述指定位置确定为本设备当前所在位置。本申请提供的移动机器人的定位方法和移动机器人,可准确定位移动机器人的位置,且成本较低。

Description

一种移动机器人的定位方法和移动机器人
技术领域
本申请涉及移动机器人技术领域,尤其涉及一种移动机器人的定位方法和移动机器人。
背景技术
定位技术是移动机器人研究中的一项关键技术,对于移动机器人来说,精确地空间定位技术是其实现自主导航、避障的前提。
目前,采用图像分析的方式来获得移动机器人位置的方法,需要使用大量图像样本训练来计算确定移动机器人与环境的相对位置,进而获得移动机器人自身的准确位置。但是,当采用上述方法获取移动机器人自身的准确位置时,需要高性能的计算硬件,成本较高。
发明内容
有鉴于此,本申请提供一种移动机器人的定位方法和移动机器人,以提供一种成本较低的移动机器人定位方法。
本申请第一方面提供一种移动机器人的定位方法,所述方法应用于移动机器人,所述方法包括:
采集当前视野下的第一图像;
将所述第一图像与预先存储的指定位置的样本数据进行匹配;
若匹配成功,则将所述指定位置确定为本设备当前所在位置。
本申请第二方面提供一种移动机器人,所述移动机器人包括采集模组、存储器和处理器,其中,
所述采集模组,用于采集当前视野下的第一图像;
所述存储器,用于存储指定位置的样本数据;
所述处理器,用于将所述第一图像与所述样本数据进行匹配,并在匹配成功时,将所述指定位置确定为本设备当前所在位置。
本申请第三方面提供一种计算机存储介质,其上存储有计算机程序,所述程序被处理器执行时实现本申请第一方面提供的任一项方法所述的步骤。
本申请提供的移动机器人的定位方法和装置,通过采集当前视野下的第一图像,进而将上述第一图像与预先存储的指定位置的样本数据进行匹配,进而在匹配成功时,将上述指定位置确定为本设备当前所在位置。这样,可准备定位移动机器人的位置,且成本较低。
附图说明
图1为本申请提供的移动机器人的定位方法实施例一的流程图;
图2为本申请一示例性实施例示出的对图像进行特征提取的流程图;
图3为本申请提供的移动机器人的定位方法实施例二的流程图;
图4为本申请一示例性实施例示出的确定第一图像中冗余区域的实现原理图;
图5为本申请提供的移动机器人实施例一的结构示意图。
具体实施方式
这里将详细地对示例性实施例进行说明,其示例表示在附图中。下面的描述涉及附图时,除非另有表示,不同附图中的相同数字表示相同或相似的要素。以下示例性实施例中所描述的实施方式并不代表与本申请相一致的所有实施方式。相反,它们仅是与如所附权利要求书中所详述的、本申请的一些方面相一致的装置和方法的例子。
在本申请使用的术语是仅仅出于描述特定实施例的目的,而非旨在限制本申请。在本申请和所附权利要求书中所使用的单数形式的“一种”、“所述”和“该”也旨在包括多数形式,除非上下文清楚地表示其他含义。还应当理解,本文中使用的术语“和/或”是指并包含一个或多个相关联的列出项目的任何或所有可能组合。
应当理解,尽管在本申请可能采用术语第一、第二、第三等来描述各种信息,但这些信息不应限于这些术语。这些术语仅用来将同一类型的信息彼此区分开。例如,在不脱离本申请范围的情况下,第一信息也可以被称为第二信息,类似地,第二信息也可以被称为第一信息。取决于语境,如在此所使用的词语“如果”可以被解释成为“在……时”或“当……时”或“响应于确定”。
本申请提供一种移动机器人的定位方法和移动机器人,以提供一种成本较低的移动机器人定位方法。
下面给出几个具体的实施例,用以详细介绍本申请的技术方案。下面这几个具体的实施例可以相互结合,对于相同或相似的概念或过程可能在某些实施例中不再赘述。
图1为本申请提供的移动机器人的定位方法实施例一的流程图。请参照图1,本实施例提供的方法,可以包括:
S101、采集当前视野下的第一图像。
需要说明的是,当移动机器人需要确定自身位置时,会移动到指定位置,采集当前视野下的第一图像。
S102、将上述第一图像与预先存储的指定位置的样本数据进行匹配。
具体的,一实施例中,所述样本数据为在不同拍摄角度下预先采集到的所述指定位置的第二图像,该步骤的具体实现过程,可以包括:
(1)分别对所述第一图像和所述第二图像进行特征提取,得到所述第一图像的第一特征描述子和所述第二图像的第二特征描述子。
可基于sift特征提取算法、surf特征提取算法、hog特征提取算法、haar特征提取算法和shape context等进行特征提取,得到特征描述子。有关各特征提取算法的具体实现原理和实现过程可以参见相关技术中的描述,此处不再赘述。
(2)计算上述第一特征描述子和上述第二特征描述子的相似度。
具体的,有关计算两个特征描述子的相似度的方法可以参见相关技术中的米描述,此处不再描述。需要说明的是,当第一特征描述子和第二特征描述子的相似度大于预设阈值时,认为第一特征描述子和第二特征描述子匹配。
此外,在另一实施例中,所述样本数据为第三图像的第三特征描述子;所述第三图像为在不同拍摄角度下预先采集到的所述指定位置的图像;该步骤的具体实现过程,可以包括:
(1)对所述第一图像进行特征提取,得到所述第一图像的第一特征描述子。
(2)计算所述第一特征描述子和所述第三特征描述子的相似度。
具体的,有关步骤(1)和步骤(2)的具体实现过程可以参见前面的描述,此处不再赘述。此外,当第一特征描述子和第三特征描述子的相似度大于预设阈值时,认为第一特征描述子和第三特征描述子匹配。
需要说明的是,一实施例中,移动机器人所在房间包括6个墙角,该六个墙角可以为指定位置,不同拍摄角度可以为20度、50度、80度等。
S103、若匹配成功,则将上述指定位置确定为本设备当前所在位置。
本申请提供的移动机器人的定位方法和移动机器人,通过采集当前视野下的第一图像,进而将上述第一图像与预先存储的指定位置的样本数据进行匹配,进而在匹配成功时,将上述指定位置确定为本设备当前所在位置。这样,可准确定位移动机器人的位置,且成本较低。
图2为本申请一示例性实施例示出的对图像进行特征提取的流程图。请参照图2,本实施例提供的方法,对图像进行特征提取的过程,可以包括:
S201、对上述图像进行非极大值抑制处理,得到上述图像的特征点。
具体的,有关该步骤的具体实现原理和实现过程可以参见相关技术中的描述,此处不再赘述。例如,表1和表2为一示例性实施例示出的9领域像素点的灰度值。在表1所示示例中,灰度值为87的像素点的灰度值比周围其他像素点的灰度值都大,此时,认为该灰度值为87的像素点为特征点。在表2所示示例中,针对灰度值为40的像素点,周围像素点的灰度值有的比它大,有的比它小,此时,认为该像素点不是特征点。
表1
43 26 32
43 87 26
65 77 45
表2
43 26 32
43 40 26
65 77 45
S201、针对每个特征点,将该特征点的指定领域划分为多个子区域,并针对每个子区域,计算该子区域中的各个像素点的梯度值和梯度方向。
具体的,本实施例中,指定领域可以为16*16领域。且本实施例中,可将每个指定点的16*16领域划分为16个4*4的子区域。
具体的,有关计算各个像素点的梯度值和梯度方向的具体实现原理和实现过程可以参见相关技术中的描述,此处不再赘述。
S203、对每个像素点的梯度方向进行校正,以使校正后的梯度方向处于指定范围。
具体的,采用上述方法计算得到的各个像素点的梯度方向处于0°~360°的范围内。本实施例中,对每个像素点的梯度方向进行校正,以使校正后的梯度方向处于指定范围。例如,一实施例中,该指定范围为0°~180°。
需要说明的是,在对每个像素点的梯度方向进行校正时,若该像素点的梯度方向大于180°,则将该像素点的梯度方向沿逆时针方向旋转180°,使其处于第一或第二象限,得到校正后的梯度方向。进一步地,若该像素点的梯度方向小于180°,直接将该像素点的梯度方向确定为校正后的梯度方向。
S204、依据该子区域中的各个像素点梯度值和校正后的梯度方向,获取该子区域对应的特征向量,并依据各个子区域对应的特征向量,确定该特征点对应的特征向量,以及依据各个特征点对应的特征向量,确定上述图像的特征描述子。
例如,一实施例中,针对某一个4*4的子区域,计算得到该子区域中的各个像素点的梯度值和梯度方向如表3所示(其中,斜线左侧表示梯度值;斜线右侧表示梯度方向):
表3
10/45° 50/270° 90/180° 150/220°
50/60° 60/70° 100/80° 120/130°
80/350° 90/200° 50/30° 30/80°
130/160° 110/50° 40/70° 90/160°
经过步骤S203,对梯度方向进行校正后,该子区域的梯度值和校正后的梯度方向如表4所示:
表4
10/45° 50/90° 90/180° 150/40°
50/60° 60/70° 100/80° 120/130°
80/170° 90/20° 50/30° 30/80°
130/160° 110/50° 40/70° 90/160°
这样,根据表4,可以得到该子区域对应的特征向量。如表5所示,该子区域的特征向量为4维特征向量,该特征向量的第一个维度为0°对应的维度,第二个维度为45°对应的维度,第三个维度为90°对应的维度,第四个维度为135°对应的维度。该特征向量具体通过以下方法计算获得:针对某个像素点,若该像素点校正后的梯度方向刚好落在分界点,则直接将该像素点的梯度值加在该分界点对应的那一个维度上;参见表5,例如,对于第一个像素点,该像素点校正后的梯度方向为45°,此时,直接将该像素点的梯度值加在特征向量的第二个维度上。再例如,针对90/180°这个像素点,将该像素点的梯度幅值加在0°对应的维度上,即加在特征向量的第一个维度上。
进一步地,针对某个像素点,若该像素点校正后的梯度方向落在分界点区间内,则首先计算该像素点校正后的梯度方向距离其落入的目标分界点区间的区间起点和区间终点的距离,然后根据距离其落入的目标分界点区间的区间起点和区间终点的距离等比例平分该像素点的梯度幅值,以使分配到区间起点对应的那一个维度上的梯度幅值分量与分配到区间终点对应的那一个维度上的梯度幅值分量的比值等于距离区间终点的距离与距离区间起点的距离的比值。例如,针对150/40°这一像素点,该像素点校正后的梯度方向落在0°~45°,且距离0°的距离40°,距离45°的距离为5°,距离比为8:1,此时,将该像素点的梯度值等分为9份,其中1份加在0°对应的维度上,8份加在45°对应的维度上。即将133.33加在45°对应的维度上,将16.67加在0°对应的维度上。
需要说明的是,当某一像素点校正后的梯度方向落在135°~180°之间时,则将180°对应的距离等比例平分之后的值加到0°对应的维度。
表5
这样,通过上述方法,即可得到各个子区域对应的特征向量,进而将各个子区域对应的特征向量组合在一起(将各个子区域对应的特征向量依序排列在第一个子区域对应的特征向量之后),即得到该特征点对应的特征向量。该特征点对应的特征向量为64维特征向量,进而将各个特征点对应的特征向量组合在一起,得到图像的特征描述子。
本实施例的方法,提供了一种对图像进行特征提取的方法,通过该方法,在保障鲁棒性的同时,使得计算得到的特征描述子的维度降低,提升了性能。
可选地,在本申请一可能的实现方式中,在步骤S102之前,所述方法还可以包括:
对第一图像进行至少一项以下处理:滤波处理、增强处理和去冗余处理。
具体的,可采用相关的滤波算法、增强算法对图像进行滤波处理和增强处理。
图3为本申请提供的移动机器人的定位方法实施例二的流程图。请参照图3,本实施例提供的方法,对第一图像进行去冗余处理的步骤,可以包括:
S301、确定上述第一图像中的冗余区域。
移动机器人拍摄的图像中有一部分是地面,而地面的部分纹理较弱,甚至有些会很平滑,这些部分会有大量的冗余信息。例如,当移动机器人为扫地机器人时,该扫地机器人工作在家庭场景中,地板为瓷砖或者木地板,容易反光,纹理较弱。因此,在对这些地方进行特征提取时,往往提取不到特征点或提取的特征点较少。即使提取到了特征点,这些地方的特征点相似度很高,在匹配的时候很容易造成误匹配。因此,在图像处理中如果将该部分去除会大大提升单帧处理时间,并且在一定程度上提升匹配的可靠性。
具体的,一可能的实现方式中,该步骤的具体实现过程,可以包括:
(1)计算上述第一图像中的第一指定区域中的各个像素点的灰度值的均值。
参见前面的描述,移动机器人拍摄的图像中有一部分是地面,而图像在高度方向上地面的比例不会小于图像高度的5%。因此,指定第一图像下半部分5%的区域为第一指定区域。本步骤中,就计算第一图像下半部分5%的区域中的各个像素点的灰度值的均值。
(2)将上述第一图像中的第二指定区域中的各个像素点的灰度值更新为原灰度值减去所述均值,得到第一更新后的图像。
具体的,第二指定区域是根据实际需要设定的。例如,本例中,指定第一图像下半部分50%的区域为第二指定区域,本步骤中,就将第一图像下半部分50%的区域中的各个像素点的灰度值更新为原灰度值减去上述均值,得到第一更新后的图像。
(3)将上述第一更新后的图像中的上述第二指定区域中灰度值大于预设阈值的各个像素点的灰度值更新为255,并将所述第一更新后的图像中的上述第二指定区域中的灰度值小于或等于上述预设阈值的各个像素点的灰度值更新为0,得到第二更新后的图像。
本步骤中,针对第一更新后的图像中下半部分50%的区域,将该区域中灰度值大于预设阈值的各个像素点的灰度值更新为255,将该区域中灰度值小于或等于上述预设阈值的各个像素点的灰度值更新为0,得到第二更新后的图像。
(4)针对上述第二更新后的图像中的所述第二指定区域,统计每个行区域中灰度值为255的像素点所占的比例,得到每个行区域对应的比例。
本步骤中,针对第二更新后的图像中的下半部分50%的区域,逐行统计各个行区域中灰度值为255的像素点所占比例,得到每个行区域对应的比例。需要说明的是,灰度值为255的像素点所占的比例指灰度值为255的像素点的个数与图像宽度的比值。
(5)针对上述第二更新后的图像中的第二指定区域,当从上至下连续指定数量个行区域对应的比例均小于第二预设阈值时,确定该连续指定数量个行区域中的最后一行在上述第二更新后的图像中的目标行号。
具体的,当经过步骤(4)得到第二指定区域中各个行区域对应的比例后,此时,当从上至下连续指定数量个行区域对应的比例均小于第二预设阈值时,确定该连续指定数量个行区域中的最后一行在上述第二更新后的图像中的目标行号。
需要说明的是,指定数量是根据实际需要设定的,例如,可以为2。进一步地,第二预设阈值也是根据实际需要设定的,例如,可以为50%。
(6)将所述第一图像中所述目标行号至最后一行之间的区域确定为冗余区域。
S302、将上述冗余区域中的各个像素点的灰度值更新为0,得到去冗余处理后的图像。
例如,图4为本申请一示例性实施例示出的确定第一图像中冗余区域的实现原理图。请参照图4,在图4所示示例中,图4中的a图为采集到的第一图像。在步骤(1),就计算该第一图像下半部分5%的区域中的各个像素点的灰度值的均值。
进一步地,经过步骤(1)-(3)后,得到第二更新后的图像如图4中b图所示。
此外,参见图4,由图4中的b图可以看出,经过步骤(1)-(3)后,地板的大部分已经被置为0,还有零星的白点。因此,在步骤(4)之前,可先对第二更新后的图像进行形态学操作以去除零星的白点(有关形态学操作的具体实现原理和实现过程,可以参见相关技术中的描述,此处不再赘述),得到图4中的c图。
进一步地,经过步骤(4)-(6),即可确定冗余区域,如图4中的d图所示。这样,即可将冗余区域中的各个像素点的灰度值更新为0,得到去冗余处理后的图像。如图4中的e图所示。
本实施例提供了一种对第一图像进行去冗余处理的方法,通过该方法,可去除第一图像中的冗余区域,以提高后续处理的效率,提高匹配的精确度。
以上对本申请提供的移动机器人的定位方法进行了介绍,下面对本申请提供的移动机器人进行介绍:
图5为本申请提供的移动机器人实施例一的结构示意图。请参照图5,本实施例提供的移动机器人,可以包括采集模组510、存储器520和处理器530,其中,
所述采集模组510,用于采集当前视野下的第一图像;
所述存储器520,用于存储指定位置的样本数据;
所述处理器530,用于将所述第一图像与所述样本数据进行匹配,并在匹配成功时,将所述指定位置确定为本设备当前所在位置。
本实施例的移动机器人,可用于执行图1所示方法实施例的技术方案,其实现原理和技术效果类似,此处不再赘述。
进一步地,所述样本数据为在不同拍摄角度下预先采集到的所述指定位置的第二图像;所述处理器530,具体用于分别对所述第一图像和所述第二图像进行特征提取,得到所述第一图像的第一特征描述子和所述第二图像的第二特征描述子,并计算所述第一特征描述子和所述第二特征描述子的相似度;
或者是,
所述样本数据为第三图像的第三特征描述子;所述第三图像为在不同拍摄角度下预先采集到的所述指定位置的图像;所述处理器530,具体用于对所述第一图像进行特征提取,得到所述第一图像的第一特征描述子,并计算所述第一特征描述子和所述第三特征描述子的相似度。
进一步地,所述处理器530,还具体用于:
对所述图像进行非极大值抑制处理,得到所述图像的特征点;
针对每个特征点,将该特征点的指定领域划分为多个子区域,并针对每个子区域,计算该子区域中的各个像素点的梯度值和梯度方向;
对每个像素点的梯度方向进行校正,以使校正后的梯度方向处于指定范围;
依据该子区域中的各个像素点梯度值和校正后的梯度方向,获取该子区域对应的特征向量,并依据各个子区域对应的特征向量,确定该特征点对应的特征向量,以及依据各个特征点对应的特征向量,确定所述图像的特征描述子。
进一步地,所述处理器530,还用于在将所述第一图像与预先存储的指定位置的样本数据进行匹配之前,对所述第一图像进行至少一项以下处理:滤波处理、增强处理和去冗余处理。
进一步地,所述对所述第一图像进行去冗余处理,包括:
确定所述第一图像中的冗余区域;
将所述冗余区域中的各个像素点的灰度值更新为0,得到去冗余处理后的图像。
进一步地,所述确定所述第一图像中的冗余区域,包括:
计算所述第一图像中的第一指定区域中的各个像素点的灰度值的均值;
将所述第一图像中的第二指定区域中的各个像素点的灰度值更新为原灰度值减去均值,得到第一更新后的图像;
将所述第一更新后的图像中的所述第二指定区域中灰度值大于预设阈值的各个像素点的灰度值更新为255,并将所述第一更新后的图像中的所述第二指定区域中的灰度值小于或者等于所述预设阈值的各个像素点的灰度值更新为0,得到第二更新后的图像;
针对所述第二更新后的图像中的所述第二指定区域,统计每个行区域中灰度值为255的像素点所占的比例,得到每个行区域对应的比例;
针对所述第二更新后的图像中的所述第二指定区域,当从上至下连续指定数量个行区域对应的比例均小于第二预设阈值时,确定该连续指定数量个行区域中的最后一行在所述第二更新后的图像中的目标行号;
将所述第一图像中所述目标行号至最后一行的区域之间确定为冗余区域。
进一步地,本申请还提供一种计算机可读存储介质,其上存储有计算机程序,所述程序被处理器执行时实现本申请第一方面提供的任一项所述方法的步骤。
以上所述仅为本申请的较佳实施例而已,并不用以限制本申请,凡在本申请的精神和原则之内,所做的任何修改、等同替换、改进等,均应包含在本申请保护的范围之内。

Claims (6)

1.一种移动机器人的定位方法,其特征在于,所述方法应用于移动机器人,所述方法包括:
移动到多个指定位置中的其中一个目标指定位置,并采集当前视野下的第一图像;
对所述第一图像进行特征提取,得到所述第一图像的第一特征描述子;
根据所述第一特征描述子和多个第三样本图像的第三特征描述子的相似度进行匹配,所述第三样本图像为移动机器人分别位于多个指定位置中的每个指定位置时,在不同拍摄角度下预先采集到图像;
若匹配成功,则将所述目标指定位置确定为所述移动机器人当前所在位置;
按以下方式获取图像的特征描述子:
对图像进行非极大值抑制处理,得到所述图像的特征点;
针对每个特征点,将该特征点的指定邻域划分为多个子区域,并针对每个子区域,计算该子区域中的各个像素点的梯度值和梯度方向;
对每个像素点的梯度方向以预设规则进行校正,以使校正后的梯度方向处于指定范围,所述预设规则包括若该像素点的梯度方向大于180°,则将该像素点的梯度方向沿逆时针方向旋转180°,若该像素点的梯度方向小于180°,则将该像素点的梯度方向确定为校正后的梯度方向;
依据该子区域中的各个像素点梯度值和校正后的梯度方向,获取该子区域对应的特征向量,包括:该子区域的特征向量为4维特征向量,针对该子区域中的各个像素点,若该像素点校正后的梯度方向落在分界点,则将该像素点的梯度值加在该分界点对应的维度上;若该像素点校正后的梯度方向落在分界点区间内,则首先计算该像素点校正后的梯度方向距离其落入的目标分界点区间的区间起点和区间终点的距离,然后根据距离其落入的目标分界点区间的区间起点和区间终点的距离等比例平分该像素点的梯度幅值,以使分配到区间起点对应的维度上的梯度幅值分量与分配到区间终点对应的维度上的梯度幅值分量的比值等于距离区间终点的距离与距离区间起点的距离的比值,其中,所述特征向量的第一个维度为0°对应的维度,第二个维度为45°对应的维度,第三个维度为90°对应的维度,第四个维度为135°对应的维度;
获取各个子区域对应的特征向量;
将各个子区域对应的特征向量组合在一起,得到该特征点对应的特征向量;
将各个特征点对应的特征向量组合在一起,得到图像的特征描述子。
2.根据权利要求1所述的方法,其特征在于,将所述第一图像与预先存储的指定位置的样本数据进行匹配之前,所述方法还包括:
对所述第一图像进行至少一项以下处理:滤波处理、增强处理和去冗余处理。
3.根据权利要求2所述的方法,其特征在于,对所述第一图像进行去冗余处理,包括:
确定所述第一图像中的冗余区域;
将所述冗余区域中的各个像素点的灰度值更新为0,得到去冗余处理后的图像。
4.根据权利要求3所述的方法,其特征在于,所述确定所述第一图像中的冗余区域,包括:
计算所述第一图像中的第一指定区域中的各个像素点的灰度值的均值,所述第一指定区域包括第一图像下半部分5%的区域;
将所述第一图像中的第二指定区域中的各个像素点的灰度值更新为原灰度值减去均值,得到第一更新后的图像,所述第二指定区域包括第一图像下半部分50%的区域;
将所述第一更新后的图像中的所述第二指定区域中灰度值大于预设阈值的各个像素点的灰度值更新为255,并将所述第一更新后的图像中的所述第二指定区域中的灰度值小于或者等于所述预设阈值的各个像素点的灰度值更新为0,得到第二更新后的图像;
针对所述第二更新后的图像中的所述第二指定区域,统计每个行区域中灰度值为255的像素点所占的比例,得到每个行区域对应的比例;
针对所述第二更新后的图像中的所述第二指定区域,当从上至下连续指定数量个行区域对应的比例均小于第二预设阈值时,确定该连续指定数量个行区域中的最后一行在所述第二更新后的图像中的目标行号;
将所述第一图像中所述目标行号至最后一行的区域之间确定为冗余区域。
5.一种移动机器人,其特征在于,所述移动机器人包括采集模组、存储器和处理器,其中,
所述采集模组,用于移动到多个指定位置中的其中一个目标指定位置,并采集当前视野下的第一图像;
所述存储器,用于存储多个指定位置的第三样本图像的第三特征描述子,所述第三样本图像为移动机器人分别位于多个指定位置中的每个指定位置时,在不同拍摄角度下预先采集到的图像;
所述处理器,用于对所述第一图像进行特征提取,得到所述第一图像的第一特征描述子,根据所述第一特征描述子和多个第三样本图像的第三特征描述子的相似度进行匹配,并在匹配成功时,将所述目标指定位置确定为所述移动机器人当前所在位置;
所述处理器,采用以下方式获取图像的特征描述子:
对图像进行非极大值抑制处理,得到所述图像的特征点;
针对每个特征点,将该特征点的指定邻域划分为多个子区域,并针对每个子区域,计算该子区域中的各个像素点的梯度值和梯度方向;
对每个像素点的梯度方向以预设规则进行校正,以使校正后的梯度方向处于指定范围,所述预设规则包括若该像素点的梯度方向大于180°,则将该像素点的梯度方向沿逆时针方向旋转180°,若该像素点的梯度方向小于180°,则将该像素点的梯度方向确定为校正后的梯度方向;
依据该子区域中的各个像素点梯度值和校正后的梯度方向,获取该子区域对应的特征向量,包括:该子区域的特征向量为4维特征向量,针对该子区域中的各个像素点,若该像素点校正后的梯度方向落在分界点,则将该像素点的梯度值加在该分界点对应的维度上;若该像素点校正后的梯度方向落在分界点区间内,则首先计算该像素点校正后的梯度方向距离其落入的目标分界点区间的区间起点和区间终点的距离,然后根据距离其落入的目标分界点区间的区间起点和区间终点的距离等比例平分该像素点的梯度幅值,以使分配到区间起点对应的维度上的梯度幅值分量与分配到区间终点对应的维度上的梯度幅值分量的比值等于距离区间终点的距离与距离区间起点的距离的比值,其中,所述特征向量的第一个维度为0°对应的维度,第二个维度为45°对应的维度,第三个维度为90°对应的维度,第四个维度为135°对应的维度;
获取各个子区域对应的特征向量;
将各个子区域对应的特征向量组合在一起,得到该特征点对应的特征向量;
将各个特征点对应的特征向量组合在一起,得到图像的特征描述子。
6.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述程序被处理器执行时实现权利要求1-4任一项所述方法的步骤。
CN201811339179.8A 2018-11-12 2018-11-12 一种移动机器人的定位方法和移动机器人 Active CN111178366B (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN201811339179.8A CN111178366B (zh) 2018-11-12 2018-11-12 一种移动机器人的定位方法和移动机器人
PCT/CN2019/115745 WO2020098532A1 (zh) 2018-11-12 2019-11-05 移动机器人的定位方法和移动机器人

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201811339179.8A CN111178366B (zh) 2018-11-12 2018-11-12 一种移动机器人的定位方法和移动机器人

Publications (2)

Publication Number Publication Date
CN111178366A CN111178366A (zh) 2020-05-19
CN111178366B true CN111178366B (zh) 2023-07-25

Family

ID=70646223

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201811339179.8A Active CN111178366B (zh) 2018-11-12 2018-11-12 一种移动机器人的定位方法和移动机器人

Country Status (2)

Country Link
CN (1) CN111178366B (zh)
WO (1) WO2020098532A1 (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113822095B (zh) * 2020-06-02 2024-01-12 苏州科瓴精密机械科技有限公司 基于图像识别工作位置的方法、系统,机器人及存储介质

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101488224A (zh) * 2008-01-16 2009-07-22 中国科学院自动化研究所 基于相关性度量的特征点匹配方法
CN103697882A (zh) * 2013-12-12 2014-04-02 深圳先进技术研究院 一种基于图像识别的地理三维空间定位方法和装置
CN104936283A (zh) * 2014-03-21 2015-09-23 中国电信股份有限公司 室内定位方法、服务器和系统
CN105246039A (zh) * 2015-10-20 2016-01-13 深圳大学 一种基于图像处理的室内定位方法及系统
CN106355577A (zh) * 2016-09-08 2017-01-25 武汉科技大学 基于特征状态与全局一致性的快速图像匹配方法及系统
WO2017054651A1 (zh) * 2015-09-29 2017-04-06 阿里巴巴集团控股有限公司 一种确定融合系数的方法和装置
CN107345812A (zh) * 2016-05-06 2017-11-14 湖北淦德智能消防科技有限公司 一种图像定位方法、装置及手机
CN107452028A (zh) * 2017-07-28 2017-12-08 浙江华睿科技有限公司 一种确定目标图像位置信息的方法及装置
CN108646280A (zh) * 2018-04-16 2018-10-12 宇龙计算机通信科技(深圳)有限公司 一种定位方法、装置及用户终端

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1569558A (zh) * 2003-07-22 2005-01-26 中国科学院自动化研究所 基于图像表现特征的移动机器人视觉导航方法
CN100573388C (zh) * 2008-10-30 2009-12-23 中控科技集团有限公司 实时颜色自动采集的机器人控制方法及机器人
US8630456B2 (en) * 2009-05-12 2014-01-14 Toyota Jidosha Kabushiki Kaisha Object recognition method, object recognition apparatus, and autonomous mobile robot
CN102915039B (zh) * 2012-11-09 2015-08-12 河海大学常州校区 一种仿动物空间认知的多机器人联合目标搜寻方法
CN104036494B (zh) * 2014-05-21 2016-10-12 浙江大学 一种用于水果图像的快速匹配计算方法
CN104915949B (zh) * 2015-04-08 2017-09-29 华中科技大学 一种结合点特征和线特征的图像匹配方法

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101488224A (zh) * 2008-01-16 2009-07-22 中国科学院自动化研究所 基于相关性度量的特征点匹配方法
CN103697882A (zh) * 2013-12-12 2014-04-02 深圳先进技术研究院 一种基于图像识别的地理三维空间定位方法和装置
CN104936283A (zh) * 2014-03-21 2015-09-23 中国电信股份有限公司 室内定位方法、服务器和系统
WO2017054651A1 (zh) * 2015-09-29 2017-04-06 阿里巴巴集团控股有限公司 一种确定融合系数的方法和装置
CN105246039A (zh) * 2015-10-20 2016-01-13 深圳大学 一种基于图像处理的室内定位方法及系统
CN107345812A (zh) * 2016-05-06 2017-11-14 湖北淦德智能消防科技有限公司 一种图像定位方法、装置及手机
CN106355577A (zh) * 2016-09-08 2017-01-25 武汉科技大学 基于特征状态与全局一致性的快速图像匹配方法及系统
CN107452028A (zh) * 2017-07-28 2017-12-08 浙江华睿科技有限公司 一种确定目标图像位置信息的方法及装置
CN108646280A (zh) * 2018-04-16 2018-10-12 宇龙计算机通信科技(深圳)有限公司 一种定位方法、装置及用户终端

Also Published As

Publication number Publication date
WO2020098532A1 (zh) 2020-05-22
CN111178366A (zh) 2020-05-19

Similar Documents

Publication Publication Date Title
CN110555901B (zh) 动静态场景的定位和建图方法、装置、设备和存储介质
CN110163912B (zh) 二维码位姿标定方法、装置及系统
JP6348093B2 (ja) 入力データから検出対象物の像を検出する画像処理装置および方法
CN108345821B (zh) 面部追踪方法及设备
CN109523585B (zh) 一种基于方向相位一致性的多源遥感影像特征匹配方法
CN111383252B (zh) 多相机目标追踪方法、系统、装置及存储介质
CN107452028B (zh) 一种确定目标图像位置信息的方法及装置
CN108257153B (zh) 一种基于方向梯度统计特征的目标跟踪方法
CN112132754B (zh) 一种车辆移动轨迹修正方法及相关装置
CN104376575A (zh) 一种基于多摄像头监控的行人计数方法和装置
CN111928857B (zh) 一种动态环境中实现slam定位的方法及相关装置
CN108961164A (zh) 基于几何不变量的图像配准拼接方法和装置及计算机设备
JP2019200516A (ja) テンプレート姿勢推定装置、方法、及びプログラム
CN111178366B (zh) 一种移动机器人的定位方法和移动机器人
CN110673607A (zh) 动态场景下的特征点提取方法、装置、及终端设备
US20200191577A1 (en) Method and system for road image reconstruction and vehicle positioning
CN110660091A (zh) 一种图像配准处理方法、装置和拍照批改作业系统
CN110880003B (zh) 一种图像匹配方法、装置、存储介质及汽车
CN111198563B (zh) 一种用于足式机器人动态运动的地形识别方法及系统
CN110969657B (zh) 一种枪球坐标关联方法、装置、电子设备及存储介质
CN109816709B (zh) 基于单目摄像头的深度估计方法、装置及设备
CN112634377B (zh) 扫地机器人的相机标定方法、终端和计算机可读存储介质
CN108917768B (zh) 无人机定位导航方法和系统
CN109242894B (zh) 一种基于移动最小二乘法的图像对齐方法及系统
CN108426566B (zh) 一种基于多摄像机的移动机器人定位方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant