CN110132284A - 一种基于深度信息的全局定位方法 - Google Patents

一种基于深度信息的全局定位方法 Download PDF

Info

Publication number
CN110132284A
CN110132284A CN201910461821.8A CN201910461821A CN110132284A CN 110132284 A CN110132284 A CN 110132284A CN 201910461821 A CN201910461821 A CN 201910461821A CN 110132284 A CN110132284 A CN 110132284A
Authority
CN
China
Prior art keywords
likelihood
grid
map
layer
rangefinder
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201910461821.8A
Other languages
English (en)
Other versions
CN110132284B (zh
Inventor
方正
张伟义
曾杰鑫
周思帆
金大平
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ruige Intelligent Technology Shenyang Co ltd
Original Assignee
Northeastern University China
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Northeastern University China filed Critical Northeastern University China
Priority to CN201910461821.8A priority Critical patent/CN110132284B/zh
Publication of CN110132284A publication Critical patent/CN110132284A/zh
Application granted granted Critical
Publication of CN110132284B publication Critical patent/CN110132284B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/20Instruments for performing navigational calculations

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Automation & Control Theory (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

本发明提供一种基于深度信息的全局定位方法,涉及移动机器人自主定位技术领域。该方法包括:获取移动机器人当前的感知信息,采用SLAM算法生成栅格地图;将生成栅格地图转化为似然域地图;对所述栅格地图进行降采样处理,形成图像金字塔,并计算图像金字塔不同层中各个栅格的似然值;利用与最近物体的欧氏距离计算测距仪在图像金字塔中各层的似然,最终定位移动机器人相对于全局地图的位置。本方法通过SLAM算法生成栅格地图,再根据不同分辨率的栅格地图构成图像金字塔,从粗到细逐层定位移动机器人所在位置,最终实现移动机器人精确的全局定位,适用场景多,具有易操作、效率高、精度高的特点。

Description

一种基于深度信息的全局定位方法
技术领域
本发明涉及移动机器人自主定位技术领域,具体涉及一种基于深度信息的全局定位方法。
背景技术
移动机器人定位就是确定相对于给定地图环境的机器人位姿,经常被称为位置估计。根据初始位姿信息是否已知,分为轨迹跟踪与全局定位。全局定位,认为机器人初始位姿未知。机器人最初放置在环境中的某个地方,但是缺少它的未知信息。绑架机器人问题,是全局定位问题的一个变种,但是它更加困难。在运行过程中,机器人被绑架,瞬间移动到其他位置。通过绑架机器人可以测试一个定位算法,可以用来衡量该算法从全局定位失效中恢复的能力。
由于相机传感器成本较低而且能够感知丰富的环境信息,应用视觉信息进行全局定位是目前的主流方法,但视觉信息受环境光照、遮挡以及视角等影响较大,在黑夜中将无法工作。在有遮挡的环境下,GPS无法实现精确定位。基于深度信息的全局定位有效克服了上述方法的缺点,能够提供准确的初始位姿估计。在定位中,常用的传感器有RGB-D相机,激光测距仪,RGB-D相机可提供深度信息,但探测距离有限。激光雷达精度高,探测距离远,能够提高大量的点云信息,有利于大尺度环境下的定位工作。
传统的全局定位方法有以下几种:基于视觉的全局定位方法通常基于BoW词袋模型进行图像间相似度的匹配并获取相似图像,然后结合相关优化方法实现当前图像与相似图像的位姿变换。然而BoW词袋模型通常采用人工构造的特征并结合聚类算法构造词典表示图像,并利用词典直方图进行图像匹配,在面临光照、遮挡等复杂环境下仍容易出现误匹配的情况。基于GPS全球定位系统容易受到电磁干扰、多路径效应的影响,在室内也无法工作。基于概率地图的定位,用概率论来表示不确定性,将机器人方位表示为对所有可能的机器人位资的概率分布。
发明内容
针对现有技术存在的问题,本发明提供一种基于深度信息的全局定位方法,根据移动机器人的感知信息采用即时定位与地图构建(SLAM)算法生成栅格地图,再将栅格地图转化为似然域地图并构建图像金字塔,最后利用与最近物体的欧氏距离计算测距仪在图像金字塔中各层的似然,由粗到细,实现移动机器人精确的全局定位。
一种基于深度信息的全局定位方法,具体步骤如下:
步骤1:获取移动机器人当前的感知信息,采用即时定位与地图构建算法,生成栅格地图;
所述移动机器人搭载测距仪以及ROS操作系统;
步骤2:将生成栅格地图转化为似然域地图;
步骤2.1:计算t时刻测距仪扫描到的第k个点与栅格地图上距此坐标最近物体之间的欧氏距离dist;
所述计算t时刻测距仪扫描到的第k个点与栅格地图上距此坐标最近物体之间的欧氏距离dist的公式如下:
其中,表示点投影在栅格地图中的横坐标,表示点投影在栅格地图中的纵坐标,x′表示栅格的占据率为1的栅格的横坐标,y′表示栅格地图的纵坐标;所述栅格的占据率为0或1,其中,0表示当前栅格不是障碍物,1表示当前栅格是障碍物;
步骤2.2:设置距离障碍物的最大距离max_dist,判断dist是否大于max_dist,若是,则将当前栅格的dist值设置为max_dist,若否,则保留当前栅格的dist值;
步骤2.3:根据栅格地图上各个栅格的dist值计算各个栅格的似然值;
所述计算各个栅格的似然值的公式如下:
其中,q为栅格的似然值,zhit为测距仪的测量噪声,prob(dist,δhit)为计算在以0为中心标准差为δhit的高斯分布的距离概率,zrandom为测距仪的随机测量噪声,zmax为测距仪的最大测量距离;
步骤2.4:根据得到的所有栅格的似然值构建似然域地图;
步骤3:对所述栅格地图进行降采样处理,形成图像金字塔,并计算图像金字塔不同层中各个栅格的似然值;
步骤3.1:将构建好的似然域地图作为图像金字塔的底层,从底向上,逐层降采样取得低分辨率的似然域地图,使当前层似然域地图的分辨率是前一层似然域地图分辨率的1/2,当前层似然域地图的栅格数是前一层似然域地图栅格数的1/4,直至整个构建好的似然域地图的栅格数为1;
步骤3.2:计算图像金字塔不同层中各个栅格的似然值;
所述计算图像金字塔不同层中各个栅格的似然值的具体方法为:首先以图像金字塔最底层作为当前层,计算当前层似然域地图中各个栅格的似然值,然后以此为基础,在当前层似然域地图中应用内核宽度为3的最大卷积,取卷积核内最大的栅格的似然值为对当前层的上一层似然域地图中对应栅格的似然值,再以当前层的上一层作为新的当前层,依次逐层向上计算图像金字塔不同层中各个栅格的似然值;
步骤4:利用与最近物体的欧氏距离计算测距仪在图像金字塔中各层的似然,最终定位移动机器人相对于全局地图的位置;
步骤4.1:通过三角变换,将与移动机器人固连的测距仪t时刻扫描到的第k个点的坐标映射到似然域地图的全局坐标空间;
所述三角变换的公式如下:
其中,xt=(x y θ)T表示移动机器人在t时刻的位姿,x表示机器人在似然域地图中的横坐标,y表示机器人在似然域地图中的纵坐标,θ表示移动机器人航向的角度,θk,sens表示测距仪波束相对于移动机器人航向的角度;所述移动机器人航向角度θ的计算公式如下:
θ=n*π/180;
其中,n为正整数,表示移动机器人每个位姿的索引;
步骤4.2:判断点与栅格地图上距此坐标最近物体之间的欧氏距离dist是否大于测距仪的最大测量距离,若是,则将该点舍弃,若否,则继续步骤4.3;
步骤4.3:计算测距仪在图像金字塔中各层的似然q,最终定位移动机器人相对于全局地图的位置;
所述计算测距仪在图像金字塔中各层的似然q,最终定位移动机器人相对于全局地图的位置的具体方法为:计算测距仪在图像金字塔最高层中栅格的似然值,再计算下一层中测距仪在各个栅格的似然值,搜索测距仪所在最大的栅格的似然值,逐层向下进行搜索,直到搜索到底层为止,底层中测距仪似然最大的栅格就是机器人相对于全局地图的位置,从而实现全局定位。
本发明的有益效果:
本发明提出一种基于深度信息的全局定位方法,通过SLAM(SimultaneousLocalizatiom andMapping,即时定位与地图构建)算法生成栅格地图,再根据不同分辨率的栅格地图构成图像金字塔,从粗到细逐层定位移动机器人所在位置,最终实现移动机器人精确的全局定位,适用场景多,具有易操作、效率高、精度高的特点。
附图说明
图1为本发明实施例中基于深度信息的全局定位方法的流程图。
具体实施方式
为了使本发明的目的、技术方案及优势更加清晰,下面结合附图和具体实施例对本发明做进一步详细说明。此处所描述的具体实施例仅用以解释本发明,并不用于限定本发明。
一种基于深度信息的全局定位方法,流程如图1所示,包括如下步骤:
步骤1:获取移动机器人当前的感知信息,采用SLAM算法,生成栅格地图。
本实施例中,所述移动机器人搭载有测距仪及ROS操作系统(Robot OperatingSystem),所述的栅格地图能表示出环境信息。
本实施例中,使用的移动机器人为多芬二代阿克曼模型移动机器人,处理器为装有Linux系统和ROS的联想G510笔记本电脑;激光测距仪采用VLP-16激光雷达;同时为了方便控制机器人移动,采用Sony PS3型号的手柄对机器人进行控制。
步骤2:将生成栅格地图转化为似然域地图,具体方法如下:
本实施例中,栅格地图与似然阈地图均由多个栅格组成,但栅格中所存储的信息不同。栅格地图中的栅格存储的信息有:地图坐标x′、y′以及栅格的占据率。所述栅格的占据率为0或1,其中,0表示当前栅格不是障碍物,1表示当前栅格是障碍物。似然阈地图中的栅格存储的信息还包括栅格的似然值。
步骤2.1:计算t时刻测距仪扫描到的第k个点与栅格地图上距此坐标最近物体之间的欧氏距离dist。
所述计算t时刻测距仪扫描到的第k个点与栅格地图上距此坐标最近物体之间的欧氏距离dist的公式如公式(1)所示:
其中,表示点投影在栅格地图中的横坐标,表示点投影在栅格地图中的纵坐标,x′表示栅格的占据率为1的栅格的横坐标,y′表示栅格地图的纵坐标。
步骤2.2:设置距离障碍物的最大距离max_dist,判断dist是否大于max_dist,若是,则将当前栅格的dist值设置为max_dist,若否,则保留当前栅格的dist值。
本实施例中,距离障碍物的最大距离max_dist可根据地图尺度的大小具体设置。
步骤2.3:根据栅格地图上各个栅格的dist值计算各个栅格的似然值。
所述计算各个栅格的似然值的公式如公式(2)所示:
其中,q为栅格的似然值,zhit为测距仪的测量噪声,prob(dist,δhit)为计算在以0为中心标准差为δhit的高斯分布的距离概率,zrandom为测距仪的随机测量噪声,zmax为测距仪的最大测量距离。
步骤2.4:根据得到的所有栅格的似然值构建似然域地图。
步骤3:对所述栅格地图进行降采样处理,形成图像金字塔,并计算图像金字塔不同层中各个栅格的似然值,具体方法如下:
本实施例中,图像金字塔是图像多尺度的一种表达,是一种以多分辨率来解释图像的有效但概念简单的结构。一幅图像的金字塔是一系列以金字塔形状排列的分辨率逐步降低,且来源于同一张原始图的图像集合,其通过梯次向下采样获得,当整个地图用一个栅格表示,则停止采样。我们将一层一层的图像比喻成金字塔,以最高分辨率似然阈地图为原始图,从底向上,逐层降采样取得,层级越高,分辨率越低。
步骤3.1:将构建好的似然域地图作为图像金字塔的底层,从底向上,逐层降采样取得低分辨率的似然域地图,使当前层似然域地图的分辨率是前一层似然域地图分辨率的1/2,当前层似然域地图的栅格数是前一层似然域地图栅格数的1/4,直至整个构建好的似然域地图的栅格数为1。
步骤3.2:计算图像金字塔不同层中各个栅格的似然值。
本实施例中,计算图像金字塔不同层中各个栅格的似然值的具体方法为:首先以图像金字塔最底层作为当前层,计算当前层似然域地图中各个栅格的似然值,然后以此为基础,在当前层似然域地图中应用内核宽度为3的最大卷积,取卷积核内最大的栅格的似然值为对当前层的上一层似然域地图中对应栅格的似然值,再以当前层的上一层作为新的当前层,依次逐层向上计算图像金字塔不同层中各个栅格的似然值。
步骤4:利用与最近物体的欧氏距离计算测距仪在图像金字塔中各层的似然,最终定位移动机器人相对于全局地图的位置,具体方法如下:
步骤4.1:通过三角变换,将与移动机器人固连的测距仪t时刻扫描到的第k个点的坐标映射到似然域地图的全局坐标空间。
所述三角变换的公式如公式(3)所示:
其中,xt=(x y θ)T表示移动机器人在t时刻的位姿,x表示机器人在似然域地图中的横坐标,y表示机器人在似然域地图中的纵坐标,θ表示移动机器人航向的角度,θk,sens表示测距仪波束相对于移动机器人航向的角度;所述移动机器人航向角度θ的计算公式如公式(4)所示:
θ=n*π/180 (4)其中,n为正整数,表示移动机器人每个位姿的索引。
本实施例中,对于由公式(3)得到的坐标,只有当测距仪检测到一个障碍物时才是有意义的,即当t时刻测距仪扫描到的第k个点与栅格地图上距此坐标最近物体之间的欧氏距离dist大于测距仪的最大测量距离zmax时,所得到的坐标在物理世界是没有任何意义,即使测量的确携带了信息,因此,似然域测量模型会将最大距离读数丢弃。
本实施例中,移动机器人每个位姿的索引n∈(0,180),即θ可取180组值,因此,移动机器人的位姿有180组。
步骤4.2:判断点与栅格地图上距此坐标最近物体之间的欧氏距离dist是否大于测距仪的最大测量距离,若是,则将该点舍弃,若否,则继续步骤4.3。
步骤4.3:计算测距仪在图像金字塔中各层的似然q,最终定位移动机器人相对于全局地图的位置。
本实施例中,所述计算测距仪在图像金字塔中各层的似然q,最终定位移动机器人相对于全局地图的位置的具体方法为:计算测距仪在图像金字塔最高层中栅格的似然值,再计算下一层中测距仪在各个栅格的似然值,搜索测距仪所在最大的栅格的似然值,逐层向下进行搜索,直到搜索到底层为止,底层中测距仪似然最大的栅格就是机器人相对于全局地图的位置,从而实现全局定位。
本实施例中提供的计算测距仪似然的算法代码如下:
Algorithm likelihood_field_range_finder_mode(zt,xt,map):
q=1
for all k do
if
return q
最后应说明的是:以上实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解;其依然可以对前述实施例所记载的技术方案进行修改,或者对其中部分或者全部技术特征进行等同替换;因而这些修改或者替换,并不使相应技术方案的本质脱离本发明权利要求所限定的范围。

Claims (9)

1.一种基于深度信息的全局定位方法,其特征在于,包括以下步骤:
步骤1:获取移动机器人当前的感知信息,采用即时定位与地图构建算法,生成栅格地图;
所述移动机器人搭载测距仪以及ROS操作系统;
步骤2:将生成栅格地图转化为似然域地图;
步骤3:对所述栅格地图进行降采样处理,形成图像金字塔,并计算图像金字塔不同层中各个栅格的似然值;
步骤4:利用与最近物体的欧氏距离计算测距仪在图像金字塔中各层的似然,最终定位移动机器人相对于全局地图的位置。
2.根据权利要求1所述的基于深度信息的全局定位方法,其特征在于,所述步骤2包括以下步骤:
步骤2.1:计算t时刻测距仪扫描到的第k个点与栅格地图上距此坐标最近物体之间的欧氏距离dist;
步骤2.2:设置距离障碍物的最大距离max_dist,判断dist是否大于max_dist,若是,则将当前栅格的dist值设置为max_dist,若否,则保留当前栅格的dist值;
步骤2.3:根据栅格地图上各个栅格的dist值计算各个栅格的似然值;
步骤2.4:根据得到的所有栅格的似然值构建似然域地图。
3.根据权利要求2所述的基于深度信息的全局定位方法,其特征在于,所述计算t时刻测距仪扫描到的第k个点与栅格地图上距此坐标最近物体之间的欧氏距离dist的公式如下:
其中,表示点投影在栅格地图中的横坐标,表示点投影在栅格地图中的纵坐标,x′表示栅格的占据率为1的栅格的横坐标,y′表示栅格地图的纵坐标;所述栅格的占据率为0或1,其中,0表示当前栅格不是障碍物,1表示当前栅格是障碍物。
4.根据权利要求2所述的基于深度信息的全局定位方法,其特征在于,所述计算各个栅格的似然值的公式如下:
其中,q为栅格的似然值,zhit为测距仪的测量噪声,prob(dist,δhit)为计算在以0为中心标准差为δhit的高斯分布的距离概率,zrandom为测距仪的随机测量噪声,zmax为测距仪的最大测量距离。
5.根据权利要求1所述的基于深度信息的全局定位方法,其特征在于,所述步骤3包括以下步骤:
步骤3.1:将构建好的似然域地图作为图像金字塔的底层,从底向上,逐层降采样取得低分辨率的似然域地图,使当前层似然域地图的分辨率是前一层似然域地图分辨率的1/2,当前层似然域地图的栅格数是前一层似然域地图栅格数的1/4,直至整个构建好的似然域地图的栅格数为1;
步骤3.2:计算图像金字塔不同层中各个栅格的似然值。
6.根据权利要求5所述的基于深度信息的全局定位方法,其特征在于,所述计算图像金字塔不同层中各个栅格的似然值的具体方法为:首先以图像金字塔最底层作为当前层,计算当前层似然域地图中各个栅格的似然值,然后以此为基础,在当前层似然域地图中应用内核宽度为3的最大卷积,取卷积核内最大的栅格的似然值为对当前层的上一层似然域地图中对应栅格的似然值,再以当前层的上一层作为新的当前层,依次逐层向上计算图像金字塔不同层中各个栅格的似然值。
7.根据权利要求1所述的基于深度信息的全局定位方法,其特征在于,所述步骤4包括以下步骤:
步骤4.1:通过三角变换,将与移动机器人固连的测距仪t时刻扫描到的第k个点的坐标映射到似然域地图的全局坐标空间;
步骤4.2:判断点与栅格地图上距此坐标最近物体之间的欧氏距离dist是否大于测距仪的最大测量距离,若是,则将该点舍弃,若否,则继续步骤4.3;
步骤4.3:计算测距仪在图像金字塔中各层的似然q,最终定位移动机器人相对于全局地图的位置。
8.根据权利要求7所述的基于深度信息的全局定位方法,其特征在于,所述三角变换的公式如下:
其中,xt=(x y θ)T表示移动机器人在t时刻的位姿,x表示机器人在似然域地图中的横坐标,y表示机器人在似然域地图中的纵坐标,θ表示移动机器人航向的角度,θk,sens表示测距仪波束相对于移动机器人航向的角度;所述移动机器人航向角度θ的计算公式如下:
θ=n*π/180;
其中,n为正整数,表示移动机器人每个位姿的索引。
9.根据权利要求7所述的基于深度信息的全局定位方法,其特征在于,所述计算测距仪在图像金字塔中各层的似然q,最终定位移动机器人相对于全局地图的位置的具体方法为:计算测距仪在图像金字塔最高层中栅格的似然值,再计算下一层中测距仪在各个栅格的似然值,搜索测距仪所在最大的栅格的似然值,逐层向下进行搜索,直到搜索到底层为止,底层中测距仪似然最大的栅格就是机器人相对于全局地图的位置,从而实现全局定位。
CN201910461821.8A 2019-05-30 2019-05-30 一种基于深度信息的全局定位方法 Active CN110132284B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910461821.8A CN110132284B (zh) 2019-05-30 2019-05-30 一种基于深度信息的全局定位方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910461821.8A CN110132284B (zh) 2019-05-30 2019-05-30 一种基于深度信息的全局定位方法

Publications (2)

Publication Number Publication Date
CN110132284A true CN110132284A (zh) 2019-08-16
CN110132284B CN110132284B (zh) 2022-12-09

Family

ID=67582857

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910461821.8A Active CN110132284B (zh) 2019-05-30 2019-05-30 一种基于深度信息的全局定位方法

Country Status (1)

Country Link
CN (1) CN110132284B (zh)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110515382A (zh) * 2019-08-28 2019-11-29 锐捷网络股份有限公司 一种智能设备及其定位方法
CN111239761A (zh) * 2020-01-20 2020-06-05 西安交通大学 一种用于室内实时建立二维地图的方法
CN111765884A (zh) * 2020-06-18 2020-10-13 北京海益同展信息科技有限公司 机器人重定位方法、装置、电子设备及存储介质
CN112179330A (zh) * 2020-09-14 2021-01-05 浙江大华技术股份有限公司 移动设备的位姿确定方法及装置
CN113551677A (zh) * 2021-08-16 2021-10-26 河南牧原智能科技有限公司 对机器人进行重定位的方法和相关产品
CN113759928A (zh) * 2021-09-18 2021-12-07 东北大学 用于复杂大尺度室内场景的移动机器人高精度定位方法
CN116972831A (zh) * 2023-09-25 2023-10-31 山东亚历山大智能科技有限公司 一种基于显著特征的动态场景移动机器人定位方法及系统

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016045615A1 (zh) * 2014-09-25 2016-03-31 科沃斯机器人有限公司 机器人静态路径规划方法
CN105955258A (zh) * 2016-04-01 2016-09-21 沈阳工业大学 基于Kinect传感器信息融合的机器人全局栅格地图构建方法
CN108917759A (zh) * 2018-04-19 2018-11-30 电子科技大学 基于多层次地图匹配的移动机器人位姿纠正算法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016045615A1 (zh) * 2014-09-25 2016-03-31 科沃斯机器人有限公司 机器人静态路径规划方法
CN105955258A (zh) * 2016-04-01 2016-09-21 沈阳工业大学 基于Kinect传感器信息融合的机器人全局栅格地图构建方法
CN108917759A (zh) * 2018-04-19 2018-11-30 电子科技大学 基于多层次地图匹配的移动机器人位姿纠正算法

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110515382A (zh) * 2019-08-28 2019-11-29 锐捷网络股份有限公司 一种智能设备及其定位方法
CN111239761A (zh) * 2020-01-20 2020-06-05 西安交通大学 一种用于室内实时建立二维地图的方法
CN111765884A (zh) * 2020-06-18 2020-10-13 北京海益同展信息科技有限公司 机器人重定位方法、装置、电子设备及存储介质
CN112179330A (zh) * 2020-09-14 2021-01-05 浙江大华技术股份有限公司 移动设备的位姿确定方法及装置
CN113551677A (zh) * 2021-08-16 2021-10-26 河南牧原智能科技有限公司 对机器人进行重定位的方法和相关产品
CN113759928A (zh) * 2021-09-18 2021-12-07 东北大学 用于复杂大尺度室内场景的移动机器人高精度定位方法
CN116972831A (zh) * 2023-09-25 2023-10-31 山东亚历山大智能科技有限公司 一种基于显著特征的动态场景移动机器人定位方法及系统
CN116972831B (zh) * 2023-09-25 2024-02-02 山东亚历山大智能科技有限公司 一种基于显著特征的动态场景移动机器人定位方法及系统

Also Published As

Publication number Publication date
CN110132284B (zh) 2022-12-09

Similar Documents

Publication Publication Date Title
CN110132284A (zh) 一种基于深度信息的全局定位方法
Hong et al. Multi-scale ship detection from SAR and optical imagery via a more accurate YOLOv3
Steder et al. Place recognition in 3D scans using a combination of bag of words and point feature based relative pose estimation
Badino et al. Visual topometric localization
Spinello et al. Tracking people in 3D using a bottom-up top-down detector
CN105856230A (zh) 一种可提高机器人位姿一致性的orb关键帧闭环检测slam方法
CN110136202A (zh) 一种基于ssd与双摄像头的多目标识别与定位方法
Yin et al. Robust vanishing point detection for mobilecam-based documents
CN108537844A (zh) 一种融合几何信息的视觉slam回环检测方法
CN111781608A (zh) 一种基于fmcw激光雷达的运动目标检测方法及系统
CN105279769A (zh) 一种联合多特征的层次粒子滤波跟踪方法
Zhao et al. Cbhe: Corner-based building height estimation for complex street scene images
Li et al. A multi-type features method for leg detection in 2-D laser range data
Hamdi et al. Drotrack: High-speed drone-based object tracking under uncertainty
CN108549905A (zh) 一种严重遮挡情况下的精准目标跟踪方法
Ma et al. End-to-end method with transformer for 3-D detection of oil tank from single SAR image
Cheng et al. Relocalization based on millimeter wave radar point cloud for visually degraded environments
Zhao et al. Scalable building height estimation from street scene images
CN113721254A (zh) 一种基于道路指纹空间关联矩阵的车辆定位方法
Xie et al. A deep-learning-based fusion approach for global cyclone detection using multiple remote sensing data
Zhou et al. Place recognition and navigation of outdoor mobile robots based on random Forest learning with a 3D LiDAR
CN116337068A (zh) 基于仿人思路的机器人同步语义定位与建图方法及系统
Xiang et al. Delightlcd: A deep and lightweight network for loop closure detection in lidar slam
CN109785388A (zh) 一种基于双目摄像头的短距离精确相对定位方法
Miao et al. 3D Object Detection with Normal-map on Point Clouds.

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
TR01 Transfer of patent right

Effective date of registration: 20231226

Address after: Room 4X-139, No. 96 Sanhao Street, Heping District, Shenyang City, Liaoning Province, 110057

Patentee after: Shenyang Ruige Holdings Co.,Ltd.

Address before: No.11, Wenhua Road, Sanxiang, Heping District, Shenyang City, Liaoning Province

Patentee before: Fang Zheng

Patentee before: Shenyang Ruige Holdings Co.,Ltd.

Effective date of registration: 20231226

Address after: No.11, Wenhua Road, Sanxiang, Heping District, Shenyang City, Liaoning Province

Patentee after: Fang Zheng

Patentee after: Shenyang Ruige Holdings Co.,Ltd.

Address before: 110819 No. 3 lane, Heping Road, Heping District, Shenyang, Liaoning 11

Patentee before: Northeastern University

TR01 Transfer of patent right
TR01 Transfer of patent right

Effective date of registration: 20240116

Address after: No. 94-2 Sanhao Street, Heping District, Shenyang City, Liaoning Province, 110057 (3008)

Patentee after: Ruige Intelligent Technology (Shenyang) Co.,Ltd.

Address before: Room 4X-139, No. 96 Sanhao Street, Heping District, Shenyang City, Liaoning Province, 110057

Patentee before: Shenyang Ruige Holdings Co.,Ltd.

TR01 Transfer of patent right