CN110686677B - 一种基于几何信息的全局定位方法 - Google Patents

一种基于几何信息的全局定位方法 Download PDF

Info

Publication number
CN110686677B
CN110686677B CN201910958154.4A CN201910958154A CN110686677B CN 110686677 B CN110686677 B CN 110686677B CN 201910958154 A CN201910958154 A CN 201910958154A CN 110686677 B CN110686677 B CN 110686677B
Authority
CN
China
Prior art keywords
map
global
sub
algorithm
local
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201910958154.4A
Other languages
English (en)
Other versions
CN110686677A (zh
Inventor
方正
金大平
张伟义
陈勇南
孔德磊
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ruige Intelligent Technology Shenyang Co ltd
Original Assignee
Northeastern University China
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Northeastern University China filed Critical Northeastern University China
Priority to CN201910958154.4A priority Critical patent/CN110686677B/zh
Publication of CN110686677A publication Critical patent/CN110686677A/zh
Application granted granted Critical
Publication of CN110686677B publication Critical patent/CN110686677B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/20Instruments for performing navigational calculations
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/005Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 with correlation of navigation data from several sources, e.g. map or contour matching

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Automation & Control Theory (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

本发明提供一种基于几何信息的全局定位方法,涉及移动机器人自主定位技术领域。本发明通过获取移动机器人当前的感知信息,采用SLAM算法生成三维点云地图,将三维点云地图分割成全局子地图,机器人移动建立局部地图,计算全局描述符,在全局子地图中,寻找最优局部子地图并计算两者的局部描述符,利用kd‑tree寻找局部描述符对应关系,利用几何一致性算法,去除错误匹配;对于找到的对应关系,利用绝对定位算法求得局部地图与全局子地图的粗略位姿变换;最后,利用ICP或NDT算法进行精匹配,最终将激光扫描与全局地图进行对齐,得到机器人相对于全局地图的位姿关系,本方法适用场景广,仅需要激光测距仪就可实现全局定位,具有易操作、精度高的特点。

Description

一种基于几何信息的全局定位方法
技术领域
本发明涉及移动机器人自主定位技术领域,尤其涉及一种基于几何信息的全局定位方法。
背景技术
移动机器人定位就是确定相对于给定地图环境的机器人位姿,被称为位姿估计。根据初始位姿信息是否已知,分为位置跟踪与全局定位。全局定位,认为机器人初始位姿未知。机器人最初放置在环境中的某个地方,但是缺少它的未知信息。绑架机器人问题,是全局定位问题的一个变种,但是它更加困难。在运行过程中,机器人被绑架,瞬间移动到其他位置。通过绑架机器人可以测试一个定位算法,可以用来衡量该算法从全局定位失效中恢复的能力。
由于相机传感器成本较低而且能够感知丰富的环境信息,应用视觉信息进行全局定位是目前的主流方法,但视觉信息受环境光照、遮挡以及视角等影响较大,在黑夜中将无法工作。在有遮挡的环境下,GPS无法实现精确定位。基于几何信息的全局定位有效克服了上述方法的缺点,能够提供准确的初始位姿估计。在定位中,常用的传感器有RGB-D相机,激光测距仪,RGB-D相机可提供点云信息,但探测距离有限。激光雷达精度高,探测距离远,能够提高大量的点云信息,有利于大尺度环境下的定位工作。
传统的全局定位方法有以下几种:基于视觉的全局定位方法通常基于BOW词袋模型进行图像间相似度的匹配并获取相似图像,然后结合相关优化方法实现当前图像与相似图像的位姿变换。然而BOW词袋模型通常采用人工构造的特征并结合聚类算法构造词典表示图像,并利用词典直方图进行图像匹配,在面临光照、遮挡等复杂环境下仍容易出现误匹配的情况。基于GPS全球定位系统容易受到电磁干扰、多路径效应的影响。基于概率地图的定位,用概率论来表示不确定性,将机器人方位表示为对所有可能的机器人位姿的概率分布。
发明内容
针对现有技术存在的问题,本发明提供一种基于几何信息的全局定位方法,根据移动机器人的感知信息采用即时定位与地图构建(SLAM)算法生成三维点云地图,再将三维点云地图进行分割成子地图计算ESF全局描述符,机器人上电启动建立局部地图,局部地图计算ESF全局描述符,在全局子地图中寻找与其相似度最高的子地图,然后对两个地图进行均匀采样处理得到关键点,计算局部SHOT描述符,根据关键点的描述符利用kd-tree算法找到关键点描述符之间的对应关系,采用几何一致性算法去除误关联的点对。然后通过绝对定向算法计算出局部地图之间的旋转矩阵R与平移向量T,得到粗略的位姿变换关系。随后,通过ICP算法或NDT算法完成精匹配,最终得到精确的全局位姿信息。
为解决上述技术问题,本发明所采取的技术方案是:一种基于几何信息的全局定位方法;包括以下步骤:
步骤1:获取移动机器人当前对自定位的感知信息,采用即时定位与地图构建算法,事先生成环境的三维点云地图;
所述移动机器人搭载激光测距仪以及ROS操作系统;所述激光测距仪与机器人刚体连接,用来构建地图及基于地图进行全局定位;所述ROS操作系统是一种用于机器人的后操作系统,为算法提供优良的开发环境;
步骤2:利用kd-tree算法,对所述步骤1生成的三维点云地图进行等间隔划分,生成全局子地图;
步骤3:对全局子地图进行预处理,计算ESF全局描述符并对其进行存储;
步骤4:机器人建立局部地图,对全局地图进行降采样处理,计算局部地图的全局描述符,利用全局描述符,将局部地图与所有全局子地图进行匹配,得到匹配得分,将全局子地图按照得分进行从高到低排列;
步骤5:计算局部地图与最优子地图的局部描述符,利用kd-tree算法找到两者描述符之间的对应关系,基于几何一致性对它们进行过滤;对于找到的对应关系,利用绝对定向算法计算局部地图与最优子地图之间的相对位姿变换;最后,利用ICP或NDT算法进行精匹配,最终将激光扫描与全局地图进行对齐,得到机器人相对于全局地图的位姿关系;
步骤6:若步骤5中无法得到粗匹配结果,则依次与得分较低的地图进行粗匹配,直至与所有子地图匹配完成。
步骤4的具体步骤为:
步骤4.1:机器人在全局地图内任一点进行上线,通过机器人搭载的激光测距仪将感知信息传输到工控机,运用工控机中的SLAM算法建立局部地图;
步骤4.2:计算局部地图的ESF全局描述符,将局部地图与所有全局子地图进行匹配,将全局子地图按照匹配得分从高到低排列。
步骤5的具体步骤为:
步骤5.1:对局部地图与全局子地图进行均匀采样处理,提取地图信息关键点;
步骤5.2:计算所有关键点的SHOT描述符;
步骤5.3:根据SHOT描述符,利用kd-tree算法找出局部地图与全局子地图的匹配点对;
步骤5.4:对于找到的对应关系,基于几何一致性对它们进行过滤;
给定一组关键点对应关系C={c1,c2,......,cn},ci=(pi,s,pi,m),选择一组对应关系作为参考ci,计算ci与所有的其他关键点之间的对应关系cj,利用下述公式进行筛选,保留符合公示条件的关键点对应关系;
|||pi,m-pj,m||-||pi,s-pj,s|||<ε
其中,ε代表距离阈值,ε可灵活设置,C代表地图之间关键点对应关系的集合;Ci代表第i组关键点,pi,s和pi,m是局部地图与全局子地图中第i对关键点;
步骤5.5:得到关键点对应关系之后,确定局部地图与全局子地图之间的6自由度变化(3x3旋转矩阵R-或等效四元数-和3D平移向量T),通过Absolute Orientation算法进行求解:
给定一组n个精确对应关系c1={p1,m,p1,s},.........,cn={pn,m,pn,s},通过计算
Figure BDA0002228059400000031
得出3x3旋转矩阵R和3D平移向量T的值;
步骤5.6:根据步骤5.5得出的3x3旋转矩阵R和3D平移向量T,应用ICP算法或NDT算法进行精确匹配,得到最终的最优3x3旋转矩阵R’和最优3D平移向量T’。
采用上述技术方案所产生的有益效果在于:相比视觉定位,该技术方案不受光照影响,白天黑夜都能稳定工作;相比GPS定位,该技术方案中的定位不受建筑物遮挡影响;该技术方案中的定位相对其他定位方法更鲁棒,室外较复杂环境也能获得较好的定位效果。
附图说明
图1为本发明实施例提供的一基于几何信息的全局定位方法的流程图;
具体实施方式
下面结合附图和实施例,对本发明的具体实施方式作进一步详细描述。以下实施例用于说明本发明,但不用来限制本发明的范围。
一种基于几何信息的全局定位方法,如图1所示,包括以下步骤:
步骤1:获取移动机器人当前对自定位的感知信息,采用即时定位与地图构建算法,事先生成环境的三维点云地图;
所述移动机器人搭载激光测距仪以及ROS操作系统;所述激光测距仪与机器人刚体连接,用来构建地图及基于地图做全局定位,本实施例中使用VLP-16激光雷达,该激光是Velodyne公司出品的最小型的三维激光,其具有100米的远里程测量距离,该激光通过100兆快速以太网连接,每秒高达30万个测量点输出;所述ROS操作系统是用于机器人的一种后操作系统,提供一些工具程序和库用于获取、建立、编写和运行多机整合程序,在机器人研发领域提高代码的复用率,为算法提供优良的开发环境;
步骤2:利用kd-tree算法,对所述步骤1生成的三维点云地图进行等间隔划分,生成全局子地图;
步骤3:对全局子地图进行预处理,计算ESF全局描述符并对其进行存储;
步骤4:机器人建立局部地图,对局部地图进行降采样处理,计算局部地图的全局描述符,利用全局描述符,将局部地图与所有全局子地图进行匹配,得到匹配得分,将全局子地图按照得分进行从高到低排列;
步骤4.1:机器人在全局地图内任一点进行上线,通过机器人搭载的激光测距仪感将自定位感知信息传输到工控机,运用工控机中的SLAM算法建立局部地图;
步骤4.2:计算局部地图的ESF全局描述符,将局部地图与所有全局子地图进行匹配,将全局子地图按照匹配得分从高到低排列。
步骤5:采用均匀滤波,计算局部地图与最优子地图的关键点并计算关键点的局部描述符,根据局部描述符,利用kd-tree算法找到关键点之间的对应关系,基于几何一致性对它们进行过滤;对于找到的对应关系,利用绝对定向算法计算局部地图与最优子地图之间的相对位姿变换;最后,利用ICP或NDT算法进行精匹配,最终将激光扫描与全局地图进行对齐,得到机器人相对于全局地图的位姿关系;
所述激光扫描利用绝对定位算法得出的粗略估计,作为ICP或NDT算法的初值,最终将激光测距仪发出的数据,即激光扫描数据与全局地图进行匹配,得到机器人相对于全局地图的位姿关系。
步骤5.1:对局部地图与全局子地图进行均匀采样处理,提取关键点;
步骤5.2:计算所有关键点的SHOT描述符;
步骤5.3:根据SHOT描述符,利用kdtree算法找出局部地图与全局子地图的匹配点对;
步骤5.4:对于找到的对应关系,基于几何一致性对它们进行过滤;
给定一组关键点对应关系C={c1,c2,......,cn},ci=(pi,s,pi,m),选择一组对应关系作为参考ci,计算ci与所有的其他关键点之间的对应关系cj,利用下述公式进行筛选,保留符合公示条件的关键点对应关系;
|||pi,m-pj,m||-||pi,s-pj,s|||<ε
其中,ε代表距离阈值,ε可灵活设置,C代表地图之间关键点对应关系的集合;Ci代表第i组关键点,pi,s和pi,m是局部地图与全局子地图中第i对关键点;
步骤5.5:得到关键点对应关系之后,确定局部地图与全局子地图之间的6自由度变化(3x3旋转矩阵R-或等效四元数-和3D平移向量T),通过Absolute Orientation算法求解:
给定一组n个精确对应关系c1={p1,m,p1,s},.........,cn={pn,m,pn,s},通过计算
Figure BDA0002228059400000051
得出3x3旋转矩阵R和3D平移向量T的值;
步骤5.6:根据步骤5.5得出的3x3旋转矩阵R和3D平移向量T,应用ICP算法或NDT算法进行精确匹配,得到最终的最优3x3旋转矩阵R’和最优3D平移向量T’。
本实施例中使用ICP算法进行计算;
已知关键点之间的对应关系:X={x1,.....,xn},P={p1,.........pn},xi与pi是对应点,利用下述公式计算最优3x3旋转矩阵R'和最优3D平移向量T’,使得误差函数最小;
Figure BDA0002228059400000052
其中n为关键点对应的对数,pi是目标点云P中的一点,qi为源点云Q中与pi对应的最近点;
步骤6:假如步骤5中无法得到粗匹配结果,则依次与得分较低的地图进行粗匹配,直至与所有子地图匹配完成。

Claims (3)

1.一种基于几何信息的全局定位方法,其特征在于:包括以下步骤:
步骤1:获取移动机器人当前对自定位的感知信息,采用即时定位与地图构建算法,事先生成环境的三维点云地图;
所述移动机器人搭载激光测距仪以及ROS操作系统;所述激光测距仪与机器人刚体连接,用来构建地图及基于地图进行全局定位;所述ROS操作系统是一种用于机器人的后操作系统,为算法提供优良的开发环境;
步骤2:利用kd-tree算法,对所述步骤1生成的三维点云地图进行等间隔划分,生成全局子地图;
步骤3:对全局子地图进行预处理,计算ESF全局描述符并对其进行存储;
步骤4:机器人建立局部地图,对局部地图进行降采样处理,计算局部地图的全局描述符,利用全局描述符,将局部地图与所有全局子地图进行匹配,得到匹配得分,将全局子地图按照得分进行从高到低排列;
步骤5:采用均匀滤波,计算局部地图与最优子地图的关键点并计算关键点的局部描述符,根据局部描述符,利用kd-tree算法找到关键点之间的对应关系,基于几何一致性对它们进行过滤;对于找到的对应关系,利用绝对定向算法计算局部地图与最优子地图之间的相对位姿变换;最后,利用ICP或NDT算法进行精匹配,最终将激光扫描与全局地图进行对齐,得到机器人相对于全局地图的位姿关系;
步骤6:若步骤5中无法得到粗匹配结果,则依次与得分较低的地图进行粗匹配,直至与所有子地图匹配完成。
2.根据权利要求1所述的一种基于几何信息的全局定位方法,其特征在于:所述步骤4的具体步骤为:
步骤4.1:机器人在全局地图内任一点进行上线,通过机器人搭载的激光测距仪感将自定位感知信息传输到工控机,运用工控机中的SLAM算法建立局部地图;
步骤4.2:计算局部地图的ESF全局描述符,将局部地图与所有全局子地图进行匹配,将全局子地图按照匹配得分从高到低排列。
3.根据权利要求1所述的一种基于几何信息的全局定位方法,其特征在于:所述步骤5的具体步骤为:
步骤5.1:对局部地图与全局子地图进行均匀采样处理,提取地图信息关键点;
步骤5.2:计算所有关键点的SHOT描述符;
步骤5.3:根据SHOT描述符,利用kd-tree算法找出局部地图与全局子地图的匹配点对;
步骤5.4:对于找到的匹配点对关系,基于几何一致性对它们进行过滤;
给定一组关键点对应关系C={c1,c2,......,cn},ci=(pi,s,pi,m),选择一组对应关系作为参考ci,计算ci与所有的其他关键点之间的对应关系cj,利用下述公式进行筛选,保留符合公示条件的关键点对应关系;
| ||pi,m-pj,m||-||pi,s-pj,s|| |<ε
其中,ε代表距离阈值,ε可灵活设置,C代表地图之间关键点对应关系的集合;Ci代表第i组关键点,pi,s和pi,m是局部地图与全局子地图中第i对关键点;
步骤5.5:得到关键点对应关系之后,确定局部地图与全局子地图之间的6自由度变化(3x3旋转矩阵R-或等效四元数-和3D平移向量T),通过Absolute Orientation算法进行求解:
给定一组n个精确对应关系c1={p1,m,p1,s},.........,cn={pn,m,pn,s},通过计算
Figure FDA0002228059390000021
得出3x3旋转矩阵R和3D平移向量T的值;
步骤5.6:根据步骤5.5得出的3x3旋转矩阵R和3D平移向量T,应用ICP算法或NDT算法进行精确匹配,得到最终的最优3x3旋转矩阵R’和最优3D平移向量T’。
CN201910958154.4A 2019-10-10 2019-10-10 一种基于几何信息的全局定位方法 Active CN110686677B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910958154.4A CN110686677B (zh) 2019-10-10 2019-10-10 一种基于几何信息的全局定位方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910958154.4A CN110686677B (zh) 2019-10-10 2019-10-10 一种基于几何信息的全局定位方法

Publications (2)

Publication Number Publication Date
CN110686677A CN110686677A (zh) 2020-01-14
CN110686677B true CN110686677B (zh) 2022-12-13

Family

ID=69112002

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910958154.4A Active CN110686677B (zh) 2019-10-10 2019-10-10 一种基于几何信息的全局定位方法

Country Status (1)

Country Link
CN (1) CN110686677B (zh)

Families Citing this family (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111239763A (zh) * 2020-03-06 2020-06-05 广州视源电子科技股份有限公司 对象的定位方法、装置、存储介质和处理器
CN111474535B (zh) * 2020-03-18 2022-03-15 广东省智能机器人研究院 一种基于特征热力图的移动机器人全局定位方法
CN113552586B (zh) * 2020-04-08 2024-04-05 杭州萤石软件有限公司 一种移动机器人的定位方法和移动机器人
CN111522043B (zh) * 2020-04-30 2023-07-25 北京联合大学 一种无人车激光雷达快速重新匹配定位方法
CN114080625A (zh) * 2020-06-19 2022-02-22 深圳市大疆创新科技有限公司 绝对位姿确定方法、电子设备及可移动平台
CN111998846B (zh) * 2020-07-24 2023-05-05 中山大学 基于环境几何与拓扑特征的无人系统快速重定位方法
WO2022021133A1 (zh) * 2020-07-29 2022-02-03 上海高仙自动化科技发展有限公司 计算机设备定位方法、装置、计算机设备和存储介质
CN111862215B (zh) * 2020-07-29 2023-10-03 上海高仙自动化科技发展有限公司 一种计算机设备定位方法、装置、计算机设备和存储介质
CN111862214B (zh) * 2020-07-29 2023-08-25 上海高仙自动化科技发展有限公司 计算机设备定位方法、装置、计算机设备和存储介质
CN112612788B (zh) * 2020-12-11 2024-03-01 中国北方车辆研究所 一种无导航卫星信号下的自主定位方法
CN112711012B (zh) * 2020-12-18 2022-10-11 上海蔚建科技有限公司 一种激光雷达定位系统的全局位置初始化方法及系统
CN112612029A (zh) * 2020-12-24 2021-04-06 哈尔滨工业大学芜湖机器人产业技术研究院 融合ndt和icp的栅格地图定位方法
CN112669385B (zh) * 2020-12-31 2023-06-13 华南理工大学 基于三维点云特征的工业机器人工件识别与位姿估计方法
CN113325433A (zh) * 2021-05-28 2021-08-31 上海高仙自动化科技发展有限公司 一种定位方法、装置、电子设备及存储介质
CN113340296B (zh) * 2021-06-21 2024-04-09 上海仙工智能科技有限公司 一种自动更新移动机器人地图的方法及装置
CN113936046A (zh) * 2021-11-02 2022-01-14 北京京东乾石科技有限公司 一种物体定位方法、装置、电子设备及计算机可读介质
CN114782689A (zh) * 2022-04-01 2022-07-22 东南大学 一种基于多帧数据融合的点云平面分割方法
CN115797425B (zh) * 2023-01-19 2023-06-16 中国科学技术大学 一种基于点云鸟瞰图和由粗到精策略的激光全局定位方法

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103278170A (zh) * 2013-05-16 2013-09-04 东南大学 基于显著场景点检测的移动机器人级联地图创建方法
CN105843223A (zh) * 2016-03-23 2016-08-10 东南大学 一种基于空间词袋模型的移动机器人三维建图与避障方法
CN105973265A (zh) * 2016-05-19 2016-09-28 杭州申昊科技股份有限公司 一种基于激光扫描传感器的里程估计方法
CN106127739A (zh) * 2016-06-16 2016-11-16 华东交通大学 一种结合单目视觉的rgb‑d slam方法
CN108917759A (zh) * 2018-04-19 2018-11-30 电子科技大学 基于多层次地图匹配的移动机器人位姿纠正算法
CN109917670A (zh) * 2019-03-08 2019-06-21 北京精密机电控制设备研究所 一种智能机器人集群的同时定位与建图方法
CN109978767A (zh) * 2019-03-27 2019-07-05 集美大学 基于多机器人协同的激光slam地图方法

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101772977B1 (ko) * 2010-10-07 2017-08-31 삼성전자주식회사 이동 로봇 및 그 지도 작성 방법
US10670725B2 (en) * 2017-07-25 2020-06-02 Waymo Llc Determining yaw error from map data, lasers, and cameras

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103278170A (zh) * 2013-05-16 2013-09-04 东南大学 基于显著场景点检测的移动机器人级联地图创建方法
CN105843223A (zh) * 2016-03-23 2016-08-10 东南大学 一种基于空间词袋模型的移动机器人三维建图与避障方法
CN105973265A (zh) * 2016-05-19 2016-09-28 杭州申昊科技股份有限公司 一种基于激光扫描传感器的里程估计方法
CN106127739A (zh) * 2016-06-16 2016-11-16 华东交通大学 一种结合单目视觉的rgb‑d slam方法
CN108917759A (zh) * 2018-04-19 2018-11-30 电子科技大学 基于多层次地图匹配的移动机器人位姿纠正算法
CN109917670A (zh) * 2019-03-08 2019-06-21 北京精密机电控制设备研究所 一种智能机器人集群的同时定位与建图方法
CN109978767A (zh) * 2019-03-27 2019-07-05 集美大学 基于多机器人协同的激光slam地图方法

Also Published As

Publication number Publication date
CN110686677A (zh) 2020-01-14

Similar Documents

Publication Publication Date Title
CN110686677B (zh) 一种基于几何信息的全局定位方法
CN109059895B (zh) 一种基于手机摄像头和传感器的多模态室内测距及定位方法
CN112767490B (zh) 一种基于激光雷达的室外三维同步定位与建图方法
Negre et al. Cluster-based loop closing detection for underwater slam in feature-poor regions
CN110009680B (zh) 基于圆特征及异面特征点的单目图像位置、姿态测量方法
CN112163588A (zh) 基于智能进化的异源图像目标检测方法、存储介质及设备
Dawood et al. Harris, SIFT and SURF features comparison for vehicle localization based on virtual 3D model and camera
CN114332225A (zh) 车道线匹配定位方法、电子设备及存储介质
Dawood et al. Vehicle geo-localization based on IMM-UKF data fusion using a GPS receiver, a video camera and a 3D city model
Li et al. Image matching techniques for vision-based indoor navigation systems: performance analysis for 3D map based approach
CN116242374A (zh) 一种基于直接法的多传感器融合的slam定位方法
CN104166995A (zh) 一种基于马步测度的Harris-SIFT双目视觉定位方法
Ferreira et al. A real-time mosaicking algorithm using binary features for ROVs
US20230350418A1 (en) Position determination by means of neural networks
Arth et al. Full 6dof pose estimation from geo-located images
CN112731503A (zh) 一种基于前端紧耦合的位姿估计方法及系统
CN117308982A (zh) 一种核电站水下清洁机器人的定位方法及装置
CN111882663A (zh) 一种融合语义信息完成视觉slam闭环检测方法
CN116380079A (zh) 一种融合前视声呐与orb-slam3的水下slam方法
CN116577801A (zh) 一种基于激光雷达和imu的定位与建图方法及系统
Aggarwal Machine vision based SelfPosition estimation of mobile robots
CN115950414A (zh) 一种不同传感器数据的自适应多重融合slam方法
Brink et al. Probabilistic outlier removal for robust landmark identification in stereo vision based SLAM
Lin et al. Vision-based mobile robot localization and mapping using the PLOT features
Ross et al. Uncertainty estimation for stereo visual odometry

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
TR01 Transfer of patent right

Effective date of registration: 20231220

Address after: Room 4X-139, No. 96 Sanhao Street, Heping District, Shenyang City, Liaoning Province, 110057

Patentee after: Shenyang Ruige Holdings Co.,Ltd.

Address before: No.11, Wenhua Road, Sanxiang, Heping District, Shenyang City, Liaoning Province

Patentee before: Fang Zheng

Patentee before: Shenyang Ruige Holdings Co.,Ltd.

Effective date of registration: 20231220

Address after: No.11, Wenhua Road, Sanxiang, Heping District, Shenyang City, Liaoning Province

Patentee after: Fang Zheng

Patentee after: Shenyang Ruige Holdings Co.,Ltd.

Address before: 110819 No. 3 lane, Heping Road, Heping District, Shenyang, Liaoning 11

Patentee before: Northeastern University

TR01 Transfer of patent right
TR01 Transfer of patent right

Effective date of registration: 20240115

Address after: No. 94-2 Sanhao Street, Heping District, Shenyang City, Liaoning Province, 110057 (3008)

Patentee after: Ruige Intelligent Technology (Shenyang) Co.,Ltd.

Address before: Room 4X-139, No. 96 Sanhao Street, Heping District, Shenyang City, Liaoning Province, 110057

Patentee before: Shenyang Ruige Holdings Co.,Ltd.

TR01 Transfer of patent right