CN110274598B - 一种机器人单目视觉鲁棒定位估计方法 - Google Patents

一种机器人单目视觉鲁棒定位估计方法 Download PDF

Info

Publication number
CN110274598B
CN110274598B CN201910548947.9A CN201910548947A CN110274598B CN 110274598 B CN110274598 B CN 110274598B CN 201910548947 A CN201910548947 A CN 201910548947A CN 110274598 B CN110274598 B CN 110274598B
Authority
CN
China
Prior art keywords
key frame
matching
frame image
robot
distance error
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201910548947.9A
Other languages
English (en)
Other versions
CN110274598A (zh
Inventor
高俊钗
雷志勇
李翰山
卢莉萍
张晓倩
韩冰
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Xian Technological University
Original Assignee
Xian Technological University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Xian Technological University filed Critical Xian Technological University
Priority to CN201910548947.9A priority Critical patent/CN110274598B/zh
Publication of CN110274598A publication Critical patent/CN110274598A/zh
Application granted granted Critical
Publication of CN110274598B publication Critical patent/CN110274598B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/20Instruments for performing navigational calculations
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Abstract

本发明公开了一种机器人单目视觉鲁棒定位估计方法,包括:在第一、二关键帧图像特征匹配点对中选择一个随机样本进行初始定位估计,建立两关键帧图像的极几何关系,以匹配点与极线之间的距离作为初始距离误差进行聚类剔除误匹配点,计算初始定位估计的偏置距离修正初始距离误差作为该匹配点权重依据,采用最小化误差平方和重新鲁棒估计机器人位姿,利用三角测量原理建立局部路标三维地图;在第三关键帧及其后续关键帧图像的特征点与局部路标匹配点对中选择一个随机样本估计初始定位,利用重投影初始距离误差进行聚类剔除误匹配点,采用优化方法重新鲁棒估计机器人位姿。本发明可以快速、可靠地去除误匹配点,实现机器人定位的鲁棒估计。

Description

一种机器人单目视觉鲁棒定位估计方法
技术领域
本发明涉及视觉定位技术领域,更具体的涉及一种机器人单目视觉鲁棒定位估计方法。
背景技术
单目视觉定位是机器人导航中的一种便携、性价比高的定位技术,主要利用视觉传感器感知场景,获取序列图像进行定位,其定位准确度依赖于特征点匹配的正确性。而由于噪声、相似纹理等原因,可能出现错误的特征点匹配,从而影响机器人定位估计。
现有的单目视觉定位鲁棒估计方法主要有RANSAC法、1-point RANSAC法。RANSAC法可以用在定位估计之前,剔除误匹配点,但多次随机抽样的策略,使得剔除的效率不高,尤其当一个定位样本所需的数据点较多的时候。1-point RANSAC定位法借助机器人的运动方程,改进了RANSAC的多次随机抽样策略,剔除错误匹配点,但没有考虑到预测的位姿对于观测存在偏置,使得距离阈值确定受到影响,从而影响正确匹配点的判断,降低定位估计的准确度。
发明内容
本发明实施例提供一种机器人单目视觉鲁棒定位估计方法,用以解决上述背景技术中存在的问题。
本发明实施例提供一种机器人单目视觉鲁棒定位估计方法,包括:
1)利用随机样本进行机器人初始位姿估计;
将第一帧图像作为第一关键帧图像,并提取第一关键帧图像中局部不变性ORB特征点;随机选取第二关键帧图像,并提取第二关键帧图像中局部不变性ORB特征点;采用汉明距离法,对第一关键帧图像中局部不变性ORB特征点m′i和第二关键帧图像中局部不变性ORB特征点m″i进行匹配;在匹配点对中选择一个随机样本估计机器人的初始位姿;
采用8对匹配点(m′i,m″i),基于直接线性方法,求解式(1)最小化问题,估计两关键帧间的基本矩阵,解算初始位姿R2、T2,建立极几何关系;
Figure BDA0002104930290000021
其中,F为3×3的基本矩阵;
对于第三关键帧图像和第三关键帧图像以后的关键帧图像,利用局部路标三维地图中的三维路标和当前关键帧图像的匹配点(Mi,m″′i)进行匹配;在匹配点对中选择一个随机样本估计机器人的初始位姿;
采用3对匹配点(Mi,m″′i),基于三点透视P3P方法和3D点到3D点的位姿估计,获取当前帧图像的机器人初始位姿Rk和Tk;其中,i=1,…,3;
2)利用匹配点重新估计机器人位姿,进行鲁棒定位估计;
利用初始位姿估计建立第一、二关键帧图像的极几何关系,以匹配点与极线之间的距离作为初始距离误差进行聚类剔除误匹配点,计算初始位姿估计的偏置距离修正初始距离误差作为该匹配点的权重依据,采用最小化误差平方和重新鲁棒估计机器人位姿,并利用三角测量原理建立匹配点的局部路标三维地图;
对于第三关键帧图像和第三关键帧图像以后的关键帧图像,利用局部路标三维地图中的三维路标和当前关键帧图像的特征点进行匹配,在匹配点对中选择一个随机样本进行初始位姿估计;利用初始位姿估计计算三维路标的重投影初始距离误差进行聚类剔除误匹配点,计算初始位姿估计的偏置距离修正初始距离误差作为该匹配点权重依据,采用优化方法重新鲁棒估计机器人位姿。
进一步地,所述随机样本,是从匹配点对中随机选择位姿估计所需最少数量的匹配点对组成的一个随机样本。
进一度地,对第一关键帧图像和第二关键帧图像的匹配点,重新估计机器人位姿,进行鲁棒定位估计,具体包括:
1)对于第一关键帧图像和第二关键帧图像,将所有匹配点(mi′,mi″)到各自关键帧图像极线之间的距离之和作为距离误差ei,如式(2)所示,并计算距离误差ei的标准差σ;
Figure BDA0002104930290000031
2)采用基于密度的聚类算法对距离误差ei进行密度聚类,剔除误差距离超过3σ的匹配数据,给出距离误差偏置e0,获取正确匹配数据;
3)根据式(3)获得正确匹配数据与距离误差偏置比较后的修正距离误差e′,并将修正距离误差e′作为正确匹配数据权重wi的依据,如式(4)所示;
e′i=ei-e0 (3)
Figure BDA0002104930290000032
4)采用修正距离误差e′建立正确匹配数据损失函数,如式(5)所示,并通过最小化加权的损失函数重新估计机器人位姿;
Figure BDA0002104930290000033
进一度地,对第三关键帧图像和第三关键帧图像以后的关键帧图像匹配点,重新估计机器人位姿,进行鲁棒定位估计;具体包括:
1)通过式(6)确定n个匹配点(Mi,m″′i)的三维路标的重投影距离误差εi,并计算距离误差εi的标准差;其中,i=1,…,n;
Figure BDA0002104930290000034
其中,si为Mi到相机的物距;K为相机的内参数矩阵;
2)采用基于密度的聚类算法对距离误差进行密度聚类,剔除误差距离超过的匹配数据,给出距离误差偏置,获取正确的配数据;
3)获取匹配数据与距离误差偏置比较后的修正距离误差,并将修正距离误差作为正确匹配数据权重的依据;
4)采用修正距离误差建立正确匹配数据损失函数,并通过最小化加权的损失函数重新估计机器人位姿。
本发明实施例提供一种机器人单目视觉鲁棒定位估计方法,与现有技术相比,其有益效果如下:
为了提高机器人视觉定位估计的鲁棒性,本发明给出了一种单次随机抽样误差聚类的机器人定位估计方法,利用随机选择的一个样本进行初始定位作为参考,省掉了多次随机选择的过程,去掉了由其引起的不确定性以及可能的次优性;对距离误差的聚类修正,校正了初始定位参考引起的偏置,降低了对初始定位参考的依赖性;以修正的距离误差对正确的匹配数据进行加权,提高了机器人位姿估计的准确度;机器人鲁棒定位估计方法不但有效剔除了误匹配点,而且具有自适应性,同时对正确匹配点的观测误差也具有区别性,降低了观测误差对定位估计的影响。本发明利用单次随机抽样,加速了图像特征点匹配,采用误差聚类的方法,快速地剔除了误匹配数据,并对正确的匹配数据进行了加权分配,有效地提高了机器人定位的精度,即本发明可以快速、可靠地去除误匹配点,实现机器人定位的鲁棒估计。
附图说明
图1为本发明实施例提供的一种机器人单目视觉鲁棒定位估计方法流程示意图;
图2为本发明实施例提供的初始两连续关键帧的机器人鲁棒定位估计流程示意图;
图3为本发明实施例提供的后续关键帧的机器人鲁棒定位估计流程示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
参见图1~3,本发明实施例提供一种机器人单目视觉鲁棒定位估计方法,该方法包括:
(1)机器人通过单目摄像头获取视频流信息,并将视频流转化为序列帧图像。
(2)以第一幅图作为第一关键帧图像,提取图像中的ORB特征点。
(3)确定第二关键帧图像,并提取ORB特征点。
(4)采用汉明距离,对第一关键帧图像的ORB特征点m′i和第二关键帧图像的ORB特征点m″i进行匹配;
(5)利用第一、二关键帧的匹配点(m′i,m″i),i=1,…,n进行鲁棒定位估计,其中n为匹配点的数量,流程图如图2所示,具体过程如下:
1)采用8对匹配点(m′i,m″i),i=1,…,8,基于直接线性方法,求解式(1)最小化问题,估计两关键帧间的基本矩阵,建立极几何关系;
Figure BDA0002104930290000051
2)对于两幅图像,计算所有匹配点(m′i,m″i)到各自极线l和l′之间的距离之和作为距离误差ei,并计算距离误差ei的标准差σ;
Figure BDA0002104930290000061
3)对距离误差ei采用DBSCAN算法进行密度聚类,剔除误差距离超过3σ的匹配数据,给出距离误差偏置e0,获取正确的匹配数据;
4)按照式(3)给出匹配数据与距离误差偏置比较后的修正距离误差e′,作为该匹配数据权重wi的依据,如式(4)所示;
e′i=ei-e0 (3)
Figure BDA0002104930290000062
5)采用修正距离误差e′建立正确匹配数据损失函数:
Figure BDA0002104930290000063
通过最小化加权的损失函数重新估计机器人位姿,并以当前的位移作为参考单位,利用三角测量原理建立局部路标三维地图。
(6)对于第三帧等后续的关键帧图像,利用局部地图中的三维路标和当前关键帧图像的匹配点(Mi,m″′i),i=1,…,n进行鲁棒定位估计,其中n为匹配点的数量,流程图如图3所示,具体过程如下:
1)采用3对匹配点(Mi,m″′i),i=1,…,3,基于P3P方法,和3D点到3D点的位姿估计,获取当前图像帧的机器人初始位姿Rk和Tk
2)计算n个匹配点(Mi,m″′i),i=1,…,n的三维路标的重投影距离误差εi,并计算距离误差εi的标准差σ;
Figure BDA0002104930290000064
3)对距离误差εi采用DBSCAN算法进行密度聚类,剔除误差距离超过3σ的匹配数据,给出距离误差偏置ε0,获取正确的匹配数据;
4)参照式(3)给出匹配数据与距离误差偏置比较后的修正距离误差ε′,作为该匹配数据权重wi的依据,参照式(4);
5)采用修正距离误差ε′参照式(5)建立正确匹配数据损失函数,最小化加权的损失函数重新估计机器人位姿,并对位姿与匹配点进行BA优化,同时对新匹配的二维特征点,利用三角测量原理建立局部增量三维地图。
本发明实施例中,随机选择一个样本进行机器人初始定位估计作为参考,作为参考的初始定位估计可以是错误的,也可以是正确的。两关键帧图像匹配点相互计算匹配点与极线的距离之和作为距离误差e;地图中的三维路标和当前关键帧图像匹配点计算三维路标的重投影点与观测点位置距离作为距离误差ε,距离误差e和ε的聚类情况与初始定位估计无关,距离误差e和ε的偏置可以通过聚类进行估计。距离误差e和ε进行偏置修正后,作为该匹配数据权重的依据,以修正后的距离误差e′和ε′建立正确匹配数据的损失函数。利用正确的匹配数据,通过最小化加权的损失函数重新估计机器人位姿。
综上所述,为了提高机器人视觉定位估计的鲁棒性,本发明给出了一种单次随机抽样误差聚类的机器人定位估计方法,利用随机选择的一个样本进行初始定位作为参考,省掉了多次随机选择的过程,去掉了由其引起的不确定性以及可能的次优性;对距离误差的聚类修正,校正了初始定位参考引起的偏置,降低了对初始定位参考的依赖性;以修正的距离误差对正确的匹配数据进行加权,提高了机器人位姿估计的准确度;机器人鲁棒定位估计方法不但有效剔除了误匹配点,而且具有自适应性,同时对正确匹配点的观测误差也具有区别性,降低了观测误差对定位估计的影响。本发明利用单次随机抽样,加速了图像特征点匹配,采用误差聚类的方法,快速地剔除了误匹配数据,并对正确的匹配数据进行了加权分配,有效地提高了机器人定位的精度,即本发明可以快速、可靠地去除误匹配点,实现机器人定位的鲁棒估计。
以上公开的仅为本发明的几个具体实施例,本领域的技术人员可以对本发明进行各种改动和变型而不脱离本发明的精神和范围,倘若本发明的这些修改和变型属于本发明权利要求及其等同技术的范围之内,则本发明也意图包含这些改动和变型在内。

Claims (3)

1.一种机器人单目视觉鲁棒定位估计方法,其特征在于,包括:
1)利用随机样本进行机器人初始位姿估计;
将第一帧图像作为第一关键帧图像,并提取第一关键帧图像中局部不变性ORB特征点;随机选取第二关键帧图像,并提取第二关键帧图像中局部不变性ORB特征点;采用汉明距离法,对第一关键帧图像中局部不变性ORB特征点m′i和第二关键帧图像中局部不变性ORB特征点m″i进行匹配;在匹配点对中选择一个随机样本估计机器人的初始位姿;
采用8对匹配点(m′i,m″i),基于直接线性方法,求解式(1)最小化问题,估计两关键帧间的基本矩阵,解算初始位姿R2、T2,建立极几何关系;
Figure FDA0003894398050000011
其中,F为3×3的基本矩阵;
对于第三关键帧图像和第三关键帧图像以后的关键帧图像,利用局部路标三维地图中的三维路标和当前关键帧图像的匹配点(Mi,m″′i)进行匹配;在匹配点对中选择一个随机样本估计机器人的初始位姿;
采用3对匹配点(Mi,m″′i),基于三点透视P3P方法和3D点到3D点的位姿估计,获取当前帧图像的机器人初始位姿Rk和Tk;其中,i=1,…,3;
2)利用匹配点重新估计机器人位姿,进行鲁棒定位估计;
利用初始位姿估计建立第一、二关键帧图像的极几何关系,以匹配点与极线之间的距离作为初始距离误差进行聚类剔除误匹配点,计算初始位姿估计的偏置距离修正初始距离误差作为该匹配点的权重依据,采用最小化误差平方和重新鲁棒估计机器人位姿,并利用三角测量原理建立匹配点的局部路标三维地图;对第一关键帧图像和第二关键帧图像的匹配点,重新估计机器人位姿,进行鲁棒定位估计,具体包括:
1)对于第一关键帧图像和第二关键帧图像,将所有匹配点(m′i,m″i)到各自关键帧图像极线之间的距离之和作为距离误差ei,如式(2)所示,并计算距离误差ei的标准差σ;
Figure FDA0003894398050000021
2)采用基于密度的聚类算法对距离误差ei进行密度聚类,剔除误差距离超过3σ的匹配数据,给出距离误差偏置e0,获取正确匹配数据;
3)根据式(3)获得正确匹配数据与距离误差偏置比较后的修正距离误差e′i,并将修正距离误差e′i作为正确匹配数据权重wi的依据,如式(4)所示;
e′i=ei-e0 (3)
Figure FDA0003894398050000022
4)采用修正距离误差e′i建立正确匹配数据损失函数,如式(5)所示,并通过最小化加权的损失函数重新估计机器人位姿;
Figure FDA0003894398050000023
对于第三关键帧图像和第三关键帧图像以后的关键帧图像,利用局部路标三维地图中的三维路标和当前关键帧图像的特征点进行匹配,在匹配点对中选择一个随机样本进行初始位姿估计;利用初始位姿估计计算三维路标的重投影初始距离误差进行聚类剔除误匹配点,计算初始位姿估计的偏置距离修正初始距离误差作为该匹配点权重依据,采用优化方法重新鲁棒估计机器人位姿。
2.如权利要求1所述的机器人单目视觉鲁棒定位估计方法,其特征在于,所述随机样本,是从匹配点对中随机选择位姿估计所需最少数量的匹配点对组成的一个随机样本。
3.如权利要求1所述的机器人单目视觉鲁棒定位估计方法,其特征在于,对第三关键帧图像和第三关键帧图像以后的关键帧图像匹配点,重新估计机器人位姿,进行鲁棒定位估计;具体包括:
1)通过式(6)确定n个匹配点(Mi,m″′i)的三维路标的重投影距离误差εi,并计算重投影距离误差εi的标准差;其中,i=1,…,n;
Figure FDA0003894398050000031
其中,si为Mi到相机的物距;K为相机的内参数矩阵;
2)采用基于密度的聚类算法对距离误差进行密度聚类,剔除误差距离超过的匹配数据,给出距离误差偏置,获取正确的配数据;
3)获取匹配数据与距离误差偏置比较后的修正距离误差,并将修正距离误差作为正确匹配数据权重的依据;
4)采用修正距离误差建立正确匹配数据损失函数,并通过最小化加权的损失函数重新估计机器人位姿。
CN201910548947.9A 2019-06-24 2019-06-24 一种机器人单目视觉鲁棒定位估计方法 Active CN110274598B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910548947.9A CN110274598B (zh) 2019-06-24 2019-06-24 一种机器人单目视觉鲁棒定位估计方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910548947.9A CN110274598B (zh) 2019-06-24 2019-06-24 一种机器人单目视觉鲁棒定位估计方法

Publications (2)

Publication Number Publication Date
CN110274598A CN110274598A (zh) 2019-09-24
CN110274598B true CN110274598B (zh) 2023-03-24

Family

ID=67961613

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910548947.9A Active CN110274598B (zh) 2019-06-24 2019-06-24 一种机器人单目视觉鲁棒定位估计方法

Country Status (1)

Country Link
CN (1) CN110274598B (zh)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110827353B (zh) * 2019-10-18 2023-03-28 天津大学 一种基于单目摄像头辅助的机器人定位方法
CN111986247B (zh) * 2020-08-28 2023-10-27 中国海洋大学 层次式相机旋转估计方法
CN112328715B (zh) * 2020-10-16 2022-06-03 浙江商汤科技开发有限公司 视觉定位方法及相关模型的训练方法及相关装置、设备
CN112907657A (zh) * 2021-03-05 2021-06-04 科益展智能装备有限公司 一种机器人重定位方法、装置、设备及存储介质
CN113436264B (zh) * 2021-08-25 2021-11-19 深圳市大道智创科技有限公司 基于单目多目混合定位的位姿计算方法及系统

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016516249A (ja) * 2014-02-20 2016-06-02 エヌイーシー ラボラトリーズ アメリカ インクNEC Laboratories America, Inc. 単一カメラを用いた3dでの移動物体の位置測定
CN106355197A (zh) * 2016-08-24 2017-01-25 广东宝乐机器人股份有限公司 基于K‑means聚类算法的导航图像匹配过滤方法
CN107610175A (zh) * 2017-08-04 2018-01-19 华南理工大学 基于半直接法和滑动窗口优化的单目视觉slam算法
CN109544636A (zh) * 2018-10-10 2019-03-29 广州大学 一种融合特征点法和直接法的快速单目视觉里程计导航定位方法
CN109887029A (zh) * 2019-01-17 2019-06-14 江苏大学 一种基于图像颜色特征的单目视觉里程测量方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3474230B1 (en) * 2017-10-18 2020-07-22 Tata Consultancy Services Limited Systems and methods for edge points based monocular visual slam

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016516249A (ja) * 2014-02-20 2016-06-02 エヌイーシー ラボラトリーズ アメリカ インクNEC Laboratories America, Inc. 単一カメラを用いた3dでの移動物体の位置測定
CN106355197A (zh) * 2016-08-24 2017-01-25 广东宝乐机器人股份有限公司 基于K‑means聚类算法的导航图像匹配过滤方法
CN107610175A (zh) * 2017-08-04 2018-01-19 华南理工大学 基于半直接法和滑动窗口优化的单目视觉slam算法
CN109544636A (zh) * 2018-10-10 2019-03-29 广州大学 一种融合特征点法和直接法的快速单目视觉里程计导航定位方法
CN109887029A (zh) * 2019-01-17 2019-06-14 江苏大学 一种基于图像颜色特征的单目视觉里程测量方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
基于RANSAC的奇异值剔除的单目视觉里程计;孙作雷等;《上海海事大学学报》;20161231(第04期);全文 *

Also Published As

Publication number Publication date
CN110274598A (zh) 2019-09-24

Similar Documents

Publication Publication Date Title
CN110274598B (zh) 一种机器人单目视觉鲁棒定位估计方法
CN108986037B (zh) 基于半直接法的单目视觉里程计定位方法及定位系统
KR101791590B1 (ko) 물체 자세 인식장치 및 이를 이용한 물체 자세 인식방법
CN108537848B (zh) 一种面向室内场景重建的两级位姿优化估计方法
WO2018142900A1 (ja) 情報処理装置、データ管理装置、データ管理システム、方法、及びプログラム
JP7147753B2 (ja) 情報処理装置、情報処理方法、及びプログラム
CN110570474B (zh) 一种深度相机的位姿估计方法及系统
CN110807809A (zh) 基于点线特征和深度滤波器的轻量级单目视觉定位方法
Desai et al. Visual odometry drift reduction using SYBA descriptor and feature transformation
CN111928842B (zh) 一种基于单目视觉实现slam定位的方法及相关装置
Shao et al. Robust height estimation of moving objects from uncalibrated videos
CN108428249A (zh) 一种基于光流跟踪和双几何模型的初始位姿估计方法
Santana-Cedrés et al. Automatic correction of perspective and optical distortions
CN111928857B (zh) 一种动态环境中实现slam定位的方法及相关装置
CN112132754B (zh) 一种车辆移动轨迹修正方法及相关装置
CN112767546B (zh) 移动机器人基于双目图像的视觉地图生成方法
CN103875020A (zh) 基于定向传感器解决单应性分解不明确性
CN112802096A (zh) 实时定位和建图的实现装置和方法
CN113012197A (zh) 一种适用于动态交通场景的双目视觉里程计定位方法
JP2008224641A (ja) カメラ姿勢推定システム
KR100792172B1 (ko) 강건한 대응점을 이용한 기본행렬 추정 장치 및 그 방법
WO2023130842A1 (zh) 一种相机位姿确定方法和装置
CN112288813A (zh) 基于多目视觉测量与激光点云地图匹配的位姿估计方法
CN111882663A (zh) 一种融合语义信息完成视觉slam闭环检测方法
Bartoli et al. A framework for pencil-of-points structure-from-motion

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant