CN107843251B - 移动机器人的位姿估计方法 - Google Patents

移动机器人的位姿估计方法 Download PDF

Info

Publication number
CN107843251B
CN107843251B CN201710969938.8A CN201710969938A CN107843251B CN 107843251 B CN107843251 B CN 107843251B CN 201710969938 A CN201710969938 A CN 201710969938A CN 107843251 B CN107843251 B CN 107843251B
Authority
CN
China
Prior art keywords
mobile robot
pose
image
panoramic
matching
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201710969938.8A
Other languages
English (en)
Other versions
CN107843251A (zh
Inventor
钱飞帆
杨锴
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Guangzhou Coayu Robot Co Ltd
Original Assignee
Guangdong Bolak Robot Ltd By Share Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Guangdong Bolak Robot Ltd By Share Ltd filed Critical Guangdong Bolak Robot Ltd By Share Ltd
Priority to CN201710969938.8A priority Critical patent/CN107843251B/zh
Priority to PCT/CN2018/073928 priority patent/WO2019075948A1/zh
Publication of CN107843251A publication Critical patent/CN107843251A/zh
Application granted granted Critical
Publication of CN107843251B publication Critical patent/CN107843251B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00

Abstract

本发明揭示了一种移动机器人的位姿估计方法,所示移动机器人包括全景摄像头,其特征在于,包括以下步骤:S1:初始化或获取移动机器人在参考位置的位姿信息及全景图像P0;S2:将全景图像P0分割成至少两幅图像P0‑j;S3:获取移动机器人在ti时刻的周围环境的全景图像Pi;S4:将全景图像Pi分割成与图像P0‑j对应的至少两幅图像Pi‑j;S5:根据图像P0‑j与Pi‑j的匹配关系分别计算移动机器人的位姿Ti‑j;S6:根据位姿Ti‑j确定移动机器人在ti时刻的位姿。与现有技术相比,本发明技术方案通过全景摄像头获取更为丰富的环境信息,并通过对分割后的全景图像分别计算移动机器人各角度的位姿,然后根据各位姿的误差范围大小来确定最终位姿,提高了移动机器人的位姿估计精度。

Description

移动机器人的位姿估计方法
技术领域
本发明属于移动机器人领域,涉及移动机器人的定位及导航,特别是移动机器人的位姿估计方法。
背景技术
现有的移动机器人的视觉位姿估计方法主要包括以下两种:一是以irobot公司为代表的前视视觉进行位姿估计;二是以LG公司为代表的的天花板视觉进行位姿估计。
然后,不管是前视视觉还是天花板视觉,其视角范围限制在某个特定角度,缺乏对整个环境的感知,导致对移动机器人的位姿估计存在误差甚至错误,进而影响移动机器人的地图创建及导航。
现有方案是通过在移动机器人上安装多个摄像头以获得更多的环境信息,但这种方式将导致移动机器人的成本增加,此外,因涉及多个摄像头之间的标定及不同摄像头之间的匹配,算法较为复杂。
因此有必要提供一种能解决上述问题的移动机器人的位姿估计方案。
发明内容
本发明的目的之一在于克服背景技术中的缺陷,提供一种移动机器人的位姿估计方法,其具体方案如下:
一种移动机器人的位姿估计方法,所述移动机器人包括全景摄像头和行程测量装置,包括以下步骤:S1:初始化或获取移动机器人在参考位置的位姿信息及全景图像P0;S2:将全景图像P0分割成至少两幅图像P0-j;S3:获取移动机器人在ti时刻的周围环境的全景图像Pi;S4:将全景图像Pi分割成与图像P0-j对应的至少两幅图像Pi-j;S5:根据图像P0-j与Pi-j的匹配关系分别计算移动机器人的位姿Ti-j;S6:根据位姿Ti-j确定移动机器人在ti时刻的位姿。
进一步地,在本发明的一个实施例中,还包括步骤S7:将ti时刻的位置作为参考位置再返回步骤S1。
进一步地,所述步骤S1中的参考位置为移动机器人开始工作时的位置。
进一步地,所述步骤S2是通过立方体模型将全景图像进行分割的。
进一步地,在本发明的一个实施例中,将所述步骤S2的全景图像P0、步骤S4全景图像Pi分别分割成上视图像和前视图像。
进一步地,所述根据上视图像计算移动机器人位姿的步骤包括:步骤a1:提取全景图像P0、全景图像Pi的上视图像特征并匹配;步骤a2:根据图像匹配算法匹配提取的特征点;步骤a3:根据匹配特征点的匹配关系得到单应矩阵H;步骤a4:根据全景摄像头内参数分解单应矩阵H以得到位姿估计Ti-上
进一步地,所述根据前视图像计算移动机器人位姿的步骤包括:步骤b1:提取全景图像P0、全景图像Pi的前视图像特征并匹配;步骤b2:根据图像匹配算法匹配提取的特征点;步骤b3:根据匹配特征点的匹配关系得到基础矩阵F;步骤b4:根据全景摄像头内参数分解基础矩阵F以得到位姿估计Ti-前
进一步地,所述步骤S6包括:S61:分别计算各Ti-j的误差;S62:选择误差范围最小的位姿作为移动机器人在ti时刻的位姿。
进一步地,所述步骤S61是基于图像P0-j与Pi-j的欧拉旋转角进行误差计算的。
与现有技术相比,本发明技术方案通过全景摄像头获取更为丰富的环境信息,并通过对分割后的全景图像分别计算移动机器人各角度的位姿,然后根据各位姿的误差范围大小来确定最终位姿,提高了移动机器人的位姿估计精度。
附图说明
为了更清楚地说明本发明实施例的技术方案,下面将对实施例中所需要使用的附图作简单的介绍,显而易见地,下面描述中的附图是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本发明方法的较佳实施例的流程图;
图2是根据上视图像计算移动机器人位姿的流程图;
图3是根据前视图像计算移动机器人位姿的流程图;
图4是立方体模型示意图;
图5是全景摄像头获取的球面映射的基准图像;
图6是图5经立方体映射后得到的分段矫正图像。
具体实施方式
下面将结合附图和具体实施例对本发明技术方案进行清楚、完整地描述,显然,这里所描述的实施例仅仅是发明的一部分实施例,而不是全部的实施例。基于本发明描述的具体实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都应当属于本发明权利要求所限定的保护范围内。
本发明方法实施例中的移动机器人包括全景摄像头和行程测量装置。其中,全景摄像头为包括鱼眼摄像头在内的广角摄像头,全景摄像头在移动机器人移动方向的前侧向上倾斜安装,使得全景摄像头能获取包括移动机器人前方、上方、左方、右方以及部分后方的环境信息;行程测量装置用于测量利用机器人的移动距离,如里程计(码盘);另外,移动机器人还包括控制系统、驱动系统、传感器系统、电源系统及功能系统等,这里不再详细说明。
本发明方法尤其适用于在室内工作的移动机器人的位姿估计,如扫地机器人、空气净化机器人及室内安防巡逻机器人等,由于室内移动机器人有工作边界限定(如墙)以及可获取天花板图片,可提高图片特征点的匹配率并能根据里程计数据计算机器人位姿;反之,在无边界和天花板的空旷工作区域,将降低图片特征点的匹配率,同时需要移动机器人移动较大距离后才能根据上视图像及里程计数据计算机器人位姿(无天花板时,需机器人移动较大距离后,其上视图像才会发生角度变化)。
本实施例中的移动机器人的位姿估计方法包括以下步骤:
S1:初始化或获取移动机器人在参考位置的位姿信息及全景图像P0
移动机器人要使用本方法进行位姿估计,首先要确定一个参考位置并通过鱼眼摄像头获取该参考位置的全景图像P0。参考位置包括移动机器人开始工作点或某个记忆点位置。具体地,可以将移动机器人开始工作点位置(如充电座位置)作为参考位置并初始化为地图原点;或获取保存在地图中的某个记忆点位置作为参考位置并获取该记忆点位置的坐标信息,这里的位姿信息指移动机器人在地图中的坐标及行进方向。
S2:将全景图像P0分割成至少两幅图像P0-j
本实施例中将鱼眼摄像头获取的全景图像作为球面映射的基准图像,然后通过立方体映射进行转换,使其变为立方体模型图像。由于移动机器人在移动过程中的上方视角(天花板视角)和前方视角的信息最有价值且匹配效果相对较好,本实施例将重点对上方视觉和前方视觉进行具体说明。如图4所示,X1为移动机器人工作环境的天花板上特征点,X2为移动机器人行走前方特征点,通过立方体映射将特征点X1映射到如图的U成像平面上,将特征点X2映射到如图的F成像平面上。如图5所示,为通过全景摄像头(鱼眼摄像机)获取的球面映射的基准图像,如图6所示,为使用立方体映射得到的分段矫正图像,球面映射的基准图像的上视区域abcd和前视区域dcfe使用立方体映射分别投影到立方体模型图像中对应的上视图像abcd(图像P0-上)和前视图像dcfe(图像P0-前)中。
S3:获取移动机器人在ti时刻的周围环境的全景图像Pi
移动机器人运行一段时间或距离后,将通过鱼眼摄像头获取此时,即ti时刻的移动机器人周围环境的全景图像Pi
S4:将全景图像Pi分割成与图像P0-j对应的至少两幅图像Pi-j
参考上述步骤S2中的方法,将全景图像Pi分割成与图像P0-j对应的至少两幅图像Pi-j
S5:根据图像P0-j与Pi-j的匹配关系分别计算移动机器人的位姿Ti-j
本步骤中分别就上视图像和前视图像计算移动机器人位姿分别进行说明。
本实施例中,上视图像计算移动机器人位姿的步骤如下。
步骤a1:提取全景图像P0、全景图像Pi的上视图像特征并匹配。
提取当前图像(即全景图像Pi)的上视图像(即图像Pi-上)和参考图像(即全景图像P0)的上视图像(即图像P0-上)的特征点并计算得到特征描绘子,提取ORB特征描绘子的步骤为:使用FAST算法求特征点;对FAST特征点分配方向生成OFAST;利用分配的方向求有向BRIEF;贪婪算法筛选高区分度的有向BRIEF,即ORB描绘子。关于ORB特征描绘子提取的详细资料可参考:Rublee E,Rabaud V,Konolige K,et al.ORB:an efficient alternative toSIFT or SURF.Computer Vision(ICCV),2011IEEE International Conference on.IEEE,2011:2564-2571。
步骤a2:根据图像匹配算法匹配提取的特征点。
根据图像匹配算法匹配提取的特征描绘子;提取的ORB描绘子是二进制码串,使用Hamming距离来度量ORB描绘子的相似度,得到匹配点对。
步骤a3:根据匹配特征点的匹配关系得到单应矩阵H。
根据匹配特征点的匹配关系得到单应矩阵H,对匹配点对使用随机抽样一致性(RANSAC)算法过滤误匹配,并使用RANSAC算法计算上视当前图像和上视参考图像之间的单应性矩阵。
步骤a4:根据全景摄像头内参数分解单应矩阵H以得到位姿估计Ti-上
根据全景摄像头内参数分解单应矩阵H以得到位姿估计Ti-上;全景摄像头的内参数矩阵K包括焦距f,光心的偏移量系数cx,cy,由全景摄像头标定得到,结合内参数矩阵使用SVD分解得到旋转矩阵R和平移向量t。其中分解后的平移向量为归一化的平移量,具有尺度,结合里程计测得的移动机器人的移动距离,得到真实的平移ti-上。旋转矩阵R和真实的平移tt组合就是全景摄像头的位姿估计Ti-上。关于SVD分解可参考:O.D.Faugeras andF.Lustman,“Motion and structure from motionin a piecewise planarenvironment,”International Journal of PatternRecognition and ArtificialIntelligence,vol.2,no.03,pp.485–508,1988.
本实施例中,前视图像计算移动机器人位姿的步骤如下。
步骤b1:提取全景图像P0、全景图像Pi的前视图像特征并匹配。
提取当前图像(即全景图像Pi)的前视图像(即图像Pi-前)和参考图像(即全景图像P0)的前视图像(即图像P0-前)的特征点并计算得到特征描绘子,提取的特征描绘子为ORB特征描绘子。
步骤b2:根据图像匹配算法匹配提取的特征点。
根据图像匹配算法匹配提取的特征描绘子,使用Hamming距离匹配特征描绘子。
步骤b3:根据匹配特征点的匹配关系得到基础矩阵F。
使用RANSAC算法剔除异常点,获取最大一致集(即正确匹配对)并使用归一化8点算法估计基本矩阵F。8点算法估计基本矩阵F过程为:设正确匹配的点对为x,x',基础矩阵F={f1,f2,f3;f4,f5,f6;f7,f8,f9},由对极集合约束,xFx'=0,解方程得到基本矩阵F。
步骤b4:根据全景摄像头内参数分解基础矩阵F以得到位姿估计Ti-前
首先由基础矩阵结合内参数矩阵得到本征矩阵E,然后对本征矩阵E使用SVD分解得到旋转矩阵R和平移向量t。SVD分解过程为:对E进行奇异值分解,如公式E=U∑VT求得U、VT,其中∑为3×3对角矩阵,U和VT为3×3正交矩阵。令WT={0,-1,0;1,0,0;0,0,1}。其中,旋转矩阵R1=UWVT,R2=UWTVT,t1=U3,t2=-U3,其中,U3表示U的第三列组成的向量。由于有4种可能,取匹配的正确点对使用三角化投影得到在两个相机下的深度,检测该点在两个相机下的深度,得到正确的旋转向量R和平移向量t。其中分解后的平移向量为归一化的平移量,具有尺度,结合里程计测得的移动机器人的移动距离,得到真实的平移ti-前。旋转矩阵R和真实的平移ti-前组合就是全景摄像头的位姿估计Ti-前。这里的SVD分解详细信息可参考:R.Hartley and A.Zisserman,Multiple View Geometry in ComputerVision,2nded.Cambridge University Press,2004。
需要说明的是:对于上视图像使用H矩阵估计全景摄像头位姿的原因是:上视图像拍摄到的图像是天花板,三维平面场景比较丰富,求解单应矩阵并估计位姿算法效果更好;而前视图像拍摄的是机器人前方的物体,非三维平面场景比较丰富,用对极约束模型求基础矩阵并估计位姿算法效果较好。
S6:根据位姿Ti-j确定移动机器人在ti时刻的位姿。
本实施例中确定移动机器人在ti时刻的位姿包括两个步骤。
S61:分别计算各Ti-j的误差。
通过上述步骤S5中的位姿Ti-上、位姿Ti-前进行旋转和平移,其中位姿Ti-上转换为旋转用欧拉角表示为(ψ,
Figure GDA0002250987820000071
),平移表示为(tx,ty,tz);由位姿Ti-前转换为旋转用欧拉角表示为(ψ,
Figure GDA0002250987820000072
),平移表示为(tx,ty,tz)。比较欧拉角的变化值大小,即
Figure GDA0002250987820000073
Figure GDA0002250987820000074
的大小。
S62:选择误差范围最小的位姿作为移动机器人在ti时刻的位姿。
如果
Figure GDA0002250987820000076
大于
Figure GDA0002250987820000077
则将位姿Ti-前确定为移动机器人在ti时刻的位姿;如果
Figure GDA0002250987820000078
小于
Figure GDA0002250987820000079
则将位姿Ti-上确定为移动机器人在ti时刻的位姿。
步骤S7:将ti时刻的位置作为参考位置再返回步骤S1。
本步骤为可选步骤,当移动机器人确定了在ti时刻的位姿后,保存该点的地图信息,然后再返回步骤S1后重复步骤S2至步骤S6。另外,为了减少累计误差,后续移动机器人在ti时刻的位姿估计的参考位置优先选择最初的参考点,在不能与最初参考点匹配的情况下可选择经估计位姿的位置作为参考点。
需要说明的是,本发明方法还可以通过上述实施例中的方法计算移动机器人在ti时刻的位姿位姿Ti-左、位姿Ti-右、位姿Ti-后等位姿,然后从多个(三个或以上)计算的位姿中选择误差范围最小的位姿作为移动机器人在ti时刻的位姿。
以上所揭露的仅为本发明技术方案的实施例而已,不能以此来限定本发明之权利范围,因此依本发明权利要求所作的等同变化,仍属本发明所涵盖的范围。

Claims (8)

1.一种移动机器人的位姿估计方法,其特征在于,所述移动机器人包括全景摄像头和行程测量装置,位姿估计方法包括以下步骤:
S1:初始化或获取移动机器人在参考位置的位姿信息及全景图像P0
S2:将全景图像P0分割成至少两幅图像P0-j
S3:获取移动机器人在ti时刻的周围环境的全景图像Pi
S4:将全景图像Pi分割成与图像P0-j对应的至少两幅图像Pi-j
S5:根据图像P0-j与Pi-j的匹配关系分别计算移动机器人的位姿Ti-j
S6:根据位姿Ti-j确定移动机器人在ti时刻的位姿;
其中,所述步骤S6包括:
S61:分别计算各Ti-j的误差;
S62:选择误差范围最小的位姿作为移动机器人在ti时刻的位姿。
2.根据权利要求1所述的移动机器人的位姿估计方法,其特征在于,
还包括步骤S7:将ti时刻的位置作为参考位置再返回步骤S1。
3.根据权利要求1所述的移动机器人的位姿估计方法,其特征在于,
所述步骤S1中的参考位置为移动机器人开始工作时的位置。
4.根据权利要求1所述的移动机器人的位姿估计方法,其特征在于,
所述步骤S2是通过立方体模型将全景图像进行分割的。
5.根据权利要求1所述的移动机器人的位姿估计方法,其特征在于,
将所述步骤S2的全景图像P0、步骤S4全景图像Pi分别分割成上视图像和前视图像。
6.根据权利要求5所述的移动机器人的位姿估计方法,其特征在于,根据上视图像计算移动机器人位姿包括:
步骤a1:提取全景图像P0、全景图像Pi的上视图像特征并匹配;
步骤a2:根据图像匹配算法匹配提取的特征点;
步骤a3:根据匹配特征点的匹配关系得到单应矩阵H;
步骤a4:根据全景摄像头内参数分解单应矩阵H以得到位姿估计Ti-上
7.根据权利要求5所述的移动机器人的位姿估计方法,其特征在于,根据前视图像计算移动机器人位姿包括:
步骤b1:提取全景图像P0、全景图像Pi的前视图像特征并匹配;
步骤b2:根据图像匹配算法匹配提取的特征点;
步骤b3:根据匹配特征点的匹配关系得到基础矩阵F;
步骤b4:根据全景摄像头内参数分解基础矩阵F以得到位姿估计Ti-前
8.根据权利要求1所述的移动机器人的位姿估计方法,其特征在于,
所述步骤S61是基于图像P0-j与Pi-j的欧拉旋转角进行误差计算的。
CN201710969938.8A 2017-10-18 2017-10-18 移动机器人的位姿估计方法 Active CN107843251B (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN201710969938.8A CN107843251B (zh) 2017-10-18 2017-10-18 移动机器人的位姿估计方法
PCT/CN2018/073928 WO2019075948A1 (zh) 2017-10-18 2018-01-24 移动机器人的位姿估计方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201710969938.8A CN107843251B (zh) 2017-10-18 2017-10-18 移动机器人的位姿估计方法

Publications (2)

Publication Number Publication Date
CN107843251A CN107843251A (zh) 2018-03-27
CN107843251B true CN107843251B (zh) 2020-01-31

Family

ID=61662534

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710969938.8A Active CN107843251B (zh) 2017-10-18 2017-10-18 移动机器人的位姿估计方法

Country Status (2)

Country Link
CN (1) CN107843251B (zh)
WO (1) WO2019075948A1 (zh)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108682038B (zh) * 2018-04-27 2021-12-14 腾讯科技(深圳)有限公司 位姿确定方法、装置及存储介质
CN110567469B (zh) * 2018-06-05 2021-07-20 北京市商汤科技开发有限公司 视觉定位方法、装置、电子设备及系统
CN109099915B (zh) * 2018-06-27 2020-12-25 未来机器人(深圳)有限公司 移动机器人定位方法、装置、计算机设备和存储介质
CN110874818B (zh) * 2018-08-31 2023-06-23 阿里巴巴集团控股有限公司 图像处理和虚拟空间构建方法、装置、系统和存储介质
CN111292420B (zh) * 2020-02-28 2023-04-28 北京百度网讯科技有限公司 用于构建地图的方法和装置
CN112068128B (zh) * 2020-09-19 2024-02-02 重庆大学 一种直道场景线段型雷达数据处理及位姿获取方法
CN112583069B (zh) * 2020-11-19 2023-08-08 深圳拓邦股份有限公司 一种机器人充电保护方法、装置、机器人及存储介质
CN112927362A (zh) * 2021-04-07 2021-06-08 Oppo广东移动通信有限公司 地图重建方法及装置、计算机可读介质和电子设备
CN115775325B (zh) * 2023-01-29 2023-06-06 摩尔线程智能科技(北京)有限责任公司 一种位姿确定方法及装置、电子设备和存储介质

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20070026912A (ko) * 2005-08-27 2007-03-09 한국과학기술원 입자 필터 프레임 워크에서 전방향 시각센서 기반 위치추정 및 매핑을 위한 방법
CN102914967B (zh) * 2012-09-21 2015-01-28 浙江工业大学 采摘机器人的自主导航和人机协同采摘作业系统
CN104359464A (zh) * 2014-11-02 2015-02-18 天津理工大学 基于立体视觉的移动机器人定位方法
CN106338287A (zh) * 2016-08-24 2017-01-18 杭州国辰牵星科技有限公司 基于天花板的室内移动机器人视觉定位方法
CN107063228A (zh) * 2016-12-21 2017-08-18 上海交通大学 基于双目视觉的目标姿态解算方法

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100468107B1 (ko) * 2002-10-31 2005-01-26 삼성광주전자 주식회사 외부충전장치를 갖는 로봇청소기 시스템 및 로봇청소기의외부충전장치 접속방법
KR100552691B1 (ko) * 2003-09-16 2006-02-20 삼성전자주식회사 이동로봇의 자기위치 및 방위각 추정방법 및 장치
KR101901586B1 (ko) * 2011-12-23 2018-10-01 삼성전자주식회사 로봇 위치 추정 장치 및 그 방법
CN103020957B (zh) * 2012-11-20 2015-05-20 北京航空航天大学 移动机器人机载摄像机位置标定方法
CN106646441A (zh) * 2016-11-16 2017-05-10 杭州国辰牵星科技有限公司 结合环境信息的室内移动机器人定位系统及方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20070026912A (ko) * 2005-08-27 2007-03-09 한국과학기술원 입자 필터 프레임 워크에서 전방향 시각센서 기반 위치추정 및 매핑을 위한 방법
CN102914967B (zh) * 2012-09-21 2015-01-28 浙江工业大学 采摘机器人的自主导航和人机协同采摘作业系统
CN104359464A (zh) * 2014-11-02 2015-02-18 天津理工大学 基于立体视觉的移动机器人定位方法
CN106338287A (zh) * 2016-08-24 2017-01-18 杭州国辰牵星科技有限公司 基于天花板的室内移动机器人视觉定位方法
CN107063228A (zh) * 2016-12-21 2017-08-18 上海交通大学 基于双目视觉的目标姿态解算方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
用于移动机器人的视觉全局定位系统研究;魏芳等;《机器人》;20010930;第23卷(第5期);全文 *

Also Published As

Publication number Publication date
CN107843251A (zh) 2018-03-27
WO2019075948A1 (zh) 2019-04-25

Similar Documents

Publication Publication Date Title
CN107843251B (zh) 移动机器人的位姿估计方法
JP6785860B2 (ja) 多方向カメラを使用した空間のマッピング
CN109102537B (zh) 一种二维激光雷达和球幕相机结合的三维建模方法和系统
US10469828B2 (en) Three-dimensional dense structure from motion with stereo vision
CN110176032B (zh) 一种三维重建方法及装置
Meilland et al. Dense visual mapping of large scale environments for real-time localisation
KR101891201B1 (ko) 전방향 카메라의 깊이 지도 획득 방법 및 장치
US8179448B2 (en) Auto depth field capturing system and method thereof
WO2013104800A1 (en) Automatic scene calibration
JP4132068B2 (ja) 画像処理装置及び三次元計測装置並びに画像処理装置用プログラム
CN104881869A (zh) 一种移动平台上的实时全景跟踪与拼接方法
CN109785373B (zh) 一种基于散斑的六自由度位姿估计系统及方法
CN110490943B (zh) 4d全息捕捉系统的快速精确标定方法、系统及存储介质
CN108362205B (zh) 基于条纹投影的空间测距方法
CN108519102A (zh) 一种基于二次投影的双目视觉里程计算方法
Ohashi et al. Fisheye stereo camera using equirectangular images
GB2567245A (en) Methods and apparatuses for depth rectification processing
WO2024007485A1 (zh) 基于视觉特征的空地多机器人地图融合方法
JP6410231B2 (ja) 位置合わせ装置、位置合わせ方法及び位置合わせ用コンピュータプログラム
Tsaregorodtsev et al. Extrinsic camera calibration with semantic segmentation
Kleinschmidt et al. Visual multimodal odometry: Robust visual odometry in harsh environments
Kurz et al. Bundle adjustment for stereoscopic 3d
CN111860270A (zh) 一种基于鱼眼相机的障碍物检测方法及装置
CN115423863B (zh) 相机位姿估计方法、装置及计算机可读存储介质
Geiger Monocular road mosaicing for urban environments

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
CP02 Change in the address of a patent holder

Address after: 510000 No.30 haogang Avenue, Dagang Town, Nansha District, Guangzhou City, Guangdong Province (plant a, B, c)

Patentee after: GUANGDONG BONA ROBOT Corp.,Ltd.

Address before: 518000, Shenzhen, Guangdong, Baoan District province manhole street, East Ring Road, No. 438, block D, two or three

Patentee before: GUANGDONG BONA ROBOT Corp.,Ltd.

CP02 Change in the address of a patent holder
TR01 Transfer of patent right
TR01 Transfer of patent right

Effective date of registration: 20200927

Address after: 510000 No.30 haogang Avenue, Dagang Town, Nansha District, Guangzhou City, Guangdong Province

Patentee after: GUANGZHOU COAYU ROBOT Co.,Ltd.

Address before: 510000 No.30 haogang Avenue, Dagang Town, Nansha District, Guangzhou City, Guangdong Province (plant a, B, c)

Patentee before: GUANGDONG BONA ROBOT Corp.,Ltd.

PE01 Entry into force of the registration of the contract for pledge of patent right
PE01 Entry into force of the registration of the contract for pledge of patent right

Denomination of invention: Pose estimation method of mobile robot

Effective date of registration: 20211223

Granted publication date: 20200131

Pledgee: Shanghai Pudong Development Bank Limited by Share Ltd. Guangzhou branch

Pledgor: GUANGZHOU COAYU ROBOT Co.,Ltd.

Registration number: Y2021440000397

PP01 Preservation of patent right
PP01 Preservation of patent right

Effective date of registration: 20230320

Granted publication date: 20200131