CN114494150A - 一种基于半直接法的单目视觉里程计的设计方法 - Google Patents

一种基于半直接法的单目视觉里程计的设计方法 Download PDF

Info

Publication number
CN114494150A
CN114494150A CN202111651540.2A CN202111651540A CN114494150A CN 114494150 A CN114494150 A CN 114494150A CN 202111651540 A CN202111651540 A CN 202111651540A CN 114494150 A CN114494150 A CN 114494150A
Authority
CN
China
Prior art keywords
camera
point
pose
pixel
points
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202111651540.2A
Other languages
English (en)
Inventor
洪慧
单珂珂
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hangzhou Dianzi University
Original Assignee
Hangzhou Dianzi University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hangzhou Dianzi University filed Critical Hangzhou Dianzi University
Priority to CN202111651540.2A priority Critical patent/CN114494150A/zh
Publication of CN114494150A publication Critical patent/CN114494150A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30244Camera pose

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Quality & Reliability (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于半直接法视觉里程计的设计方法,包括如下步骤:S1、通过相机采集图像数据,获得图像序列;S2、对单目相机初始化,确定其尺度;S3、采用稀疏图像对齐最小化两个像素块之间的光度误差,获取粗略的相机位姿,以及像素点之间的对应关系;S4、进行ORB特征提取和BRIEF描述子的计算,优化相机的位姿;S5、将三维地图点与当前帧的特征点进行匹配,利用最小化重投影误差进一步优化当前位姿;S6、输出相机位姿;S7、判断是否有新图像加入,若是则执行步骤S3,进行算法的循环,否则结束流程;本发明的方法处理速度快,定位精度高,能够处理稀疏纹理、光照变化以及移动物体等难题。

Description

一种基于半直接法的单目视觉里程计的设计方法
技术领域
本发明涉及视觉定位SLAM技术领域,特别是涉及一种基于半直接法的单目视觉里程计的设计方法。
背景技术
目前移动机器人、自动驾驶、无人车和增强现实等技术受到人们越来越多的关注,同步定位与地图构建(SLAM)技术在其中发挥着重要作用。随着移动机器人的应用场景不断扩大,所面临的问题也越来越复杂,这对于移动机器人的定位技术提出了要求。
视觉SLAM是由传感器数据、前端视觉里程计(VO)、后端非线性优化、回环检测和构建地图这五部分构成,其中视觉里程计在视觉SLAM系统中被称为前端,它关心的是相邻图像之间的运动,机器人通过所携带的视觉传感器获取连续的图像数据,利用图像上的信息以及相机的模型来估计相机位姿的变化,并将待优化的初始数据提供给后端进行优化。依据所用传感器的类型可以分为单目、双目、RGB-D;从实现的形式上可以分为直接法和特征点法。其中,直接法是利用像素之间的信息进行计算,最小化光度误差,它的优点是计算速度比较快,但容易受光照的影响。特征点法是通过将图像抽象为特征点的集合,利用描述子作为数据关联的依据,具有一定的旋转和尺度不变性,对光照不敏感,因此,特征点法的这些优良特性使得其在大多数场景下具有很好的鲁棒性,也已经成为主流的前端方法,但其存在一些问题,比如特征点的提取和描述子的计算量比较大,一幅图像当中包含的信息非常丰富,特征点只占图像像素的一小部分,因此丢弃了大部分可能具有有用信息的图像像素,倘若场景当中没有足够的特征点。比如一面白墙或者地板等等,这将会导致特征点法跟踪失败。为了解决上述问题,本文发明了一种基于半直接法的单目视觉里程计的设计方法。
发明内容
本发明的目的是解决现有技术的不足,提供一种基于半直接法的单目视觉里程计的设计方法。
为了解决上述问题,本发明采用如下技术方案:
一种基于半直接法的单目视觉里程计的设计方法,包括如下步骤:
S1:通过相机采集图像数据,获得图像序列,并传输到分析设备上;其中分析设备为电脑,相机为单目相机;
S2:通过单目初始化流程,确定图像的尺度;
S3:基于直接法估计相机的初始位姿;
S4:基于特征点法优化相机的初始位姿;特征点法包括对图像进行ORB特征提取和特征匹配的过程;
S5:通过将三维地图点与当前帧的特征点进行匹配,利用最小化重投影误差进一步优化当前相机位姿;
S6:输出相机位姿,包括三维坐标点、平移向量和旋转向量;
S7:判断是否有新图像加入;若是则返回S3,进入算法的循环;否则结束流程。
进一步的,所述S2中的单目初始化流程包括如下步骤:
S21:移动相机,并获取图像,组成图像序列;其中,移动相机时,要求在设定方向上移动超过设定值的距离;
S22:选取图像序列中的前一帧作为初始帧,后一帧作为参考帧;
S23:通过对初始帧图像和参考帧图像进行ORB特征点提取和特征匹配,建立两帧图像之间的数据关联;
S24:利用三角测量得到初始帧中特征点的深度;其中三角测量表示通过两处观察同一个点的夹角,从而确定该点的距离。
进一步的,所述S23中的数据关联的建立,首先需要设定任意参考空间点P,空间点P在两帧图像中对应的投影点像素坐标分别为p1,p2;K为相机的内参,P为空间点P的世界坐标,设定初始帧到参考帧的相机运动变换为旋转矩阵R,平移向量t;然后通过对极几何约束求出本质矩阵E;最后使用八点法对求得的本质矩阵E进行奇异值分解,获得旋转矩阵R,平移向量t。
进一步的,所述对极几何表达式如下:
p2 TK-Tt^RK-1p1=0 (1)
E=t^R (2)
在已经获得R和t的基础上,设定两个特征点的深度为s1,s2;其中深度s1,s2满足如下公式:
s1x1=s2Rx2+t (3)
其中,x1和x2表示两个特征点R和t归一化后的坐标;最后通过最小二乘法进行求解出s1和s2
进一步的,所述S3中的初始位姿估计过程为采用稀疏图像对齐,最小化两个像素块之间的光度误差获取粗略的相机位姿,以及像素点之间的对应关系。
进一步的,所述初始位姿估计过程具体包括:
首先设定参考空间点P,参考空间点P在初始帧图像和参考帧图像中对应的投影点像素坐标分别为p1,p2;则空间点P在两帧图像中的像素光度误差e为:
e=I1(p1)-I2(p2) (3)
其中,I1(p1)表示初始帧图像中像素坐标为p1的像素光度;I2(p2)表示参考帧图像中像素坐标为p2的像素光度;通过像素光度误差e获得优化一个空间点P的光度误差的二范数为:
minξJ(ξ)=‖e‖2 (4)
其中,ξ表示相机位姿的李代数;J(ξ)表示相机位姿;
考虑空间中N个像素点的光度误差ei=I1(p1,i)-I2(p2,i),i∈(1,N),则N个像素点的相机的位姿估计表示为:
Figure BDA0003446681740000031
求式(5)中的优化问题,需要通过分析像素光度误差e和相机位姿的李代数ξ的导数关系;其中通过使用李代数的扰动模型,给exp(ξ)左乘一个设定的小扰动exp(δξ)获得:
Figure BDA0003446681740000032
其中,K为相机的内参;P为空间点P的世界坐标;Z1、Z2分别表示;设定q为扰动分量在第二个相机坐标系的三维坐标,u为扰动分量的像素坐标,获得:
q=δξ^exp(ξ^)P (7)
Figure BDA0003446681740000033
将式(7)、(8)代入式(6),并对式(6)进行一阶泰勒公式展开,获得:
Figure BDA0003446681740000034
Figure BDA0003446681740000041
其中,
Figure BDA0003446681740000042
表示u处的像素梯度,
Figure BDA0003446681740000043
表示投影方程关于相机坐标系下的三维空间点的导数,
Figure BDA0003446681740000044
表示变换后的三维点对的导数;δξ通过设定的小扰动exp(δξ)获得;
最后推导出单个点误差相对于李代数ξ的雅克比矩阵;并通过列文伯格-马夸尔特方法进行增量计算,获得N个像素点的光度误差,迭代求解相机位姿J,表示为:
Figure BDA0003446681740000045
进一步的,所述S4中,基于特征点法优化相机的初始位姿,包括如下步骤:
S41:首先需要将图像分成若干大小相等的网格,对每个网格进行Oriented FAST角点提取,使用四叉树分配算法均匀化特征点;
S42:构建直方图,筛选出与主流方向一致的特征点作为候选匹配点;
S43:对保留下来的特征点进行BRIEF描述子的计算;其中,首先找出所有描述子之间的最小距离和最大距离,当描述子之间的距离小于两倍最小距离时,则匹配成功,否则为误匹配;描述子之间的距离表示两个特征点的相似程度;
S44:采用随机采样一致性RANSAC算法剔除掉大量误匹配的特征点;
S45:使用对极几何约束获得新的本质矩阵E2,并通过八点法对求得的本质矩阵E2进行奇异值分解,得到相机的位姿R2和t2;R2为旋转矩阵,t2为平移向量。
进一步的,所述S5中,将三维地图点与当前帧的特征点进行匹配,利用最小化重投影误差优化当前位姿,具体包括如下过程:
首先设定空间点坐标Pi=[Xi,Yi,Zi]T,在当前帧中的像素坐标为ui=[ui,vi]T,si为该点的深度,相机的位姿采用李代数的表示形式ξ;依据相机的针孔模型可得像素位置与空间点P的对应关系有:
Figure BDA0003446681740000046
转换为矩阵形式,表示为:
siui=Kexp(ξ^)Pi (12)
在等式(12)存在一个误差,通过对误差求和,并构建最小误差函数,能够求解出最优的相机位姿ξ*,表示为:
Figure BDA0003446681740000051
对于式(13)中的非线性优化问题,可以再使用高斯牛顿法或者列文伯格-马夸尔特方法进行求解,获得最优相机位姿ξ*
本发明的有益效果为:
通过将直接法与特征点法相结合,其中首先采用稀疏图像对齐进行初始位姿的估计,再通过ORB特征提取和匹配进一步优化当前位姿,最后通过局部三维地图点的匹配来提高特征点定位的准确性,减少了定位过程的计算量,并且优化了光度误差,确保精确度;
本发明的计算处理速度比较快,定位精度高,能够处理稀疏纹理、光照变化、移动物体等难题。
附图说明
图1为本发明实施例一的流程图。
具体实施方式
以下通过特定的具体实例说明本发明的实施方式,本领域技术人员可由本说明书所揭露的内容轻易地了解本发明的其他优点与功效。本发明还可以通过另外不同的具体实施方式加以实施或应用,本说明书中的各项细节也可以基于不同观点与应用,在没有背离本发明的精神下进行各种修饰或改变。需说明的是,在不冲突的情况下,以下实施例及实施例中的特征可以相互组合。
需要说明的是,以下实施例中所提供的图示仅以示意方式说明本发明的基本构想,遂图式中仅显示与本发明中有关的组件而非按照实际实施时的组件数目、形状及尺寸绘制,其实际实施时各组件的型态、数量及比例可为一种随意的改变,且其组件布局型态也可能更为复杂。
实施例一:
如图1所示,一种基于半直接法的单目视觉里程计的设计方法,包括如下步骤:
S1:通过相机采集图像数据,获得图像序列,并传输到分析设备上;在本例中分析设备为电脑,相机为单目相机;
S2:通过单目初始化流程,确定图像的尺度;
S3:基于直接法估计相机的初始位姿;
S4:基于特征点法优化相机的初始位姿;特征点法包括对图像进行ORB(Orientedand Rotated BRIEF)特征提取和特征匹配的过程;
S5:通过将三维地图点与当前帧的特征点进行匹配,利用最小化重投影误差进一步优化当前相机位姿;其中三维地图点表示空间坐标点;
S6:输出相机位姿,包括三维坐标点、平移向量和旋转向量;
S7:判断是否有新图像加入;若是则返回S3,进入算法的循环;否则结束流程。
所述S2中的单目初始化流程包括如下步骤:
S21:移动相机,并获取图像,组成图像序列;在本例中,移动相机时,要求在设定方向上移动超过设定值的距离;
S22:选取图像序列中的前一帧作为初始帧,后一帧作为参考帧;
S23:通过对初始帧图像和参考帧图像进行ORB特征点提取和特征匹配,建立两帧图像之间的数据关联;
S24:利用三角测量得到初始帧中特征点的深度;其中三角测量表示通过两处观察同一个点的夹角,从而确定该点的距离。
所述S23中的数据关联的建立,首先需要设定任意参考空间点P,空间点P在两帧图像中对应的投影点像素坐标分别为p1,p2;K为相机的内参,P为空间点P的世界坐标,设定初始帧到参考帧的相机运动变换为旋转矩阵R,平移向量t;然后通过对极几何约束计算两帧之间的位姿变换;最后使用八点法对求得的本质矩阵E进行奇异值分解,获得旋转矩阵R,平移向量t。其中,对极几何约束表达式如下:
p2 TK-Tt^RK-1p1=0 (1)
E=t^R (2)
在已经获得R和t的基础上,设定两帧图像中投影点的深度为s1,s2;其中深度s1,s2满足如下公式:
s1x1=s2Rx2+t (3)
其中,x1和x2表示两个特征点R和t归一化后的坐标。最后通过最小二乘法进行求解出s1和s2
所述S3中的初始位姿估计过程为采用稀疏图像对齐,最小化两个像素块之间的光度误差获取粗略的相机位姿,以及像素点之间的对应关系;具体包括如下过程:
首先设定参考空间点P和两个时刻的相机,参考空间点P在两个相机上成像,对应的投影点像素坐标分别为p1,p2;则空间点P在两帧图像中像素光度误差e为:
e=I1(p1)-I2(p2) (3)
其中,I1(p1)表示中第一帧图像中像素坐标为p1的像素光度;I2(p2)表示第二帧图像中像素坐标为p2的像素光度;通过像素光度误差e获得优化一个空间点P的光度误差的二范数为:
minξJ(ξ)=‖e‖2 (4)
其中,ξ表示相机位姿的李代数,及相机位姿的一种表示形式;J(ξ)表示相机位姿的一个优化问题;
考虑空间中N个像素点的光度误差ei=I1(p1,i)-I2(p2,i),i∈(1,N),则N个像素点的相机的位姿估计表示为:
Figure BDA0003446681740000071
这里优化变量是相机位姿的李代数表示形式ξ;I1(p1,i)表示中第一帧图像中第i个像素点的像素光度;I2(p2,i)表示中第二帧图像中第i个像素点的像素光度;ei为第i个像素点的光度误差。
求式(5)中的优化问题,需要通过分析像素光度误差e和相机位姿的李代数ξ的导数关系。其中通过使用李代数的扰动模型,给exp(ξ)左乘一个设定的小扰动exp(δξ)获得:
Figure BDA0003446681740000072
其中,K为相机的内参;P为空间点P的世界坐标;Z1表示空间点P的深度、Z2表示空间点P在第二个相机坐标系下的深度;δξ通过设定的小扰动exp(δξ)获得;设定q为扰动分量在第二个相机坐标系的三维坐标,u为扰动分量的像素坐标,获得:
q=δξ^exp(ξ^)P (7)
Figure BDA0003446681740000081
将式(7)、(8)代入式(6),并对式(6)进行一阶泰勒公式展开,获得:
Figure BDA0003446681740000082
其中,
Figure BDA0003446681740000083
表示u处的像素梯度,
Figure BDA0003446681740000084
表示投影方程关于相机坐标系下的三维空间点的导数,
Figure BDA0003446681740000085
表示变换后的三维点对的导数;δξ通过设定的小扰动exp(δξ)获得;
最后推导出单个点误差相对于李代数ξ的雅克比矩阵;并通过列文伯格-马夸尔特方法进行增量计算,获得N个像素点的光度误差,迭代求解相机位姿J,表示为:
Figure BDA0003446681740000086
所述S4中,基于特征点法优化相机的初始位姿,包括如下步骤:
S41:首先需要将图像分成若干大小相等的网格,对每个网格进行Oriented FAST角点提取,使用四叉树分配算法均匀化特征点;
S42:构建直方图,通过角度一致性原理过滤特征点,获得候选匹配点;
S43:对保留下来的特征点进行BRIEF描述子的计算;描述子之间的距离表示两个特征点的相似程度;在本例中,首先找出所有描述子之间的最小距离和最大距离,当描述子之间的距离小于两倍最小距离时,则匹配成功,否则为误匹配;
S44:采用随机采样一致性RANSAC算法剔除掉大量误匹配的特征点;
S45:使用对极几何约束获得新的本质矩阵E2,并通过八点法对求得的本质矩阵E2奇异值分解,得到相机的位姿,包括旋转矩阵R2,平移向量t2。
所述S44中,由于特征点数据量比较大,而且特征信息匹配过程中容易出现误匹配,所以需要对误匹配的特征点进行剔除。
所述S5中,因为场景当中难免存在移动的物体,为了减少这部分的干扰所导致的误匹配,通过最小化地图点投影误差,来进一步优化相机的位姿。将三维地图点与当前帧的特征点进行匹配,利用最小化重投影误差优化当前位姿,具体包括如下过程:
首先设定空间点坐标Pi=[Xi,Yi,Zi]T,在当前帧中的像素坐标为ui=[ui,vi]T,si为该点的深度,相机的位姿采用李代数的表示形式ξ。依据相机的针孔模型可得像素位置与空间点P的对应关系有:
Figure BDA0003446681740000091
转换为矩阵形式,表示为:
siui=Kexp(ξ^)Pi (12)
在等式(12)存在一个误差,通过对误差求和,并构建最小误差函数,能够求解出最优的相机位姿ξ*,表示为:
Figure BDA0003446681740000092
对于式(13)中的非线性优化问题,可以再使用高斯牛顿法或者列文伯格-马夸尔特方法进行求解,获得最优相机位姿ξ*
在实施过程中,通过直接法速度快以及特征点法精度、鲁棒性好的优势,将直接法与特征点法两种算法巧妙地结合,最后通过局部三维地图点的匹配来提高定位的准确性,保证在弱纹理环境下不会产生跟踪失败的情况;此外在光照变化、以及含有移动物体的场景中也能够通过特征点法保证定位的精度;另一方面通过采用单目相机,具有结构简单,易标定、操作方便,价格便宜等优点。
以上描述仅是本发明的一个具体实例,不构成对本发明的任何限制。显然对于本领域的专业人员来说,在了解了本发明内容和原理后,都可能在不背离本发明原理、结构的情况下,进行形式和细节上的各种修改和改变,但是这些基于本发明思想的修正和改变仍在本发明的权利要求保护范围之内。

Claims (8)

1.一种基于半直接法的单目视觉里程计的设计方法,其特征在于,包括如下步骤:
S1:通过相机采集图像数据,获得图像序列,并传输到分析设备上;其中分析设备为电脑,相机为单目相机;
S2:通过单目初始化流程,确定图像的尺度;
S3:基于直接法估计相机的初始位姿;
S4:基于特征点法优化相机的初始位姿;特征点法包括对图像进行ORB特征提取和特征匹配的过程;
S5:通过将三维地图点与当前帧的特征点进行匹配,利用最小化重投影误差进一步优化当前相机位姿;
S6:输出相机位姿,包括三维坐标点、平移向量和旋转向量;
S7:判断是否有新图像加入;若是则返回S3,进入算法的循环;否则结束流程。
2.根据权利要求1所述的一种基于半直接法的单目视觉里程计的设计方法,其特征在于,所述S2中的单目初始化流程包括如下步骤:
S21:移动相机,并获取图像,组成图像序列;其中,移动相机时,要求在设定方向上移动超过设定值的距离;
S22:选取图像序列中的前一帧作为初始帧,后一帧作为参考帧;
S23:通过对初始帧图像和参考帧图像进行ORB特征点提取和特征匹配,建立两帧图像之间的数据关联;
S24:利用三角测量得到初始帧中特征点的深度;其中三角测量表示通过两处观察同一个点的夹角,从而确定该点的距离。
3.根据权利要求1所述的一种基于半直接法的单目视觉里程计的设计方法,其特征在于,所述S23中的数据关联的建立,首先需要设定任意参考空间点P,空间点P在两帧图像中对应的投影点像素坐标分别为p1,p2;K为相机的内参,P为空间点P的世界坐标,设定初始帧到参考帧的相机运动变换为旋转矩阵R,平移向量t;然后通过对极几何约束求出本质矩阵E;最后使用八点法对求得的本质矩阵E进行奇异值分解,获得旋转矩阵R,平移向量t。
4.根据权利要求3所述的一种基于半直接法的单目视觉里程计的设计方法,其特征在于,所述对极几何表达式如下:
p2 TK-Tt^RK-1p1=0 (1)
E=t^R (2)
在已经获得R和t的基础上,设定两个特征点的深度为s1,s2;其中深度s1,s2满足如下公式:
s1x1=s2Rx2+t (3)
其中,x1和x2表示两个特征点R和t归一化后的坐标;最后通过最小二乘法进行求解出s1和s2
5.根据权利要求3所述的一种基于半直接法的单目视觉里程计的设计方法,其特征在于,所述S3中的初始位姿估计过程为采用稀疏图像对齐,最小化两个像素块之间的光度误差获取粗略的相机位姿,以及像素点之间的对应关系。
6.根据权利要求5所述的一种基于半直接法的单目视觉里程计的设计方法,其特征在于,所述初始位姿估计过程具体包括:
首先设定参考空间点P,参考空间点P在初始帧图像和参考帧图像中对应的投影点像素坐标分别为p1,p2;则空间点P在两帧图像中的像素光度误差e为:
e=I1(p1)-I2(p2) (3)
其中,I1(p1)表示初始帧图像中像素坐标为p1的像素光度;I2(p2)表示参考帧图像中像素坐标为p2的像素光度;通过像素光度误差e获得优化一个空间点P的光度误差的二范数为:
minξJ(ξ)=||e||2 (4)
其中,ξ表示相机位姿的李代数;J(ξ)表示相机位姿;
考虑空间中N个像素点的光度误差ei=I1(p1,i)-I2(p2,i),i∈(1,N),则N个像素点的相机的位姿估计表示为:
Figure FDA0003446681730000021
求式(5)中的优化问题,需要通过分析像素光度误差e和相机位姿的李代数ξ的导数关系;其中通过使用李代数的扰动模型,给exp(ξ)左乘一个设定的小扰动exp(δξ)获得:
Figure FDA0003446681730000022
其中,K为相机的内参;P为空间点P的世界坐标;Z1、Z2分别表示;设定q为扰动分量在第二个相机坐标系的三维坐标,u为扰动分量的像素坐标,获得:
q=δξ^exp(ξ^)P (7)
Figure FDA0003446681730000031
将式(7)、(8)代入式(6),并对式(6)进行一阶泰勒公式展开,获得:
Figure FDA0003446681730000032
其中,
Figure FDA0003446681730000033
表示u处的像素梯度,
Figure FDA0003446681730000034
表示投影方程关于相机坐标系下的三维空间点的导数,
Figure FDA0003446681730000035
表示变换后的三维点对的导数;δξ通过设定的小扰动exp(δξ)获得;
最后推导出单个点误差相对于李代数ξ的雅克比矩阵;并通过列文伯格-马夸尔特方法进行增量计算,获得N个像素点的光度误差,迭代求解相机位姿J,表示为:
Figure FDA0003446681730000036
7.根据权利要求4所述的一种基于半直接法的单目视觉里程计的设计方法,其特征在于,所述S4中,基于特征点法优化相机的初始位姿,包括如下步骤:
S41:首先需要将图像分成若干大小相等的网格,对每个网格进行Oriented FAST角点提取,使用四叉树分配算法均匀化特征点;
S42:构建直方图,筛选出与主流方向一致的特征点作为候选匹配点;
S43:对保留下来的特征点进行BRIEF描述子的计算;其中,首先找出所有描述子之间的最小距离和最大距离,当描述子之间的距离小于两倍最小距离时,则匹配成功,否则为误匹配;描述子之间的距离表示两个特征点的相似程度;
S44:采用随机采样一致性RANSAC算法剔除掉大量误匹配的特征点;
S45:使用对极几何约束获得新的本质矩阵E2,并通过八点法对求得的本质矩阵E2进行奇异值分解,得到相机的位姿R2和t2;R2为旋转矩阵,t2为平移向量。
8.根据权利要求6所述的一种基于半直接法的单目视觉里程计的设计方法,其特征在于,所述S5中,将三维地图点与当前帧的特征点进行匹配,利用最小化重投影误差优化当前位姿,具体包括如下过程:
首先设定空间点坐标Pi=[Xi,Yi,Zi]T,在当前帧中的像素坐标为ui=[ui,vi]T,si为该点的深度,相机的位姿采用李代数的表示形式ξ;依据相机的针孔模型可得像素位置与空间点P的对应关系有:
Figure FDA0003446681730000041
转换为矩阵形式,表示为:
siui=Kexp(ξ^)Pi (12)
在等式(12)存在一个误差,通过对误差求和,并构建最小误差函数,能够求解出最优的相机位姿ξ*,表示为:
Figure FDA0003446681730000042
对于式(13)中的非线性优化问题,可以再使用高斯牛顿法或者列文伯格-马夸尔特方法进行求解,获得最优相机位姿ξ*
CN202111651540.2A 2021-12-30 2021-12-30 一种基于半直接法的单目视觉里程计的设计方法 Pending CN114494150A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202111651540.2A CN114494150A (zh) 2021-12-30 2021-12-30 一种基于半直接法的单目视觉里程计的设计方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111651540.2A CN114494150A (zh) 2021-12-30 2021-12-30 一种基于半直接法的单目视觉里程计的设计方法

Publications (1)

Publication Number Publication Date
CN114494150A true CN114494150A (zh) 2022-05-13

Family

ID=81508440

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111651540.2A Pending CN114494150A (zh) 2021-12-30 2021-12-30 一种基于半直接法的单目视觉里程计的设计方法

Country Status (1)

Country Link
CN (1) CN114494150A (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115115708A (zh) * 2022-08-22 2022-09-27 荣耀终端有限公司 一种图像位姿的计算方法及系统
CN116258769A (zh) * 2023-05-06 2023-06-13 亿咖通(湖北)技术有限公司 一种定位校验方法、装置、电子设备和存储介质
CN116358547A (zh) * 2022-12-09 2023-06-30 珠海创智科技有限公司 一种基于光流估计获取agv位置的方法

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115115708A (zh) * 2022-08-22 2022-09-27 荣耀终端有限公司 一种图像位姿的计算方法及系统
CN115115708B (zh) * 2022-08-22 2023-01-17 荣耀终端有限公司 一种图像位姿的计算方法及系统
CN116358547A (zh) * 2022-12-09 2023-06-30 珠海创智科技有限公司 一种基于光流估计获取agv位置的方法
CN116358547B (zh) * 2022-12-09 2024-01-30 珠海创智科技有限公司 一种基于光流估计获取agv位置的方法
CN116258769A (zh) * 2023-05-06 2023-06-13 亿咖通(湖北)技术有限公司 一种定位校验方法、装置、电子设备和存储介质

Similar Documents

Publication Publication Date Title
CN112634451B (zh) 一种融合多传感器的室外大场景三维建图方法
CN111210463B (zh) 基于特征点辅助匹配的虚拟宽视角视觉里程计方法及系统
US9420265B2 (en) Tracking poses of 3D camera using points and planes
CN109523589B (zh) 一种更鲁棒的视觉里程计的设计方法
CN112304307A (zh) 一种基于多传感器融合的定位方法、装置和存储介质
CN111462207A (zh) 一种融合直接法与特征法的rgb-d同时定位与地图创建方法
CN112902953A (zh) 一种基于slam技术的自主位姿测量方法
CN109472820B (zh) 单目rgb-d相机实时人脸重建方法及装置
CN102722697B (zh) 一种无人飞行器视觉自主导引着陆的目标跟踪方法
CN114494150A (zh) 一种基于半直接法的单目视觉里程计的设计方法
CN110533720B (zh) 基于联合约束的语义slam系统及方法
CN108776989B (zh) 基于稀疏slam框架的低纹理平面场景重建方法
Liu et al. Direct visual odometry for a fisheye-stereo camera
CN112053447A (zh) 一种增强现实三维注册方法及装置
Wang et al. Non-iterative SLAM
Taketomi et al. Camera pose estimation under dynamic intrinsic parameter change for augmented reality
CN110070578B (zh) 一种回环检测方法
CN110375765B (zh) 基于直接法的视觉里程计方法、系统及存储介质
Bourdis et al. Camera pose estimation using visual servoing for aerial video change detection
Eichhardt et al. Affine correspondences between central cameras for rapid relative pose estimation
CN111829522B (zh) 即时定位与地图构建方法、计算机设备以及装置
Tang et al. Fmd stereo slam: Fusing mvg and direct formulation towards accurate and fast stereo slam
CN115471748A (zh) 一种面向动态环境的单目视觉slam方法
CN105339981B (zh) 用于使用一组基元配准数据的方法
CN113345032A (zh) 一种基于广角相机大畸变图的初始化建图方法及系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination