CN107833245A - 基于单目视觉特征点匹配的slam方法及系统 - Google Patents

基于单目视觉特征点匹配的slam方法及系统 Download PDF

Info

Publication number
CN107833245A
CN107833245A CN201711214475.0A CN201711214475A CN107833245A CN 107833245 A CN107833245 A CN 107833245A CN 201711214475 A CN201711214475 A CN 201711214475A CN 107833245 A CN107833245 A CN 107833245A
Authority
CN
China
Prior art keywords
field picture
characteristic point
dimensional coordinate
image
target variable
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201711214475.0A
Other languages
English (en)
Other versions
CN107833245B (zh
Inventor
任雪玉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Sohu New Media Information Technology Co Ltd
Original Assignee
Beijing Sohu New Media Information Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Sohu New Media Information Technology Co Ltd filed Critical Beijing Sohu New Media Information Technology Co Ltd
Priority to CN201711214475.0A priority Critical patent/CN107833245B/zh
Publication of CN107833245A publication Critical patent/CN107833245A/zh
Application granted granted Critical
Publication of CN107833245B publication Critical patent/CN107833245B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)

Abstract

本发明提供的基于单目视觉特征点的SLAM方法及系统,根据连续多帧单目视觉图像的多个特征点,基于成本函数与输入参量,利用最小二乘法对目标变量进行迭代拟合运算,相较于仅采用两帧图像进行计算的现有方案,能够有效地降低对目标图像相对于首帧图像的旋转矩阵与位移向量,以及,所述多个特征点在现实空间中的三维坐标的计算误差;并且,由于本发明是根据连续多帧单目视觉图像的多个特征点来进行迭代拟合计算,所以,计算结果受到特征点分布位置与二维坐标精度的影响较小,从而能够有效避免由于特征点位置不佳导致无法完成计算或计算结果误差过大的问题。因此,本发明提供的SLAM方案,具有更强的可靠性与更高的计算精度。

Description

基于单目视觉特征点匹配的SLAM方法及系统
技术领域
本发明涉及即时定位与地图构建(SLAM)领域,更具体的说,涉及基于单目视觉特征点匹配的SLAM方法及系统。
背景技术
即时定位与地图构建(SLAM)广泛应用于机器人视觉,增强现实(AR)等应用中,能够通过视觉图像以及其他传感器技术,得到场景中物体位置以及摄像头位置,通过这些位置信息来进行定位与场景重建。其中,基于单目视觉特征点匹配的SLAM方法,由于其仅需配置单一摄像头,并可通过有限的特征点来进行匹配,具有结构简单,算法复杂度小的特点,所以被广泛应用于手机AR应用之中。
目前基于单目视觉特征点匹配的SLAM方法,通常是利用结构位置较好的特征点,恢复本质矩阵或基本矩阵,并结合摄像机矩阵得到两帧图像间的旋转位移矩阵,然后利用旋转位移矩阵和特征点图像坐标恢复特征点在真实空间中的三维坐标。但是,当两帧图像旋转和位移较小时,现有方法得到的旋转位移矩阵偏差较大,会导致无法进行后续特征点的三维重建与摄像头位置跟踪计算;并且,现有方法的计算结果受特征点分布位置和二维坐标精度影响较大,当满足特定位置条件的特征点数量较少时,则会导致计算无法完成或计算结果误差过大。
所以,目前迫切需要一种可靠性更强、计算精度更高的基于于单目视觉特征点匹配的SLAM方法。
发明内容
有鉴于此,本发明提供了一种基于单目视觉特征点匹配的SLAM方法及系统,以解决现有的基于单目视觉特征点匹配的SLAM方法可靠性较差、计算精度较低的技术问题。
为实现上述目的,本发明提供如下技术方案:
一种基于单目视觉特征点匹配的SLAM方法,包括:
获取连续的多帧图像,所述图像为单目视觉图像;
根据所述多帧图像,获取多个特征点;其中,所述多个特征点为所述多帧图像中每一帧图像均包含的特征点;
设定输入参量,所述输入参量为所述多个特征点分别在所述每一帧图像中的真实二维坐标;
设定目标变量,所述目标变量用于表征目标图像相对于首帧图像的旋转矩阵与位移向量,以及,所述多个特征点在现实空间中的三维坐标;其中,所述目标图像为所述多帧图像中除首帧图像之外的图像;
根据二维平面坐标系与三维空间坐标系的映射关系,确定成本函数;
基于所述成本函数与所述输入参量,利用最小二乘法对所述目标变量进行迭代拟合,计算出所述目标图像相对于首帧图像的旋转矩阵与位移向量,以及,所述多个特征点在现实空间中的三维坐标。
优选的,所述成本函数包括以下计算公式:
Pin`(Xin`,Yin`,Zin`)=Ri×Pn(Xn,Yn,Zn)+Ti
xin`=Xin`/Zin`,yin`=Yin`/Zin`;
in=Din`(xin`,yin`)-Din(xin,yin);
其中,i为图像帧id,n为特征点id;Pin`(Xin`,Yin`,Zin`)为以第i帧图像的拍摄位置为原点的三维坐标;当i=1时,Ri为单位矩阵,Ti为零向量;当i≠1时,Ri为用于表征第i帧图像相对于首帧图像的旋转矩阵的第一目标变量,Ti为用于表征第i帧图像相对于首帧图像的位移向量的第二目标变量;Pn(Xn,Yn,Zn)为用于表征第n个特征点在现实空间中的三维坐标的第三目标变量;Din(xin,yin)为第n个特征点在第i帧图像中的真实二维坐标;Din`(xin`,yin`)为第n个特征点在第i帧图像中的理论二维坐标;△in为输出残值。
优选的,所述基于所述成本函数与所述输入参量,利用最小二乘法对所述目标变量进行迭代拟合,计算出所述目标图像相对于首帧图像的旋转矩阵与位移向量,以及,所述多个特征点在现实空间中的三维坐标,包括:
基于所述计算公式,与,所述第n个特征点在第i帧图像中的真实二维坐标Din(xin,yin),利用最小二乘法对第一目标变量Ri、第二目标变量Ti与第三目标变量Pn(Xn,Yn,Zn)进行迭代拟合,并作为初始化迭代过程;
在所述初始化迭代过程中,当∑|△in|小于预设误差阈值,或,初始化时间超过初始化时间阈值时,终止所述初始化迭代过程;
在所述初始化迭代过程终止时,将第一目标变量Ri的最终值确定为第i帧图像相对于首帧图像的旋转矩阵,将第二目标变量Ti的最终值确定为第i帧图像相对于首帧图像的位移向量,将第三目标变量Pn(Xn,Yn,Zn)的最终值确定为第n个特征点在现实空间中的三维坐标。
优选的,所述多帧图像的数量为L,所述多个特征点的数量为N;在所述计算出所述目标图像相对于首帧图像的旋转矩阵与位移向量,以及,所述多个特征点在现实空间中的三维坐标之后,所述SLAM方法还包括:
获取下一帧图像;
根据所述下一帧图像与其之前相邻的L-1帧图像,提取出M个特征点;其中,所述M个特征点为所述下一帧图像与所述L-1帧图像中每一帧图像均包含的特征点;
设定新输入参量,所述新输入参量为所述M个特征点分别在所述下一帧图像与所述L-1帧图像的每一帧图像中的真实二维坐标;
设定新目标变量,所述新目标变量用于表征所述下一帧图像相对于所述首帧图像的旋转矩阵与位移向量,以及,M1个特征点在现实空间中的三维坐标;其中,所述M1个特征点为所述M个特征点中与所述N个特征点均不同的特征点;
基于所述成本函数与所述新输入参量,利用最小二乘法对所述新目标变量进行迭代拟合,计算出所述下一帧图像相对于所述首帧图像的旋转矩阵与位移向量,以及,所述M1个特征点在现实空间中的三维坐标。
优选的,所述基于所述成本函数与所述新输入参量,利用最小二乘法对所述新目标变量进行迭代拟合,计算出所述下一帧图像相对于所述首帧图像的旋转矩阵与位移向量,以及,所述M1个特征点在现实空间中的三维坐标,包括:
基于所述成本函数的计算公式,与,所述M个特征点分别在所述下一帧图像与所述L-1帧图像的每一帧图像中的真实二维坐标,利用最小二乘法对所述新目标变量进行迭代拟合,并作为跟踪迭代过程;
在所述跟踪迭代过程中,当∑|△in|小于预设误差阈值,或,跟踪时间超过跟踪时间阈值时,终止所述跟踪迭代过程;
在所述跟踪迭代过程终止时,根据所述新目标变量的最终值,确定所述下一帧图像相对于所述首帧图像的旋转矩阵与位移向量,以及,所述M1个特征点在现实空间中的三维坐标。
优选的,所述初始化迭代过程包括:
将R1与T1作为输入常量,代入到所述计算公式中。
优选的,所述跟踪迭代过程包括:
将所述L-1帧图像分别相对于首帧图像的旋转矩阵与位移向量,以及,M2个特征点在现实空间中的三维坐标作为输入常量,代入到所述计算公式中;
其中,所述M2个特征点为所述M个特征点与所述N个特征点中相同的特征点。
优选的,所述SLAM方法还包括:
在所述初始化迭代过程或所述跟踪迭代过程中,当连续两次迭代的输出残值之间的差异小于预设差异阈值时,终止所述初始化迭代过程或所述跟踪迭代过程。
优选的,所述多个特征点的数量大于预设数量阈值。
一种基于单目视觉特征点匹配的SLAM系统,包括:
图像获取单元,用于获取连续的多帧图像,所述图像为单目视觉图像;
特征点获取单元,用于根据所述多帧图像,获取多个特征点;其中,所述多个特征点为所述多帧图像中每一帧图像均包含的特征点;
参量设定单元,用于设定输入参量,所述输入参量为所述多个特征点分别在所述每一帧图像中的真实二维坐标;
变量设定单元,用于设定目标变量,所述目标变量用于表征目标图像相对于首帧图像的旋转矩阵与位移向量,以及,所述多个特征点在现实空间中的三维坐标;其中,所述目标图像为所述多帧图像中除首帧图像之外的图像;
成本函数单元,用于根据二维平面坐标系与三维空间坐标系的映射关系,确定成本函数;
迭代计算单元,用于基于所述成本函数与所述输入参量,利用最小二乘法对所述目标变量进行迭代拟合,计算出所述目标图像相对于首帧图像的旋转矩阵与位移向量,以及,所述多个特征点在现实空间中的三维坐标。
从上述的技术方案可以看出,本发明提供的基于单目视觉特征点匹配的SLAM方法及系统,根据连续的多帧单目视觉图像的多个特征点,基于成本函数与输入参量,利用最小二乘法对目标变量进行迭代拟合运算,相较于仅采用两帧图像进行计算的现有方案,能够有效地降低对目标图像相对于首帧图像的旋转矩阵与位移向量,以及,所述多个特征点在现实空间中的三维坐标的计算误差;并且,由于本发明是根据连续多帧单目视觉图像的多个特征点来进行迭代拟合计算,所以,计算结果受到特征点分布位置与二维坐标精度的影响较小,从而能够有效避免由于特征点位置不佳导致无法完成计算或计算结果误差过大的问题。因此,本发明提供的SLAM方案,具有更强的可靠性与更高的计算精度。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据提供的附图获得其他的附图。
图1为本申请实施例提供的基于单目视觉特征点匹配的SLAM方法的一种流程图;
图2为本申请实施例提供的基于单目视觉特征点匹配的SLAM方法的另一种流程图;
图3为本申请实施例提供的基于单目视觉特征点匹配的SLAM方法的又一种流程图;
图4为本申请实施例提供的基于单目视觉特征点匹配的SLAM方法的再一种流程图;
图5为本申请实施例提供的基于单目视觉特征点匹配的SLAM系统的一种结构示意图。
具体实施方式
为了引用和清楚起见,下文中使用的技术名词的说明、简写或缩写总结如下:
SLAM:simultaneous localization and mapping,即时定位与地图构建。
特征点:是指图像中与周围像素相差较大的像素点,一般为物体的角点。
单目视觉图像:是指利用单独一台摄像机进行拍摄得到的图像。
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本发明提供的基于单目视觉特征点匹配的SLAM方法及系统,可应用于移动设备(如手机、平板电脑等)中。
请参阅图1,图1为本申请实施例提供的基于单目视觉特征点匹配的SLAM方法的一种流程图。
如图1所示,所述SLAM方法包括:
S101:获取连续的多帧图像。
在本发明中,所述图像为单目视觉图像。在实际应用中,可以通过单一摄像头获取连续的多帧图像。
在一示例中,所述多帧图像的数量大于2。在另一示例中,所述多帧图像的数量的取值范围为4~10。
S102:根据所述多帧图像,获取多个特征点。
其中,所述多个特征点为所述多帧图像中每一帧图像均包含的特征点。所述多帧图像中包括相同的特征点。例如,多帧图像中包括一立方体,而该立方体在不同图像中的相同角点即为相同的特征点。
在一示例中,可以先分别获取每一帧图像中的特征点,再对每一帧图像中的特征点进行筛选,进而得到每一帧图像中均包含的多个特征点。
特征点获取方法可采用目前比较成熟的算法,如光流法,SFIT(Scale-invariantfeature transform,尺度不变特征转换)算法等,在此不作赘述。
图像帧数量与特征点数量的选取,可根据执行该方法的电子设备的计算能力来确定。
在另一示例中,所述多个特征点的数量大于预设数量阈值。例如,所述预设数量阈值为15,当所述多个特征点的数量大于15时,能够有效避免对计算精度造成负面影响。当获取到的多个特征点的数量不大于15时,重新获取多帧图像后,再重新获取多个特征点,使所述多个特征点的数量至少大于15。
S103:设定输入参量,所述输入参量为所述多个特征点分别在所述每一帧图像中的真实二维坐标。
每个特征点在每一帧图像中均有一个图像坐标,将该图像坐标称为真实二维坐标,有多少帧图像,就有多少组真实二维坐标。本步骤中,将所述多个特征点分别在所述每一帧图像中的真实二维坐标设为输入参量,用于参与到后续计算中。
S104:设定目标变量,所述目标变量用于表征目标图像相对于首帧图像的旋转矩阵与位移向量,以及,所述多个特征点在现实空间中的三维坐标。
其中,首帧图像是指所述多帧图像中的第一帧图像,也称为初始图像;所述目标图像为所述多帧图像中除首帧图像之外的图像。每一帧目标图像均有相对于所述首帧图像的旋转矩阵和位移向量。
而每个特征点在现实空间中均有一个三维坐标,并以摄像头拍摄第一帧图像时的位置作为坐标原点。
为了计算出目标图像相对于首帧图像的旋转矩阵与位移向量,以及,所述多个特征点在现实空间中的三维坐标,本实施例先行设定用于表征目标图像相对于首帧图像的旋转矩阵与位移向量,以及,所述多个特征点在现实空间中的三维坐标的目标变量,当计算出目标变量的最终值时,即可得到目标图像相对于首帧图像的旋转矩阵与位移向量,以及,所述多个特征点在现实空间中的三维坐标。
S105:根据二维平面坐标系与三维空间坐标系的映射关系,确定成本函数。
成本函数(costFunction)至少包含输入参量、目标变量与输出残值。
S106:基于所述成本函数与所述输入参量,利用最小二乘法对所述目标变量进行迭代拟合,计算出所述目标图像相对于首帧图像的旋转矩阵与位移向量,以及,所述多个特征点在现实空间中的三维坐标。
基于成本函数的上述计算公式,以及,所述多个特征点分别在所述每一帧图像中的真实二维坐标(输入参量),利用最小二乘法对用于表征目标图像相对于首帧图像的旋转矩阵与位移向量,以及,所述多个特征点在现实空间中的三维坐标的目标变量进行迭代拟合,根据最后得到的目标变量的最终值,即可确定出所述目标图像相对于首帧图像的旋转矩阵与位移向量,以及,所述多个特征点在现实空间中的三维坐标,实现了摄像头即时定位与地图特征点的三维重构。
其中,输出残值可用于作为迭代拟合终止的条件参数之一。
本实施例提供的基于单目视觉特征点匹配的SLAM方法,根据连续多帧单目视觉图像的多个特征点,基于成本函数与输入参量,利用最小二乘法对目标变量进行迭代拟合运算,相较于仅采用两帧图像进行计算的现有方案,能够有效地降低对目标图像相对于首帧图像的旋转矩阵与位移向量,以及,所述多个特征点在现实空间中的三维坐标的计算误差;并且,由于本发明是根据连续多帧单目视觉图像的多个特征点来进行迭代拟合计算,所以,计算结果受到特征点分布位置与二维坐标精度的影响较小,从而能够有效避免由于特征点位置不佳导致无法完成计算或计算结果误差过大的问题。因此,本发明提供的SLAM方案,具有更强的可靠性与更高的计算精度。
请参阅图2,图2为本申请实施例提供的基于单目视觉特征点匹配的SLAM方法的另一种流程图。
如图2所示,所述SLAM方法包括:
S201:获取连续的多帧图像。
S202:根据所述多帧图像,获取多个特征点。
S203:设定输入参量,所述输入参量为所述多个特征点分别在所述每一帧图像中的真实二维坐标。
S204:设定目标变量,所述目标变量用于表征目标图像相对于首帧图像的旋转矩阵与位移向量,以及,所述多个特征点在现实空间中的三维坐标。
其中,步骤S201-S204与前述实施例中的S101-S104相类似,可参见前述实施例的具体内容,在此不再赘述。
S205:根据二维平面坐标系与三维空间坐标系的映射关系,确定成本函数。
在一示例中,根据二维平面坐标系与三维空间坐标系的映射关系所确定的成本函数包括以下计算公式:
Pin`(Xin`,Yin`,Zin`)=Ri×Pn(Xn,Yn,Zn)+Ti
xin`=Xin`/Zin`,yin`=Yin`/Zin`;
in=Din`(xin`,yin`)-Din(xin,yin);
其中,i为图像帧id,n为特征点id;Pin`(Xin`,Yin`,Zin`)为以第i帧图像的拍摄位置为原点的三维坐标;当i=1时,Ri为单位矩阵,Ti为零向量;当i≠1时,Ri为用于表征第i帧图像相对于首帧图像的旋转矩阵的第一目标变量,Ti为用于表征第i帧图像相对于首帧图像的位移向量的第二目标变量;Pn(Xn,Yn,Zn)为用于表征第n个特征点在现实空间中的三维坐标的第三目标变量;Din(xin,yin)为第n个特征点在第i帧图像中的真实二维坐标;Din`(xin`,yin`)为第n个特征点在第i帧图像中的理论二维坐标;△in为输出残值。
其中,△in=Din`(xin`,yin`)-Din(xin,yin)的涵义为:输出残值△in等于Din`(xin`,yin`)与Din(xin,yin)的平方差值。
其中,图像帧id与各帧图像之间一一对应,特征点id与各个特征点之间一一对应。并且,图像帧id与特征点id均具有唯一性。
第n个特征点在现实空间中的三维坐标Pn(Xn,Yn,Zn)的坐标原点为首帧图像的拍摄位置。其中,拍摄位置是指,在利用单个摄像头拍摄该帧图像时,该单个摄像头所在的位置。
S206:基于所述计算公式,与,所述第n个特征点在第i帧图像中的真实二维坐标Din(xin,yin),利用最小二乘法对第一目标变量Ri、第二目标变量Ti与第三目标变量Pn(Xn,Yn,Zn)进行迭代拟合,并作为初始化迭代过程。
其中,所述第一目标变量Ri、第二目标变量Ti与第三目标变量Pn(Xn,Yn,Zn)统称为目标变量。
通过该步骤S206,使所述多个特征点的每一个特征点在所述多帧图像的每一帧图像中的真实二维坐标,都会参与到计算过程中,共同为计算结果做出贡献,降低计算误差。
在一示例中,可将R1与T1作为输入常量,代入到所述成本函数的计算公式中。
在另一示例中,利用最小二乘法对第一目标变量Ri、第二目标变量Ti与第三目标变量Pn(Xn,Yn,Zn)进行迭代拟合,具体可以采用较为成熟的梯度下降法或牛顿法来进行,在此不作赘述。
S207:在所述初始化迭代过程中,当∑|△in|小于预设误差阈值,或,初始化时间超过初始化时间阈值时,终止所述初始化迭代过程。
其中,∑|△in|为迭代过程中已经计算出来的输出残值△in之和,具体为Din`(xin`,yin`)与Din(xin,yin)的平方差值的绝对值之和。
在一示例中,所述预设误差阈值为2%(也即,0.02),所述初始化时间阈值可在0.1s~0.5s的范围内进行选取,通过预设误差阈值设置,能够使计算结果的误差小于2%且受到外部环境影响较小,从而具有较高的计算精度;并且,通过初始化时间阈值来控制计算精度,能够在电子设备(如手机)中实现每秒15帧以上的位置信息刷新率,实现摄像机的实时定位。
在一示例中,当连续两次迭代的输出残值之间的差异小于预设差异阈值时,终止所述初始化迭代过程。进一步地,所述预设差异阈值可以设置为1×10-6
S208:在所述初始化迭代过程终止时,将第一目标变量Ri的最终值确定为第i帧图像相对于首帧图像的旋转矩阵,将第二目标变量Ti的最终值确定为第i帧图像相对于首帧图像的位移向量,将第三目标变量Pn(Xn,Yn,Zn)的最终值确定为第n个特征点在现实空间中的三维坐标。
当初始化迭代过程终止时,目标变量的当前值即为最终值,相应地,第一目标变量Ri的最终值即为第i帧图像相对于首帧图像的旋转矩阵,第二目标变量Ti的最终值即为第i帧图像相对于首帧图像的位移向量,第三目标变量Pn(Xn,Yn,Zn)的最终值即为第n个特征点在现实空间中的三维坐标,从而得到最终计算结果。
上述步骤S206-208可用于实现前述实施例中的步骤S106。
本实施提供的基于单目视觉特征点匹配的SLAM方法,提供了成本函数的具体计算公式,并基于该计算公式与所述第n个特征点在第i帧图像中的真实二维坐标Din(xin,yin),利用最小二乘法对第一目标变量Ri、第二目标变量Ti与第三目标变量Pn(Xn,Yn,Zn)进行迭代拟合,并基于预设误差阈值或初始化时间阈值设定迭代拟合过程的终止条件,在保证计算精度的同时,也提高了计算效率。
请参阅图3,图3为本申请实施例提供的基于单目视觉特征点匹配的SLAM方法的又一种流程图。
本实施例的方法步骤,用于在前述实施例计算出所述目标图像相对于首帧图像的旋转矩阵与位移向量,以及,所述多个特征点在现实空间中的三维坐标(步骤S106)之后,对继续获取到的图像进行逐帧的连续跟踪计算,以实现摄像头即时定位。
为了便于介绍本实施例的技术方案,设定前述实施例中所述多帧图像的数量为L,根据所述多帧图像,获取到的多个特征点的数量为N。
如图3所示,所述SLAM方法包括:
S301:获取下一帧图像。
摄像头在拍摄图像的过程中,会不断获取新的图像帧,而下一帧图像就是指新获取到的图像,而并不局限于第L+1帧图像。
S302:根据所述下一帧图像与其之前相邻的L-1帧图像,提取出M个特征点。
当获取到下一帧图像后,所述下一帧图像与其之前相邻的L-1帧图像构成一组新的多帧图像,这一组新的多帧图像的数量仍为L。例如,设定L=6,即原多帧图像的数量为6,在获取到第7帧图像时,将第7帧图像与其之前相邻的第2~6帧图像组成新的多帧图像,多帧图像的数量始终等于6。以此类推,当获取到第8帧图像时,将第8帧图像与其之前相邻的第3~7帧图像,组成新的多帧图像。
在将所述下一帧图像与所述L-1帧图像组成新的多帧图像后,同样要提取出新的多帧图像中每一帧图像均包含的多个特征点,设为M个特征点,即,所述M个特征点为所述下一帧图像与所述L-1帧图像中每一帧图像均包含的特征点。
S303:设定新输入参量,所述新输入参量为所述M个特征点分别在所述下一帧图像与所述L-1帧图像的每一帧图像中的真实二维坐标。
在将所述下一帧图像与所述L-1帧图像作为新的多帧图像后,该步骤S303与前述实施例中的步骤S103相类似,具体实现可以参考前述实施例中的具体内容。
S304:设定新目标变量,所述新目标变量用于表征所述下一帧图像相对于所述首帧图像的旋转矩阵与位移向量,以及,M1个特征点在现实空间中的三维坐标。
其中,所述M1个特征点为所述M个特征点中与所述N个特征点均不同的特征点。由于M个特征点是基于所述下一帧图像与所述L-1帧图像提取出来的,所以,该M个特征点中会有一部分与前述的N个特征点相同。假定所述M个特征点与所述N个特征点中相同的特征点有M2个,由于这M2个特征点在之前得出了相应的三维坐标,即完成了三维重建,所以无需再作为目标变量进行迭代拟合。
S305:基于所述成本函数与所述新输入参量,利用最小二乘法对所述新目标变量进行迭代拟合,计算出所述下一帧图像相对于所述首帧图像的旋转矩阵与位移向量,以及,所述M1个特征点在现实空间中的三维坐标。
其中,步骤S305与前述实施例中的S106相类似,可参见前述实施例的具体内容,在此不再赘述。
本实施例提供的基于单目视觉特征点匹配的SLAM方法,在前述实施例计算出所述目标图像相对于首帧图像的旋转矩阵与位移向量,以及,所述多个特征点在现实空间中的三维坐标之后,对继续获取到的图像进行逐帧的连续跟踪计算,实现了摄像头即时定位与场景特征点的三维重构。
请参阅图4,图4为本申请实施例提供的基于单目视觉特征点匹配的SLAM方法的再一种流程图。
本实施例的方法步骤,用于在前述实施例计算出所述目标图像相对于首帧图像的旋转矩阵与位移向量,以及,所述多个特征点在现实空间中的三维坐标(步骤S106)之后,对继续获取到的图像进行逐帧的连续跟踪计算,以实现摄像头即时定位。
为了便于介绍本实施例的技术方案,设定前述实施例中所述多帧图像的数量为L,根据所述多帧图像,获取到的多个特征点的数量为N。
如图4所示,所述SLAM方法包括:
S401:获取下一帧图像。
S402:根据所述下一帧图像与其之前相邻的L-1帧图像,提取出M个特征点。
所述M个特征点为所述下一帧图像与所述L-1帧图像中每一帧图像均包含的特征点。
S403:设定新输入参量,所述新输入参量为所述M个特征点分别在所述下一帧图像与所述L-1帧图像的每一帧图像中的真实二维坐标。
S404:设定新目标变量,所述新目标变量用于表征所述下一帧图像相对于所述首帧图像的旋转矩阵与位移向量,以及,M1个特征点在现实空间中的三维坐标。
其中,所述M1个特征点为所述M个特征点中与所述N个特征点均不同的特征点。
步骤S401-S404与前述实施例中的S301-S304相类似,可参见前述实施例的具体内容,在此不再赘述。
S405:基于所述成本函数的计算公式,与,所述M个特征点分别在所述下一帧图像与所述L-1帧图像的每一帧图像中的真实二维坐标,利用最小二乘法对所述新目标变量进行迭代拟合,并作为跟踪迭代过程。
在一示例中,由于跟踪迭代过程相对于初始化迭代过程,具有较高的实时性要求,所以,将所述L-1帧图像分别相对于首帧图像的旋转矩阵与位移向量,以及,M2个特征点在现实空间中的三维坐标作为输入常量,代入到所述计算公式中。
由于这M2个特征点已经计算出了三维坐标,所以可以直接作为输入常量来参与计算,无需再表征为目标变量来进行迭代拟合;并且,由于所述L-1帧图像分别相对于首帧图像的旋转矩阵与位移向量,也已经在前述实施例中得到了计算结果,所以,也可以直接作为输入常量来参与计算,无需再表征为目标变量来进行迭代拟合。
在该示例中,由于减少了新目标变量的数量,进而减小了计算量,提高了迭代拟合速度,最终提高了跟踪迭代效率,保证了摄像头定位的即时性。
在另一示例中,也可以将所述L-1帧图像分别相对于首帧图像的旋转矩阵与位移向量,以及,M2个特征点在现实空间中的三维坐标表征为新目标变量,与初始化迭代过程保持一致性。
S406:在所述跟踪迭代过程中,当∑|△in|小于预设误差阈值,或,跟踪时间超过跟踪时间阈值时,终止所述跟踪迭代过程。
在一示例中,所述预设误差阈值为2%(或,0.02),所述跟踪时间阈值可在0.02s~0.05s的范围内进行选取,通过预设误差阈值设置,能够使计算误差小于2%且受到外部环境影响较小,具有较高的计算精度;并且,通过初始化时间阈值来控制计算精度,能够在电子设备(如手机)中实现每秒15帧以上的位置信息刷新率,实现摄像机的实时定位。
在一示例中,当连续两次迭代的输出残值之间的差异小于预设差异阈值时,终止所述跟踪迭代过程。进一步地,所述预设差异阈值可以设置为1×10-6
S407:在所述跟踪迭代过程终止时,根据所述新目标变量的最终值,确定所述下一帧图像相对于所述首帧图像的旋转矩阵与位移向量,以及,所述M1个特征点在现实空间中的三维坐标。
本实施例提供的基于单目视觉特征点匹配的SLAM方法,在前述实施例计算出所述目标图像相对于首帧图像的旋转矩阵与位移向量,以及,所述多个特征点在现实空间中的三维坐标之后,对后续图像进行连续跟踪计算,实现了摄像头即时定位与场景特征点的三维重构。
本发明的SLAM方法,可以在现实空间放置一个虚拟的立方体,当摄像机运动时,基于SLAM重建结果,实时更新虚拟立方体在图像中的位置,使用户感觉该虚拟物体在现实环境中一样。
对应于基于单目视觉特征点匹配的SLAM方法,本发明实施例还提供了相应的基于单目视觉特征点匹配的SLAM系统。
请参阅图5,图5为本申请实施例提供的基于单目视觉特征点匹配的SLAM系统的一种结构示意图。
本实施例的基于单目视觉特征点匹配的SLAM系统,用于实施前述实施例的基于单目视觉特征点匹配的SLAM方法,如图5所示,所述SLAM系统包括:
图像获取单元U100,用于获取连续的多帧图像,所述图像为单目视觉图像。
在一示例中,所述多帧图像的数量大于2。在另一示例中,所述多帧图像的数量的取值范围为4~10。
特征点获取单元U200,用于根据所述多帧图像,获取多个特征点。
其中,所述多个特征点为所述多帧图像中每一帧图像均包含的特征点。
在一示例中,所述多个特征点的数量大于预设数量阈值。例如,所述预设数量阈值为15,当所述多个特征点的数量大于15时,能够有效避免对计算精度造成负面影响。
参量设定单元U300,用于设定输入参量,所述输入参量为所述多个特征点分别在所述每一帧图像中的真实二维坐标;
变量设定单元U400,用于设定目标变量,所述目标变量用于表征目标图像相对于首帧图像的旋转矩阵与位移向量,以及,所述多个特征点在现实空间中的三维坐标;其中,所述目标图像为所述多帧图像中除首帧图像之外的图像;
成本函数单元U500,用于根据二维平面坐标系与三维空间坐标系的映射关系,确定成本函数。
成本函数(costFunction)至少包含输入参量、目标变量与输出残值。
在一示例中,根据二维平面坐标系与三维空间坐标系的映射关系所确定的成本函数包括以下计算公式:
Pin`(Xin`,Yin`,Zin`)=Ri×Pn(Xn,Yn,Zn)+Ti
xin`=Xin`/Zin`,yin`=Yin`/Zin`;
in=Din`(xin`,yin`)-Din(xin,yin);
其中,i为图像帧id,n为特征点id;Pin`(Xin`,Yin`,Zin`)为以第i帧图像的拍摄位置为原点的三维坐标;当i=1时,Ri为单位矩阵,Ti为零向量;当i≠1时,Ri为用于表征第i帧图像相对于首帧图像的旋转矩阵的第一目标变量,Ti为用于表征第i帧图像相对于首帧图像的位移向量的第二目标变量;Pn(Xn,Yn,Zn)为用于表征第n个特征点在现实空间中的三维坐标的第三目标变量;Din(xin,yin)为第n个特征点在第i帧图像中的真实二维坐标;Din`(xin`,yin`)为第n个特征点在第i帧图像中的理论二维坐标;△in为输出残值。
其中,△in=Din`(xin`,yin`)-Din(xin,yin)的涵义为:输出残值△in等于Din`(xin`,yin`)与Din(xin,yin)的平方差值。
其中,图像帧id与图像之间一一对应,特征点id与特征点之间一一对应。并且,图像帧id与特征点id均是唯一的。
第n个特征点在现实空间中的三维坐标Pn(Xn,Yn,Zn)的坐标原点为首帧图像的拍摄位置。其中,拍摄位置是指,在拍摄该帧图像时,摄像头所在的位置。
迭代计算单元U600,用于基于所述成本函数与所述输入参量,利用最小二乘法对所述目标变量进行迭代拟合,计算出所述目标图像相对于首帧图像的旋转矩阵与位移向量,以及,所述多个特征点在现实空间中的三维坐标。
在一示例中,所述迭代计算单元U600,具体用于:
1)基于所述计算公式,与,所述第n个特征点在第i帧图像中的真实二维坐标Din(xin,yin),利用最小二乘法对第一目标变量Ri、第二目标变量Ti与第三目标变量Pn(Xn,Yn,Zn)进行迭代拟合,并作为初始化迭代过程。
其中,所述第一目标变量Ri、第二目标变量Ti与第三目标变量Pn(Xn,Yn,Zn)统称为目标变量。
在一示例中,将R1与T1作为输入常量,代入到所述计算公式中。
2)在所述初始化迭代过程中,当∑|△in|小于预设误差阈值,或,初始化时间超过初始化时间阈值时,终止所述初始化迭代过程。
在一示例中,所述预设误差阈值为2%(也即,0.02),所述初始化时间阈值可在0.1s~0.5s的范围内进行选取,通过预设误差阈值设置,能够使计算结果的误差小于2%且受到外部环境影响较小,从而具有较高的计算精度;并且,通过初始化时间阈值来控制计算精度,能够在电子设备(如手机)中实现每秒15帧以上的位置信息刷新率,实现摄像机的实时定位。
在一示例中,当连续两次迭代的输出残值之间的差异小于预设差异阈值时,终止所述初始化迭代过程。进一步地,所述预设差异阈值可以设置为1×10-6
3)在所述初始化迭代过程终止时,将第一目标变量Ri的最终值确定为第i帧图像相对于首帧图像的旋转矩阵,将第二目标变量Ti的最终值确定为第i帧图像相对于首帧图像的位移向量,将第三目标变量Pn(Xn,Yn,Zn)的最终值确定为第n个特征点在现实空间中的三维坐标。
当初始化迭代过程终止时,目标变量的当前值即为最终值,相应地,第一目标变量Ri的最终值即为第i帧图像相对于首帧图像的旋转矩阵,第二目标变量Ti的最终值即为第i帧图像相对于首帧图像的位移向量,第三目标变量Pn(Xn,Yn,Zn)的最终值即为第n个特征点在现实空间中的三维坐标,从而得到最终计算结果。
在一示例中,在计算出所述目标图像相对于首帧图像的旋转矩阵与位移向量,以及,所述多个特征点在现实空间中的三维坐标之后,本发明还会对继续获取到的图像进行逐帧的连续跟踪计算,以实现摄像头即时定位。
在该示例中,设定所述多帧图像的数量为L,根据所述多帧图像,获取到的多个特征点的数量为N。
所述图像获取单元U100,还用于获取下一帧图像。
所述特征点获取单元U200,还用于根据所述下一帧图像与其之前相邻的L-1帧图像,提取出M个特征点;其中,所述M个特征点为所述下一帧图像与所述L-1帧图像中每一帧图像均包含的特征点。
所述参量设定单元U300,还用于设定新输入参量,所述新输入参量为所述M个特征点分别在所述下一帧图像与所述L-1帧图像的每一帧图像中的真实二维坐标。
所述变量设定单元U400,还用于设定新目标变量,所述新目标变量用于表征所述下一帧图像相对于所述首帧图像的旋转矩阵与位移向量,以及,M1个特征点在现实空间中的三维坐标。
其中,所述M1个特征点为所述M个特征点中与所述N个特征点均不同的特征点。
所述迭代计算单元U600,还用于基于所述成本函数与所述新输入参量,利用最小二乘法对所述新目标变量进行迭代拟合,计算出所述下一帧图像相对于所述首帧图像的旋转矩阵与位移向量,以及,所述M1个特征点在现实空间中的三维坐标。
在一示例中,所述迭代计算单元U600,还具体用于:
1)基于所述成本函数的计算公式,与,所述M个特征点分别在所述下一帧图像与所述L-1帧图像的每一帧图像中的真实二维坐标,利用最小二乘法对所述新目标变量进行迭代拟合,并作为跟踪迭代过程。
在一示例中,由于跟踪迭代过程相对于初始化迭代过程,具有较高的实时性要求,所以,将所述L-1帧图像分别相对于首帧图像的旋转矩阵与位移向量,以及,M2个特征点在现实空间中的三维坐标作为输入常量,代入到所述计算公式中。
在另一示例中,也可以将所述L-1帧图像分别相对于首帧图像的旋转矩阵与位移向量,以及,M2个特征点在现实空间中的三维坐标表征为新目标变量,与初始化迭代过程保持一致性。
其中,所述M2个特征点为所述M个特征点与所述N个特征点中相同的特征点。
2)在所述跟踪迭代过程中,当∑|△in|小于预设误差阈值,或,跟踪时间超过跟踪时间阈值时,终止所述跟踪迭代过程;
在一示例中,所述预设误差阈值为2%(或,0.02),所述跟踪时间阈值可在0.02s~0.05s的范围内进行选取,通过预设误差阈值设置,能够使计算误差小于2%且受到外部环境影响较小,具有较高的计算精度;并且,通过初始化时间阈值来控制计算精度,能够在电子设备(如手机)中实现每秒15帧以上的位置信息刷新率,实现摄像机的实时定位。
在一示例中,当连续两次迭代的输出残值之间的差异小于预设差异阈值时,终止所述跟踪迭代过程。进一步地,所述预设差异阈值可以设置为1×10-6
3)在所述跟踪迭代过程终止时,根据所述新目标变量的最终值,确定所述下一帧图像相对于所述首帧图像的旋转矩阵与位移向量,以及,所述M1个特征点在现实空间中的三维坐标。
本实施例提供的基于单目视觉特征点匹配的SLAM系统,根据连续多帧单目视觉图像的多个特征点,基于成本函数与输入参量,利用最小二乘法对目标变量进行迭代拟合运算,相较于仅采用两帧图像进行计算的现有方案,能够有效地降低对目标图像相对于首帧图像的旋转矩阵与位移向量,以及,所述多个特征点在现实空间中的三维坐标的计算误差;并且,由于本发明是根据连续多帧单目视觉图像的多个特征点来进行迭代拟合计算,所以,计算结果受到特征点分布位置与二维坐标精度的影响较小,从而能够有效避免由于特征点位置不佳导致无法完成计算或计算结果误差过大的问题。因此,本发明提供的SLAM方案,具有更强的可靠性与更高的计算精度。
最后,还需要说明的是,在本文中,诸如第一和第一等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到本申请可借助软件加必需的硬件平台的方式来实现,当然也可以全部通过硬件来实施,但很多情况下前者是更佳的实施方式。基于这样的理解,本申请的技术方案对背景技术做出贡献的全部或者部分可以以软件产品的形式体现出来,该计算机软件产品可以存储在存储介质中,如ROM/RAM、磁碟、光盘等,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本申请各个实施例或者实施例的某些部分所述的方法。
本说明书中各个实施例采用递进的方式描述,每个实施例重点说明的都是与其他实施例的不同之处,各个实施例之间相同相似部分互相参见即可。对于实施例公开的装置而言,由于其与实施例公开的方法相对应,所以描述的比较简单,相关之处参见方法部分说明即可。
本文中应用了具体个例对本申请的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本申请的方法及其核心思想;同时,对于本领域的一般技术人员,依据本申请的思想,在具体实施方式及应用范围上均会有改变之处。综上所述,本说明书内容不应理解为对本申请的限制。

Claims (10)

1.一种基于单目视觉特征点匹配的SLAM方法,其特征在于,包括:
获取连续的多帧图像,所述图像为单目视觉图像;
根据所述多帧图像,获取多个特征点;其中,所述多个特征点为所述多帧图像中每一帧图像均包含的特征点;
设定输入参量,所述输入参量为所述多个特征点分别在所述每一帧图像中的真实二维坐标;
设定目标变量,所述目标变量用于表征目标图像相对于首帧图像的旋转矩阵与位移向量,以及,所述多个特征点在现实空间中的三维坐标;其中,所述目标图像为所述多帧图像中除首帧图像之外的图像;
根据二维平面坐标系与三维空间坐标系的映射关系,确定成本函数;
基于所述成本函数与所述输入参量,利用最小二乘法对所述目标变量进行迭代拟合,计算出所述目标图像相对于首帧图像的旋转矩阵与位移向量,以及,所述多个特征点在现实空间中的三维坐标。
2.如权利要求1所述的SLAM方法,其特征在于,所述成本函数包括以下计算公式:
Pin`(Xin`,Yin`,Zin`)=Ri×Pn(Xn,Yn,Zn)+Ti
xin`=Xin`/Zin`,yin`=Yin`/Zin`;
in=Din`(xin`,yin`)-Din(xin,yin);
其中,i为图像帧id,n为特征点id;Pin`(Xin`,Yin`,Zin`)为以第i帧图像的拍摄位置为原点的三维坐标;当i=1时,Ri为单位矩阵,Ti为零向量;当i≠1时,Ri为用于表征第i帧图像相对于首帧图像的旋转矩阵的第一目标变量,Ti为用于表征第i帧图像相对于首帧图像的位移向量的第二目标变量;Pn(Xn,Yn,Zn)为用于表征第n个特征点在现实空间中的三维坐标的第三目标变量;Din(xin,yin)为第n个特征点在第i帧图像中的真实二维坐标;Din`(xin`,yin`)为第n个特征点在第i帧图像中的理论二维坐标;△in为输出残值。
3.如权利要求2所述的SLAM方法,其特征在于,所述基于所述成本函数与所述输入参量,利用最小二乘法对所述目标变量进行迭代拟合,计算出所述目标图像相对于首帧图像的旋转矩阵与位移向量,以及,所述多个特征点在现实空间中的三维坐标,包括:
基于所述计算公式,与,所述第n个特征点在第i帧图像中的真实二维坐标Din(xin,yin),利用最小二乘法对第一目标变量Ri、第二目标变量Ti与第三目标变量Pn(Xn,Yn,Zn)进行迭代拟合,并作为初始化迭代过程;
在所述初始化迭代过程中,当∑|△in|小于预设误差阈值,或,初始化时间超过初始化时间阈值时,终止所述初始化迭代过程;
在所述初始化迭代过程终止时,将第一目标变量Ri的最终值确定为第i帧图像相对于首帧图像的旋转矩阵,将第二目标变量Ti的最终值确定为第i帧图像相对于首帧图像的位移向量,将第三目标变量Pn(Xn,Yn,Zn)的最终值确定为第n个特征点在现实空间中的三维坐标。
4.如权利要求3所述的SLAM方法,其特征在于,所述多帧图像的数量为L,所述多个特征点的数量为N;在所述计算出所述目标图像相对于首帧图像的旋转矩阵与位移向量,以及,所述多个特征点在现实空间中的三维坐标之后,所述SLAM方法还包括:
获取下一帧图像;
根据所述下一帧图像与其之前相邻的L-1帧图像,提取出M个特征点;其中,所述M个特征点为所述下一帧图像与所述L-1帧图像中每一帧图像均包含的特征点;
设定新输入参量,所述新输入参量为所述M个特征点分别在所述下一帧图像与所述L-1帧图像的每一帧图像中的真实二维坐标;
设定新目标变量,所述新目标变量用于表征所述下一帧图像相对于所述首帧图像的旋转矩阵与位移向量,以及,M1个特征点在现实空间中的三维坐标;其中,所述M1个特征点为所述M个特征点中与所述N个特征点均不同的特征点;
基于所述成本函数与所述新输入参量,利用最小二乘法对所述新目标变量进行迭代拟合,计算出所述下一帧图像相对于所述首帧图像的旋转矩阵与位移向量,以及,所述M1个特征点在现实空间中的三维坐标。
5.如权利要求4所述的SLAM方法,其特征在于,所述基于所述成本函数与所述新输入参量,利用最小二乘法对所述新目标变量进行迭代拟合,计算出所述下一帧图像相对于所述首帧图像的旋转矩阵与位移向量,以及,所述M1个特征点在现实空间中的三维坐标,包括:
基于所述成本函数的计算公式,与,所述M个特征点分别在所述下一帧图像与所述L-1帧图像的每一帧图像中的真实二维坐标,利用最小二乘法对所述新目标变量进行迭代拟合,并作为跟踪迭代过程;
在所述跟踪迭代过程中,当∑|△in|小于预设误差阈值,或,跟踪时间超过跟踪时间阈值时,终止所述跟踪迭代过程;
在所述跟踪迭代过程终止时,根据所述新目标变量的最终值,确定所述下一帧图像相对于所述首帧图像的旋转矩阵与位移向量,以及,所述M1个特征点在现实空间中的三维坐标。
6.如权利要求3所述的SLAM方法,其特征在于,所述初始化迭代过程包括:
将R1与T1作为输入常量,代入到所述计算公式中。
7.如权利要求5所述的SLAM方法,其特征在于,所述跟踪迭代过程包括:
将所述L-1帧图像分别相对于首帧图像的旋转矩阵与位移向量,以及,M2个特征点在现实空间中的三维坐标作为输入常量,代入到所述计算公式中;
其中,所述M2个特征点为所述M个特征点与所述N个特征点中相同的特征点。
8.如权利要求5所述的SLAM方法,其特征在于,所述SLAM方法还包括:
在所述初始化迭代过程或所述跟踪迭代过程中,当连续两次迭代的输出残值之间的差异小于预设差异阈值时,终止所述初始化迭代过程或所述跟踪迭代过程。
9.如权利要求1所述的SLAM方法,其特征在于,所述多个特征点的数量大于预设数量阈值。
10.一种基于单目视觉特征点匹配的SLAM系统,其特征在于,包括:
图像获取单元,用于获取连续的多帧图像,所述图像为单目视觉图像;
特征点获取单元,用于根据所述多帧图像,获取多个特征点;其中,所述多个特征点为所述多帧图像中每一帧图像均包含的特征点;
参量设定单元,用于设定输入参量,所述输入参量为所述多个特征点分别在所述每一帧图像中的真实二维坐标;
变量设定单元,用于设定目标变量,所述目标变量用于表征目标图像相对于首帧图像的旋转矩阵与位移向量,以及,所述多个特征点在现实空间中的三维坐标;其中,所述目标图像为所述多帧图像中除首帧图像之外的图像;
成本函数单元,用于根据二维平面坐标系与三维空间坐标系的映射关系,确定成本函数;
迭代计算单元,用于基于所述成本函数与所述输入参量,利用最小二乘法对所述目标变量进行迭代拟合,计算出所述目标图像相对于首帧图像的旋转矩阵与位移向量,以及,所述多个特征点在现实空间中的三维坐标。
CN201711214475.0A 2017-11-28 2017-11-28 基于单目视觉特征点匹配的slam方法及系统 Active CN107833245B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201711214475.0A CN107833245B (zh) 2017-11-28 2017-11-28 基于单目视觉特征点匹配的slam方法及系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201711214475.0A CN107833245B (zh) 2017-11-28 2017-11-28 基于单目视觉特征点匹配的slam方法及系统

Publications (2)

Publication Number Publication Date
CN107833245A true CN107833245A (zh) 2018-03-23
CN107833245B CN107833245B (zh) 2020-02-07

Family

ID=61646251

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201711214475.0A Active CN107833245B (zh) 2017-11-28 2017-11-28 基于单目视觉特征点匹配的slam方法及系统

Country Status (1)

Country Link
CN (1) CN107833245B (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109658507A (zh) * 2018-11-27 2019-04-19 联想(北京)有限公司 信息处理方法及装置、电子设备
CN111505394A (zh) * 2020-03-30 2020-08-07 北京邮电大学 基于探头天线位置误差修正的天线球面近场测量方法
CN112801077A (zh) * 2021-04-15 2021-05-14 智道网联科技(北京)有限公司 用于自动驾驶车辆的slam初始化的方法及相关装置
CN113392909A (zh) * 2021-06-17 2021-09-14 深圳市睿联技术股份有限公司 数据处理方法、数据处理装置、终端及可读存储介质

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103247075A (zh) * 2013-05-13 2013-08-14 北京工业大学 基于变分机制的室内环境三维重建方法
US20150125045A1 (en) * 2013-11-04 2015-05-07 Steffen Gauglitz Environment Mapping with Automatic Motion Model Selection
CN105469405A (zh) * 2015-11-26 2016-04-06 清华大学 基于视觉测程的同时定位与地图构建方法
CN105783913A (zh) * 2016-03-08 2016-07-20 中山大学 一种融合车载多传感器的slam装置及其控制方法
CN106679648A (zh) * 2016-12-08 2017-05-17 东南大学 一种基于遗传算法的视觉惯性组合的slam方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103247075A (zh) * 2013-05-13 2013-08-14 北京工业大学 基于变分机制的室内环境三维重建方法
US20150125045A1 (en) * 2013-11-04 2015-05-07 Steffen Gauglitz Environment Mapping with Automatic Motion Model Selection
CN105469405A (zh) * 2015-11-26 2016-04-06 清华大学 基于视觉测程的同时定位与地图构建方法
CN105783913A (zh) * 2016-03-08 2016-07-20 中山大学 一种融合车载多传感器的slam装置及其控制方法
CN106679648A (zh) * 2016-12-08 2017-05-17 东南大学 一种基于遗传算法的视觉惯性组合的slam方法

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109658507A (zh) * 2018-11-27 2019-04-19 联想(北京)有限公司 信息处理方法及装置、电子设备
CN111505394A (zh) * 2020-03-30 2020-08-07 北京邮电大学 基于探头天线位置误差修正的天线球面近场测量方法
CN112801077A (zh) * 2021-04-15 2021-05-14 智道网联科技(北京)有限公司 用于自动驾驶车辆的slam初始化的方法及相关装置
CN113392909A (zh) * 2021-06-17 2021-09-14 深圳市睿联技术股份有限公司 数据处理方法、数据处理装置、终端及可读存储介质

Also Published As

Publication number Publication date
CN107833245B (zh) 2020-02-07

Similar Documents

Publication Publication Date Title
CN107833245A (zh) 基于单目视觉特征点匹配的slam方法及系统
CN106251404B (zh) 方位跟踪方法、实现增强现实的方法及相关装置、设备
Kumar et al. Simple calibration of non-overlapping cameras with a mirror
CN102968809B (zh) 在增强现实领域实现虚拟信息标注及绘制标注线的方法
CN107438866A (zh) 深度立体:学习从现实世界形象预测新视图
CN106875431B (zh) 具有移动预测的图像追踪方法及扩增实境实现方法
CN106980368A (zh) 一种基于视觉计算及惯性测量单元的虚拟现实交互设备
US20100182400A1 (en) Aligning Images
CN109887003A (zh) 一种用于进行三维跟踪初始化的方法与设备
KR20090117531A (ko) 혼합현실 구현 시스템 및 그 방법
CN106101689A (zh) 利用手机单目摄像头对虚拟现实眼镜进行增强现实的方法
CN103489214A (zh) 增强现实系统中基于虚拟模型预处理的虚实遮挡处理方法
CN104899563A (zh) 一种二维人脸关键特征点定位方法及系统
CN105164728A (zh) 来自重构的减弱及中介实境效果
CN102646275A (zh) 通过跟踪和定位算法实现虚拟三维叠加的方法
CN110580720B (zh) 一种基于全景图的相机位姿估计方法
CN107145224B (zh) 基于三维球面泰勒展开的人眼视线跟踪方法和装置
CN112053447A (zh) 一种增强现实三维注册方法及装置
CN112215880B (zh) 一种图像深度估计方法及装置、电子设备、存储介质
CN107862733A (zh) 基于视线更新算法的大规模场景实时三维重建方法和系统
CN107330980A (zh) 一种基于无标志物的虚拟家具布置系统
CN109785373A (zh) 一种基于散斑的六自由度位姿估计系统及方法
CN109443200A (zh) 一种全局视觉坐标系和机械臂坐标系的映射方法及装置
CN114882106A (zh) 位姿确定方法和装置、设备、介质
CN115187729A (zh) 三维模型生成方法、装置、设备和存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant