CN114037759A - 一种室内环境下的动态特征点滤除与重定位方法 - Google Patents

一种室内环境下的动态特征点滤除与重定位方法 Download PDF

Info

Publication number
CN114037759A
CN114037759A CN202111254464.1A CN202111254464A CN114037759A CN 114037759 A CN114037759 A CN 114037759A CN 202111254464 A CN202111254464 A CN 202111254464A CN 114037759 A CN114037759 A CN 114037759A
Authority
CN
China
Prior art keywords
point
camera
current frame
feature points
feature
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202111254464.1A
Other languages
English (en)
Other versions
CN114037759B (zh
Inventor
张进
郑凯
夏豪杰
仇谋泽
裴浩东
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hefei University of Technology
Original Assignee
Hefei University of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hefei University of Technology filed Critical Hefei University of Technology
Priority to CN202111254464.1A priority Critical patent/CN114037759B/zh
Publication of CN114037759A publication Critical patent/CN114037759A/zh
Application granted granted Critical
Publication of CN114037759B publication Critical patent/CN114037759B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Abstract

本发明涉及一种室内环境下的动态特征点滤除与重定位方法,包括提取输入图像上的特征点并进行匹配,设置匹配质量得分函数;预估前一帧图像所提取到的特征点pi在当前帧图像I2出现的投影点q′i;计算特征点Pi在当前帧图像I2投影所在的位置q′i和对应特征点qi的像素坐标之间的欧氏距离;利用特征点所对应的深度信息进行加权评分,定义几何约束得分;定义特征点的异常得分,并设置阈值来检测和滤除当前帧动态特征点;利用迭代求解的方式提高位姿解算精度。本发明依据相机针孔成像模型,定义特征点异常得分函数,设置阈值来检测和滤除动态特征点,消除了动态场景中运动目标所带来的影响;通过迭代求解的方式,对模型所存在的系统误差进行修正,提高了相机位姿解算精度。

Description

一种室内环境下的动态特征点滤除与重定位方法
技术领域
本发明涉及计算机视觉技术领域,尤其是一种室内环境下的动态特征点滤除与重定位方法。
背景技术
随着人工智能时代的到来,移动机器人因为其灵活性、自主性等特点得到了广泛地应用,不仅在军事、消防、救援、物流和勘探等行业发挥着重要作用,同时在日常生活中,为人们提供着便利,例如无人机、扫地机器人、服务机器人和无人驾驶汽车等。随着智能技术和传感器技术的飞速发展,移动机器人的应用已经从简单的已知环境扩展到完全未知的环境。在未知环境中,移动机器人需要利用自身传感器来感知周围环境以及估计自身姿态,保证在复杂的未知环境中完成自主运动。
同时,定位与建图(Simultaneous Localization And Mapping,SLAM)作为智能移动机器人的核心技术,指的是机器人在没有任何先验环境信息的情况下,同时完成移动机器人自身的定位以及周围环境的地图构建,它是实现智能移动机器人自主导航和避障的基础,对移动机器人之后的路径规划也起到决定性作用。近年来,随着视觉传感器价格的大幅降低,加之其能存储更多的外部环境信息,基于视觉的SLAM受到了越来越多学者的重视。现代视觉SLAM框架已经趋于成熟,其中,包括视觉里程计前端、状态估计后端、闭环检测等等。
然而,到目前为止,SLAM中的一些问题依然没有很好的解决。例如,现有的算法大多将外部环境作为静态假设,忽略了现实环境中动态目标对SLAM算法精度的影响,当移动机器人在复杂的动态场景中运动时,动态目标会使得相邻帧图像产生较大的差异,导致图像特征匹配出现紊乱,从而降低了SLAM系统的定位精度,严重的话会导致机器人位姿跟踪失败;此外场景中动态物体会对SLAM系统构建的地图造成严重影响,会使得构建出来的地图包含重影,影响地图的可读性和重用性。
SLAM中相机会随着移动机器人一起移动,导致图像的前景和背景相互独立运动,传统的运动目标检测方法,如帧间差分法和背景相减法对此效果不佳,无法有效检测滤除动态目标。Runzhi Wang等人提出了一种室内动态目标检测方法,通过极线几何滤除相邻帧中匹配的外点,融合RGB-D相机提供的深度图的聚类信息识别场景中独立运动目标。但是该算法的精度依赖于求解的相邻帧间的位姿变换矩阵,在高动态运动场景中,误差较大。Lin等人出了一种使用深度信息和视觉测距法检测场景中的运动物体。通过将检测到的外点信息和视觉传感器的深度信息相融合可容易获得场景中的运动目标位置。近年来,深度学习方法发展迅速,Chao Yu等人基于ORB-SLAM2框架提出DS-SLAM,该框架在独立线程使用SegNet网络检测场景中的语义信息,通过RANSAC算法估算帧间变换矩阵,然后使用极线几何判断特征点状态。当某一目标上的动态特征点的数量大于阈值,则该目标被认为动态,滤除其所有特征点。上述工作虽然取得了较好的定位精度,但也存在一些问题,例如在高动态运动场景中误差较大,实时性较差,鲁棒性不好等。
发明内容
本发明的首要目的在于提供一种利用相机针孔成像模型,定义特征点异常得分函数,设置阈值来检测和滤除动态特征点,消除了动态场景中运动目标所带来的影响,并通过迭代的方式提高了相机位姿解算精度的室内环境下的动态特征点滤除与重定位方法。
为实现上述目的,本发明采用了以下技术方案:一种室内环境下的动态特征点滤除与重定位方法,该方法包括下列顺序的步骤:
(1)提取输入图像上的特征点并进行匹配,定义特征点匹配精度约束,设置匹配质量得分函数;
(2)利用上一个时间间隔内相机的位姿变换矩阵T01和上一个时刻的相机位姿T1,来预估前一帧图像所提取到的特征点pi在当前帧图像I2出现的投影点q′i
(3)计算特征点Pi在当前帧图像I2投影所在的位置q′i和对应特征点qi的像素坐标之间的欧氏距离;
(4)根据简化的相机针孔成像模型,利用特征点所对应的深度信息进行加权评分,定义几何约束得分;
(5)定义特征点的异常得分,并设置阈值来检测和滤除当前帧动态特征点;
(6)根据滤除后的特征点求解当前帧时刻的相机位姿,利用迭代求解的方式提高位姿解算精度。
在所述步骤(1)中,在特征点匹配时,计算每对特征点与其它特征点之间的最近汉明距离di1和次近汉明距离di2,记它们之间的比值为Ki,即Ki=di1/di2,当Ki<α则认为是可靠的匹配,其中,α为精度约束因子,Ki越小代表这对匹配点对的最近汉明距离远远小于次最小汉明距离,特征点的匹配质量越高,正确匹配的概率越大。
在所述步骤(2)中,将相机短时间间隔内的运动看作为匀速运动,在相邻时间间隔内的相机位姿变换矩阵近似不变:
T12=T01 (1)
T01表示上一个时间间隔内相机的位姿变换矩阵,T12表示当前时间间隔内的相机位姿变换矩阵;
通过上一时刻的相机位姿以及当前时间间隔内的相机位姿变换矩阵来预估特征点Pi在当前帧图像I2中的投影点q′i
q′i=T12·T1·Piw (2)
式中Piw表示特征点Pi的世界坐标,T1表示上一个时刻的相机位姿。
在所述步骤(3)中,计算两点像素坐标之间欧氏距离的公式如下:
Figure BDA0003323418630000031
式中,dqi表示两点之间的欧氏距离,(ui,vi)为特征点Pi在当前帧图像I2对应匹配特征点qi的像素坐标,(u′i,v′i)为特征点Pi在当前帧图像I2预估投影点q′i的像素坐标;
若该特征点不存在于动态目标上,则预估得到的特征点与匹配得到的相应特征点重合,即两点之间的欧氏距离dqi为0。
所述步骤(4)具体是指:若场景中出现动态目标,假设特征点Pi在动态目标上,在当前时间间隔内移动到P′i,运动的距离为Di,在当前帧图像I2中所对应的运动的欧氏距离为dqi,通过简化的相机针孔成像模型:
Di/zi=dqi/f (4)
式中,zi表示特征点Pi离相机光心在相机光轴上的距离,f为相机焦距;
得到,动态特征点在图像上所对应的运动与其到相机的深度成线性关系;
根据特征点的深度信息引入评分机制,定义几何约束得分如下:
Figure BDA0003323418630000032
Figure BDA0003323418630000033
式中,m表示当前帧匹配的特征点的数目,Aq表示当前帧图像上特征点的欧氏距离的加权平均值;Gi表示当前特征点的几何约束得分;
若图像中对应特征点的几何约束得分越低,其对应的特征点对匹配质量越高,相反,若该特征点几何约束得分越高,表示对应特征点为运动的异常点的概率越大,其匹配质量越低。
所述步骤(5)具体是指:定义特征点的异常分值Mi来表述特征点的优劣程度:
Figure BDA0003323418630000041
设置阈值ε,若Mi>ε,则认为所判断特征点对为异常点,将异常点进行滤除,得到最终滤除后的特征点。
所述步骤(6)具体是指:根据滤除后的特征点来求解当前帧的相机位姿
Figure BDA0003323418630000042
通过迭代的方式对位姿初值所引入的的误差进行补偿,使用特征点库,利用所求解得到的当前帧的相机位姿
Figure BDA0003323418630000043
将特征点Pi投影到当前帧图像I2上,计算投影的特征点坐标:
Figure BDA0003323418630000044
重复步骤(3)至步骤(6),解算得到新的当前帧的相机位姿
Figure BDA0003323418630000045
并计算
Figure BDA0003323418630000046
Figure BDA0003323418630000047
之间的变换矩阵
Figure BDA0003323418630000048
Figure BDA0003323418630000049
分解变换矩阵
Figure BDA00033234186300000410
Figure BDA00033234186300000411
式中,R为旋转矩阵,t为平移向量,根据罗德里格斯公式和轴角旋转模型,将旋转矩阵R转化为旋转向量γ=θn进行表示,其中n为旋转轴对应向量,θ为旋转角度,对于角度θ有:
Figure BDA00033234186300000412
两次求解得到的相机光心平移向量:
t=-RTt (12)
设置迭代终止条件:
(a)当旋转角度θ<β且光心平移向量的模||-RTt||<δ,其中β和δ为设置的阈值,则认为前后所解算的相机位姿差别较小,此时相机位姿已经收敛,退出迭代,输出最终结果
Figure BDA00033234186300000413
其中k表示迭代次数;
(b)迭代次数k=50时,退出迭代,输出最终结果
Figure BDA00033234186300000414
由上述技术方案可知,本发明的有益效果为:第一,本发明提出了一种动态特征点滤除与重定位方法,依据相机针孔成像模型,定义特征点异常得分函数,设置阈值来检测和滤除动态特征点,消除了动态场景中运动目标所带来的影响;第二,本发明通过迭代求解的方式,对方法所存在的系统误差进行修正,提高了相机位姿解算精度。
附图说明
图1为本发明关于相机运动及前后帧匹配特征点投影示意图;
图2为本发明的方法流程图。
具体实施方式
如图2所示,一种室内环境下的动态特征点滤除与重定位方法,该方法包括下列顺序的步骤:
(1)提取输入图像上的特征点并进行匹配,定义特征点匹配精度约束,设置匹配质量得分函数;
(2)利用上一个时间间隔内相机的位姿变换矩阵T01和上一个时刻的相机位姿T1,来预估前一帧图像所提取到的特征点pi在当前帧图像I2出现的投影点q′i
(3)计算特征点Pi在当前帧图像I2投影所在的位置q′i和对应特征点qi的像素坐标之间的欧氏距离;
(4)根据简化的相机针孔成像模型,利用特征点所对应的深度信息进行加权评分,定义几何约束得分;
(5)定义特征点的异常得分,并设置阈值来检测和滤除当前帧动态特征点;
(6)根据滤除后的特征点求解当前帧时刻的相机位姿,利用迭代求解的方式提高位姿解算精度。
在所述步骤(1)中,在特征点匹配时,计算每对特征点与其它特征点之间的最近汉明距离di1和次近汉明距离di2,记它们之间的比值为Ki,即Ki=di1/di2,当Ki<α则认为是可靠的匹配,其中,α为精度约束因子,Ki越小代表这对匹配点对的最近汉明距离远远小于次最小汉明距离,特征点的匹配质量越高,正确匹配的概率越大。
在所述步骤(2)中,将相机短时间间隔内的运动看作为匀速运动,在相邻时间间隔内的相机位姿变换矩阵近似不变:
T12=T01 (1)
T01表示上一个时间间隔内相机的位姿变换矩阵,T12表示当前时间间隔内的相机位姿变换矩阵;
通过上一时刻的相机位姿以及当前时间间隔内的相机位姿变换矩阵来预估特征点Pi在当前帧图像I2中的投影点q′i
q′i=T12·T1·Piw (2)
式中Piw表示特征点Pi的世界坐标,T1表示上一个时刻的相机位姿。
在所述步骤(3)中,计算两点像素坐标之间欧氏距离的公式如下:
Figure BDA0003323418630000061
式中,dqi表示两点之间的欧氏距离,(ui,vi)为特征点Pi在当前帧图像I2对应匹配特征点qi的像素坐标,(u′i,v′i)为特征点Pi在当前帧图像I2预估投影点q′i的像素坐标;
若该特征点不存在于动态目标上,则预估得到的特征点与匹配得到的相应特征点重合,即两点之间的欧氏距离dqi为0。
所述步骤(4)具体是指:若场景中出现动态目标,假设特征点Pi在动态目标上,在当前时间间隔内移动到P′i,运动的距离为Di,在当前帧图像I2中所对应的运动的欧氏距离为dqi,通过简化的相机针孔成像模型:
Di/zi=dqi/f (4)
式中,zi表示特征点Pi离相机光心在相机光轴上的距离,f为相机焦距;
得到,动态特征点在图像上所对应的运动与其到相机的深度成线性关系;
根据特征点的深度信息引入评分机制,定义几何约束得分如下:
Figure BDA0003323418630000062
Figure BDA0003323418630000063
式中,m表示当前帧匹配的特征点的数目,Aq表示当前帧图像上特征点的欧氏距离的加权平均值;Gi表示当前特征点的几何约束得分;
若图像中对应特征点的几何约束得分越低,其对应的特征点对匹配质量越高,相反,若该特征点几何约束得分越高,表示对应特征点为运动的异常点的概率越大,其匹配质量越低。
所述步骤(5)具体是指:定义特征点的异常分值Mi来表述特征点的优劣程度:
Figure BDA0003323418630000064
设置阈值ε,若Mi>ε,则认为所判断特征点对为异常点,将异常点进行滤除,得到最终滤除后的特征点。
所述步骤(6)具体是指:根据滤除后的特征点来求解当前帧的相机位姿
Figure BDA0003323418630000065
通过迭代的方式对位姿初值所引入的的误差进行补偿,使用特征点库,利用所求解得到的当前帧的相机位姿
Figure BDA0003323418630000066
将特征点Pi投影到当前帧图像I2上,计算投影的特征点坐标:
Figure BDA0003323418630000067
重复步骤(3)至步骤(6),解算得到新的当前帧的相机位姿
Figure BDA0003323418630000068
并计算
Figure BDA0003323418630000069
Figure BDA00033234186300000610
之间的变换矩阵
Figure BDA0003323418630000071
Figure BDA0003323418630000072
分解变换矩阵
Figure BDA0003323418630000073
Figure BDA0003323418630000074
式中,R为旋转矩阵,t为平移向量,根据罗德里格斯公式和轴角旋转模型,将旋转矩阵R转化为旋转向量γ=θn进行表示,其中n为旋转轴对应向量,θ为旋转角度,对于角度θ有:
Figure BDA0003323418630000075
两次求解得到的相机光心平移向量:
t=-RTt (12)
设置迭代终止条件:
(a)当旋转角度θ<β且光心平移向量的模||-RTt||<δ,其中β和δ为设置的阈值,则认为前后所解算的相机位姿差别较小,此时相机位姿已经收敛,退出迭代,输出最终结果
Figure BDA0003323418630000076
其中k表示迭代次数;
(b)迭代次数k=50时,退出迭代,输出最终结果
Figure BDA0003323418630000077
如图1所示,该示意图描述了一个相机在运动过程中连续拍摄的三幅图像,图像中红色三角形表示场景中运动目标,实心点表示静态特征点,空心点表示动态特征点,虚线三角形及其内部的虚线原点表示运动物体在当前图像中的投影。T01表示上一个时间间隔的相机位姿变换矩阵,T12表示当前时间间隔内的相机位姿变换矩阵。
综上所述,本发明提出了一种动态特征点滤除与重定位方法,依据相机针孔成像模型,定义特征点异常得分函数,设置阈值来检测和滤除动态特征点,消除了动态场景中运动目标所带来的影响;本发明通过迭代求解的方式,对方法所存在的系统误差进行修正,提高了相机位姿解算精度。

Claims (7)

1.一种室内环境下的动态特征点滤除与重定位方法,其特征在于:该方法包括下列顺序的步骤:
(1)提取输入图像上的特征点并进行匹配,定义特征点匹配精度约束,设置匹配质量得分函数;
(2)利用上一个时间间隔内相机的位姿变换矩阵T01和上一个时刻的相机位姿T1,来预估前一帧图像所提取到的特征点pi在当前帧图像I2出现的投影点q′i
(3)计算特征点Pi在当前帧图像I2投影所在的位置q′i和对应特征点qi的像素坐标之间的欧氏距离;
(4)根据简化的相机针孔成像模型,利用特征点所对应的深度信息进行加权评分,定义几何约束得分;
(5)定义特征点的异常得分,并设置阈值来检测和滤除当前帧动态特征点;
(6)根据滤除后的特征点求解当前帧时刻的相机位姿,利用迭代求解的方式提高位姿解算精度。
2.根据权利要求1所述的室内环境下的动态特征点滤除与重定位方法,其特征在于:在所述步骤(1)中,在特征点匹配时,计算每对特征点与其它特征点之间的最近汉明距离di1和次近汉明距离di2,记它们之间的比值为Ki,即Ki=di1/di2,当Ki<α则认为是可靠的匹配,其中,α为精度约束因子,Ki越小代表这对匹配点对的最近汉明距离远远小于次最小汉明距离,特征点的匹配质量越高,正确匹配的概率越大。
3.根据权利要求1所述的室内环境下的动态特征点滤除与重定位方法,其特征在于:在所述步骤(2)中,将相机短时间间隔内的运动看作为匀速运动,在相邻时间间隔内的相机位姿变换矩阵近似不变:
T12=T01 (1)
T01表示上一个时间间隔内相机的位姿变换矩阵,T12表示当前时间间隔内的相机位姿变换矩阵;
通过上一时刻的相机位姿以及当前时间间隔内的相机位姿变换矩阵来预估特征点Pi在当前帧图像I2中的投影点q′i
q′i=T12·T1·Piw (2)
式中Piw表示特征点Pi的世界坐标,T1表示上一个时刻的相机位姿。
4.根据权利要求1所述的室内环境下的动态特征点滤除与重定位方法,其特征在于:在所述步骤(3)中,计算两点像素坐标之间欧氏距离的公式如下:
Figure FDA0003323418620000021
式中,dqi表示两点之间的欧氏距离,(ui,vi)为特征点Pi在当前帧图像I2对应匹配特征点qi的像素坐标,(u′i,v′i)为特征点Pi在当前帧图像I2预估投影点q′i的像素坐标;
若该特征点不存在于动态目标上,则预估得到的特征点与匹配得到的相应特征点重合,即两点之间的欧氏距离dqi为0。
5.根据权利要求1所述的室内环境下的动态特征点滤除与重定位方法,其特征在于:所述步骤(4)具体是指:若场景中出现动态目标,假设特征点Pi在动态目标上,在当前时间间隔内移动到Pi',运动的距离为Di,在当前帧图像I2中所对应的运动的欧氏距离为dqi,通过简化的相机针孔成像模型:
Di/zi=dqi/f (4)
式中,zi表示特征点Pi离相机光心在相机光轴上的距离,f为相机焦距;
得到,动态特征点在图像上所对应的运动与其到相机的深度成线性关系;
根据特征点的深度信息引入评分机制,定义几何约束得分如下:
Figure FDA0003323418620000022
Figure FDA0003323418620000023
式中,m表示当前帧匹配的特征点的数目,Aq表示当前帧图像上特征点的欧氏距离的加权平均值;Gi表示当前特征点的几何约束得分;
若图像中对应特征点的几何约束得分越低,其对应的特征点对匹配质量越高,相反,若该特征点几何约束得分越高,表示对应特征点为运动的异常点的概率越大,其匹配质量越低。
6.根据权利要求1所述的室内环境下的动态特征点滤除与重定位方法,其特征在于:所述步骤(5)具体是指:定义特征点的异常分值Mi来表述特征点的优劣程度:
Figure FDA0003323418620000024
设置阈值ε,若Mi>ε,则认为所判断特征点对为异常点,将异常点进行滤除,得到最终滤除后的特征点。
7.根据权利要求1所述的室内环境下的动态特征点滤除与重定位方法,其特征在于:所述步骤(6)具体是指:根据滤除后的特征点来求解当前帧的相机位姿
Figure FDA0003323418620000031
通过迭代的方式对位姿初值所引入的的误差进行补偿,使用特征点库,利用所求解得到的当前帧的相机位姿
Figure FDA0003323418620000032
将特征点Pi投影到当前帧图像I2上,计算投影的特征点坐标:
Figure FDA0003323418620000033
重复步骤(3)至步骤(6),解算得到新的当前帧的相机位姿
Figure FDA0003323418620000034
并计算
Figure FDA0003323418620000035
Figure FDA0003323418620000036
之间的变换矩阵
Figure FDA0003323418620000037
Figure FDA0003323418620000038
分解变换矩阵
Figure FDA0003323418620000039
Figure FDA00033234186200000310
式中,R为旋转矩阵,t为平移向量,根据罗德里格斯公式和轴角旋转模型,将旋转矩阵R转化为旋转向量γ=θn进行表示,其中n为旋转轴对应向量,θ为旋转角度,对于角度θ有:
Figure FDA00033234186200000311
两次求解得到的相机光心平移向量:
t=-RTt (12)
设置迭代终止条件:
(a)当旋转角度θ<β且光心平移向量的模||-RTt||<δ,其中β和δ为设置的阈值,则认为前后所解算的相机位姿差别较小,此时相机位姿已经收敛,退出迭代,输出最终结果
Figure FDA00033234186200000312
其中k表示迭代次数;
(b)迭代次数k=50时,退出迭代,输出最终结果
Figure FDA00033234186200000313
CN202111254464.1A 2021-10-27 2021-10-27 一种室内环境下的动态特征点滤除与重定位方法 Active CN114037759B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202111254464.1A CN114037759B (zh) 2021-10-27 2021-10-27 一种室内环境下的动态特征点滤除与重定位方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111254464.1A CN114037759B (zh) 2021-10-27 2021-10-27 一种室内环境下的动态特征点滤除与重定位方法

Publications (2)

Publication Number Publication Date
CN114037759A true CN114037759A (zh) 2022-02-11
CN114037759B CN114037759B (zh) 2024-06-14

Family

ID=80135469

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111254464.1A Active CN114037759B (zh) 2021-10-27 2021-10-27 一种室内环境下的动态特征点滤除与重定位方法

Country Status (1)

Country Link
CN (1) CN114037759B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116051915A (zh) * 2023-02-22 2023-05-02 东南大学 基于聚类与几何残差的动态场景rgb-d slam方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20190122378A1 (en) * 2017-04-17 2019-04-25 The United States Of America, As Represented By The Secretary Of The Navy Apparatuses and methods for machine vision systems including creation of a point cloud model and/or three dimensional model based on multiple images from different perspectives and combination of depth cues from camera motion and defocus with various applications including navigation systems, and pattern matching systems as well as estimating relative blur between images for use in depth from defocus or autofocusing applications
US20190226852A1 (en) * 2016-09-09 2019-07-25 Nanyang Technological University Simultaneous localization and mapping methods and apparatus
CN110838145A (zh) * 2019-10-09 2020-02-25 西安理工大学 一种室内动态场景的视觉定位与建图方法
CN111968129A (zh) * 2020-07-15 2020-11-20 上海交通大学 具有语义感知的即时定位与地图构建系统及方法
CN112785702A (zh) * 2020-12-31 2021-05-11 华南理工大学 一种基于2d激光雷达和双目相机紧耦合的slam方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20190226852A1 (en) * 2016-09-09 2019-07-25 Nanyang Technological University Simultaneous localization and mapping methods and apparatus
US20190122378A1 (en) * 2017-04-17 2019-04-25 The United States Of America, As Represented By The Secretary Of The Navy Apparatuses and methods for machine vision systems including creation of a point cloud model and/or three dimensional model based on multiple images from different perspectives and combination of depth cues from camera motion and defocus with various applications including navigation systems, and pattern matching systems as well as estimating relative blur between images for use in depth from defocus or autofocusing applications
CN110838145A (zh) * 2019-10-09 2020-02-25 西安理工大学 一种室内动态场景的视觉定位与建图方法
CN111968129A (zh) * 2020-07-15 2020-11-20 上海交通大学 具有语义感知的即时定位与地图构建系统及方法
CN112785702A (zh) * 2020-12-31 2021-05-11 华南理工大学 一种基于2d激光雷达和双目相机紧耦合的slam方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
瑚琦;蔡文龙;卢定凡;姜敏;: "单目视觉惯性的同时定位与地图构建综述", 软件导刊, no. 07, 15 July 2020 (2020-07-15) *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116051915A (zh) * 2023-02-22 2023-05-02 东南大学 基于聚类与几何残差的动态场景rgb-d slam方法

Also Published As

Publication number Publication date
CN114037759B (zh) 2024-06-14

Similar Documents

Publication Publication Date Title
CN109307508B (zh) 一种基于多关键帧的全景惯导slam方法
CN109166149B (zh) 一种融合双目相机与imu的定位与三维线框结构重建方法与系统
CN109211241B (zh) 基于视觉slam的无人机自主定位方法
KR101725060B1 (ko) 그래디언트 기반 특징점을 이용한 이동 로봇의 위치를 인식하기 위한 장치 및 그 방법
CN109509230A (zh) 一种应用于多镜头组合式全景相机的slam方法
Boniardi et al. Robot localization in floor plans using a room layout edge extraction network
CN112418288B (zh) 一种基于gms和运动检测的动态视觉slam方法
CN111882602B (zh) 基于orb特征点和gms匹配过滤器的视觉里程计实现方法
CN112556719B (zh) 一种基于cnn-ekf的视觉惯性里程计实现方法
CN116222543B (zh) 用于机器人环境感知的多传感器融合地图构建方法及系统
CN110070578B (zh) 一种回环检测方法
CN116468786B (zh) 一种面向动态环境的基于点线联合的语义slam方法
WO2024114119A1 (zh) 一种基于双目相机引导的传感器融合方法
CN114140527A (zh) 一种基于语义分割的动态环境双目视觉slam方法
CN116007609A (zh) 一种多光谱图像和惯导融合的定位方法和计算系统
CN117367427A (zh) 一种适用于室内环境中的视觉辅助激光融合IMU的多模态slam方法
CN114037759A (zh) 一种室内环境下的动态特征点滤除与重定位方法
CN114266823A (zh) 一种结合SuperPoint网络特征提取的单目SLAM方法
CN117218195A (zh) 基于点、线特征约束的同时定位与建图方法
CN113345032A (zh) 一种基于广角相机大畸变图的初始化建图方法及系统
CN112945233A (zh) 一种全局无漂移的自主机器人同时定位与地图构建方法
CN116804553A (zh) 基于事件相机/imu/自然路标的里程计系统及方法
CN114419259A (zh) 一种基于物理模型成像仿真的视觉定位方法及系统
CN113917917A (zh) 室内仿生多足机器人避障方法、装置及计算机可读介质
Deng et al. Robust 3D-SLAM with tight RGB-D-inertial fusion

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant