CN116630662A - 一种应用于视觉slam的特征点误匹配剔除方法 - Google Patents
一种应用于视觉slam的特征点误匹配剔除方法 Download PDFInfo
- Publication number
- CN116630662A CN116630662A CN202310513933.XA CN202310513933A CN116630662A CN 116630662 A CN116630662 A CN 116630662A CN 202310513933 A CN202310513933 A CN 202310513933A CN 116630662 A CN116630662 A CN 116630662A
- Authority
- CN
- China
- Prior art keywords
- point
- histogram
- euclidean distance
- group
- feature points
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 46
- 230000000007 visual effect Effects 0.000 title claims abstract description 19
- 238000012545 processing Methods 0.000 claims abstract description 13
- 238000000605 extraction Methods 0.000 claims abstract description 12
- 230000008030 elimination Effects 0.000 claims abstract description 7
- 238000003379 elimination reaction Methods 0.000 claims abstract description 7
- 239000013598 vector Substances 0.000 claims description 14
- 238000010606 normalization Methods 0.000 claims description 4
- 229920000642 polymer Polymers 0.000 claims description 3
- 239000000284 extract Substances 0.000 claims description 2
- 238000003860 storage Methods 0.000 abstract description 2
- 230000004807 localization Effects 0.000 description 3
- 238000013507 mapping Methods 0.000 description 3
- 238000013135 deep learning Methods 0.000 description 2
- 238000002996 descriptor matching method Methods 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 238000002474 experimental method Methods 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 230000005484 gravity Effects 0.000 description 2
- 238000012216 screening Methods 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- 241000283966 Pholidota <mammal> Species 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000000052 comparative effect Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 230000009897 systematic effect Effects 0.000 description 1
- 238000012549 training Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/75—Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
- G06V10/757—Matching configurations of points or features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/75—Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
- G06V10/758—Involving statistics of pixels or of feature values, e.g. histogram matching
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Theoretical Computer Science (AREA)
- Evolutionary Computation (AREA)
- Computing Systems (AREA)
- Databases & Information Systems (AREA)
- Artificial Intelligence (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
Abstract
本发明涉及一种应用于视觉SLAM的特征点误匹配剔除方法,属于计算机视觉技术领域。包括将摄像头采集的图像进行ORB特征点提取,将当前帧的特征点与关键帧特征点进行特征点匹配,计算匹配特征点对的欧式距离,使用boxplot方法对欧式距离进行外点粗略剔除,将粗略剔除后的特征点对欧式距离进行直方图统计,将直方图进行数据处理,根据直方图处理结果剔除质量不好的匹配点对。有益效果是剔除了特征点匹配的误匹配,提高了SLAM系统的鲁棒性,提高了后续建图与定位的准确性,且减小了计算量和存储空间,提高了系统的效率。
Description
技术领域
本发明涉及计算机视觉技术领域,尤其涉及一种应用于视觉SLAM的特征点误匹配剔除方法。
背景技术
SLAM(Simultaneous Localization and Mapping,即同时定位与地图构建)是一种在未知环境中使用单个或多个相机进行定位和地图构建的技术。按使用传感器类别SLAM可分为视觉SLAM和激光SLAM,目前视觉SLAM技术已经在自动驾驶、机器人导航、虚拟现实等领域得到广泛应用,可以帮助实现自主导航和地图构建等功能,提高生产和生活效率,具有广阔的应用前景。
目前主流的视觉SLAM特征点匹配算法包括特征点描述子匹配法、直接法、深度学习法,其中特征点描述子匹配法通过计算特征点周围区域的特征描述子,将每个特征点表示成一个向量,然后通过计算向量之间的距离或相似度,来进行匹配;直接法与传统的基于特征点的方式不同,直接法不需要进行特征提取和匹配,直接使用像素灰度信息进行匹配;基于深度学习的端到端匹配网络可以直接从图像对中学习匹配函数,实现端到端的特征点匹配。这种方法的优点在于可以避免手工设计的特征描述子的局限性,同时可以通过大量的数据训练网络来提高匹配的准确性和鲁棒性。
虽然特征点匹配算法在许多情况下表现良好,但特征点匹配算法对光照变化、物体遮挡和相机或物体运动模糊等情况非常敏感,这些因素可能导致特征点提取和匹配的不准确性,而且特征点匹配算法在处理动态物体时由于动态物体的特征点可能会发生变化,可能导致匹配失败,为此如果直接将匹配的特征点用于后续处理可能会对系统引入噪声。
发明内容
本发明提供一种应用于视觉SLAM的特征点误匹配剔除方法,以解决目前特征点匹配存在误匹配的问题,通过对匹配的特征点进行误匹配剔除,提升了视觉SLAM系统的鲁棒性与精度。
本发明采取的技术方案是,包括下列步骤:
(1)、将摄像头采集的图像进行ORB特征点提取;
(2)、将当前帧的特征点与关键帧特征点进行特征点匹配;
(3)、计算匹配特征点对的欧式距离;
(4)、使用boxplot方法对欧式距离进行外点粗略剔除;
(5)、将所有的特征点对欧式距离进行直方图统计;
(6)、将直方图进行数据处理;
(7)、根据直方图统计结果将误匹配的点对解除匹配关系。
本发明所述步骤(1)将摄像头采集的图像进行ORB特征点提取,具体包括:
将采集的RGB图像转化成灰度图;采用8层金字塔总共提取1000个特征点,其中第i层金字塔提取个数为:
其中s为缩放因子,取利用FAST算法提取每层金字塔的特征点,
利用灰度质心法计算每个特征点的方向向量,计算每个特征点的brief描述子,其中brief描述子的模板方向向量与特征点的方向向量保持一致。
本发明所述步骤(2)将当前帧的特征点与关键帧特征点进行特征点匹配,具体包括:
基于ORB-SLAM2算法框架完成相机初始化,完成局部地图点创建,选取当前帧像素点与关键帧像素点比较brief描述子相似性,为了加速提取,只考虑与当前帧像素点半径为20的像素区域选取相似性最高的关键帧像素点作为匹配点对,循环遍历所有的像素点使其找到与之相匹配的关键帧像素点。
本发明所述步骤(3)计算匹配特征点对的欧式距离,具体包括:
定义已经完成特征匹配的点集P={p1,p2,...,pn},Q={q1,q2,...,qn},其中P点集为当前帧的特征点点集,Q点集为关键帧的特征点点集,n为特征点的索引,点集元素pn和qn为匹配的特征点,特征点对的欧式距离集合记为Dis={dis1,dis2,...,disn},公式为Dis=||P-Q||2,即分别计算每一对特征点对的欧式距离得到匹配对的欧式距离集合Dis。
本发明所述步骤(4)使用boxplot方法对欧式距离进行外点粗略剔除,具体包括:
将集合Dis数据按照从小到大顺序排列,记数据的下四分位数位为Q1,中位数为Q2,上四分位数为Q3,四分位距为IQR,其中IQR=Q3-Q1,取数据上限为Q3+1.5IQR,数据下限为Q1-1.5IQR,即将集合Dis中不在Q1-1.5IQR~Q3+1.5IQR内的数据作为外点进行剔除,记Dis剔除数据后为Dis1,并把点集P、点集Q中相应的数据剔除,记点集P剔除后的点集为P1,点集Q剔除后的点集为Q1。
本发明所述步骤(5)将所有的特征点对欧式距离进行直方图统计,具体包括:
取直方图最小值为0像素,最大值为max像素,组距为k像素,可知共有组数据,将所有的点对欧氏距离放入直方图中,若其欧氏距离大于max,则将其放入最后一组,具体地,首先判断当前匹配点对的欧式距离d是否大于max,若大于则放入/>组,否则放入第/>组,结果取向下取整。
本发明所述步骤(6)将对直方图进行数据处理,具体包括:
首先对直方图的频数进行统计,记每一组的频数为其中Mh表示第h组的频数,并对直方图进行归一化处理,直方图归一化公式记为:/>其中Xh表示第h组的归一化数值,Ma表示第a组归一化数值,Mh表示第h组归一化数值,并取直方图频率最高的组记为Mε,且由于将所有欧式距离大于max的点对都放在最后一组,且最后一组距离太大,所以直接将最后一组视为外点,因此此时/>采用交叉取数的策略,即先取Mε再取Mε-1,再取Mε+1,直到取到的所有直方图数据频率之和大于70%,认为剩余的数据为错误匹配,并将所取组中的欧氏距离索引进行记录,记为集合N。
本发明所述步骤(7)利用直方图数据处理结果对特征点对进行剔除,具体包括:
遍历查询欧式距离集合,若Dis1元素不在N集合内,则对该匹配点对视为外点,并进行解除匹配关系,具体地,删除集合P1和集合Q1中相应元素,记点集P1剔除后的点集为P2,点集Q1剔除后的点集为Q2。
本发明的有益效果是:利用boxplot方法和直方图对匹配的特征点对进行进一步的筛查,并剔除掉其中的误匹配,将摄像头采集的图像进行ORB特征点提取;将当前帧的特征点与关键帧特征点进行特征点匹配;计算匹配特征点对的欧式距离;使用boxplot方法对欧式距离进行外点粗略剔除;将所有的特征点对欧式距离进行直方图统计,计算直方图中最高得分并以直方图的最高得分为基准,将该基准附近的匹配点对认为是正确的匹配点对,与基准距离较远的点对视为误匹配,将误匹配的点对解除匹配关系。本发明剔除了特征点匹配的误匹配,提高了SLAM系统的鲁棒性,提高了后续建图与定位的准确性,且减小了计算量和存储空间,提高了系统的效率。
附图说明
图1是本发明的流程图;
图2是本发明实例中三维坐标系下未使用本发明原始算法的轨迹与真值轨迹的对比图;
图3是本发明实例中三维坐标系下使用本发明后的轨迹与真值轨迹的对比图。
具体实施方式
下面结合附图和实施例对本发明作进一步的详细说明。可以理解的是,此处所描述的具体实施例仅仅用于解释本发明,而非对本发明的限定。另外还需要说明的是,为了便于描述,附图中仅出示了与本发明相关的部分而非全部结构。
如图1所示,本发明的一种应用于视觉SLAM的特征点误匹配剔除方法流程图,具体步骤如下:
S1、将摄像头采集的图像进行ORB特征点提取;
S2、将当前帧的特征点与关键帧特征点进行特征点匹配;
S3、计算匹配特征点对的欧式距离;
S4、使用boxplot方法对欧式距离进行外点粗略剔除
S5、将所有的特征点对欧式距离进行直方图统计;
S6、将直方图进行数据处理;
S7、根据直方图统计结果将误匹配的点对解除匹配关系;
在本实施例中,所述步骤S1中,具体如下:
将采集的RGB图像转化成灰度图;
采用8层金字塔总共提取1000个特征点,其中第i层金字塔提取:个,其中s为缩放因子,取/>
利用FAST算法提取每层金字塔的特征点;
利用灰度质心法计算每个特征点的方向向量;
计算每个特征点的brief描述子,并将brief描述子的模板方向向量与特征点的方向向量保持一致。
具体实施过程中,利用FAST算法提取完特征点后,再利用四叉树搜索方式,搜索出每一层应该提取的特征点数,利用灰度质心法计算方向向量时,设计半径为12的圆计算圆内灰度像素值的重心,中心与重心的连线作为该特征点的方向向量,计算brief描述子时,采用16*16矩形区域为模板,按照固定的序列在模板内随机取点,本实例序列为符合高斯分布的随机点序列。
在本实施例中,所述步骤S1中,由于只是单独提取出单幅图像的ORB特征点,所以所述步骤S2中,利用当前帧的特征点与关键帧特征点进行特征点匹配,具体如下:
基于ORB-SLAM2框架完成相机初始化,完成局部地图点创建;
选取当前帧像素点与关键帧像素点比较brief描述子相似性,为了加速提取,只考虑与当前帧像素点半径为20的像素区域选取相似性最高的关键帧像素点作为匹配点对;
循环遍历所有的像素点使其找到与之相匹配的关键帧像素点。
具体实施过程中,当前帧像素点与关键帧像素点比较brief描述子时,为了提高区分度,记录相似度最佳距离与次佳距离,只有最佳距离<次佳距离*0.9才会考虑是否为匹配点对。
在本实施例中,所述步骤S1中,由于缺乏对匹配点对的筛查与剔除,所以所述步骤S3中,计算匹配特征点对的欧式距离,具体如下:
定义已经完成特征匹配的点集P={p1,p2,...,pn},Q={q1,q2,...,qn},其中P点集为当前帧的特征点点集,Q点集为关键帧的特征点点集,n为特征点的索引,点集元素pn和qn为匹配的特征点,特征点对的欧式距离集合记为Dis={dis1,dis2,...,disn},公式为Dis=||P-Q||2,分别计算每一对特征点对的欧式距离得到匹配对的欧式距离集合Dis。
在本实施例中,所述步骤S4中,使用boxplot方法对欧式距离进行外点粗略剔除,具体如下:
将集合Dis数据按照从小到大顺序排列,记数据的下四分位数位为Q1,中位数为Q2,上四分位数为Q3,四分位距为IQR,其中IQR=Q3-Q1,取数据上限为Q3+1.5IQR,数据下限为Q1-1.5IQR,即将集合Dis中不在Q1-1.5IQR~Q3+1.5IQR内的数据作为外点进行剔除,记Dis剔除数据后为Dis1,并把点集P、点集Q中相应的数据剔除,记点集P剔除后的点集为P1,点集Q剔除后的点集为Q1。
在本实施例中,所述步骤S5中,将所有的特征点对欧式距离进行直方图统计,具体如下:
设计直方图最小值为0像素,最大值为max像素,组距为k像素,可知共有组数据,将所有的点对欧氏距离放入直方图中,若其欧氏距离大于max,则将其放入最后一组,具体地,首先判断当前匹配点对的欧式距离d是否大于max,若大于则放入/>组,否则放入第组,结果取向下取整。
本实例中选取最大值max=150,组距k=10,组数为10组。
在本实施例中,所述步骤S6中,将对直方图进行数据处理,具体如下:
对直方图的频数进行统计,记每一组的频数为其中Mh表示第h组的频数,对直方图进行归一化处理,直方图归一化公式记为:
其中Xh表示第h组的归一化数值,Ma表示第a组归一化数值,Mh表示第h组归一化数值,取直方图频率最高的组记为Mε,且由于将所有欧式距离大于max的点对都放在最后一组,且最后一组距离太大,所以直接将最后一组视为外点,因此此时/>采用交叉取数的策略,即先取Mε再取Mε-1,再取Mε+1,直到取到的所有直方图数据频率之和大于70%,认为剩余的数据为错误匹配,并将所取组中的欧氏距离索引进行记录,记为集合N。
在本实施例中,所述步骤S7中,利用直方图数据处理结果对特征点对进行剔除,具体如下:
遍历查询欧式距离集合,若Dis1元素不在N集合内,则对该匹配点对视为外点,并进行解除匹配关系,具体地,删除集合P1和集合Q1中相应元素,记点集P1剔除后的点集为P2,点集Q1剔除后的点集为Q2。
为了更好的体现本发明的效果,实例中使用原始ORB-SLAM2算法与新增本方法的改进版ORB-SLAM2在Ubuntu20.04系统进行测试,测试硬件系统为CPU为12th GenIntelCoreTMi9-12900KF×24,需要配置的第三方库为Pangolin,OpenCV,Eigen3,分别测量绝对位姿误差(APE)和相对位姿误差(RPE)来评估SLAM系统误差。
APE是衡量SLAM系统绝对姿态误差的指标,通常使用欧式距离或者姿态差等来计算。在SLAM中,APE通常表示为地图中所有已知位置点与其对应的真实位置点之间的距离误差的平均值。APE越小,说明SLAM系统的绝对定位精度越高。
RPE是衡量SLAM系统相对姿态误差的指标,通常使用差距向量、角度差等来计算。在SLAM中,RPE通常表示为相邻时刻的位姿估计值与真实位姿之间的误差。RPE越小,说明SLAM系统的相对定位精度越高。
测试的具体数据如表1所示,由数据可知本发明使用一种应用于视觉SLAM的特征点误匹配剔除方法能够提升SLAM系统的鲁棒性与精度。
表1APE误差对比实验表
表2RPE误差对比实验表
图2为本发明实例中三维坐标系下未使用本发明原始算法的轨迹与真值轨迹的对比图;图3为本发明实例中三维坐标系下使用本发明后的轨迹与真值轨迹的对比图。
其中虚线为位姿真值,实线为算法计算的实际位姿。由图可直观的看出本发明使用一种应用于视觉SLAM的特征点误匹配剔除方法能够提升SLAM系统中对位姿的估计,提升了系统的鲁棒性与精度。
Claims (8)
1.一种应用于视觉SLAM的特征点误匹配剔除方法,其特征在于,包括下列步骤:
(1)、将摄像头采集的图像进行ORB特征点提取;
(2)、将当前帧的特征点与关键帧特征点进行特征点匹配;
(3)、计算匹配特征点对的欧式距离;
(4)、使用boxplot方法对欧式距离进行外点粗略剔除;
(5)、将所有的特征点对欧式距离进行直方图统计;
(6)、将直方图进行数据处理;
(7)、根据直方图统计结果将误匹配的点对解除匹配关系。
2.根据权利要求1所述的一种应用于视觉SLAM的特征点误匹配剔除方法,其特征在于,所述步骤(1)将摄像头采集的图像进行ORB特征点提取,具体包括:
将采集的RGB图像转化成灰度图;采用8层金字塔总共提取1000个特征点,其中第i层金字塔提取个数为:
其中s为缩放因子,取利用FAST算法提取每层金字塔的特征点,
利用灰度质心法计算每个特征点的方向向量,计算每个特征点的brief描述子,其中brief描述子的模板方向向量与特征点的方向向量保持一致。
3.根据权利要求1所述的一种应用于视觉SLAM的特征点误匹配剔除方法,其特征在于,所述步骤(2)将当前帧的特征点与关键帧特征点进行特征点匹配,具体包括:
基于ORB-SLAM2算法框架完成相机初始化,完成局部地图点创建,选取当前帧像素点与关键帧像素点比较brief描述子相似性,为了加速提取,只考虑与当前帧像素点半径为20的像素区域选取相似性最高的关键帧像素点作为匹配点对,循环遍历所有的像素点使其找到与之相匹配的关键帧像素点。
4.根据权利要求1所述的一种应用于视觉SLAM的特征点误匹配剔除方法,其特征在于,所述步骤(3)计算匹配特征点对的欧式距离,具体包括:
定义已经完成特征匹配的点集P={p1,p2,...,pn},Q={q1,q2,...,qn},其中P点集为当前帧的特征点点集,Q点集为关键帧的特征点点集,n为特征点的索引,点集元素pn和qn为匹配的特征点,特征点对的欧式距离集合记为Dis={dis1,dis2,...,disn},公式为Dis=||P-Q||2,即分别计算每一对特征点对的欧式距离得到匹配对的欧式距离集合Dis。
5.根据权利要求1所述的一种应用于视觉SLAM的特征点误匹配剔除方法,其特征在于,所述步骤(4)使用boxplot方法对欧式距离进行外点粗略剔除,具体包括:
将集合Dis数据按照从小到大顺序排列,记数据的下四分位数位为Q1,中位数为Q2,上四分位数为Q3,四分位距为IQR,其中IQR=Q3-Q1,取数据上限为Q3+1.5IQR,数据下限为Q1-1.5IQR,即将集合Dis中不在Q1-1.5IQR~Q3+1.5IQR内的数据作为外点进行剔除,记Dis剔除数据后为Dis1,并把点集P、点集Q中相应的数据剔除,记点集P剔除后的点集为P1,点集Q剔除后的点集为Q1。
6.根据权利要求1所述的一种应用于视觉SLAM的特征点误匹配剔除方法,其特征在于,所述步骤(5)将所有的特征点对欧式距离进行直方图统计,具体包括:
取直方图最小值为0像素,最大值为max像素,组距为k像素,可知共有组数据,将所有的点对欧氏距离放入直方图中,若其欧氏距离大于max,则将其放入最后一组,具体地,首先判断当前匹配点对的欧式距离d是否大于max,若大于则放入/>组,否则放入第/>组,结果取向下取整。
7.根据权利要求1所述的一种应用于视觉SLAM的特征点误匹配剔除方法,其特征在于,所述步骤(6)将对直方图进行数据处理,具体包括:
首先对直方图的频数进行统计,记每一组的频数为其中Mh表示第h组的频数,并对直方图进行归一化处理,直方图归一化公式记为:/>其中Xh表示第h组的归一化数值,Ma表示第a组归一化数值,Mh表示第h组归一化数值,并取直方图频率最高的组记为Mε,且由于将所有欧式距离大于max的点对都放在最后一组,且最后一组距离太大,所以直接将最后一组视为外点,因此此时/>采用交叉取数的策略,即先取Mε再取Mε-1,再取Mε+1,直到取到的所有直方图数据频率之和大于70%,认为剩余的数据为错误匹配,并将所取组中的欧氏距离索引进行记录,记为集合N。
8.根据权利要求1所述的一种应用于视觉SLAM的特征点误匹配剔除方法,其特征在于,所述步骤(7)利用直方图数据处理结果对特征点对进行剔除,具体包括:
遍历查询欧式距离集合,若Dis1元素不在N集合内,则对该匹配点对视为外点,并进行解除匹配关系,具体地,删除集合P1和集合Q1中相应元素,记点集P1剔除后的点集为P2,点集Q1剔除后的点集为Q2。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310513933.XA CN116630662A (zh) | 2023-05-08 | 2023-05-08 | 一种应用于视觉slam的特征点误匹配剔除方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310513933.XA CN116630662A (zh) | 2023-05-08 | 2023-05-08 | 一种应用于视觉slam的特征点误匹配剔除方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN116630662A true CN116630662A (zh) | 2023-08-22 |
Family
ID=87612551
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310513933.XA Pending CN116630662A (zh) | 2023-05-08 | 2023-05-08 | 一种应用于视觉slam的特征点误匹配剔除方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116630662A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117315274A (zh) * | 2023-11-28 | 2023-12-29 | 淄博纽氏达特机器人系统技术有限公司 | 一种基于自适应特征提取的视觉slam方法 |
-
2023
- 2023-05-08 CN CN202310513933.XA patent/CN116630662A/zh active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117315274A (zh) * | 2023-11-28 | 2023-12-29 | 淄博纽氏达特机器人系统技术有限公司 | 一种基于自适应特征提取的视觉slam方法 |
CN117315274B (zh) * | 2023-11-28 | 2024-03-19 | 淄博纽氏达特机器人系统技术有限公司 | 一种基于自适应特征提取的视觉slam方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113012212B (zh) | 一种基于深度信息融合的室内场景三维点云重建方法和系统 | |
Tazir et al. | CICP: Cluster Iterative Closest Point for sparse–dense point cloud registration | |
Yu et al. | Robust robot pose estimation for challenging scenes with an RGB-D camera | |
WO2017199141A1 (en) | Point cloud matching method | |
CN110490913B (zh) | 基于角点与单线段编组的特征描述算子进行影像匹配方法 | |
CN108550166B (zh) | 一种空间目标图像匹配方法 | |
CN112164115B (zh) | 物体位姿识别的方法、装置及计算机存储介质 | |
US20200005078A1 (en) | Content aware forensic detection of image manipulations | |
CN108335327B (zh) | 摄像机姿态估计方法和摄像机姿态估计装置 | |
CN116630662A (zh) | 一种应用于视觉slam的特征点误匹配剔除方法 | |
CN112364881B (zh) | 一种进阶采样一致性图像匹配方法 | |
CN109857895B (zh) | 基于多环路视图卷积神经网络的立体视觉检索方法与系统 | |
Jiang et al. | Learned local features for structure from motion of uav images: A comparative evaluation | |
CN111339342B (zh) | 一种基于角度三元中心损失的三维模型检索方法 | |
CN113128518A (zh) | 基于孪生卷积网络和特征混合的sift误匹配检测方法 | |
CN104484647B (zh) | 一种高分辨率遥感图像云高度检测方法 | |
US11645827B2 (en) | Detection method and device for assembly body multi-view change based on feature matching | |
CN116128919A (zh) | 基于极线约束的多时相图像异动目标检测方法及系统 | |
CN113139540B (zh) | 背板检测方法及设备 | |
CN114170450A (zh) | 一种基于区域一致性和gms的图像特征匹配方法 | |
CN113780240A (zh) | 基于神经网络及旋转特征增强的物体位姿估计方法 | |
CN112614166A (zh) | 基于cnn-knn的点云匹配方法和装置 | |
CN112418250B (zh) | 一种复杂3d点云的优化匹配方法 | |
Wang et al. | Stereo Rectification Based on Epipolar Constrained Neural Network | |
CN117115488B (zh) | 一种基于图像处理的水表检测方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |