CN117315274A - 一种基于自适应特征提取的视觉slam方法 - Google Patents

一种基于自适应特征提取的视觉slam方法 Download PDF

Info

Publication number
CN117315274A
CN117315274A CN202311601050.0A CN202311601050A CN117315274A CN 117315274 A CN117315274 A CN 117315274A CN 202311601050 A CN202311601050 A CN 202311601050A CN 117315274 A CN117315274 A CN 117315274A
Authority
CN
China
Prior art keywords
image
adaptive
feature
feature points
pyramid
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202311601050.0A
Other languages
English (en)
Other versions
CN117315274B (zh
Inventor
张立晔
吕雪冬
商云强
李先德
巩相峰
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zibo Newstart Robot System Technology Co ltd
Original Assignee
Zibo Newstart Robot System Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zibo Newstart Robot System Technology Co ltd filed Critical Zibo Newstart Robot System Technology Co ltd
Priority to CN202311601050.0A priority Critical patent/CN117315274B/zh
Publication of CN117315274A publication Critical patent/CN117315274A/zh
Application granted granted Critical
Publication of CN117315274B publication Critical patent/CN117315274B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/005Tree description, e.g. octree, quadtree
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/20Finite element generation, e.g. wire-frame surface description, tesselation
    • G06T17/205Re-meshing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • G06T7/66Analysis of geometric attributes of image moments or centre of gravity
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20004Adaptive image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20016Hierarchical, coarse-to-fine, multiscale or multiresolution image processing; Pyramid transform
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20112Image segmentation details
    • G06T2207/20164Salient point detection; Corner detection

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Geometry (AREA)
  • Computer Graphics (AREA)
  • Software Systems (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)

Abstract

一种基于自适应特征提取的视觉SLAM方法,属于计算机视觉领域。其特征在于:包括如下步骤:步骤1001,计算全局自适应值;步骤1002,自适应值构建图像金字塔;步骤1003,对图像金字塔进行自适应网格划分;步骤1004,通过AGAST方法提取特征点;步骤1005,过滤特征点并对特征点进行划分;步骤1006,计算特征点方向并计算特征点描述子;步骤1007,应用于ORB‑SLAM3的纯视觉实现。通过本基于自适应特征提取的视觉SLAM方法,解决了ORB算法产生的角点簇集、生成特征点过量等问题,在不增加特征提取计算量的同时提供了高质量的特征点。应用于SLAM系统中提高了视觉SLAM的精度与鲁棒性。

Description

一种基于自适应特征提取的视觉SLAM方法
技术领域
本发明属于计算机视觉领域,具体涉及一种基于自适应特征提取的视觉SLAM方法。
背景技术
SLAM技术 (simultaneous localization and mapping)在自动驾驶、无人机、机器人导航等领域应用广泛,该技术可以帮助设备确定自身位置和周围环境的地形和障碍物。视觉传感器凭借其丰富的色彩和纹理等感知信息在提高帧间估计精度和闭环检测正确率方面有着巨大的优势和潜力,且摄像头价格低廉,能够提供丰富的环境信息,因此,主要传感器是摄像头的视觉SLAM解决方案备受关注。
特征点法是视觉SLAM方法中完成帧间估计的主流方法,且SLAM的实时性能受特征提取速度的影响较大。文献E. Rublee; V. Rabaud; K. Konolige; G. Bradski. ORB: Anefficient alternative to SIFT or SURF. In Proceedings of the2011International Conference on Computer Vision, Barcelona, Spain, 6–13 November2011; pp. 2564–2571.提出了ORB特征提取算法,它是现阶段计算平台的一种优秀的效率与精度之间的折中方式。经典的ORB-SLAM便使用ORB特征。但其主要依靠人工设置特征提取阈值。这可能会导致大量角点簇集和生成过多的特征点,无法满足不同图像对特征点提取的要求,并增加后续图像配准的复杂性。而且提取特征点的鲁棒性、方向不变性、尺度不变性对SLAM的鲁棒性有着较大影响。但在特征提取中,大多方法在使用图像金字塔为特征提供尺度不变性时,同时也增加了计算量。许多提取速度较快的特征大多不具备尺度不变性。
发明内容
本发明要解决的技术问题是:克服现有技术的不足,提供一种解决了ORB算法产生的角点簇集、生成特征点过量等问题,在不增加特征提取计算量的同时提供了高质量的特征点。应用于SLAM系统中提高了视觉SLAM精度与鲁棒性的基于自适应特征提取的视觉SLAM方法。
本发明解决其技术问题所采用的技术方案是:该基于自适应特征提取的视觉SLAM方法,其特征在于:包括如下步骤:
步骤1001,计算全局自适应值;
步骤1002,自适应值构建图像金字塔;
步骤1003,采用自适应算法对图像金字塔进行自适应网格划分;
步骤1004,对步骤1003中划分的图像网格用AGAST方法提取特征点;
步骤1005,对于步骤1004中提取到的特征点,用非极大值抑制的思想过滤特征点,去除局部较密集的特征点,然后使用四叉树算法划分特征点;
步骤1006,利用灰度质心法计算特征点方向,并使用BRIEF算法计算特征点描述子;
步骤1007,将步骤1001~步骤1006的方案,应用于ORB-SLAM3的纯视觉实现中。
优选的,在步骤1001中,根据图像灰度信息设定特征提取的阈值,阈值为:
其中,n为图像像素数,I(x,y)为每个像素的灰度值,为像素平均灰度值,为图像灰度值的方差。
优选的,在步骤1002中,自适应的图像金字塔层数决策方法设置为:
level=Round((width+height)/β)
其中,level为图像金字塔层数,widthheight分别为图像的宽、高,参数β取值为200,
计算出金字塔层数后,根据比例因子对图像进行下采样构造金字塔每一层的图像并根据金字塔图像的面积设置每个层需要提取的特征点个数。
优选的,在步骤1003中,对图像金字塔进行自适应网格划分的公式为:
其中,width i height i 分别为第i层图像的宽和高,N i 为第i层图像需要提取的特征点数,α为比例系数。
优选的,通过对图像金字塔进行自适应网格划分,得到每层图像需要划分的网格规格后,计算每层图像划分的行列数,具体计算公式为:
其中,RowsCols分别为图像划分网格的行数、列数。
优选的,在步骤1005中,使用四叉树算法划分特征点,其具体步骤为:
步骤1005-1,对于每层金字塔图像初始化节点,将图像分为四个区域,得到四个子节点;
步骤1005-2,统计每个节点里包含特征点的数目,如果节点内没有特征点,则删掉该节点;如果节点里只有一个特征点,则标记这些节点为叶子节点并保存,不再进行分裂;如果节点中含有多个特征点,则称其为父节点并继续划分;若当前所有节点都不可再分或叶子节点数和需继续划分的父节点数达到特征点数目要求则停止划分;
步骤1005-3,保留每个节点区域响应值最大的特征点。
优选的,在步骤1006中,特征点的方向为特征点到以特征点为中心的图像块的质心的连线与水平方向的夹角。
优选的,图像块的质心计算公式为:
其中,m pq 表示区域的距,其计算方法为:,其中/>,因此:
其中,I(x,y)为每个像素的灰度值,得到特征点的方向:
与现有技术相比,本发明所具有的有益效果是:
通过本基于自适应特征提取的视觉SLAM方法,解决了ORB算法产生的角点簇集、生成特征点过量等问题,在不增加特征提取计算量的同时提供了高质量的特征点。应用于SLAM系统中提高了视觉SLAM的精度与鲁棒性。
本基于自适应特征提取的视觉SLAM方法提供了多种自适应算法以使SLAM更好地适应不同环境并使用AGAST算法代替FAST算法进行特征检测,一定程度上加快了特征检测速度。
附图说明
图1为基于自适应特征提取的视觉SLAM方法流程图。
图2为基于自适应特征提取的视觉SLAM方法四叉树均匀划分示意图。
图3为基于自适应特征提取的视觉SLAM方法计算特征点图像块示意图。
图4为基于自适应特征提取的视觉SLAM方法计算特征点方向示意图。
图5为图4中特征点方向旋转后的示意图。
具体实施方式
图1~图5是本发明的最佳实施例,下面结合图1~图5对本发明做进一步说明。
如图1所示,一种基于自适应特征提取的视觉SLAM方法,包括如下步骤:
步骤1001,计算全局自适应值;
根据图像灰度信息设定特征提取的阈值,阈值为:
其中,n为图像像素数,I(x,y)为每个像素的灰度值,为像素平均灰度值。为图像灰度值的方差。
由于相邻帧之间灰度信息变化较小,为减少SLAM的计算负担,对于相邻帧可使用同一全局自适应阈值,不再重复计算。
步骤1002,自适应值构建图像金字塔;
为图像构造一个高斯金字塔。面对输入的不同分辨率的图像,为减小计算量,更好的进行追踪,自适应的图像金字塔层数决策方法设置如下:
level=Round((width+height)/β)
其中,level为图像金字塔层数,widthheight分别为图像的宽、高,β为参数,这里具体取值为200。
计算出适宜的金字塔层数后,根据比例因子对图像进行下采样构造金字塔每一层的图像并根据金字塔图像的面积设置每个层需要提取的特征点个数。
步骤1003,对图像金字塔进行自适应网格划分;
采用自适应算法处理网格划分,根据每层图像的面积及其需要提取的特征点数对其进行划分。具体划分公式为:
其中,width i height i 分别为第i层图像的宽和高,N i 为第i层图像需要提取的特征点数,α为比例系数。
通过上述公式得到每层图像需要划分的网格规格,便可据此计算每层图像划分的行列数,具体计算公式为:
其中,RowsCols分别为图像划分网格的行数、列数。
步骤1004,通过AGAST方法提取特征点;
对步骤1003中划分好的图像网格用AGAST方法提取特征点。为提高提取特征点的质量,首先使用步骤1001中得到的全局自适应阈值为初始值对图像提取特征点,当提取到的图像特征点不足时,将阈值设为原来的1/4,继续提取特征点。
步骤1005,过滤特征点并对特征点进行划分;
对于步骤1004中提取到的特征点,用非极大值抑制的思想过滤特征点,去除局部较密集的特征点。然后使用四叉树算法划分特征点,其具体步骤为:
步骤1005-1,对于每层金字塔图像初始化节点,将图像分为四个区域,得到四个子节点;
步骤1005-2,统计每个节点里包含特征点的数目,如果节点内没有特征点,则删掉该节点;如果节点里只有一个特征点,则标记这些节点为叶子节点并保存,不再进行分裂;如果节点中含有多个特征点,则称其为父节点并继续划分。若当前所有节点都不可再分或叶子节点数和需继续划分的父节点数达到特征点数目要求则停止划分。
步骤1005-3,保留每个节点区域响应值最大的特征点。
若目标为20个特征点,结果如图2所示,其中圆点代表特征点,画叉的区域为删除的节点区域。
步骤1006,计算特征点方向并计算特征点描述子;
利用灰度质心法计算特征点方向,并使用BRIEF算法计算特征点描述子。特征点的方向定义为特征点到以特征点为中心的图像块的质心的连线与水平方向的夹角。根据图像块的灰度信息求出特征点的质心及方向。
如图3所示为图像块示例,图像块的质心计算公式如下:
其中,m pq 表示区域的距,其计算方法为:,其中/>,因此:
可以得到特征点的方向:
特征点的方向为特征点提供了旋转不变性,如图5为图4旋转后的图像,在旋转过程中特征点P的方向保持不变。在图4~图5中x,y分别表示坐标系的横轴和纵轴;Q表示图像块的质心,P表示特征点在坐标中的位置。
以特征点为圆心,把图像旋转到以其方向为x轴的方向,再以d为半径做圆O。在圆O内选取N个点对。为便于描述,点对数量N设为4,本发明中N取256,点对选取方式已定义好。假设当前选取了4个点对分别标记为P1(A、B)、P2(A、B)、P3(A、B)、P4(A、B),分别对已选取的点对进行T操作,将得到的结果进行组合即可得到描述子。其中T操作为:
其中,I A 、I B 分别表示点A和点B的灰度。
步骤1007,应用于ORB-SLAM3的纯视觉实现;
将上述步骤1001~步骤1006的步骤,应用于ORB-SLAM3的纯视觉实现中,其主要分为三个模块:跟踪、局部建图和回环检测。
跟踪为前端,需要实时进行。跟踪模块负责处理图像信息、估计相机运动以及何时插入关键帧。具体步骤如下:
步骤1007-1-1,图像处理并应用自适应特征提取算法提取特征点。
将RGB图片转化为灰度图像,然后根据图像灰度信息计算全局自适应阈值。根据图像尺寸信息计算图像金字塔层数并构建图像金字塔。对图像金字塔采用自适应算法处理网格划分,根据每层图像的面积及其需要提取的特征点数对其进行划分。然后使用AGAST算法对划分的网格进行特征检测,采用非极大值抑制去除较密集的特征点,用四叉树算法对其进行均匀化,灰度质心法计算其主方向,并使用BRIEF算法计算其描述子。
步骤1007-1-2,对特征点进行匹配并根据得到的匹配关系实时计算当前帧相对于活跃地图的位姿,最大限度地减少匹配地图特征的重投影误差。特征匹配可分为三种方式进行,一是根据之前预测的帧间的相机运动预测当前相机的位置,在小范围内搜寻特征进行匹配;二是没有运动先验的情况下,跟踪相邻两帧间的特征;三是跟踪参考关键帧与当前帧之间的特征点,使用词袋模型加速特征匹配。
步骤1007-1-2,根据当前帧与活跃地图中的地图点共视情况决定是否插入新的关键帧。
局部建图与闭环检测为后端,主要目的是优化跟踪模块计算的相机位姿与生成的地图点,保证了SLAM的精度。局部建图模块将跟踪模块送来的关键帧和点添加到活跃的地图中,并进行局部地图优化即使用Bundle Adjustment(BA)来优化局部地图上的地图点。局部建图模块还负责剔除冗余的关键帧。具体步骤为:
步骤1007-2-1,处理关键帧并计算该帧的Bow映射关系,将关键帧和地图点添加到活跃的地图中。
步骤1007-2-2,应用严格的点剔除策略,剔除步骤1007-2-1中引入的不合格地图点以便只保留高质量的地图点
步骤1007-2-3,局部地图中的关键帧大于两帧就使用Bundle Adjustment(BA)来优化局部地图上的地图点。优化过后,若当前关键帧90%的地图点可以被其他关键帧观测到则其为冗余关键帧,需要对其进行删除。
步骤1007-2-3,将关键帧加入到回环检测队列中。
回环检测在活跃地图和整个地图集之间检测回环检测队列中关键帧的相似关键帧。若在活跃地图上找到相似关键帧则进行闭环矫正,若两者不在同一地图上则进行地图融合。更新共视图的连接关系后进行冗余关键帧剔除。最后进行全局的BA优化。
基于EuRoC数据集的工厂场景进行试验,将基于自适应特征提取的视觉SLAM方法提供的自适应特征提取算法与ORB特征提取算法进行比较,通过特征提取结果可以获知,本基于自适应特征提取的视觉SLAM方法有效减少了特征点聚集现象,特征点分布较均匀。
此外,将本基于自适应特征提取的视觉SLAM方法提供的自适应特征提取算法应用于ORB-SLAM3中并与现有技术进行了比较,结果可见表1,在MH04这个困难序列中,本发明提供的方法取得了较好的效果,其跟踪精度相比ORB-SLAM2提升了约31%,相比ORB-SLAM3提升了23.2%。在其他序列中,本基于自适应特征提取的视觉SLAM方法也取得了较好的效果,其在这四个序列上的绝对轨迹误差RMSE相比ORB-SLAM3降低了13.8%,相比ORB-SLAM2降低了13%。本基于自适应特征提取的视觉SLAM方法提高了SLAM的精度与鲁棒性。
表1 不同方法在EoRoC数据集上的绝对轨迹误差均方根(单位:厘米)
由上述可知,本基于自适应特征提取的视觉SLAM方法提供了多种自适应算法以使SLAM更好地适应不同环境并使用AGAST算法代替FAST算法进行特征检测,一定程度上加快了特征检测速度。
本基于自适应特征提取的视觉SLAM方法提供的自适应特征提取算法可以解决ORB算法产生的角点簇集、生成特征点过量等问题,在不增加特征提取计算量的同时提供了高质量的特征点。应用于SLAM系统中提高了视觉SLAM的精度与鲁棒性。总之,本基于自适应特征提取的视觉SLAM方法提供的基于自适应特征提取的视觉SLAM技术在一定程度上提高了视觉SLAM的性能。
以上所述,仅是本发明的较佳实施例而已,并非是对本发明作其它形式的限制,任何熟悉本专业的技术人员可能利用上述揭示的技术内容加以变更或改型为等同变化的等效实施例。但是凡是未脱离本发明技术方案内容,依据本发明的技术实质对以上实施例所作的任何简单修改、等同变化与改型,仍属于本发明技术方案的保护范围。

Claims (8)

1.一种基于自适应特征提取的视觉SLAM方法,其特征在于:包括如下步骤:
步骤1001,计算全局自适应值;
步骤1002,自适应值构建图像金字塔;
步骤1003,采用自适应算法对图像金字塔进行自适应网格划分;
步骤1004,对步骤1003中划分的图像网格用AGAST方法提取特征点;
步骤1005,对于步骤1004中提取到的特征点,用非极大值抑制的思想过滤特征点,去除局部较密集的特征点,然后使用四叉树算法划分特征点;
步骤1006,利用灰度质心法计算特征点方向,并使用BRIEF算法计算特征点描述子;
步骤1007,将步骤1001~步骤1006的方案,应用于ORB-SLAM3的纯视觉实现中。
2.根据权利要求1所述的基于自适应特征提取的视觉SLAM方法,其特征在于:在步骤1001中,根据图像灰度信息设定特征提取的阈值,阈值为:
其中,n为图像像素数,I(x,y)为每个像素的灰度值,为像素平均灰度值,为图像灰度值的方差。
3.根据权利要求1所述的基于自适应特征提取的视觉SLAM方法,其特征在于:在步骤1002中,自适应的图像金字塔层数决策方法设置为:
level=Round((width+height)/β)
其中,level为图像金字塔层数,widthheight分别为图像的宽、高,参数β取值为200,
计算出金字塔层数后,根据比例因子对图像进行下采样构造金字塔每一层的图像并根据金字塔图像的面积设置每个层需要提取的特征点个数。
4.根据权利要求1所述的基于自适应特征提取的视觉SLAM方法,其特征在于:在步骤1003中,对图像金字塔进行自适应网格划分的公式为:
其中,width i height i 分别为第i层图像的宽和高,N i 为第i层图像需要提取的特征点数,α为比例系数。
5.根据权利要求4所述的基于自适应特征提取的视觉SLAM方法,其特征在于:通过对图像金字塔进行自适应网格划分,得到每层图像需要划分的网格规格后,计算每层图像划分的行列数,具体计算公式为:
其中,RowsCols分别为图像划分网格的行数、列数。
6.根据权利要求1所述的基于自适应特征提取的视觉SLAM方法,其特征在于:在步骤1005中,使用四叉树算法划分特征点,其具体步骤为:
步骤1005-1,对于每层金字塔图像初始化节点,将图像分为四个区域,得到四个子节点;
步骤1005-2,统计每个节点里包含特征点的数目,如果节点内没有特征点,则删掉该节点;如果节点里只有一个特征点,则标记这些节点为叶子节点并保存,不再进行分裂;如果节点中含有多个特征点,则称其为父节点并继续划分;若当前所有节点都不可再分或叶子节点数和需继续划分的父节点数达到特征点数目要求则停止划分;
步骤1005-3,保留每个节点区域响应值最大的特征点。
7.根据权利要求1所述的基于自适应特征提取的视觉SLAM方法,其特征在于:在步骤1006中,特征点的方向为特征点到以特征点为中心的图像块的质心的连线与水平方向的夹角。
8.根据权利要求7所述的基于自适应特征提取的视觉SLAM方法,其特征在于:图像块的质心计算公式为:
其中,m pq 表示区域的距,其计算方法为:,其中/>,因此:
其中,I(x,y)为每个像素的灰度值,得到特征点的方向:
CN202311601050.0A 2023-11-28 2023-11-28 一种基于自适应特征提取的视觉slam方法 Active CN117315274B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202311601050.0A CN117315274B (zh) 2023-11-28 2023-11-28 一种基于自适应特征提取的视觉slam方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202311601050.0A CN117315274B (zh) 2023-11-28 2023-11-28 一种基于自适应特征提取的视觉slam方法

Publications (2)

Publication Number Publication Date
CN117315274A true CN117315274A (zh) 2023-12-29
CN117315274B CN117315274B (zh) 2024-03-19

Family

ID=89281437

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202311601050.0A Active CN117315274B (zh) 2023-11-28 2023-11-28 一种基于自适应特征提取的视觉slam方法

Country Status (1)

Country Link
CN (1) CN117315274B (zh)

Citations (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110084248A (zh) * 2019-04-23 2019-08-02 陕西理工大学 一种orb特征均匀化提取方法
CN110414533A (zh) * 2019-06-24 2019-11-05 东南大学 一种改进orb的特征提取与匹配方法
WO2019222889A1 (zh) * 2018-05-21 2019-11-28 华为技术有限公司 一种图像特征提取方法及装置
KR20200029951A (ko) * 2018-09-11 2020-03-19 한국산업기술대학교산학협력단 적응적 분류에 기반한 영상정합 시스템 및 방법
CN111160371A (zh) * 2019-12-30 2020-05-15 长春理工大学 一种orb均匀提取特征点方法
CN111178394A (zh) * 2019-12-12 2020-05-19 华南师范大学 一种基于自适应图像信息熵的特征点提取方法
CN111553425A (zh) * 2020-04-29 2020-08-18 广州大学 一种用于视觉定位的模板匹配lsp算法、介质和设备
CN112164117A (zh) * 2020-09-30 2021-01-01 武汉科技大学 一种基于Kinect相机的V-SLAM位姿估算方法
CN112907662A (zh) * 2021-01-28 2021-06-04 北京三快在线科技有限公司 特征提取方法、装置、电子设备及存储介质
CN113191370A (zh) * 2021-04-26 2021-07-30 安徽工程大学 一种基于阈值自适应阈值调整的orb算法
CN114862902A (zh) * 2022-05-16 2022-08-05 辽宁科技大学 一种基于四叉树的光照自适应orb特征提取和匹配方法
CN114926448A (zh) * 2022-05-31 2022-08-19 江南大学 一种胶囊内窥镜图像特征点提取方法
CN115830335A (zh) * 2022-10-25 2023-03-21 南京喂啊游通信科技有限公司 一种基于自适应阈值算法的orb图像特征提取方法
CN116152517A (zh) * 2023-02-21 2023-05-23 重庆邮电大学 一种改进的orb特征提取方法
US20230169747A1 (en) * 2021-11-29 2023-06-01 Automotive Research & Testing Center Feature point integration positioning system and feature point integration positioning method
CN116245949A (zh) * 2023-03-02 2023-06-09 重庆邮电大学 一种基于改进四叉树特征点提取的高精度视觉slam方法
CN116429082A (zh) * 2023-02-28 2023-07-14 厦门大学 一种基于st-orb特征提取的视觉slam方法
CN116630662A (zh) * 2023-05-08 2023-08-22 长春理工大学 一种应用于视觉slam的特征点误匹配剔除方法
CN116912515A (zh) * 2023-06-08 2023-10-20 北京航空航天大学 一种基于LoD的VSLAM特征点检测方法
CN116958595A (zh) * 2023-08-01 2023-10-27 华南理工大学 一种基于图像块区域特征点的视觉slam回环检测改进方法
CN117011704A (zh) * 2023-07-07 2023-11-07 哈尔滨理工大学 一种基于点线特征融合与自适应阈值的特征提取方法

Patent Citations (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019222889A1 (zh) * 2018-05-21 2019-11-28 华为技术有限公司 一种图像特征提取方法及装置
KR20200029951A (ko) * 2018-09-11 2020-03-19 한국산업기술대학교산학협력단 적응적 분류에 기반한 영상정합 시스템 및 방법
CN110084248A (zh) * 2019-04-23 2019-08-02 陕西理工大学 一种orb特征均匀化提取方法
CN110414533A (zh) * 2019-06-24 2019-11-05 东南大学 一种改进orb的特征提取与匹配方法
CN111178394A (zh) * 2019-12-12 2020-05-19 华南师范大学 一种基于自适应图像信息熵的特征点提取方法
CN111160371A (zh) * 2019-12-30 2020-05-15 长春理工大学 一种orb均匀提取特征点方法
CN111553425A (zh) * 2020-04-29 2020-08-18 广州大学 一种用于视觉定位的模板匹配lsp算法、介质和设备
CN112164117A (zh) * 2020-09-30 2021-01-01 武汉科技大学 一种基于Kinect相机的V-SLAM位姿估算方法
CN112907662A (zh) * 2021-01-28 2021-06-04 北京三快在线科技有限公司 特征提取方法、装置、电子设备及存储介质
CN113191370A (zh) * 2021-04-26 2021-07-30 安徽工程大学 一种基于阈值自适应阈值调整的orb算法
US20230169747A1 (en) * 2021-11-29 2023-06-01 Automotive Research & Testing Center Feature point integration positioning system and feature point integration positioning method
CN114862902A (zh) * 2022-05-16 2022-08-05 辽宁科技大学 一种基于四叉树的光照自适应orb特征提取和匹配方法
CN114926448A (zh) * 2022-05-31 2022-08-19 江南大学 一种胶囊内窥镜图像特征点提取方法
CN115830335A (zh) * 2022-10-25 2023-03-21 南京喂啊游通信科技有限公司 一种基于自适应阈值算法的orb图像特征提取方法
CN116152517A (zh) * 2023-02-21 2023-05-23 重庆邮电大学 一种改进的orb特征提取方法
CN116429082A (zh) * 2023-02-28 2023-07-14 厦门大学 一种基于st-orb特征提取的视觉slam方法
CN116245949A (zh) * 2023-03-02 2023-06-09 重庆邮电大学 一种基于改进四叉树特征点提取的高精度视觉slam方法
CN116630662A (zh) * 2023-05-08 2023-08-22 长春理工大学 一种应用于视觉slam的特征点误匹配剔除方法
CN116912515A (zh) * 2023-06-08 2023-10-20 北京航空航天大学 一种基于LoD的VSLAM特征点检测方法
CN117011704A (zh) * 2023-07-07 2023-11-07 哈尔滨理工大学 一种基于点线特征融合与自适应阈值的特征提取方法
CN116958595A (zh) * 2023-08-01 2023-10-27 华南理工大学 一种基于图像块区域特征点的视觉slam回环检测改进方法

Non-Patent Citations (5)

* Cited by examiner, † Cited by third party
Title
QINGXI ZENG等: "A Robust Indoor Localization Method Based on DAT-SLAM and Template Matching Visual Odometry", 《IEEE SENSORS JOURNAL》, vol. 23, no. 8, pages 8789 - 8796 *
SHAOSHAO WANG等: "A Feature Extraction Algorithm for Enhancing Graphical Local Adaptive Threshold", 《INTERNATIONAL CONFERENCE ON INTELLIGENT COMPUTING》, vol. 13393, pages 277 - 291 *
唐醅林: "基于ORB-SLAM的特征匹配与建图方法研究", 《中国优秀硕士学位论文全文数据库 信息科技辑》, vol. 2020, no. 3, pages 138 - 1390 *
李国竣等: "利用局部自适应阈值方法提取ORB-SLAM特征点", 《测绘通报》, no. 9, pages 32 - 36 *
杨世强等: "一种改进的Qtree_ORB算法", 《计算机工程与应用》, vol. 57, no. 20, pages 82 - 89 *

Also Published As

Publication number Publication date
CN117315274B (zh) 2024-03-19

Similar Documents

Publication Publication Date Title
CN109784333B (zh) 基于点云带权通道特征的三维目标检测方法及系统
CN110264416B (zh) 稀疏点云分割方法及装置
CN106960446B (zh) 一种面向无人艇应用的水面目标检测跟踪一体化方法
CN109685045B (zh) 一种运动目标视频跟踪方法及系统
CN108446634B (zh) 基于视频分析和定位信息结合的航空器持续跟踪方法
CN106875437B (zh) 一种面向rgbd三维重建的关键帧提取方法
CN110910421B (zh) 基于分块表征和可变邻域聚类的弱小运动目标检测方法
CN106780560B (zh) 一种基于特征融合粒子滤波的仿生机器鱼视觉跟踪方法
CN103093198B (zh) 一种人群密度监测方法及装置
CN110930411B (zh) 一种基于深度相机的人体分割方法及系统
CN109886159B (zh) 一种非限定条件下的人脸检测方法
CN105374049B (zh) 一种基于稀疏光流法的多角点跟踪方法及装置
CN111998862B (zh) 一种基于bnn的稠密双目slam方法
CN107403451B (zh) 自适应二值特征单目视觉里程计方法及计算机、机器人
CN113744315B (zh) 一种基于双目视觉的半直接视觉里程计
CN113888461A (zh) 基于深度学习的小五金件缺陷检测方法、系统及设备
CN111062310B (zh) 一种基于虚拟样本生成的少样本无人机图像识别方法
CN117011704A (zh) 一种基于点线特征融合与自适应阈值的特征提取方法
CN109272014B (zh) 一种基于畸变适应卷积神经网络的图像分类方法
CN106780541B (zh) 一种改进的背景减除方法
CN117315274B (zh) 一种基于自适应特征提取的视觉slam方法
CN116299525A (zh) 一种基于点云区域相关性的动态环境rgb-d视觉slam方法
CN110533619A (zh) 一种基于暗通道先验的图像去雾改进方法
CN115273080A (zh) 一种面向动态场景的轻量级视觉语义里程计方法
Park et al. Automatic radial un-distortion using conditional generative adversarial network

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant