CN112562000A - 基于特征点检测和误匹配筛选的机器人视觉定位方法 - Google Patents

基于特征点检测和误匹配筛选的机器人视觉定位方法 Download PDF

Info

Publication number
CN112562000A
CN112562000A CN202011543458.3A CN202011543458A CN112562000A CN 112562000 A CN112562000 A CN 112562000A CN 202011543458 A CN202011543458 A CN 202011543458A CN 112562000 A CN112562000 A CN 112562000A
Authority
CN
China
Prior art keywords
points
point
image
feature
matching
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
CN202011543458.3A
Other languages
English (en)
Inventor
樊渊
郭予超
李腾
董翔
宋程
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Anhui University
Original Assignee
Anhui University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Anhui University filed Critical Anhui University
Priority to CN202011543458.3A priority Critical patent/CN112562000A/zh
Publication of CN112562000A publication Critical patent/CN112562000A/zh
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/20Image enhancement or restoration using local operators
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/70Denoising; Smoothing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • G06T7/248Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20016Hierarchical, coarse-to-fine, multiscale or multiresolution image processing; Pyramid transform
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20024Filtering details
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30244Camera pose

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

本发明提供了一种基于特征点检测和误匹配筛选的机器人视觉定位方法,包括以下步骤:A:构建高斯图像金字塔;B:对的每一层图像分别以四边形模型进行FAST特征点检测;C:对提取的特征点基于邻域像素值构建BRIEF描述子;D:基于BRIEF描述子进行暴力匹配;E:对误匹配的特征点进行筛选,基于筛选结果将匹配的特征点对应到原始参考图像和待匹配图像本发明的优点在于:通过四边形模式进行特征点检测,提高检测速度,通过构建高斯图像金字塔,消除FAST特征点不具备尺度性的缺陷,基于暴力匹配,确保特征点能够相互匹配,然后再对误匹配的特征点进行筛选,保留正确的匹配结果,从而方便进行位姿解算。

Description

基于特征点检测和误匹配筛选的机器人视觉定位方法
技术领域
本发明涉及图像检测技术领域,尤其涉及一种基于特征点检测和误匹配筛选的机器人视觉定位方法。
背景技术
在计算机视觉的图像检测领域,图像特征提取与匹配是机器人视觉定位中的重要环节,机器人视觉定位常常应用在同步定位与建图(Simultaneous Localization andMapping,SLAM),指移动载体搭载特定的传感器,例如深度相机、激光雷达、惯性测量单元,在未知的环境中,载体从某一点出发,在运动过程中,通过传感器重复采集到的图像和深度信息,估计自身的运动轨迹,同时增量式的构建周围环境的地图信息。SLAM系统包括视觉里程计、后端优化、回环检测、建图四个环节。视觉里程计是最重要的环节之一,包括特征提取与匹配,机器人位姿估计,SLAM系统根据特征提取与匹配的结果采用三角测量、PNP或ICP的方法估计机器人的位姿,实现机器人的自我定位以及自我轨迹的跟踪。良好的视觉里程计还能够为后续环节提供优质的数据,后端优化和回环检测根据视觉里程计提供的数据对机器人局部位姿和轨迹进行优化。SLAM系统生成的运动轨迹和各种形式的地图为移动机器人定位、导航、避障、以及人机交互提供了技术支持,尤其在不能接收GPS信号的地方和室内小场景,拥有更加广泛的应用前景。因此,提高图像特征提取与匹配的精度具有重要的理论意义和实际应用价值。
随着对设备小型化和便携化的要求越来越高,未来希望视觉定位技术能够应用在嵌入式设备或移动设备上,因此不能占用大量的运算资源,对系统实时性有较高的要求,两帧图像之间的特征匹配结果对定位的精度有较大的影响,并且特征提取与匹配只是视觉定位中的一部分,其数据的优劣对后续的结果也会产生较大的影响,提高特征提取与匹配的速度和精度依然是目前需要优化的重要问题。
公开号为CN104596519A的发明专利申请提供了一种基于RANSAC算法的视觉定位方法,该技术通过SURF算法计算出待定位用户上传的图像的特征点以及特征点描述信息;在数据库中选择一张具有匹配点数最多的图片,将得到图像的特征点描述信息与图片的特征点描述信息进行SURF匹配,将进行匹配的每对图像与图片定义为一对匹配图像,则每对匹配图像在进行匹配后会得到一组匹配点;通过匹配质量的RANSAC算法,将每对匹配图像的匹配点中的错误匹配点剔除后,确定出含有正确匹配点的数量最多的4对匹配图像;根据得到的4对匹配图像,通过对极几何算法计算出用户的位置坐标,完成室内定位。然而该方案的图像特征提取采用计算量大的SURF特征点,影响算法计算速度,而RANSAC算法平等对待所有的匹配点对,从整个集合中均匀的抽取随机样本;RANSAC算法构建模型的数据具有随机性,不确定性。
发明内容
本发明所要解决的技术问题在于提供一种能够提高机器人定位速度和精度的机器人视觉定位方法。
本发明是通过以下技术方案解决上述技术问题的:一种基于特征点检测和误匹配筛选的机器人视觉定位方法,包括以下步骤:
步骤A:分别对参考图像和待匹配图像构建高斯图像金字塔;
步骤B:对参考图像和待匹配图像的高斯图像金字塔中的每一层图像分别以四边形模型进行FAST特征点检测;
步骤C:对提取的特征点基于邻域像素值构建BRIEF描述子;
步骤D:基于BRIEF描述子对参考图像和待匹配图像的高斯图像金字塔中的所有特征点进行暴力匹配;
步骤E:对误匹配的特征点进行筛选,基于筛选结果将匹配的特征点对应到原始参考图像和待匹配图像。
本发明通过四边形模式进行特征点检测,提高检测速度,通过构建高斯金字塔,解决FAST特征点不具有尺度性的缺陷,通过暴力匹配获得初始匹配结果,并基于误匹配筛选保证匹配精度,从而方便的进行位姿解算,提高定位精度和速度。
优选的,步骤A所述的构建高斯金字塔的方法为:以原始图像作为金字塔底层图像,对原始图像通过高斯滤波进行降噪,然后对像素值逐级缩放,得到六层高斯图像金字塔;高斯图像金字塔中,相邻层图像的像素值缩放比例为1.3。
优选的,步骤B中所述的FAST特征点检测的方法为:
以待测像素点为中心,间隔一个像素点构建方形区域,去除处于方形区域四角的像素点,对方形区域四边剩下的12个像素点从1开始顺次编号,如果有连续9个像素点满足|IP-IN|>T,则该待测像素点为特征点,其中,IP为待测像素点的灰度值,IN为方形区域中第N个像素点的灰度值,T为灰度阈值,遍历图像得到所有特征点。
优选的,在FAST特征点检测前,还包括对待测像素点进行预操作的步骤,所述预操作的方法为:在方形区域上等间隔的选取4个像素点进行检测,如果有至少三个像素点满足|IP-IN|>T,则对该待检测点执行FAST特征点检测,如果少于三个像素点满足|IP-IN|>T,则对下一个待检测点进行预操作。
优选的,步骤C所述的使用BRIEF描述子描述特征点的方法为:以特征点为中心,取S×S的邻域窗口,在邻域窗口内满足高斯分布
Figure BDA0002853387620000031
的像素点中随机选取两个像素点i和j,则
Figure BDA0002853387620000032
获取128对像素点的BRIEF描述子数值,得到该特征点的128维向量。
优选的,计算BRIEF描述子之前,对图像进行高斯滤波降噪,所述高斯滤波的方差为2,S=9,即邻域窗口尺寸为9×9。
优选的,步骤D所述的暴力匹配方法为:
设置汉明距离的阈值,对参考图像中的其中一个特征点,计算与待匹配图像中的所有未匹配特征点的汉明距离,在汉明距离小于阈值的未匹配特征点中,取汉明距离最小的未匹配特征点与参考图像的特征点进行匹配,依次对参考图像中的所有特征点进行暴力匹配,直到匹配完成参考图像或待匹配图像中的所有特征点。
优选的,步骤D中利用PROSAC算法筛选误匹配的特征点,包括以下步骤:
步骤i:输入最大迭代次数Im、内点阈值ε和内点个数阈值T,参考图像的特征点集合{uj,j∈[1,N]},迭代次数I=1,内点个数t=0;
步骤ii:计算参考图像所有特征点的评价函数Q,按评价函数Q降序排列集合{uj}中的所有特征点得到集合{ζκ|κ∈[1,N]};
步骤iii:每四个特征点分为一组,取第一组特征点计算单应矩阵H,令κ=5;
步骤iv:基于单应矩阵H计算集合{ζκ}中的第κ个特征点ζκ对应的匹配特征点的估计位置及与匹配特征点的误差eκ,如果eκ<ε,则特征点ζκ为内点,t=t+1,否则为外点;
步骤v:如果t<T,则跳转vi,否则转至vii;
步骤vi:如果κ<N,则κ=κ+1,I=I+1,转至在步骤iv,否则结束计算;
步骤vii:如果I≤Im,则以t个内点更新单应矩阵H并输出,否则结束计算。
优选的,所述评价函数的计算方法为:
Figure BDA0002853387620000041
Figure BDA0002853387620000042
Figure BDA0002853387620000043
其中,hj1,hj2分别为参考图像上的特征点uj与匹配图像上的所有特征点的最小汉明距离和次小汉明距离,评价函数数值越大,该特征点的匹配效果越好。
优选的,步骤iii中通过特征点计算单应矩阵H的方法为:
定义参考图像上的两个特征点ui和uj在待匹配图像上对应的匹配特征点分别为pi和pj;P为某个平面上的一点,假设该平面满足:
nTP+d=0
其中,nT为平面法向量,d为P点距平面的距离,则
Figure BDA0002853387620000044
根据针孔相机模型,两个匹配像素点pi和pj的像素位置为:
sipi=KP
sjpj=K(RP+t)
其中,K为相机内参矩阵,R,t为两个坐标系的相机运动,s为点P在Z轴的坐标;
在使用齐次坐标表示像素点时,一个向量将等于它自身乘上任意的非零整数,sipi和pi成投影关系,他们在齐次坐标的意义下是相等的,这种相等关系为尺度意义下相等:
Figure BDA0002853387620000045
Figure BDA0002853387620000051
令单应矩阵
Figure BDA0002853387620000052
得到
Figure BDA0002853387620000053
单应矩阵H为一个3*3的矩阵,根据匹配特征点pi和pj计算H,得到
Figure BDA0002853387620000054
令h9=1,得到
Figure BDA0002853387620000055
Figure BDA0002853387620000056
整理后得到
h1w1+h2v1+h3-h7w1w2-h8v1w2=w2
h4w1+h5v1+h6-h7w1v2-h8v1v2=v2
由此可知,一组特征点和匹配特征点能够构造两项约束,自由度为8的单应矩阵,需要通过4对特征点和匹配特征点进行计算,即
Figure BDA0002853387620000061
得到单应矩阵
Figure BDA0002853387620000062
则匹配特征点的估计位置的计算方法为:
Figure BDA0002853387620000063
优选的,步骤iv中匹配特征点的误差计算方法为:
eκ=d(pκ,p′κ)
d(pκ,p′κ)表示匹配特征点pκ与估计匹配特征点p′κ的汉明距离。
本发明提供的基于特征点检测和误匹配筛选的机器人视觉定位方法的优点在于:通过四边形模式进行特征点检测,提高检测速度,通过构建高斯图像金字塔,消除FAST特征点不具备尺度性的缺陷,基于暴力匹配,确保特征点能够相互匹配,然后通过PROSAC算法对误匹配的特征点进行筛选,保留正确的匹配结果,从而方便进行位姿解算。
附图说明
图1为本发明的实施例提供的基于特征点检测和误匹配筛选的机器人视觉定位方法的流程图;
图2为本发明的实施例提供的基于特征点检测和误匹配筛选的机器人视觉定位方法的四边形模式特征点检测示意图;
图3为本发明的实施例提供的基于特征点检测和误匹配筛选的机器人视觉定位方法进行暴力匹配得到的匹配结果;
图4为本发明的实施例提供的基于特征点检测和误匹配筛选的机器人视觉定位方法进行误操作筛选后的匹配结果。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚明白,以下结合具体实施例,并参照附图,对本发明的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
如图1所示,本实施例提供了一种基于特征点检测和误匹配筛选的机器人视觉定位方法,包括以下步骤:
步骤A:分别对参考图像和待匹配图像构建高斯图像金字塔;
构建高斯金字塔的方法为:以原始图像作为金字塔底层图像,对原始图像通过高斯滤波进行降噪,然后对像素值逐级缩放,得到六层高斯图像金字塔;在高斯图像金字塔中,相邻层的像素值缩放比例的1.3。
通过构建不同分辨率下的图像进行特征匹配,解决单一像素点无法识别的问题,解决fast特征点检测不具备尺度性的缺陷。
步骤B:对参考图像和待匹配图像的高斯图像金字塔中的每一层图像分别以四边形模型进行FAST特征点检测,具体方法为:
参考图2,以待测像素点为中心,间隔一个像素点构建方形区域,去除处于方形区域四角的像素点,对方形区域四边剩下的12个像素点从1开始顺次编号,如果有连续9个像素点满足|IP-IN|>T,则该待测像素点为特征点,其中,IP为待测像素点的灰度值,IN为第方形区域中第N个像素点的灰度值,T为灰度阈值,遍历图像得到所有特征点。对于图像边角的像素点,由于其无法构造出这样的方形区域,因此认为不满足特征点条件。
本实施例通过间隔构建方形区域,在保持单次检测点总数基本不变的情况下,显著扩大检测范围,提高算法运行速度。
优选的,在FAST特征点检测前,还包括对待测像素点进行预操作的步骤,所述预操作的方法为:在方形区域上等间隔的选取4个像素点进行检测,如果有至少三个像素点满足|IP-IN|>T,则对该待检测点执行FAST特征点检测,如果少于三个像素点满足|IP-IN|>T,则对下一个待检测点进行预操作。如图2所示,本实施例中以待检测像素点同一行和同一列的四个像素点进行预操作,通过预操作,能够进一步降低算法运算量,提高处理速度。
步骤C:对提取的特征点周围图像区域采用BRIEF描述子进行描述,具体方法为:
以特征点为中心,取S×S的邻域窗口,在邻域窗口内满足高斯分布
Figure BDA0002853387620000081
的像素点中随机选取两个像素点i和j,则
Figure BDA0002853387620000082
获取128对像素点的BRIEF描述子数值,得到该特征点的128维向量。
计算BRIEF描述子之前,对图像进行高斯滤波降噪,所述高斯滤波的方差为2,S=9,即邻域窗口尺寸为9×9。
步骤D:基于BRIEF描述子对参考图像和待匹配图像进行暴力匹配;
所述的暴力匹配方法为:
设置汉明距离的阈值,对参考图像中的其中一个特征点,计算与待匹配图像中的所有未匹配特征点的汉明距离,在汉明距离小于阈值的未匹配特征点中,取汉明距离最小的未匹配特征点与参考图像的特征点进行匹配,直到匹配完成参考图像或待匹配图像中的所有特征点。
步骤E:对误匹配的特征点进行筛选,基于筛选结果将匹配的特征点对应到原始参考图像和待匹配图像。
本实施例利用PROSAC算法筛选误匹配的特征点,包括以下步骤:
步骤i:输入最大迭代次数Im、内点阈值ε和内点个数阈值T,参考图像的特征点集合{uj,j∈[1,N]},迭代次数I=1,内点个数t=0;
步骤ii:计算参考图像所有特征点的评价函数Q,按评价函数Q降序排列集合{uj}中的所有特征点得到集合{ζκ|κ∈[1,N]};
所述评价函数的计算方法为:
Figure BDA0002853387620000083
Figure BDA0002853387620000084
Figure BDA0002853387620000091
其中,hj1,hj2分别为参考图像上的特征点uj与匹配图像上的所有特征点的最小汉明距离和次小汉明距离,评价函数数值越大,该特征点的匹配效果越好;
步骤iii:每四个特征点分为一组,取第一组特征点计算单应矩阵H,令κ=5;
计算单应矩阵H的方法为:
定义参考图像上的两个特征点ui和uj在待匹配图像上对应的匹配特征点分别为pi和pj;P为某个平面上的一点,假设该平面满足:
nTP+d=0
其中,nT为平面法向量,d为相机中心距平面的距离,则
Figure BDA0002853387620000092
根据针孔相机模型,两个匹配像素点pi和pj的像素位置为:
sipi=KP
sjpj=K(RP+t)
其中,K为相机内参矩阵,R,t为两个坐标系的相机运动,s为点P在Z轴的坐标;
在使用齐次坐标表示像素点时,一个向量将等于它自身乘上任意的非零整数,sipi和pi成投影关系,他们在齐次坐标的意义下是相等的,这种相等关系为尺度意义下相等:
Figure BDA0002853387620000093
Figure BDA0002853387620000094
令单应矩阵
Figure BDA0002853387620000095
得到
Figure BDA0002853387620000101
单应矩阵H为一个3*3的矩阵,根据匹配特征点pi和pj计算H,得到
Figure BDA0002853387620000102
其中,w为像素点在x轴上的坐标,v为像素点在y轴上的坐标;
令h9=1,得到
Figure BDA0002853387620000103
Figure BDA0002853387620000104
整理后得到
h1w1+h2v1+h3-h7w1w2-h8v1w2=w2
h4w1+h5v1+h6-h7w1v2-h8v1v2=v2
由此可知,一组特征点和匹配特征点能够构造两项约束,自由度为8的单应矩阵,需要通过4对特征点和匹配特征点进行计算,即
Figure BDA0002853387620000105
得到单应矩阵
Figure BDA0002853387620000111
步骤iv:基于单应矩阵H计算集合{ζκ}中的第κ个特征点ζκ对应的匹配特征点的估计位置及与匹配特征点的误差eκ,如果eκ<ε,则特征点ζκ为内点,t=t+1,否则为外点;
匹配特征点的估计位置的计算方法为:
Figure BDA0002853387620000112
误差计算方法为:
eκ=d(pκ,p′κ)
d(pκ,p′κ)表示匹配特征点pκ与估计匹配特征点p′κ的汉明距离;
步骤v:如果t<T,则跳转vi,否则转至vii;步骤vi:如果κ<N,则κ=κ+1,I=I+1,转至在步骤iv,否则结束计算;
步骤vii:如果I≤Im,则以t个内点更新单应矩阵H并输出,否则结束计算。
如果遍历所有特征点无法得到T个符合要求的内点,则说明两张图像匹配效果非常差,匹配失败,同样,如果最终得到T个内点时,已经超过了迭代次数阈值,即认为最终选出的内点的评价函数已经很差了,也认为匹配失败,即定位失败,无法基于当前的参考图像对待匹配图像进行匹配定位。
筛选后的特征点可能分布在高斯图像的不同层上,将其映射到原始图像上得到匹配后的图像,经过匹配点筛选前后的比较参考图3和图4,误匹配筛选后,错误匹配的特征点被删除,以筛选后的匹配关系计算位姿变化,计算位姿变化的方法为现有技术,本领域技术人员根据场景选择合适的方法即可,如单目相机可选用三角测量法,立体相机或RGB-D相机使用PNP或者ICP的方法计算。
以上实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围。

Claims (10)

1.一种基于特征点检测和误匹配筛选的机器人视觉定位方法,其特征在于:包括以下步骤:
步骤A:分别对参考图像和待匹配图像构建高斯图像金字塔;
步骤B:对参考图像和待匹配图像的高斯图像金字塔中的每一层图像分别以四边形模型进行FAST特征点检测;
步骤C:对提取的特征点基于邻域像素值构建BRIEF描述子;
步骤D:基于BRIEF描述子对参考图像和待匹配图像的高斯图像金字塔中的所有特征点进行暴力匹配;
步骤E:对误匹配的特征点进行筛选,基于筛选结果将匹配的特征点对应到原始参考图像和待匹配图像。
2.根据权利要求1所述的一种基于特征点检测和误匹配筛选的机器人视觉定位方法,其特征在于:步骤A所述的构建高斯金字塔的方法为:以原始图像作为金字塔底层图像,对原始图像通过高斯滤波进行降噪,然后对像素值逐级缩放,得到六层高斯图像金字塔;高斯图像金字塔中,相邻层图像的像素值缩放比例为1.3。
3.根据权利要求2所述的一种基于特征点检测和误匹配筛选的机器人视觉定位方法,其特征在于:步骤B中所述的FAST特征点检测的方法为:
以待测像素点为中心,间隔一个像素点构建方形区域,去除处于方形区域四角的像素点,对方形区域四边剩下的12个像素点从1开始顺次编号,如果有连续9个像素点满足|IP-IN|>T,则该待测像素点为特征点,其中,IP为待测像素点的灰度值,IN为方形区域中第N个像素点的灰度值,T为灰度阈值,遍历图像得到所有特征点。
4.根据权利要求3所述的一种基于特征点检测和误匹配筛选的机器人视觉定位方法,其特征在于:在FAST特征点检测前,还包括对待测像素点进行预操作的步骤,所述预操作的方法为:在方形区域上等间隔的选取4个像素点进行检测,如果有至少三个像素点满足|IP-IN|>T,则对该待检测点执行FAST特征点检测,如果少于三个像素点满足|IP-IN|>T,则对下一个待检测点进行预操作。
5.根据权利要求3所述的一种基于特征点检测和误匹配筛选的机器人视觉定位方法,其特征在于:步骤C所述的使用BRIEF描述子描述特征点的方法为:以特征点为中心,取S×S的邻域窗口,在邻域窗口内满足高斯分布
Figure FDA0002853387610000011
的像素点中随机选取两个像素点i和j,则
Figure FDA0002853387610000021
获取128对像素点的BRIEF描述子数值,得到该特征点的128维向量;
计算BRIEF描述子之前,对图像进行高斯滤波降噪,所述高斯滤波的方差为2,S=9,即邻域窗口尺寸为9×9。
6.根据权利要求5所述的一种基于特征点检测和误匹配筛选的机器人视觉定位方法,其特征在于:步骤D所述的暴力匹配方法为:
设置汉明距离的阈值,对参考图像中的其中一个特征点,计算与待匹配图像中的所有未匹配特征点的汉明距离,在汉明距离小于阈值的未匹配特征点中,取汉明距离最小的未匹配特征点与参考图像的特征点进行匹配,依次对参考图像中的所有特征点进行暴力匹配,直到匹配完成参考图像或待匹配图像中的所有特征点。
7.根据权利要求6所述的一种基于特征点检测和误匹配筛选的机器人视觉定位方法,其特征在于:步骤D中利用PROSAC算法筛选误匹配的特征点,包括以下步骤:
步骤i:输入最大迭代次数Im、内点阈值ε和内点个数阈值T,参考图像的特征点集合{uj,j∈[1,N]},迭代次数I=1,内点个数t=0;
步骤ii:计算参考图像所有特征点的评价函数Q,按评价函数Q降序排列集合{uj}中的所有特征点得到集合{ζκ|κ∈[1,N]};
步骤iii:每四个特征点分为一组,取第一组特征点计算单应矩阵H,令κ=5;
步骤iv:基于单应矩阵H计算集合{ζκ}中的第κ个特征点ζκ对应的匹配特征点的估计位置及与匹配特征点的误差eκ,如果eκ<ε,则特征点ζκ为内点,t=t+1,否则为外点;
步骤v:如果t<T,则跳转vi,否则转至vii;
步骤vi:如果κ<N,则κ=κ+1,I=I+1,转至在步骤iv,否则结束计算;
步骤vii:如果I≤Im,则以t个内点更新单应矩阵H并输出,否则结束计算。
8.根据权利要求7所述的一种基于特征点检测和误匹配筛选的机器人视觉定位方法,其特征在于:所述评价函数的计算方法为:
Figure FDA0002853387610000031
Figure FDA0002853387610000032
Figure FDA0002853387610000033
其中,hj1,hj2分别为参考图像上的特征点uj与匹配图像上的所有特征点的最小汉明距离和次小汉明距离,评价函数数值越大,该特征点的匹配效果越好。
9.根据权利要求7所述的一种基于特征点检测和误匹配筛选的机器人视觉定位方法,其特征在于:步骤iii中通过特征点计算单应矩阵H的方法为:
定义参考图像上的两个特征点ui和uj在待匹配图像上对应的匹配特征点分别为pi和pj;P为某个平面上的一点,假设该平面满足:
nTP+d=0
其中,nT为平面法向量,d为P点距平面的距离,则
Figure FDA0002853387610000034
根据针孔相机模型,两个匹配像素点pi和pj的像素位置为:
sipi=KP
sjpj=K(RP+t)
其中,K为相机内参矩阵,R,t为两个坐标系的相机运动,s为点P在Z轴的坐标;
在使用齐次坐标表示像素点时,一个向量将等于它自身乘上任意的非零整数,sipi和pi成投影关系,他们在齐次坐标的意义下是相等的,这种相等关系为尺度意义下相等:
Figure FDA0002853387610000035
Figure FDA0002853387610000041
令单应矩阵
Figure FDA0002853387610000042
得到
Figure FDA0002853387610000043
单应矩阵H为一个3*3的矩阵,根据匹配特征点pi和pj计算H,得到
Figure FDA0002853387610000044
令h9=1,得到
Figure FDA0002853387610000045
Figure FDA0002853387610000046
整理后得到
h1w1+h2v1+h3-h7w1w2-h8v1w2=w2
h4w1+h5v1+h6-h7w1v2-h8v1v2=v2
由此可知,一组特征点和匹配特征点能够构造两项约束,自由度为8的单应矩阵,需要通过4对特征点和匹配特征点进行计算,即
Figure FDA0002853387610000051
得到单应矩阵
Figure FDA0002853387610000052
则匹配特征点的估计位置的计算方法为:
Figure FDA0002853387610000053
10.根据权利要求9所述的一种基于特征点检测和误匹配筛选的机器人视觉定位方法,其特征在于:步骤iv中匹配特征点的误差计算方法为:
eκ=d(pκ,p′κ)
d(pκ,p′κ)表示匹配特征点pκ与估计匹配特征点p′κ的汉明距离。
CN202011543458.3A 2020-12-23 2020-12-23 基于特征点检测和误匹配筛选的机器人视觉定位方法 Withdrawn CN112562000A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011543458.3A CN112562000A (zh) 2020-12-23 2020-12-23 基于特征点检测和误匹配筛选的机器人视觉定位方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011543458.3A CN112562000A (zh) 2020-12-23 2020-12-23 基于特征点检测和误匹配筛选的机器人视觉定位方法

Publications (1)

Publication Number Publication Date
CN112562000A true CN112562000A (zh) 2021-03-26

Family

ID=75031961

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011543458.3A Withdrawn CN112562000A (zh) 2020-12-23 2020-12-23 基于特征点检测和误匹配筛选的机器人视觉定位方法

Country Status (1)

Country Link
CN (1) CN112562000A (zh)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113419249A (zh) * 2021-06-18 2021-09-21 珠海市一微半导体有限公司 一种重定位方法、芯片和移动机器人
CN113435530A (zh) * 2021-07-07 2021-09-24 腾讯科技(深圳)有限公司 图像识别方法、装置、计算机设备及计算机可读存储介质
CN113942013A (zh) * 2021-11-02 2022-01-18 杭州迁移科技有限公司 基于数据可视化的快速手眼标定方法及系统
CN114782701A (zh) * 2022-03-15 2022-07-22 广东科学技术职业学院 时序地标图像特征匹配方法、装置、电子设备及介质
CN115393432A (zh) * 2022-08-11 2022-11-25 安徽工程大学 消除静态特征误匹配的机器人定位方法、存储介质及设备

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107220995A (zh) * 2017-04-21 2017-09-29 西安交通大学 一种基于orb图像特征的icp快速点云配准算法的改进方法
CN108010045A (zh) * 2017-12-08 2018-05-08 福州大学 基于orb的视觉图像特征点误匹配提纯方法
CN108388854A (zh) * 2018-02-11 2018-08-10 重庆邮电大学 一种基于改进fast-surf算法的定位方法
CN110414534A (zh) * 2019-07-01 2019-11-05 深圳前海达闼云端智能科技有限公司 图像特征的提取方法、装置、存储介质和电子设备
CN110414533A (zh) * 2019-06-24 2019-11-05 东南大学 一种改进orb的特征提取与匹配方法
CN111667506A (zh) * 2020-05-14 2020-09-15 电子科技大学 一种基于orb特征点的运动估计方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107220995A (zh) * 2017-04-21 2017-09-29 西安交通大学 一种基于orb图像特征的icp快速点云配准算法的改进方法
CN108010045A (zh) * 2017-12-08 2018-05-08 福州大学 基于orb的视觉图像特征点误匹配提纯方法
CN108388854A (zh) * 2018-02-11 2018-08-10 重庆邮电大学 一种基于改进fast-surf算法的定位方法
CN110414533A (zh) * 2019-06-24 2019-11-05 东南大学 一种改进orb的特征提取与匹配方法
CN110414534A (zh) * 2019-07-01 2019-11-05 深圳前海达闼云端智能科技有限公司 图像特征的提取方法、装置、存储介质和电子设备
CN111667506A (zh) * 2020-05-14 2020-09-15 电子科技大学 一种基于orb特征点的运动估计方法

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
丁荣涛: "基于FPGA的ORB图像特征提取算法研究", 《中国优秀硕士学位论文全文数据库信息科技辑》 *
柳杨, 《北京邮电大学出版社》 *
贾瑞兴: "语义 SLAM 算法的研究", 《中国优秀硕士学位论文全文数据库信息科技辑》 *
雷思文 等: "基于ORB 和改进 RANSAC的无人机遥感图像配准算法", 《黑龙江大学自然科学学报》 *

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113419249A (zh) * 2021-06-18 2021-09-21 珠海市一微半导体有限公司 一种重定位方法、芯片和移动机器人
CN113435530A (zh) * 2021-07-07 2021-09-24 腾讯科技(深圳)有限公司 图像识别方法、装置、计算机设备及计算机可读存储介质
CN113435530B (zh) * 2021-07-07 2023-10-10 腾讯科技(深圳)有限公司 图像识别方法、装置、计算机设备及计算机可读存储介质
CN113942013A (zh) * 2021-11-02 2022-01-18 杭州迁移科技有限公司 基于数据可视化的快速手眼标定方法及系统
CN114782701A (zh) * 2022-03-15 2022-07-22 广东科学技术职业学院 时序地标图像特征匹配方法、装置、电子设备及介质
CN115393432A (zh) * 2022-08-11 2022-11-25 安徽工程大学 消除静态特征误匹配的机器人定位方法、存储介质及设备

Similar Documents

Publication Publication Date Title
CN111462200B (zh) 一种跨视频行人定位追踪方法、系统及设备
CN112562000A (zh) 基于特征点检测和误匹配筛选的机器人视觉定位方法
CN111563442B (zh) 基于激光雷达的点云和相机图像数据融合的slam方法及系统
Walch et al. Image-based localization using lstms for structured feature correlation
US11205298B2 (en) Method and system for creating a virtual 3D model
CN113168717B (zh) 一种点云匹配方法及装置、导航方法及设备、定位方法、激光雷达
KR101532864B1 (ko) 모바일 디바이스들에 대한 평면 맵핑 및 트래킹
CN109903372B (zh) 深度图超分辨率补全方法及高质量三维重建方法与系统
CN114424250A (zh) 结构建模
Vidas et al. Real-time mobile 3D temperature mapping
EP3293700B1 (en) 3d reconstruction for vehicle
CN112784873A (zh) 一种语义地图的构建方法及设备
CN111524168A (zh) 点云数据的配准方法、系统、装置及计算机存储介质
CN113407027B (zh) 位姿获取方法及装置和电子设备、存储介质
CN111144213A (zh) 一种对象检测方法和相关设备
Fiala et al. Robot navigation using panoramic tracking
CN114022560A (zh) 标定方法及相关装置、设备
CN114179788A (zh) 自动泊车方法、系统、计算机可读存储介质及车机端
CN115393538A (zh) 基于深度学习的室内动态场景的视觉slam方法及系统
Fielding et al. Weighted matchings for dense stereo correspondence
CN111402429B (zh) 一种尺度还原、三维重建方法、系统、存储介质及设备
CN113487631A (zh) 基于lego-loam的可调式大角度探测感知及控制方法
WO2024032101A1 (zh) 特征地图生成方法、装置、存储介质和计算机设备
CN117726747A (zh) 补全弱纹理场景的三维重建方法、装置、存储介质和设备
Rosinol Densifying sparse vio: a mesh-based approach using structural regularities

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
WW01 Invention patent application withdrawn after publication

Application publication date: 20210326

WW01 Invention patent application withdrawn after publication