CN107704867A - 一种视觉定位中基于衡量因子的图像特征点误匹配剔除方法 - Google Patents

一种视觉定位中基于衡量因子的图像特征点误匹配剔除方法 Download PDF

Info

Publication number
CN107704867A
CN107704867A CN201710737107.8A CN201710737107A CN107704867A CN 107704867 A CN107704867 A CN 107704867A CN 201710737107 A CN201710737107 A CN 201710737107A CN 107704867 A CN107704867 A CN 107704867A
Authority
CN
China
Prior art keywords
point
image
characteristic point
user
input picture
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201710737107.8A
Other languages
English (en)
Inventor
马琳
谭竞扬
谭学治
杨浩
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Harbin Institute of Technology
Original Assignee
Harbin Institute of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Harbin Institute of Technology filed Critical Harbin Institute of Technology
Priority to CN201710737107.8A priority Critical patent/CN107704867A/zh
Publication of CN107704867A publication Critical patent/CN107704867A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • G06F18/232Non-hierarchical techniques
    • G06F18/2321Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
    • G06F18/23213Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions with fixed number of clusters, e.g. K-means clustering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2411Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines

Landscapes

  • Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Probability & Statistics with Applications (AREA)
  • Image Analysis (AREA)

Abstract

一种视觉定位中基于衡量因子的图像特征点误匹配剔除方法,本发明涉及图像特征点误匹配剔除方法。本发明的目的是为了解决传统RANSAC算法存在计算复杂度较高、耗时较长,误匹配剔除效果差的问题。过程为:一:离线阶段:建立数据库;二:得到训练好的分类器;三:在线阶段:得到匹配后的标出特征点的两张图像;四:应用改进的RANSAC算法,将匹配后的标出特征点的两张图像进行误匹配特征点对剔除;五:利用对极几何以及步骤四得到的剔除误匹配特征点对后的数据库图像所处地理位置坐标,对得到的剔除误匹配特征点对后的用户输入图像进行定位。本发明用于图像处理领域。

Description

一种视觉定位中基于衡量因子的图像特征点误匹配剔除方法
技术领域
本发明涉及图像特征点误匹配剔除方法。
背景技术
现有的图像特征点误匹配剔除算法一般采用RANSAC算法。RANSAC算法(如图3):由于特征点提取时存在一定的精度误差,提取出的特征点会比求解方程式所需的多很多。另外,自动提取和匹配得到的匹配点集中也难免存在一些误匹配点,因此需要一种容错能力很强的算法来优化匹配点集。本文使用RANSAC算法剔除匹配质量较差的点。RANSAC算法要求在一定的置信概率P(一般设为0.99)下,L组抽样中至少有一组数据全是内点,L可由式(3)求得。
其中ε为内点所占的比例,m为计算模型参数所需最小数据量。在用RANSAC算法求解变换矩阵时要判断一对匹配点是否为符合模型的内点。指定一个阈值δ,当对应匹配点的对称变换误差d小于该阈值时,认为这对匹配点是符合模型的内点。RANSAC算法的具体步骤如下:
(1)随机选择求解单应性矩阵的4对特征点,计算当前的参数矩阵Hi
(2)对由特征匹配得到的假定对应点,使用Hi计算其对称变换误差d,统计误差d<δ的内点的个数e;
(3)若e>E,或者e=E(E为提前设定的内点个数阈值),则认为Hi是当前最好的模型H=Hi,并且保存内点,用该内点集重新计算参数矩阵H。若e<E则重复(2)(3)直到e>E。
(4)计算循环次数,如果循环次数大于L则退出,说明两幅图片不匹配。
传统RANSAC算法存在计算复杂度较高、耗时较长的问题。尤其当图像相似度较低、内点比例较低的时候耗时较长,误匹配剔除效果差。
发明内容
本发明的目的是为了解决传统RANSAC算法存在计算复杂度较高、耗时较长,误匹配剔除效果差的问题,而提出一种视觉定位中基于衡量因子的图像特征点误匹配剔除方法。
一种视觉定位中基于衡量因子的图像特征点误匹配剔除方法具体过程为:
步骤一:离线阶段:利用多媒体移动采集平台中的手机采集视频,记录视频中图像信息以及图像所处地理位置坐标,根据图像信息以及图像所处地理位置坐标建立数据库;
多媒体移动采集平台包括小车,小车下部承载充电电池,上部可以承载笔记本电脑、手机、工业摄像头、以及西科激光雷达,利用视觉惰性的原理,将拍摄到的照片一帧帧播放形成视频,从而实现边录制边移动的功能;
步骤二:用SURF算法提取数据库中图像的特征信息,将特征信息进行K-means聚类,聚类后对每张图像编码产生对应的视觉直方图,用支持向量机(SVM)对视觉直方图进行训练,得到训练好的分类器;
SURF算法为加速稳健特征算法;
K-means为K均值聚类;
步骤三:在线阶段:用训练好的分类器对用户输入图像进行分类,将分类后的用户输入图像与数据库中对应类别图像用SURF算法进行特征点提取,根据提取的特征点将分类后的用户输入图像与数据库中对应类别图像进行匹配,得到匹配后的标出特征点的两张图像;
用户输入图像和数据库中图像在同一采集环境中采集;
步骤四:应用改进的RANSAC算法,将匹配后的标出特征点的两张图像进行误匹配特征点对剔除,得到剔除误匹配特征点对后的用户输入图像和数据库图像;
RANSAC算法为随机抽样一致性算法;
步骤五:利用对极几何以及步骤四得到的剔除误匹配特征点对后的数据库图像所处地理位置坐标,对步骤四得到的剔除误匹配特征点对后的用户输入图像进行定位。
本发明的有益效果为:
本发明引入了衡量因子,用于体现匹配特征点对的质量,在RANSAC算法中只提取质量较好的匹配特征点对进行参数模型的计算。在保持传统RANSAC算法鲁棒性的同时提高了RANSAC算法的效率,利用本发明方法只需在前期进行匹配特征点对质量的比较,而减少了算法的迭代次数,降低了计算复杂度,减少了算法的时间消耗。由于本发明算法中所选取的特征点匹配对为质量最好的四对匹配点,由它们计算出的参数模型在误匹配点剔除效果上表现更好。结合表1得出原始方法平均定位时间为2.76s,本发明方法平均定位时间为1.58s;表2得出原始方法平均定位误差为1.6325m,本发明方法平均定位误差为1.7543m。从表1、表2可以看出基于改进RANSAC算法的定位在保证了一定定位精度的同时,将定位的时间消耗降低到传统定位算法的57%。
如图7a第1组图片利用传统RANSAC方法的迭代次数为7次,采用本发明迭代次数为1次;第2组图片利用传统RANSAC方法的迭代次数为1.3次,采用本发明迭代次数为1次;第3组图片利用传统RANSAC方法的迭代次数为3次,采用本发明迭代次数为1次;第4组图片利用传统RANSAC方法的迭代次数为2次,采用本发明迭代次数为1次;第5组图片利用传统RANSAC方法的迭代次数为1次,采用本发明迭代次数为1次;第6组图片利用传统RANSAC方法的迭代次数为2.2次,采用本发明迭代次数为1次;得出本发明方法减少了算法的迭代次数,降低了计算复杂度。如图7b第1组图片利用传统RANSAC方法的时间消耗为0.26s,采用本发明时间消耗为0.11s;第2组图片利用传统RANSAC方法的时间消耗为0.18s,采用本发明时间消耗为0.16s;第3组图片利用传统RANSAC方法的时间消耗为0.17s,采用本发明时间消耗为0.33s;第4组图片利用传统RANSAC方法的时间消耗为0.17s,采用本发明时间消耗为0.18s;第5组图片利用传统RANSAC方法的时间消耗为0.17s,采用本发明时间消耗为0.18s;第6组图片利用传统RANSAC方法的时间消耗为0.25s,采用本发明时间消耗为0.18s;得出本发明方法减少了算法的时间消耗。
附图说明
图1是本发明中多媒体移动采集平台的结构示意图,图中:1-滑轮、2-底板、3-立杆、4-摄像头安装件、5-抽屉,抽屉5上部用于承载电脑、雷达等,底板上部可以承载电池等;
图2是SVM对二维特征向量分类示意图;
图3是传统RANSAC算法流程图;
图4是改进RANSAC算法流程图;
图5是六类样本标签分布方式示意图;
图6a为类别1中图像的视觉直方图;
图6b为类别2中图像的视觉直方图;
图6c为类别3中图像的视觉直方图;
图6d为类别4中图像的视觉直方图;
图6e为类别5中图像的视觉直方图;
图6f为类别6中图像的视觉直方图;
图7a为RANSAC算法与改进的RANSAC算法的平均取样迭代次数对比图;
图7b为RANSAC算法与改进的RANSAC算法的平均时间消耗对比图。
具体实施方式
具体实施方式一:本实施方式的一种视觉定位中基于衡量因子的图像特征点误匹配剔除方法具体过程为:
步骤一:离线阶段:利用多媒体移动采集平台中的手机采集视频,记录视频中图像信息以及图像所处地理位置坐标,根据图像信息以及图像所处地理位置坐标建立数据库;
多媒体移动采集平台包括小车,小车下部承载充电电池,上部可以承载笔记本电脑、手机、工业摄像头、以及西科激光雷达,利用视觉惰性的原理,将拍摄到的照片一帧帧播放形成视频,从而实现边录制边移动的功能;
步骤二:用SURF算法提取数据库中图像的特征信息,将特征信息进行K-means聚类,聚类后对每张图像编码产生对应的视觉直方图,用支持向量机(SVM)对视觉直方图进行训练,得到训练好的分类器;
SURF算法为加速稳健特征算法;
K-means为K均值聚类;
步骤三:在线阶段:用训练好的分类器对用户输入图像进行分类,将分类后的用户输入图像与数据库中对应类别图像用SURF算法进行特征点提取,根据提取的特征点将分类后的用户输入图像与数据库中对应类别图像进行匹配,得到匹配后的标出特征点的两张图像;
两张图像为分类后的用户输入图像与数据库中对应类别图像匹配后的用户输入图像和数据库图像;
用户输入图像和数据库中图像在同一采集环境中采集;
步骤四:应用改进的RANSAC算法,将匹配后的标出特征点的两张图像进行误匹配特征点对剔除,得到剔除误匹配特征点对后的用户输入图像和数据库图像;
RANSAC算法为随机抽样一致性算法;
步骤五:利用对极几何以及步骤四得到的剔除误匹配特征点对后的数据库图像所处地理位置坐标,对步骤四得到的剔除误匹配特征点对后的用户输入图像进行定位。
1)多媒体移动采集平台(如图1):设计一个多媒体移动图像采集设备并制作。设备设计图如图1所示,小车下部可以承载充电电池,上部可以承载笔记本电脑、手机、工业摄像头、以及西科激光雷达,利用人眼惰性的原理,将拍摄到的照片一帧帧播放形成视频,从而实现边录制边移动的功能。
2)视觉词袋:在图像处理时需要尽可能简明高效地表达图像的特征,即利用某种映射或变换将图像高维的特征空间用低维的特征空间来表述,然后再从特征空间中选择若干向量集合作为特征来表示整个图像。视觉词袋是一种将图像高维特征转化为表示图像中特征出现概率的低维特征的算法,其定义为“基于独立特征的直方图表达”。建立视觉词袋模型的关键步骤是将代表图像块的特征描述子转换为视觉词(类比于文本文档中的词语),而后由这些视觉词的集合构成视觉词袋(类比于一个词典)。视觉词可被认为是对一些相似的图像块进行分类所得结果的代表,在一幅图像中,每个图像块通过聚类过程被映射为一个特定的视觉词,从而该图像可以由视觉词的直方图来表示。该过程可以通过如下的数学语言来叙述:
图像块x是一幅图像的基本单元,若将视觉词袋中的所有视觉词依次编号为{1,…,t,…,T},那么x可由一个其中只有某个元素为1而其余元素均为0的T维向量来表示,从而视觉词袋中的第t个视觉词可以表示为xt=1,此外对v≠t有xv=0。
一幅图像是由N个图像块构成的序列,记为X=(x1,x2,…,xN),其中xi是图像的第i个图像块;X代表由N个图像块构成的序列;
对从全部图像中得到的图像块集合{xi}进行分类,以朴素贝叶斯分类器为例,分类决策可以由式(1)描述:
其中c表示特征的类别标签。实际上,朴素贝叶斯分类器只是在有关视觉词袋模型的早期研究中用到的一种最简单的分类方法。对于给定的图像样本集,分类器也可以通过聚类或学习等其它方式来得到。
3)支持向量机:支持向量机,即SVM算法是一种基于结构风险最小化原理的非线性数据处理方法。SVM算法在样本非线性的情况下表现较好,即算法复杂度取决于支持向量机的数目而避免了高维特征空间带来的巨大数据量,能够避免局部极值问题从而得到全局最优解。如图2以最简单的两种类别的先行分割为例。其中H为分类线,H1和H2分别为过各类中离分类线最近的样本且平行于分类线的直线,他们之间的距离叫做分类间隔。最优分类线,就是要求分类线不但能将两类正确分开,而且使分类间隔最大。
4)SURF特征的提取:SURF特征提取的第一步是尺度空间极值检测,SURF在进行特征点极值检测时需要先构建尺度空间金字塔并且确定候选极值点。进行多尺度空间构建时,SURF算法使用的是盒子滤波器,并且在进行图像卷积的过程中应用了积分图像的技巧。通过改变盒子滤波器的大小,用不同大小的滤波器在原始图像的x,y,z三个方向上做卷积,即可形成多尺度空间函数Dxx,Dxy,Dyy,构建尺度空间金字塔。在尺度空间金字塔构建完毕后,需要求取某一特定尺度下的局部极值。在得到局部极值后,需要对它们在3×3×3的立体邻域内进行非极大值抑制,把符合条件的点筛选为候选极值点,同时记下位置和尺寸。在确定特征点位置之后,为了保证特征点的旋转和尺度不变性,需要利用haar小波对特征点进行主方向的确定。在检测到SURF特征之后,接下来要做的就是进行特征匹配。特征匹配是指在高维向量空间中寻找出最相似的特征向量。特征点的相似度是根据特征向量之间的欧式距离来衡量的。基于最近邻与次近邻比的特征点匹配方法是指在图像的样本特征点中,寻找与它距离最近和次近的特征点,然后计算这两个特征点与样本点之间欧式距离的比值。对于比值小于某阈值的特征点,则认为是正确匹配的特征点,否则是错误匹配的特征点。公式(2)如下:
为判定为特征点的阈值;r为特征点之间最小欧氏距离与次小欧式距离的比值;dmin为特征点之间的最小欧氏距离,d′min为特征点之间的次小欧氏距离;
5)RANSAC算法(如图3):由于特征点提取时存在一定的精度误差,提取出的特征点会比求解方程式所需的多很多。另外,自动提取和匹配得到的匹配点集中也难免存在一些误匹配点,因此需要一种容错能力很强的算法来优化匹配点集。本文使用RANSAC算法剔除匹配质量较差的点。RANSAC算法要求在一定的置信概率P(一般设为0.99)下,L组抽样中至少有一组数据全是内点,L可由式(3)求得。
其中ε为内点所占的比例,m为计算模型参数所需最小数据量,在本发明中m=4;在用RANSAC算法求解变换矩阵时要判断一对匹配点是否为符合模型的内点。L为RANSAC的迭代次数;m′为用符合条件的参数矩阵计算出的内点;
指定一个阈值δ,当对应匹配点的对称变换误差d小于该阈值时,认为这对匹配点是符合模型的内点。RANSAC算法的具体步骤如下:
δ为内点误差门限;
(1)随机选择求解单应性矩阵的4对特征点,计算当前的参数矩阵Hi;(2)对由特征匹配得到的假定对应点,使用Hi计算其对称变换误差d,统计误差d<δ的内点的个数e;d为对称变换误差,即特征点用参数矩阵H计算的匹配点与实际匹配点之间的欧氏距离;(3)若e>E,或者e=E(E为提前设定的内点个数阈值),则认为Hi是当前最好的模型H=Hi,并且保存内点,用该内点集重新计算参数矩阵H。若e<E则重复(2)(3)直到e>E。Hi为迭代i次时的参数矩阵,大小3×3;H为最优参数矩阵,大小3×3(在RANSAC算法中表示投影矩阵);(4)计算循环次数,如果循环次数大于L则退出,说明两幅图片不匹配。
6)RANSAC改进算法(如图4):RANSAC算法迭代次数多,耗时长的原因是由于随机取样过程中无法一次性取得内点。因此本发明在RANSAC算法的基础上引入衡量因子η,用于衡量一对SURF特征点是内点的可能性大小。改进算法的流程图如图4。
具体实施方式二:本实施方式与具体实施方式一不同的是:所述步骤四中应用改进的RANSAC算法,将匹配后的标出特征点的两张图像进行误匹配特征点对剔除,得到剔除误匹配特征点对后的用户输入图像和数据库图像;具体过程为:
步骤四一、设定一个衡量因子
其中ri表示用户输入图像中第i个特征点与数据库图像中所有特征点的最小欧式距离与次小欧氏距离的比值(若有重复值取重复值中任意一个),di,min表示用户输入图像中第i个特征点与数据库图像中所有特征点的最小欧式距离(若有重复值取重复值中任意一个);
步骤四二、取最大的前4个ηi值(若有重复值取重复值中任意一个),找到用户输入图像中第i个特征点与数据库图像中特征点匹配最好的四对匹配点,根据四对匹配点的坐标计算投影矩阵H,根据投影矩阵H计算内点数目e,如果e≥E则根据e个内点重新计算新的投影矩阵H′以及新的内点;
内点为输入图像中第i个特征点与数据库图像中第i个特征点匹配对;
新的内点为剔除误匹配特征点对的输入图像中第i个特征点与数据库图像中第i个特征点匹配对;
如果e<E则匹配后的标出特征点的两张图像不匹配;
E为内点数目阈值。
具体实施方式三:本实施方式与具体实施方式一或二不同的是:所述步骤四二中取最大的前4个ηi值(若有重复值取重复值中任意一个),找到用户输入图像中第i个特征点与数据库图像中特征点匹配最好的四对匹配点,根据四对匹配点的坐标计算投影矩阵H,根据投影矩阵H计算内点数目e,具体过程为:
取最大的前4个ηi值,找到用户输入图像中第i个特征点与数据库图像中特征点匹配最好的四对匹配点,根据四对匹配点的坐标计算投影矩阵H,,根据投影矩阵H计算出用户输入图像中第i个特征点与数据库图像中第i个特征点匹配的特征点的欧式距离,当欧式距离小于内点的误差门限σ时,用户输入图像中第i个特征点与数据库图像中第i个特征点匹配对为内点,当欧式距离大于等于内点的误差门限σ时,用户输入图像中第i个特征点与数据库图像中与第i个特征点匹配对不是内点。
其它步骤及参数与具体实施方式一相同。
具体实施方式四:本实施方式与具体实施方式一至三之一不同的是:所述内点的误差门限σ=(图像像素长+图像像素宽)×0.08。
其它步骤及参数与具体实施方式一至三之一相同。
具体实施方式五:本实施方式与具体实施方式一至四之一不同的是:所述内点数目阈值E=n×0.2;
n为用户输入图像中第i个特征点与数据库图像中第i个特征点匹配对数目。
其它步骤及参数与具体实施方式一至四之一相同。
采用以下实施例验证本发明的有益效果:
实施例一:
本实施例一种视觉定位中基于衡量因子的图像特征点误匹配剔除方法具体是按照以下步骤制备的:
1.在哈尔滨工业大学科学院2A栋12层,推着承多媒体移动采集平台在走廊的中间沿着走廊方向对2A栋12层的环境进行录制。
2.原始图像的像素为640×360,按照帧率把视频分成一帧帧的照片,用把处理好的照片存入文件夹,以备提取SURF特征点时使用。同时,在建立离线数据库的时候我们记录了图片信息,还根据图片对应的帧数计算了其坐标,此外为了图片训练阶段做准备我们还将2A栋12层人为地分为了3个不同的区域如图5所示,并将不同区域记录不同方向的图片分类,一共分成了6类,标签分别设为1,2,3,4,5,6。
3.用SURF算法对数据库的图片进行特征提取,采用K-means算法对全部的特征进行聚类,取k=300,即将这些特征分为300类。对数据库中每一张图片生成视觉直方图,视觉直方图代表了一个图片的特征出现概率的信息。用支持向量机(SVM)对这些视觉直方图进行训练。如图6a、图6b、图6c、图6d、图6e、图6f所示为各类别标签中图像的视觉直方图。
4.在线阶段首先用训练好的SVM分类器对用户输入图像进行分类,这时数据库中用于与用户输入的图片进行匹配的图片范围被缩小到1到6某一类当中,这样就大大缩短了在线阶段的匹配过程。
5.用SURF对用户图片进行特征点提取。将用户图片的某一特征点与数据库中的某一图片的全部特征点计算欧式距离,记录欧氏距离的最小值和次小值,如果最小值与次小值的比小于某一个阈值(我们取的阈值是0.8),则这两个点匹配。遍历用户图片上的所有点,记录匹配点的对数。
6从第五步可以得到与用户匹配点数最多的图片,接下来需要进行误匹配点的剔除。传统的RANSAC算法由于在初次选取的样本点不一定就是内点,造成了迭代次数不稳定,计算复杂度高,耗时长的问题。在这里我们引入了衡量因子其中r代表了特征点之间的最小欧氏距离dmin与次小欧氏距离d′min的比值。优先选取η值较大的四组匹配点计算投影矩阵H。判定为内点的误差门限δ=(640+360)×0.08=80,即当像素距离小于80的时候证明这对匹配点符合H是内点;内点数目阈值E=e×0.2(e表示统计的内点数目),当内点数目大于E的时候证明开始随机取得四对特征点合理。由于我们引入了衡量因子,使得我们首次取的四对特征点很大概率是内点,因此迭代次数大大降低,效率得到提高。其迭代次数、平均时间消耗与传统算法的比较如图7a、图7b所示。
如图7a第1组图片利用传统RANSAC方法的迭代次数为7次,采用本发明改进RANSAC方法的迭代次数为1次;第2组图片利用传统RANSAC方法的迭代次数为1.3次,采用本发明改进RANSAC方法的迭代次数为1次;第3组图片利用传统RANSAC方法的迭代次数为3次,采用本发明改进RANSAC方法的迭代次数为1次;第4组图片利用传统RANSAC方法的迭代次数为2次,采用本发明迭代次数为1次;第5组图片利用传统RANSAC方法的迭代次数为1次,采用本发明迭代次数为1次;第6组图片利用传统RANSAC方法的迭代次数为2.2次,采用本发明迭代次数为1次;得出本发明方法减少了算法的迭代次数,降低了计算复杂度。如图7b第1组图片利用传统RANSAC方法的时间消耗为0.26s,采用本发明改进RANSAC方法的时间消耗为0.11s;第2组图片利用传统RANSAC方法的时间消耗为0.18s,采用本发明改进RANSAC方法的时间消耗为0.16s;第3组图片利用传统RANSAC方法的时间消耗为0.17s,采用本发明时间消耗为0.33s;第4组图片利用传统RANSAC方法的时间消耗为0.17s,采用本发明时间消耗为0.18s;第5组图片利用传统RANSAC方法的时间消耗为0.17s,采用本发明时间消耗为0.18s;第6组图片利用传统RANSAC方法的时间消耗为0.25s,采用本发明时间消耗为0.18s;得出本发明方法减少了算法的时间消耗。
7对经过改进RANSAC算法剔除误匹配点的图片,利用八点法求本质矩阵,并根据本质矩阵求出用户图片坐标与数据库中图片坐标的旋转角度以及平移向量,再利用数据中已知的图片坐标根据旋转角度、平移向量求出用户位置。从表1、表2可以看出基于改进RANSAC算法的定位在保证了一定定位精度的同时,将定位的时间消耗降低到传统定位算法的57%。
表1定位效率对比
参数说明表
本发明还可有其它多种实施例,在不背离本发明精神及其实质的情况下,本领域技术人员当可根据本发明作出各种相应的改变和变形,但这些相应的改变和变形都应属于本发明所附的权利要求的保护范围。

Claims (5)

1.一种视觉定位中基于衡量因子的图像特征点误匹配剔除方法,其特征在于:所述方法具体过程为:
步骤一:离线阶段:采集视频,记录视频中图像信息以及图像所处地理位置坐标,根据图像信息以及图像所处地理位置坐标建立数据库;
步骤二:用SURF算法提取数据库中图像的特征信息,将特征信息进行K-means聚类,聚类后对每张图像编码产生对应的视觉直方图,用支持向量机对视觉直方图进行训练,得到训练好的分类器;
SURF算法为加速稳健特征算法;
K-means为K均值聚类;
步骤三:在线阶段:用训练好的分类器对用户输入图像进行分类,将分类后的用户输入图像与数据库中对应类别图像用SURF算法进行特征点提取,根据提取的特征点将分类后的用户输入图像与数据库中对应类别图像进行匹配,得到匹配后的标出特征点的两张图像;
用户输入图像和数据库中图像在同一采集环境中采集;
步骤四:应用改进的RANSAC算法,将匹配后的标出特征点的两张图像进行误匹配特征点对剔除,得到剔除误匹配特征点对后的用户输入图像和数据库图像;
RANSAC算法为随机抽样一致性算法;
步骤五:利用对极几何以及步骤四得到的剔除误匹配特征点对后的数据库图像所处地理位置坐标,对步骤四得到的剔除误匹配特征点对后的用户输入图像进行定位。
2.根据权利要求1所述一种视觉定位中基于衡量因子的图像特征点误匹配剔除方法,其特征在于:所述步骤四中应用改进的RANSAC算法,将匹配后的标出特征点的两张图像进行误匹配特征点对剔除,得到剔除误匹配特征点对后的用户输入图像和数据库图像;具体过程为:
步骤四一、设定一个衡量因子
其中ri表示用户输入图像中第i个特征点与数据库图像中所有特征点的最小欧式距离与次小欧氏距离的比值,di,min表示用户输入图像中第i个特征点与数据库图像中所有特征点的最小欧式距离;
步骤四二、取最大的前4个ηi值,找到用户输入图像中第i个特征点与数据库图像中特征点匹配最好的四对匹配点,根据四对匹配点的坐标计算投影矩阵H,根据投影矩阵H计算内点数目e,如果e≥E则根据e个内点重新计算新的投影矩阵H′以及新的内点;
内点为输入图像中第i个特征点与数据库图像中第i个特征点匹配对;
新的内点为剔除误匹配特征点对的输入图像中第i个特征点与数据库图像中第i个特征点匹配对;
如果e<E则匹配后的标出特征点的两张图像不匹配;
E为内点数目阈值。
3.根据权利要求2所述一种视觉定位中基于衡量因子的图像特征点误匹配剔除方法,其特征在于:所述步骤四二中取最大的前4个ηi值,找到用户输入图像中第i个特征点与数据库图像中特征点匹配最好的四对匹配点,根据四对匹配点的坐标计算投影矩阵H,根据投影矩阵H计算内点数目e,具体过程为:
取最大的前4个ηi值,找到用户输入图像中第i个特征点与数据库图像中特征点匹配最好的四对匹配点,根据四对匹配点的坐标计算投影矩阵H,根据投影矩阵H计算出用户输入图像中第i个特征点与数据库图像中第i个特征点匹配的特征点的欧式距离,当欧式距离小于内点的误差门限σ时,用户输入图像中第i个特征点与数据库图像中第i个特征点匹配对为内点,当欧式距离大于等于内点的误差门限σ时,用户输入图像中第i个特征点与数据库图像中与第i个特征点匹配对不是内点。
4.根据权利要求3所述一种视觉定位中基于衡量因子的图像特征点误匹配剔除方法,其特征在于:所述内点的误差门限σ=(图像像素长+图像像素宽)×0.08。
5.根据权利要求4所述一种视觉定位中基于衡量因子的图像特征点误匹配剔除方法,其特征在于:所述内点数目阈值E=n×0.2;
n为用户输入图像中第i个特征点与数据库图像中第i个特征点匹配对数目。
CN201710737107.8A 2017-08-24 2017-08-24 一种视觉定位中基于衡量因子的图像特征点误匹配剔除方法 Pending CN107704867A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201710737107.8A CN107704867A (zh) 2017-08-24 2017-08-24 一种视觉定位中基于衡量因子的图像特征点误匹配剔除方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201710737107.8A CN107704867A (zh) 2017-08-24 2017-08-24 一种视觉定位中基于衡量因子的图像特征点误匹配剔除方法

Publications (1)

Publication Number Publication Date
CN107704867A true CN107704867A (zh) 2018-02-16

Family

ID=61171106

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710737107.8A Pending CN107704867A (zh) 2017-08-24 2017-08-24 一种视觉定位中基于衡量因子的图像特征点误匹配剔除方法

Country Status (1)

Country Link
CN (1) CN107704867A (zh)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108921899A (zh) * 2018-07-13 2018-11-30 哈尔滨工业大学 一种基于像素阈值求解基本矩阵的室内视觉定位方法
CN108961322A (zh) * 2018-05-18 2018-12-07 辽宁工程技术大学 一种适用于降落序列影像的误匹配剔除方法
CN110163273A (zh) * 2019-05-14 2019-08-23 西安文理学院 一种基于ransac算法的带有遗传因子的图像匹配方法
CN110738695A (zh) * 2019-10-12 2020-01-31 哈尔滨工业大学 一种基于局部变换模型的图像特征点误匹配剔除方法
CN112364881A (zh) * 2020-04-01 2021-02-12 武汉理工大学 一种进阶采样一致性图像匹配算法
CN113781559A (zh) * 2021-08-31 2021-12-10 南京邮电大学 一种鲁棒的异常匹配点剔除方法及图像室内定位方法
CN116343232A (zh) * 2023-04-03 2023-06-27 内蒙古师范大学 一种基于预分类的古籍数学符号识别方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090263009A1 (en) * 2008-04-22 2009-10-22 Honeywell International Inc. Method and system for real-time visual odometry
CN104820718A (zh) * 2015-05-22 2015-08-05 哈尔滨工业大学 基于地理位置特征与全局视觉特征的图像分类和检索方法
CN106780609A (zh) * 2016-11-28 2017-05-31 中国电子科技集团公司第三研究所 视觉定位方法和视觉定位装置
CN104596519B (zh) * 2015-02-17 2017-06-13 哈尔滨工业大学 基于ransac算法的视觉定位方法
CN106840166A (zh) * 2017-02-15 2017-06-13 北京大学深圳研究生院 一种基于词袋树群模型的机器人定位和导航方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090263009A1 (en) * 2008-04-22 2009-10-22 Honeywell International Inc. Method and system for real-time visual odometry
CN104596519B (zh) * 2015-02-17 2017-06-13 哈尔滨工业大学 基于ransac算法的视觉定位方法
CN104820718A (zh) * 2015-05-22 2015-08-05 哈尔滨工业大学 基于地理位置特征与全局视觉特征的图像分类和检索方法
CN106780609A (zh) * 2016-11-28 2017-05-31 中国电子科技集团公司第三研究所 视觉定位方法和视觉定位装置
CN106840166A (zh) * 2017-02-15 2017-06-13 北京大学深圳研究生院 一种基于词袋树群模型的机器人定位和导航方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
万柯: "视觉室内定位中图像特征点匹配算法研究", 《中国优秀硕士学位论文全文数据库 信息科技辑》 *
张轶丞: "基于视觉词袋的Visual-map图像特征提取与分类算法", 《万方中国学位论文全文数据库》 *

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108961322A (zh) * 2018-05-18 2018-12-07 辽宁工程技术大学 一种适用于降落序列影像的误匹配剔除方法
CN108961322B (zh) * 2018-05-18 2021-08-10 辽宁工程技术大学 一种适用于降落序列影像的误匹配剔除方法
CN108921899B (zh) * 2018-07-13 2021-05-28 哈尔滨工业大学 一种基于像素阈值求解基本矩阵的室内视觉定位方法
CN108921899A (zh) * 2018-07-13 2018-11-30 哈尔滨工业大学 一种基于像素阈值求解基本矩阵的室内视觉定位方法
CN110163273A (zh) * 2019-05-14 2019-08-23 西安文理学院 一种基于ransac算法的带有遗传因子的图像匹配方法
CN110163273B (zh) * 2019-05-14 2021-02-12 西安文理学院 一种基于ransac算法的带有遗传因子的图像匹配方法
CN110738695A (zh) * 2019-10-12 2020-01-31 哈尔滨工业大学 一种基于局部变换模型的图像特征点误匹配剔除方法
CN110738695B (zh) * 2019-10-12 2021-08-13 哈尔滨工业大学 一种基于局部变换模型的图像特征点误匹配剔除方法
CN112364881A (zh) * 2020-04-01 2021-02-12 武汉理工大学 一种进阶采样一致性图像匹配算法
CN112364881B (zh) * 2020-04-01 2022-06-28 武汉理工大学 一种进阶采样一致性图像匹配方法
CN113781559A (zh) * 2021-08-31 2021-12-10 南京邮电大学 一种鲁棒的异常匹配点剔除方法及图像室内定位方法
CN113781559B (zh) * 2021-08-31 2023-10-13 南京邮电大学 一种鲁棒的异常匹配点剔除方法及图像室内定位方法
CN116343232A (zh) * 2023-04-03 2023-06-27 内蒙古师范大学 一种基于预分类的古籍数学符号识别方法

Similar Documents

Publication Publication Date Title
CN107704867A (zh) 一种视觉定位中基于衡量因子的图像特征点误匹配剔除方法
CN110543837B (zh) 一种基于潜在目标点的可见光机场飞机检测方法
CN108038476B (zh) 一种基于边缘检测与sift的人脸表情识别特征提取方法
Lu et al. Range-sample depth feature for action recognition
CN104599275B (zh) 基于概率图模型的非参数化的rgb-d场景理解方法
CN105869178B (zh) 一种基于多尺度组合特征凸优化的复杂目标动态场景无监督分割方法
CN112101430B (zh) 用于图像目标检测处理的锚框生成方法及轻量级目标检测方法
CN104680144B (zh) 基于投影极速学习机的唇语识别方法和装置
CN108470354A (zh) 视频目标跟踪方法、装置和实现装置
CN106407958B (zh) 基于双层级联的面部特征检测方法
CN106960214A (zh) 基于图像的物体识别方法
CN114758288B (zh) 一种配电网工程安全管控检测方法及装置
CN107742102A (zh) 一种基于深度传感器的手势识别方法
CN107368807A (zh) 一种基于视觉词袋模型的监控视频车型分类方法
CN108107444A (zh) 基于激光数据的变电站异物识别方法
CN109343920A (zh) 一种图像处理方法及其装置、设备和存储介质
CN110263712A (zh) 一种基于区域候选的粗精行人检测方法
CN109598234A (zh) 关键点检测方法和装置
CN110751027B (zh) 一种基于深度多示例学习的行人重识别方法
CN113160285B (zh) 一种基于局部深度图像关键性的点云匹配方法
CN105654122B (zh) 基于核函数匹配的空间金字塔物体识别方法
CN107886539B (zh) 一种工业场景下高精度齿轮视觉检测方法
Sun et al. Brushstroke based sparse hybrid convolutional neural networks for author classification of Chinese ink-wash paintings
CN109035196A (zh) 基于显著性的图像局部模糊检测方法
CN109993187A (zh) 一种用于识别物体类别的建模方法、机器人及存储装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
WD01 Invention patent application deemed withdrawn after publication
WD01 Invention patent application deemed withdrawn after publication

Application publication date: 20180216