CN110738695B - 一种基于局部变换模型的图像特征点误匹配剔除方法 - Google Patents

一种基于局部变换模型的图像特征点误匹配剔除方法 Download PDF

Info

Publication number
CN110738695B
CN110738695B CN201910968493.0A CN201910968493A CN110738695B CN 110738695 B CN110738695 B CN 110738695B CN 201910968493 A CN201910968493 A CN 201910968493A CN 110738695 B CN110738695 B CN 110738695B
Authority
CN
China
Prior art keywords
point
image
feature
characteristic
feature point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201910968493.0A
Other languages
English (en)
Other versions
CN110738695A (zh
Inventor
张智浩
杨宪强
高会军
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Harbin Institute of Technology
Original Assignee
Harbin Institute of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Harbin Institute of Technology filed Critical Harbin Institute of Technology
Priority to CN201910968493.0A priority Critical patent/CN110738695B/zh
Publication of CN110738695A publication Critical patent/CN110738695A/zh
Application granted granted Critical
Publication of CN110738695B publication Critical patent/CN110738695B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/757Matching configurations of points or features

Abstract

一种基于局部变换模型的图像特征点误匹配剔除方法,本发明涉及图像特征点误匹配剔除方法。本发明的目的是为了解决基于特征点匹配的图像配准过程中,特征点出现误匹配率高,现有剔除误匹配特征点方法准确率低的问题。过程为:一、对不同视角下拍摄相同场景的两张图像检测并描述特征点;二、得到初始特征点对集合;三、对初始特征点对集合进行分类和初步筛选;四、计算特征点集中每个特征点与所有特征点的欧式距离;五、如果类别号与特征点的类别号相同,则确定点对为内点,否则进行六判断是否为误匹配点;六、若误差大于10,则确定点对为误匹配点,并将其从点对集合中剔除,剔除后得到特征点对集合。本发明用于图像特征点匹配领域。

Description

一种基于局部变换模型的图像特征点误匹配剔除方法
技术领域
本发明涉及图像特征点误匹配剔除方法。
背景技术
图像配准技术是图像处理和计算机视觉领域的研究热点,应用于图像拼接,视频监控,三维重建等场合。基于特征的图像配准技术由于计算效率高被广泛使用,特征点匹配过程是其关键步骤。特征点匹配的准确度决定了图像间变换模型预测的准确性,而根据特征描述匹配特征点往往会出现误匹配的情况。所以,研究一种剔除误匹配特征点的方法很重要。
目前对特征点匹配的筛选方法主要是RANSAC算法。该算法通过多次随机采样和计算一个全局单应性矩阵,并根据内点的个数来确定变换模型并删除误匹配点。该算法当图像满足全局单应性矩阵变换时结果准确,但是在图像变换关系更加复杂时,会造成局部区域点对筛选不准确。所以图像的局部变换模型准确估计有很大的必要性。
发明内容
本发明的目的是为了解决基于特征点匹配的图像配准过程中,特征点出现误匹配率高,现有剔除误匹配特征点方法准确率低的问题,而提出一种基于局部变换模型的图像特征点误匹配剔除方法。
一种基于局部变换模型的图像特征点误匹配剔除方法具体过程为:
步骤一、用SIFT(Scale Invariant Feature Transform,尺度不变特征变换)特征点提取算法对不同视角下拍摄相同场景的两张图像Ip和Iq检测并描述特征点;
步骤二、基于FLANN(Fast Libraryfor Approximate Nearest Neighbors,快速最近邻逼近搜索函数库)快速最近邻逼近搜索函数库对图像Ip的每个特征点在图像Iq的特征点集中搜索得到图像Ip中每个特征点在图像Iq中最近邻和次近邻的特征点;
当图像Ip中特征点在图像Iq中最近邻特征点的距离的A倍小于图像Ip中特征点在图像Iq中次近邻特征点的距离时,选取图像Ip中每个特征点在图像Iq中最近邻特征点组成特征点对,得到初始特征点对集合
Figure BDA0002231293230000011
其中,pi为图像Ip的特征点,qi为图像Ip中特征点pi在图像Iq中最近邻特征点,N为特征点对个数;
所述距离为欧式距离;
当图像Ip中特征点在图像Iq中最近邻特征点的距离的A倍大于等于图像Ip中特征点在图像Iq中次近邻特征点的距离时,图像Ip中每个特征点与图像Iq中最近邻特征点不为特征点对;
步骤三、采用RANSAC算法对步骤二中得到的初始特征点对集合进行分类和初步筛选,初步筛选后得到点对集合
Figure BDA0002231293230000021
并得到S1中每个点对的类别号,第i′个点对类别号为ci′,ci′=1,...,n,n为类别个数;如果筛选后类别个数n等于5,那么集合S1中点对类别号为1到5;
其中,N1为初步筛选后特征点对个数;pi′为初步筛选后点对集合S1中图像Ip的特征点,qi′为初步筛选后点对集合S1中图像Iq的特征点;
步骤四、对步骤三中初步筛选后的点对集合S1中图像Ip的特征点集
Figure BDA0002231293230000022
计算特征点集P1中每个特征点pi′与特征点集P1中所有特征点的欧式距离(包括它自身),即特征点pi′与特征点pj′的欧式距离为di′j′=||pi′-pj′||2
步骤五、对集合S1中图像Ip的特征点集P1中每个特征点pi′,根据步骤四中计算的欧式距离,计算特征点集P1中所有特征点与特征点pi′的欧式距离中较小的20个特征点
Figure BDA0002231293230000023
的所属类别最多的类别号
Figure BDA0002231293230000024
(在步骤三中每个点获得了它的类别号,计算这20个点中出现次数最多的类别号),公式如下:
Figure BDA0002231293230000025
其中Mo(·)为众数函数;
如果有多个类别个数相同,则选取类别号较小(2和3选2,ci′的值是类别号)的类别;
如果类别号
Figure BDA0002231293230000026
与特征点pi′的类别号相同,即
Figure BDA0002231293230000027
则确定点对(pi′,qi′)为内点,否则进行步骤六判断是否为误匹配点;
步骤六、对特征点集P1中每个特征点pi′,若
Figure BDA0002231293230000028
则计算特征点pi′处的局部单应性矩阵变换模型,并计算点对(pi′,qi′)在模型估计的误差ei′,若ei′>10,则确定点对(pi′,qi′)为误匹配点,并将其从点对集合S1中剔除;剔除误匹配点后得到的特征点对集合为
Figure BDA0002231293230000031
N2为最终筛选后点对个数。
本发明的有益效果为:
本发明一种基于局部变换模型的图像特征点误匹配剔除方法,主要用于解决在基于特征点匹配的图像配准过程中,特征点出现误匹配率高,现有剔除误匹配特征点方法准确率低的问题。特征点匹配的准确度对图像变换关系模型的预测影响很大。
本方法通过
1.用快速最近邻搜索方法对特征点进行初始匹配;
2.对特征点对进行分类和初步筛选;
3.比较特征点与其邻近点的类别,区分是否为内点;
4.估计每个特征点处的局部变换模型,根据点对在模型估计中的误差来判断是否为误匹配点;
提高了现有剔除误匹配特征点方法准确率。
SIFT算法是常用的特征点提取方法,其检测的特征点质量较高而且稳定,且特征描述方便特征点匹配,所以本发明采用SIFT算法进行特征点提取,提高了现有剔除误匹配特征点方法准确;
FLANN快速最近邻搜索库对大数据集和高维特征能够快速实现最近邻搜索,所以本发明采用FLANN库进行特征点初步匹配,提高了现有剔除误匹配特征点方法准确。
本发明方法剔除误匹配特征点的准确率高于现有的基于全局变换的RANSAC算法。例如,在一个寺庙场景拍摄两幅图像,初始匹配的特征点对共有494个,其中正确匹配的点对395个,错误匹配的点对99个。本方法准确地将正确匹配的点对全部保留,将错误匹配的点对全部剔除;而基于全局变换的RANSAC算法只剔除了72个误匹配点对。
附图说明
图1为本发明两幅图像特征点初始匹配结果图;
图2为本发明两幅图像剔除误匹配点后的结果图。
具体实施方式
具体实施方式一:本实施方式一种基于局部变换模型的图像特征点误匹配剔除方法具体过程为:
步骤一、用SIFT(Scale Invariant Feature Transform,尺度不变特征变换)特征点提取算法对不同视角下拍摄相同场景的两张图像Ip和Iq检测并描述特征点;
步骤二、基于FLANN(Fast Libraryfor Approximate Nearest Neighbors,快速最近邻逼近搜索函数库)快速最近邻逼近搜索函数库对图像Ip的每个特征点在图像Iq的特征点集中搜索得到图像Ip中每个特征点在图像Iq中最近邻和次近邻的特征点;
当图像Ip中特征点在图像Iq中最近邻特征点的距离的A倍小于图像Ip中特征点在图像Iq中次近邻特征点的距离时,选取图像Ip中每个特征点在图像Iq中最近邻特征点组成特征点对,得到初始特征点对集合
Figure BDA0002231293230000041
其中,pi为图像Ip的特征点,qi为图像Ip中特征点pi在图像Iq中最近邻特征点,N为特征点对个数;
所述距离为欧式距离;
当图像Ip中特征点在图像Iq中最近邻特征点的距离的A倍大于等于图像Ip中特征点在图像Iq中次近邻特征点的距离时,图像Ip中每个特征点与图像Iq中最近邻特征点不为特征点对;
步骤三、采用RANSAC算法对步骤二中得到的初始特征点对集合进行分类和初步筛选,初步筛选后得到点对集合
Figure BDA0002231293230000042
并得到S1中每个点对的类别号,第i′个点对类别号为ci′,ci′=1,...,n,n为类别个数;如果筛选后类别个数n等于5,那么集合S1中点对类别号为1到5;
其中,N1为初步筛选后特征点对个数;pi′为初步筛选后点对集合S1中图像Ip的特征点,qi′为初步筛选后点对集合S1中图像Iq的特征点;
步骤四、对步骤三中初步筛选后的点对集合S1中图像Ip的特征点集
Figure BDA0002231293230000043
计算特征点集P1中每个特征点pi′与特征点集P1中所有特征点的欧式距离(包括它自身),即特征点pi′与特征点pj′的欧式距离为di′j′=||pi′-pj′||2
步骤五、对集合S1中图像Ip的特征点集P1中每个特征点pi′,根据步骤四中计算的欧式距离,计算特征点集P1中所有特征点与特征点pi′的欧式距离中较小的20个特征点
Figure BDA0002231293230000051
的所属类别最多的类别号
Figure BDA0002231293230000052
(在步骤三中每个点获得了它的类别号,计算这20个点中出现次数最多的类别号),公式如下:
Figure BDA0002231293230000053
其中Mo(·)为众数函数;
如果有多个类别个数相同,则选取类别号较小(2和3选2,ci′的值是类别号)的类别;
如果类别号
Figure BDA0002231293230000054
与特征点pi′的类别号相同,即
Figure BDA0002231293230000055
则确定点对(pi′,qi′)为内点,否则进行步骤六判断是否为误匹配点;
步骤六、对特征点集P1中每个特征点pi′,若
Figure BDA0002231293230000056
则计算特征点pi′处的局部单应性矩阵变换模型,并计算点对(pi′,qi′)在模型估计的误差ei′,若ei′>10,则确定点对(pi′,qi′)为误匹配点,并将其从点对集合S1中剔除;剔除误匹配点后得到的特征点对集合为
Figure BDA0002231293230000057
N2为最终筛选后点对个数。
具体实施方式二:本实施方式与具体实施方式一不同的是,所述步骤二中A倍为1.2倍。
其它步骤及参数与具体实施方式一相同。
具体实施方式三:本实施方式与具体实施方式一或二不同的是,所述步骤三中采用RANSAC算法对步骤二中得到的初始特征点对集合进行分类和初步筛选;具体过程为:
步骤三一、设初步筛选剩余的点对集合为S′,并将其初始化为步骤二中得到的初始特征点对集合S,将类别个数n初始化为0;
步骤三二、采用RANSAC(random sample consensus,随机抽样一致性方法)算法对点对集合S′提取内点,内点特征点对集合为sn+1,并将S′更新为排除sn+1后的剩余点对集合;
步骤三与具体实施方式二是一个循环筛选点对的过程,每次进行到步骤三二提取出一些内点,即sn+1,如果内点个数满足大于等于15,则sn+1中的点为同一类别,这些点的类别序号为n+1;换句话说,第一次进行到步骤三三时,提取的内点类别号为n+1=1,以后每次循环n逐渐累加,直到结束。最后得到n的值即为所有内点类别总数。
步骤三三、令集合S1是初步筛选后的点对集合,集合S1初始为空;
如果内点特征点对集合sn+1中点对个数大于等于B,则sn+1中的点为同一类别,sn+1中点对类别号为n+1(类别号取值为1到n,n为类别的个数),然后将内点特征点对集合sn+1加入集合S1中,即S1=S1+sn+1,并将类别个数n加1;
步骤三四、重复步骤三二到步骤三三,直到步骤三三中内点集合sn+1中点对个数小于B,得到初步筛选后的点对集合S1和每个点对的类别号。
其它步骤及参数与具体实施方式一或二相同。
具体实施方式四:本实施方式与具体实施方式一至三之一不同的是,所述步骤三二中RANSAC算法选取的模型是单应性矩阵变换模型,内点距离阈值为3,迭代次数为500。
其它步骤及参数与具体实施方式一至三之一相同。
具体实施方式五:本实施方式与具体实施方式一至四之一不同的是,所述步骤三三中B取值为15。
其它步骤及参数与具体实施方式一至三之一相同。
具体实施方式六:本实施方式与具体实施方式一至五之一不同的是,所述步骤六中对特征点集P1中每个点pi′,若
Figure BDA0002231293230000061
则计算特征点pi′处的局部单应性矩阵变换模型,并计算点对(pi′,qi′)在模型估计的误差ei′,具体过程为:
步骤六一、根据步骤四中计算的特征点集P1中特征点pi′与特征点集P1中所有特征点的欧式距离,计算点集P1中的点在局部单应性矩阵变换模型估计中的权重,其中点pj′的权重wi′j′计算公式如下:
wi′j′=exp(-di′j′/σ)
其中,σ为参数,参数σ随点集密集程度自适应变化;
步骤六二、特征点pi′处的局部单应性矩阵变换模型参数
Figure BDA0002231293230000062
的计算公式为:
Figure BDA0002231293230000063
其中,aj′为矩阵;hi′为变量(未知的);
Figure BDA0002231293230000071
意思是计算使得
Figure BDA0002231293230000072
最小的hi′
计算得到的参数
Figure BDA0002231293230000073
为9×1的矩阵,表示为
Figure BDA0002231293230000074
hi′1,hi′2,hi′3均为3×1的矩阵,则特征点pi′处的局部单应性矩阵变换模型Hi′
Figure BDA0002231293230000075
其中,T为转置;
步骤六三、根据步骤六二估计的特征点pi′处的局部单应性矩阵变换模型,计算特征点对(pi′,qi′)在局部单应性矩阵变换模型估计的误差ei′
其它步骤及参数与具体实施方式一至五之一相同。
具体实施方式七:本实施方式与具体实施方式一至六之一不同的是,所述步骤六一中参数σ计算公式为:
Figure BDA0002231293230000076
其中,
Figure BDA0002231293230000077
为特征点pi′与其距离最近的第20个特征点的欧式距离。
其它步骤及参数与具体实施方式一至六之一相同。
具体实施方式八:本实施方式与具体实施方式一至七之一不同的是,所述步骤六二中矩阵aj′
Figure BDA0002231293230000078
其中,
Figure BDA0002231293230000079
为特征点pj′的坐标,
Figure BDA00022312932300000710
为特征点qj′的坐标。
其它步骤及参数与具体实施方式一至七之一相同。
具体实施方式九:本实施方式与具体实施方式一至八之一不同的是,所述步骤六三中特征点对(pi′,qi′)在局部单应性矩阵变换模型估计的误差ei′计算公式为:
ei′=||pi′-q′i′||2+||qi′-p′i′||2
其中,q′i′和p′i′分别为特征点pi′和特征点qi′在估计的局部单应性矩阵变换模型下投影和反投影的点。
其它步骤及参数与具体实施方式一至八之一相同。
采用以下实施例验证本发明的有益效果:
实施例一:
如附图1中圆圈和连线为初始特征点匹配对;图2中圆圈加连线为筛选后的特征点对,单独圆圈为剔除的误匹配点。
本发明还可有其它多种实施例,在不背离本发明精神及其实质的情况下,本领域技术人员当可根据本发明作出各种相应的改变和变形,但这些相应的改变和变形都应属于本发明所附的权利要求的保护范围。

Claims (8)

1.一种基于局部变换模型的图像特征点误匹配剔除方法,其特征在于:所述方法具体过程为:
步骤一、用SIFT特征点提取算法对不同视角下拍摄相同场景的两张图像Ip和Iq检测并描述特征点;
步骤二、基于FLANN快速最近邻逼近搜索函数库对图像Ip的每个特征点在图像Iq的特征点集中搜索得到图像Ip中每个特征点在图像Iq中最近邻和次近邻的特征点;
当图像Ip中特征点在图像Iq中最近邻特征点的距离的A倍小于图像Ip中特征点在图像Iq中次近邻特征点的距离时,选取图像Ip中每个特征点在图像Iq中最近邻特征点组成特征点对,得到初始特征点对集合
Figure FDA0002986374470000011
其中,pi为图像Ip的特征点,qi为图像Ip中特征点pi在图像Iq中最近邻特征点,N为特征点对个数;
所述距离为欧式距离;
当图像Ip中特征点在图像Iq中最近邻特征点的距离的A倍大于等于图像Ip中特征点在图像Iq中次近邻特征点的距离时,图像Ip中每个特征点与图像Iq中最近邻特征点不为特征点对;
步骤三、采用RANSAC算法对步骤二中得到的初始特征点对集合进行分类和初步筛选,初步筛选后得到点对集合
Figure FDA0002986374470000012
并得到S1中每个点对的类别号,第i′个点对类别号为ci′,ci′=1,...,n,n为类别个数;
其中,N1为初步筛选后特征点对个数;pi′为初步筛选后点对集合S1中图像Ip的特征点,qi′为初步筛选后点对集合S1中图像Iq的特征点;
步骤四、对步骤三中初步筛选后的点对集合S1中图像Ip的特征点集
Figure FDA0002986374470000013
计算特征点集P1中每个特征点pi′与特征点集P1中所有特征点的欧式距离,即特征点pi′与特征点pj′的欧式距离为di′j′=||pi′-pj′||2
步骤五、对集合S1中图像Ip的特征点集P1中每个特征点pi′,根据步骤四中计算的欧式距离,计算特征点集P1中所有特征点与特征点pi′的欧式距离中较小的20个特征点
Figure FDA0002986374470000021
的所属类别最多的类别号
Figure FDA0002986374470000022
公式如下:
Figure FDA0002986374470000023
其中Mo(·)为众数函数;
如果有多个类别个数相同,则选取类别号较小的类别;
如果类别号
Figure FDA0002986374470000024
与特征点pi′的类别号相同,即
Figure FDA0002986374470000025
则确定点对(pi′,qi′)为内点,否则进行步骤六判断是否为误匹配点;
步骤六、对特征点集P1中每个特征点pi′,若
Figure FDA0002986374470000026
则计算特征点pi′处的局部单应性矩阵变换模型,并计算点对(pi′,qi′)在模型估计的误差ei′,若ei′>10,则确定点对(pi′,qi′)为误匹配点,并将其从点对集合S1中剔除;剔除误匹配点后得到的特征点对集合为
Figure FDA0002986374470000027
N2为最终筛选后点对个数;
所述误差ei′计算公式为:
ei′=||pi′-q′i′||2+||qi′-p′i′||2
其中,q′i′和p′i′分别为特征点pi′和特征点qi′在估计的局部单应性矩阵变换模型下投影和反投影的点。
2.根据权利要求1所述一种基于局部变换模型的图像特征点误匹配剔除方法,其特征在于:所述步骤二中A倍为1.2倍。
3.根据权利要求1或2所述一种基于局部变换模型的图像特征点误匹配剔除方法,其特征在于:所述步骤三中采用RANSAC算法对步骤二中得到的初始特征点对集合进行分类和初步筛选;具体过程为:
步骤三一、设初步筛选剩余的点对集合为S′,并将其初始化为步骤二中得到的初始特征点对集合S,将类别个数n初始化为0;
步骤三二、采用RANSAC算法对点对集合S′提取内点,内点特征点对集合为sn+1,并将S′更新为排除sn+1后的剩余点对集合;
步骤三三、令集合S1是初步筛选后的点对集合,集合S1初始为空;
如果内点特征点对集合sn+1中点对个数大于等于B,sn+1中点对类别号为n+1,然后将内点特征点对集合sn+1加入集合S1中,即S1=S1+sn+1,并将类别个数n加1;
步骤三四、重复步骤三二到步骤三三,直到步骤三三中内点集合sn+1中点对个数小于B,得到初步筛选后的点对集合S1和每个点对的类别号。
4.根据权利要求3所述一种基于局部变换模型的图像特征点误匹配剔除方法,其特征在于:所述步骤三二中RANSAC算法选取的模型是单应性矩阵变换模型,内点距离阈值为3,迭代次数为500。
5.根据权利要求4所述一种基于局部变换模型的图像特征点误匹配剔除方法,其特征在于:所述步骤三三中B取值为15。
6.根据权利要求5所述一种基于局部变换模型的图像特征点误匹配剔除方法,其特征在于:所述步骤六中对特征点集P1中每个点pi′,若
Figure FDA0002986374470000031
则计算特征点pi′处的局部单应性矩阵变换模型,并计算点对(pi′,qi′)在模型估计的误差ei′,具体过程为:
步骤六一、根据步骤四中计算的特征点集P1中特征点pi′与特征点集P1中所有特征点的欧式距离,计算点集P1中的点在局部单应性矩阵变换模型估计中的权重,其中点pj′的权重wi′j′计算公式如下:
wi′j′=exp(-di′j′/σ)
其中,σ为参数;
步骤六二、特征点pi′处的局部单应性矩阵变换模型参数
Figure FDA0002986374470000032
的计算公式为:
Figure FDA0002986374470000033
其中,aj′为矩阵;hi′为变量;
计算得到的参数
Figure FDA0002986374470000034
为9×1的矩阵,表示为
Figure FDA0002986374470000035
hi′1,hi′2,hi′3均为3×1的矩阵,则特征点pi′处的局部单应性矩阵变换模型Hi′
Figure FDA0002986374470000041
其中,T为转置;
步骤六三、根据步骤六二估计的特征点pi′处的局部单应性矩阵变换模型,计算特征点对(pi′,qi′)在局部单应性矩阵变换模型估计的误差ei′
7.根据权利要求6所述一种基于局部变换模型的图像特征点误匹配剔除方法,其特征在于:所述步骤六一中参数σ计算公式为:
Figure FDA0002986374470000042
其中,
Figure FDA0002986374470000043
为特征点pi′与其距离最近的第20个特征点的欧式距离。
8.根据权利要求7所述一种基于局部变换模型的图像特征点误匹配剔除方法,其特征在于:所述步骤六二中矩阵aj′
Figure FDA0002986374470000044
其中,
Figure FDA0002986374470000045
为特征点pj′的坐标,
Figure FDA0002986374470000046
为特征点qj′的坐标。
CN201910968493.0A 2019-10-12 2019-10-12 一种基于局部变换模型的图像特征点误匹配剔除方法 Active CN110738695B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910968493.0A CN110738695B (zh) 2019-10-12 2019-10-12 一种基于局部变换模型的图像特征点误匹配剔除方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910968493.0A CN110738695B (zh) 2019-10-12 2019-10-12 一种基于局部变换模型的图像特征点误匹配剔除方法

Publications (2)

Publication Number Publication Date
CN110738695A CN110738695A (zh) 2020-01-31
CN110738695B true CN110738695B (zh) 2021-08-13

Family

ID=69268762

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910968493.0A Active CN110738695B (zh) 2019-10-12 2019-10-12 一种基于局部变换模型的图像特征点误匹配剔除方法

Country Status (1)

Country Link
CN (1) CN110738695B (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113470085B (zh) * 2021-05-19 2023-02-10 西安电子科技大学 一种基于改进的ransac的图像配准方法
CN113516184B (zh) * 2021-07-09 2022-04-12 北京航空航天大学 一种图像特征点匹配的误匹配剔除方法及系统

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104851094A (zh) * 2015-05-14 2015-08-19 西安电子科技大学 一种基于rgb-d的slam算法的改进方法
CN105608671A (zh) * 2015-12-30 2016-05-25 哈尔滨工业大学 一种基于surf算法的图像拼接方法
CN107093166A (zh) * 2017-04-01 2017-08-25 华东师范大学 低重合率显微图像的无缝拼接方法
CN107704867A (zh) * 2017-08-24 2018-02-16 哈尔滨工业大学 一种视觉定位中基于衡量因子的图像特征点误匹配剔除方法
CN107862708A (zh) * 2017-11-08 2018-03-30 合肥工业大学 一种sar与可见光图像配准方法
CN108416732A (zh) * 2018-02-02 2018-08-17 重庆邮电大学 一种基于图像配准与多分辨率融合的全景图像拼接方法
CN109308737A (zh) * 2018-07-11 2019-02-05 重庆邮电大学 一种三阶段式点云配准方法的移动机器人v-slam方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20160012594A1 (en) * 2014-07-10 2016-01-14 Ditto Labs, Inc. Systems, Methods, And Devices For Image Matching And Object Recognition In Images Using Textures

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104851094A (zh) * 2015-05-14 2015-08-19 西安电子科技大学 一种基于rgb-d的slam算法的改进方法
CN105608671A (zh) * 2015-12-30 2016-05-25 哈尔滨工业大学 一种基于surf算法的图像拼接方法
CN107093166A (zh) * 2017-04-01 2017-08-25 华东师范大学 低重合率显微图像的无缝拼接方法
CN107704867A (zh) * 2017-08-24 2018-02-16 哈尔滨工业大学 一种视觉定位中基于衡量因子的图像特征点误匹配剔除方法
CN107862708A (zh) * 2017-11-08 2018-03-30 合肥工业大学 一种sar与可见光图像配准方法
CN108416732A (zh) * 2018-02-02 2018-08-17 重庆邮电大学 一种基于图像配准与多分辨率融合的全景图像拼接方法
CN109308737A (zh) * 2018-07-11 2019-02-05 重庆邮电大学 一种三阶段式点云配准方法的移动机器人v-slam方法

Also Published As

Publication number Publication date
CN110738695A (zh) 2020-01-31

Similar Documents

Publication Publication Date Title
CN107145829B (zh) 一种融合纹理特征和尺度不变特征的掌静脉识别方法
CN106682700B (zh) 基于关键点描述算子的分块快速匹配方法
CN111126412B (zh) 基于特征金字塔网络的图像关键点检测方法
CN105976399A (zh) 一种基于sift特征匹配的运动目标检测方法
CN108399627B (zh) 视频帧间目标运动估计方法、装置和实现装置
CN108550166B (zh) 一种空间目标图像匹配方法
CN113592923B (zh) 一种基于深度局部特征匹配的批图像配准方法
CN110738695B (zh) 一种基于局部变换模型的图像特征点误匹配剔除方法
Ma et al. Image feature matching via progressive vector field consensus
EP3012781A1 (en) Method and apparatus for extracting feature correspondences from multiple images
CN105551022A (zh) 一种基于形状交互矩阵的图像错误匹配检验方法
CN112215079B (zh) 一种全局多阶段目标跟踪方法
CN106295710B (zh) 基于非几何约束的图像局部特征匹配方法、装置及终端
CN108537832B (zh) 基于局部不变灰度特征的图像配准方法、图像处理系统
Liu et al. PatchMatch-based automatic lattice detection for near-regular textures
CN110766782A (zh) 基于多无人机视觉协同的大型施工场景实时重构方法
Seib et al. Object recognition using hough-transform clustering of surf features
CN109840529B (zh) 一种基于局部敏感置信度评估的图像匹配方法
CN109785372B (zh) 基于软决策优化的基础矩阵鲁棒估计方法
CN113095385B (zh) 一种基于全局和局部特征描述的多模图像匹配方法
CN104766323B (zh) 一种遥感图像的点匹配方法
CN112085117A (zh) 一种基于MTLBP-Li-KAZE-R-RANSAC的机器人运动监测视觉信息融合方法
CN117132630A (zh) 一种基于二阶空间兼容性度量的点云配准方法
JP6220737B2 (ja) 被写体領域抽出装置、方法、及びプログラム
CN107358200B (zh) 一种基于稀疏学习的多摄像机非重叠视域行人匹配方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant