CN110728296A - 一种加速特征点匹配的两步随机抽样一致性方法及系统 - Google Patents
一种加速特征点匹配的两步随机抽样一致性方法及系统 Download PDFInfo
- Publication number
- CN110728296A CN110728296A CN201910826436.9A CN201910826436A CN110728296A CN 110728296 A CN110728296 A CN 110728296A CN 201910826436 A CN201910826436 A CN 201910826436A CN 110728296 A CN110728296 A CN 110728296A
- Authority
- CN
- China
- Prior art keywords
- matching
- point set
- model
- point
- points
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/75—Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
- G06V10/757—Matching configurations of points or features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
Landscapes
- Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- Databases & Information Systems (AREA)
- Computing Systems (AREA)
- Artificial Intelligence (AREA)
- Health & Medical Sciences (AREA)
- Image Analysis (AREA)
Abstract
本发明提出了一种加速特征点匹配的两步随机抽样一致性(RANSAC)方法,适用于不同视点的相机在旋转角度变化小的情形下拍摄的图像间的特征点匹配问题。首先分别检测两幅图像的特征点,用特征描述子的距离作为度量建立两幅图像的特征点之间的初步匹配;然后,以只含缩放和平移参数的仿射变换为模型,应用RANSAC算法验证特征点的初步匹配,筛选出正确性最好的一个匹配特征点的集合;最后,在该匹配点集上生成全参数单应变换模型,用RANSAC算法计算一个最优单应变换,验证第一步建立的特征点的初步匹配,从而筛选得到最终的匹配点。本发明还提出了一种加速特征点匹配的两步随机抽样一致性系统。
Description
技术领域
本发明属于计算机图形学和图像处理技术领域,涉及数学和计算机科学,可应用于基于图像的三维重建、图像拼接、图像配准和识别、医学图像处理等方面。
背景技术
在众多高效且稳定的特征点检测方法出现之后[1-4],特征点匹配成为了图像处理的一个关键步骤,无论是图像拼接、三维重建还是图像识别,匹配点的正确性将直接影响算法的性能和最终的结果。因此在建立初始的Brute-Force匹配[5]之后,如何验证特征点匹配的正确性成为了一个重要的问题。常用的方法有随机抽样一致性(RANSAC)算法[6]和最小中值法(LMedS)[7]。出于效率的考虑,RANSAC算法通常设有迭代上限N,这使得该算法在极端情况,例如图像之间的重叠部分很小,野值比列非常大的情况下,极有可能找不到最好的模型导致匹配失败。如果放开迭代上限的约束,在大数据集中将会非常消耗时间,导致算法性能的下降。LMedS也是通过迭代变换模型来得到最优解,这个方法也可以容忍一定的噪声干扰,但在极端情况下,面临着RANSAC算法同样的问题。因此,研究人员相继提出了许多改进算法。2003年Chum等人提出了局部最优RANSAC方法--LO-RANSAC算法[8],在传统方法的迭代过程中对当前最优解再做一步优化,一种优化方法是在返回结果的内点中再进行采样估计模型,设置固定的迭代次数,选取最优解,另一种方法是设置优化参数,把返回的内点中阈值小于等于该优化参数的数据作为最终优化结果。2005年Chum等人又提出的PROSAC算法[9],在初始匹配集上建立对应关系的相似性函数,根据相似性对初始匹配集进行排序,从相似性高的数据点集合中进行随机采样。还有一些方法采用了特征点之间的几何一致性检查以提高内点比例,从而改进RANSAC算法性能。2009年Torsten Sattler等人提出了SCRAMSAC算法[10],利用空间一致性检查对初始匹配点对进行筛选,以提高内点比例,从而加快估计的收敛速度。2019年Mehran Fotouhi等人提出了SC-RANSAC算法[11],先用描述符距离最近与次近的比值作为筛选条件,选择比值最小的7组匹配点作为基准点,然后用基准点对初始匹配集中的每一组点进行空间一致性检查。
发明内容
本发明提出了一种加速特征点匹配的两步RANSAC方法:首先用3参数的仿射变换模型快速找到一个正确率高的匹配点集;然后在该匹配点集上用全参数单应变换模型验证初步匹配点集,筛选出最好的正确匹配点集。
本发明提出了一种加速特征点匹配的两步RANSAC方法,包括以下步骤:
步骤A:分别检测两幅输入图像的特征点,用特征描述子的距离作为度量建立不同图像的特征点之间的初步匹配;
步骤B:以只含缩放和平移参数的仿射变换为模型,应用RANSAC算法验证步骤A生成的初步匹配。随机构造多个仿射变换模型,模型个数有概率方法确定,每个模型把初步匹配划分为验证通过和不通过两个集合。验证通过的集合包含的匹配点数量最多的模型称为最优模型。输出最优模型验证通过的匹配特征点集;
步骤C:在步骤B筛选出的匹配点的集合上生成全参数单应变换模型,用RANSAC算法计算一个最优单应变换,验证步骤A生成的初步匹配,选出正确性高的最终匹配点集。
本发明步骤B中,用参数少的仿射变换模型快速找到一个匹配正确率高的匹配点集,包括:
2)方法
输入:初始匹配点集M={(p,q)|p和q分别是两幅输入图像的特征点},每次迭代的误差阈值ε,总的迭代次数N,置信度α;输出:正确率高的匹配点集S;
步骤B2:从匹配点集M中随机选择两组匹配点对,计算仿射变换的参数,生成一个模型F。用F验证M中的所有点对,如果(p,q)∈M,且|Fp-q|<ε,那么T=T∪{(p,q)};累加计数变量i++;
步骤B4:如果i<N,返回步骤B2;否则输出验证过的匹配点集S。
本发明步骤C中,在一个匹配正确率高的匹配点集上生成全参数单应变换模型,验证初步匹配点集,筛选出正确的匹配点对,包括:
输入:初始匹配点集M和正确率高的匹配点集S,误差阈值ε,总的迭代次数n,置信度α;输出:最终的匹配点集R;
步骤C2:从S中随机选择4组匹配点对生成对应的单应变换模型H;用H验证M中的所有点对,如果(p,q)∈M,且|Hp-q|<ε,那么T=T∪{(p,q)};累加计数变量i++;
步骤C4:如果i<n,返回步骤C2;否则输出最终的匹配点集R。
基于以上方法,本发明还提出了一种加速特征点匹配的两步随机抽样一致性系统,包括:
特征点检测模块,其用于分别检测两幅输入图像的特征点,用特征描述子的距离作为度量建立不同图像的特征点之间的初步匹配;
特征点匹配的仿射变换验证模块,其用于以只含缩放和平移参数的仿射变换为模型,应用RANSAC算法验证生成的初步匹配;随机构造多个仿射变换模型,模型个数由概率方法确定,每个模型把初步匹配划分为验证通过和不通过两个集合;验证通过的集合包含的匹配点数量最多的模型称为最优模型;输出最优模型验证通过的匹配特征点集;
特征点匹配的单应变换验证模块,其用于在筛选出的匹配点的集合上生成全参数单应变换模型,用RANSAC算法计算一个最优单应变换,验证步骤A生成的初步匹配,选出正确性高的最终匹配点集。
本发明提出的加速特征点匹配的两步RANSAC方法技术效果:特征点匹配是计算机图形学、计算机视觉和图像处理等领域十分重要的基础性工作,其性能直接影响着后续工作,如structure from motion、机器人运动中的即时定位与地图构建(simultaneouslocalization and mapping)、图像配准和拼接等工作的质量,甚至决定着成败。本发明的两步RANSAC方法中第一步用3参数的仿射变换模型验证初始匹配点,即使内点比例过低,由于生成一个模型只要两组对应点对,得到正确模型的迭代次数远远少于经典的RANSAC算法,表1给出了两种方法在α=0.99,初始对应正确率分别是20%、15%、10%和5%极端情形下的迭代次数。第二步的全参数单应变换模型验证时,由于匹配点子集S的正确率很高,所以所用迭代次数较少。
表1 RANSAC算法和本发明方法的采样次数(α=0.99)
表2给出了RANSAC、SC-RANSAC和本发明的两步RANSAC方法在公开图库上的测试结果,由于公开图库大部分重叠面积大,内点比例高,本发明的两步RANSAC方法和普通RANSAC方法的表现差不多。
表2 RANSAC、SC-RANSAC和本发明方法在公开图库上的结果对比
表3给出了三种方法在自行拍摄的50组壁画图像的实验结果,这些图片的重叠区域与整幅图像的比例在10%~30%。在自行拍摄的图库中,RANSAC方法只有少部分图能得到正确结果,因此平均结果远不如本发明的方法,而SC-RANSAC能够应对内点比例极小的情况,但得到的匹配点数量不如本发明的方法。图1直观地展示了三种方法的匹配结果,输入的两幅图像具有较大的缩放变换,RANSAC方法只找到了少量匹配点,其中有肉眼可观察到的错误匹配,SC-RANSAC方法没能给出正确匹配点集,而本发明能得到正确的匹配点集,而且数量众多。
表3 RANSAC、SC-RANSAC和本发明方法在自行拍摄的壁画图像的结果对比
方法 | RANSAC匹配点数/误差 | SC-RANSAC匹配点数/误差 | 本发明方法匹配点数/误差 |
平均值 | 1473/7.1623 | 3254/1.1914 | 4414/1.2606 |
参考文献
[1]Harris C G,Stephens M.A combined corner and edge detector[C]//Alvey vision conference.1988,15(50):10-5244.
[2]Lowe D G.Objectrecognition from local scale-invariant features[C]//iccv.1999,99(2):1150-1157.
[3]Bay H,Tuytelaars T,Van Gool L.Surf:Speeded up robust features[C]//European conference on computer vision.Springer,Berlin,Heidelberg,2006:404-417.
[4]Rublee E,Rabaud V,Konolige K,et al.ORB:An efficient alternative toSIFT or SURF[C]//ICCV.2011,11(1):2.
[5]Lowe D G.Distinctive image features from scale-invariant keypoints[J].International journal of computer vision,2004,60(2):91-110.
[6]Fischler M A,Bolles R C.Random sample consensus:a paradigm formodel fitting with applications to image analysis and automated cartography[J].Communications oftheACM,1981,24(6):381-395.
[7]RousseeuwRJ.Leastmedian ofsquares regression[J].J.AmericanStat.Assoc.1984,79.
[8]Chum O,Matas J,Kittler J.Locally optimizedRANSAC[C]//Joint PatternRecognition Symposium.Springer,Berlin,Heidelberg,2003:236-243.
[9]Chum O,Matas J.Matching with PROSAC-progressive sample consensus[C]//2005IEEE Computer Society Conference on ComputerVision andPatternRecognition(CVPR'05).IEEE,2005,1:220-226.
[10]Sattler T,Leibe B,Kobbelt L.SCRAMSAC:Improving RANSAC'sefficiency with a spatial consistency filter[C]//2009IEEE 12th InternationalConference on ComputerVision.IEEE,2009:2090-2097.
[11]Fotouhi M,Hekmatian H,Kashani-Nezhad M A,et al.SC-RANSAC:spatialconsistency on RANSAC[J].MultimediaTools andApplications,2019,78(7):9429-9461.
附图说明
图1a、1b、1c、1d为RANSAC、SC-RANSAC和本发明在有较大缩放变换的图像上的测试结果。
图2a、2b、2c、2d为RANSAC、SC-RANSAC和本发明在自行拍摄的图像上的测试结果。
图3a、3b、3c为本发明实施例1的示意图。
图4a、4b、4c为本发明实施例2的示意图。
图5为本发明加速特征点匹配的两步随机抽样一致性系统流程图。
具体实施方式
结合以下具体实施例和附图,对发明作进一步的详细说明。实施本发明的过程、条件、实验方法等,除以下专门提及的内容之外,均为本领域的普遍知识和公知常识,本发明没有特别限制内容。
本发明提出了一种加速特征点匹配的两步RANSAC方法,包括以下步骤:
步骤A:分别检测两幅输入图像的特征点,用特征描述子的距离作为度量建立不同图像的特征点之间的初步匹配;
步骤B:以只含缩放和平移参数的仿射变换为模型,应用RANSAC算法验证步骤A生成的初步匹配。随机构造多个仿射变换模型,模型个数有概率方法确定,每个模型把初步匹配划分为验证通过和不通过两个集合。验证通过的集合包含的匹配点数量最多的模型称为最优模型。输出最优模型验证通过的匹配特征点集;
步骤C:在步骤B筛选出的匹配点的集合上生成全参数单应变换模型,用RANSAC算法计算一个最优单应变换,验证步骤A生成的初步匹配,选出正确性高的最终匹配点集。
本发明步骤B中,用参数少的仿射变换模型快速找到一个匹配正确率高的匹配点集,包括:
2)方法
输入:初始匹配点集M={(p,q)|p和q分别是两幅输入图像的特征点},每次迭代的误差阈值ε,总的迭代次数N,置信度α;输出:正确率高的匹配点集S;
步骤B2:从匹配点集M中随机选择两组匹配点对,计算仿射变换的参数,生成一个模型F。用F验证M中的所有点对,如果(p,q)∈M,且|Fp-q|<ε,那么T=T∪{(p,q)};累加计数变量i++;
步骤B4:如果i<N,返回步骤B2;否则输出验证过的匹配点集S。
本发明步骤C中,在一个匹配正确率高的匹配点集上生成全参数单应变换模型,验证初步匹配点集,筛选出正确的匹配点对,包括:
输入:初始匹配点集M和正确率高的匹配点集S,误差阈值ε,总的迭代次数n,置信度α;输出:最终的匹配点集R;
步骤C2:从S中随机选择4组匹配点对生成对应的单应变换模型H;用H验证M中的所有点对,如果(p,q)∈M,且|Hp-q|<ε,那么T=T∪{(p,q)};累加计数变量i++;
步骤C4:如果i<n,返回步骤C2;否则输出最终的匹配点集R。
基于以上方法,本发明还提出了一种加速特征点匹配的两步随机抽样一致性系统,包括:
特征点检测模块,其用于分别检测两幅输入图像的特征点,用特征描述子的距离作为度量建立不同图像的特征点之间的初步匹配;
特征点匹配的仿射变换验证模块,其用于以只含缩放和平移参数的仿射变换为模型,应用RANSAC算法验证生成的初步匹配;随机构造多个仿射变换模型,模型个数由概率方法确定,每个模型把初步匹配划分为验证通过和不通过两个集合;验证通过的集合包含的匹配点数量最多的模型称为最优模型;输出最优模型验证通过的匹配特征点集;
特征点匹配的单应变换验证模块,其用于在筛选出的匹配点的集合上生成全参数单应变换模型,用RANSAC算法计算一个最优单应变换,验证步骤A生成的初步匹配,选出正确性高的最终匹配点集。
本发明的方法及系统适用于不同视点的相机在旋转角度变化小的情形下拍摄的图像间的特征点匹配问题,很好地解决了内点比例极低的情况下的匹配问题。
不妨设相机的一个视点V1为坐标原点,另一个视点V2的坐标两个相机的焦距分别是f1和f2,空间上一点在视点V1和V2的成像点分别为和根据投影成像原理,相机在V1的投影变换为(I,0)。由于旋转角度变化很小,在V2的投影变换为(I,C),因此有p=K1(I,0)P和p'=K2(I,C)P,其中K1和K2是两个相机的内参矩阵。我们把坐标代入后计算得到:由此建立和p'和p的变换关系是
从公式(1)易知,当场景中点的Z坐标,即离相机的深度变化不大时,我们可以用3参数的反射变换建立空间上同一个点的两成像点之间的对应关系。不管场景多么复杂,一般在一个点附近的点深度变化不会大,因此用3参数的仿射变换模型快速找到一个正确率高的匹配点集是正确的。假设仿射变换模型第一步RANSAC算法步骤如下:
输入:初始匹配点集M={(p,q)|p和q分别是两幅输入图像的特征点},每次迭代的误差阈值ε,总的迭代次数N,置信度α。输出:正确率高的匹配点集S。
Step2:从匹配点集M中随机选择两组匹配点对,计算仿射变换的参数,生成一个模型F。用F验证M中的所有点对,如果(p,q)∈M,且|Fp-q|<ε,那么T=T∪{(p,q)}。累加计数变量i++;
Step3:如果|T|>|S|,S=T。根据T估算M中的匹配正确率γ=|T|/|M|,由此估算新的迭代次数
如果N'<N,那么N=N'。清空临时匹配点集
Step4:如果i<N,返回Step2;否则输出验证过的匹配点集S。
在获得最优的匹配点子集S后,我们进行第二步RANSAC算法,应用全参数单应变换模型验证初步匹配点集,筛选出最终的正确匹配点对,步骤如下:
输入:初始匹配点集M和正确率高的匹配点集S,误差阈值ε,总的迭代次数n,置信度α。输出:最终的匹配点集R。
Step2:从S中随机选择4组匹配点对生成对应的单应变换模型H。用H验证M中的所有点对,如果(p,q)∈M,且|Hp-q|<ε,那么T=T∪{(p,q)}。累加计数变量i++;
Step4:如果i<n,返回Step2;否则输出最终的匹配点集R。
实施例1
本实施例中的两幅图像是新疆某洞窟壁画的高分辨率照片,用于拼接工作的对准。本实施例中第一步RANSAC方法中用到的参数设置如下:误差阈值ε=20,α=0.99;第二步RANSAC方法中用到的参数:误差阈值ε=3,α=0.99。图3a是两幅输入图片,图3b是本发明的第一步RANSAC方法的结果,图3c是本发明的第二步RANSAC方法的结果,也即最终的匹配点集。
实施例2
本实施例中的两幅图像是新疆某洞窟的壁画缺失部分的照片,纹理较少,匹配困难。本实施例中第一步RANSAC方法中用到的参数设置如下:误差阈值ε=20,α=0.99;第二步RANSAC方法中用到的参数:误差阈值ε=3,α=0.99。图4a是两幅输入图片,图4b是本发明的第一步RANSAC方法的结果,图4c是本发明的第二步RANSAC方法的结果,也即最终的匹配点集。
两个实施例的源图的重叠部分占整个图像的比例均在15%左右,纹理少,它们用经典的RANSAC算法在默认2000次迭代的情况下得到的匹配点数量分别是13和12对,而且对应的正确性差。第二个实施例用近期的SC-RANSAC方法得到匹配点数量是177对,而本发明的方法在迭代上限为500次的前提下得到的匹配点数量分别是1031和1501对,显著增加了匹配点数量,对应的正确性也高。
本发明的保护内容不局限于以上实施例。在不背离发明构思的精神和范围下,本领域技术人员能够想到的变化和优点都被包括在本发明中,并且以所附的权利要求书为保护范围。
Claims (4)
1.一种加速特征点匹配的两步随机抽样一致性方法,其特征在于,包括以下步骤:
步骤A:分别检测两幅输入图像的特征点,用特征描述子的距离作为度量建立不同图像的特征点之间的初步匹配;
步骤B:以只含缩放和平移参数的仿射变换为模型,应用RANSAC算法验证步骤A生成的初步匹配;随机构造多个仿射变换模型,模型个数由概率方法确定,每个模型把初步匹配划分为验证通过和不通过两个集合;如果一个模型验证通过的集合包含的匹配点数量最多,那么称这个模型为最优模型;输出最优模型验证通过的匹配特征点集;
步骤C:在步骤B筛选出的匹配点集上生成全参数单应变换模型,用RANSAC算法计算一个最优单应变换,验证步骤A生成的初步匹配,选出正确性高的最终匹配点集。
2.如权利要求1所述的加速特征点匹配的两步随机抽样一致性方法,其特征在于,步骤B中,用参数少的仿射变换模型快速找到一个匹配正确率高的匹配点集,包括:
2)方法
输入:初始匹配点集M={(p,q)|p和q分别是两幅输入图像的特征点},每次迭代的误差阈值ε,总的迭代次数N,置信度α;输出:正确率高的匹配点集S;
步骤B2:从匹配点集M中随机选择两组匹配点对,计算仿射变换的参数,生成一个模型F。用F验证M中的所有点对,如果(p,q)∈M,且|Fp-q|<ε,那么T=T∪{(p,q)};累加计数变量i++;
步骤B4:如果i<N,返回步骤B2;否则输出验证过的匹配点集S。
3.如权利要求1所述的加速特征点匹配的两步随机抽样一致性方法,其特征在于,在一个匹配正确率高的匹配点集上生成全参数单应变换模型,验证初步匹配点集,筛选出正确的匹配点对,包括:
输入:初始匹配点集M和正确率高的匹配点集S,误差阈值ε,总的迭代次数n,置信度α;输出:最终的匹配点集R;
步骤C2:从S中随机选择4组匹配点对生成对应的单应变换模型H;用H验证M中的所有点对,如果(p,q)∈M,且|Hp-q|<ε,那么T=T∪{(p,q)};累加计数变量i++;
步骤C4:如果i<n,返回步骤C2;否则输出最终的匹配点集R。
4.一种加速特征点匹配的两步随机抽样一致性系统,其特征在于,采用如权利要求1-3之任一项所述的加速特征点匹配的两步随机抽样一致性方法,所述系统包括:
特征点检测模块,其用于分别检测两幅输入图像的特征点,用特征描述子的距离作为度量建立不同图像的特征点之间的初步匹配;
特征点匹配的仿射变换验证模块,其用于以只含缩放和平移参数的仿射变换为模型,应用RANSAC算法验证初步匹配;随机构造多个仿射变换模型,模型个数由概率方法确定,每个模型把初步匹配划分为验证通过和不通过两个集合;验证通过的集合包含的匹配点数量最多的模型称为最优模型;输出最优模型验证通过的匹配特征点集;
特征点匹配的单应变换验证模块,其用于在筛选出的匹配点的集合上生成全参数单应变换模型,用RANSAC算法计算一个最优单应变换,验证步骤A生成的初步匹配,选出正确性高的最终匹配点集。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910826436.9A CN110728296B (zh) | 2019-09-03 | 2019-09-03 | 一种加速特征点匹配的两步随机抽样一致性方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910826436.9A CN110728296B (zh) | 2019-09-03 | 2019-09-03 | 一种加速特征点匹配的两步随机抽样一致性方法及系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110728296A true CN110728296A (zh) | 2020-01-24 |
CN110728296B CN110728296B (zh) | 2022-04-05 |
Family
ID=69218926
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910826436.9A Active CN110728296B (zh) | 2019-09-03 | 2019-09-03 | 一种加速特征点匹配的两步随机抽样一致性方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110728296B (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112712123A (zh) * | 2020-12-31 | 2021-04-27 | 上海商汤科技开发有限公司 | 匹配筛选方法、装置、电子设备和计算机可读存储介质 |
CN112749888A (zh) * | 2020-12-31 | 2021-05-04 | 浙江省方大标准信息有限公司 | 基于ransac算法的多元随机抽查方法、系统、装置 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102088569A (zh) * | 2010-10-13 | 2011-06-08 | 首都师范大学 | 低空无人飞行器序列图像拼接方法和系统 |
CN103279955A (zh) * | 2013-05-23 | 2013-09-04 | 中国科学院深圳先进技术研究院 | 图像匹配方法和系统 |
CN109064404A (zh) * | 2018-08-10 | 2018-12-21 | 西安电子科技大学 | 一种基于多相机标定的全景拼接方法、全景拼接系统 |
CN109285110A (zh) * | 2018-09-13 | 2019-01-29 | 武汉大学 | 基于鲁棒匹配与变换的红外可见光图像配准方法及系统 |
CN109389555A (zh) * | 2018-09-14 | 2019-02-26 | 复旦大学 | 一种全景图像拼接方法及装置 |
CN110111250A (zh) * | 2019-04-11 | 2019-08-09 | 中国地质大学(武汉) | 一种鲁棒的自动全景无人机图像拼接方法及装置 |
CN110148163A (zh) * | 2019-04-29 | 2019-08-20 | 东南大学 | 一种基于有效区域的改进ransac算法求解单应矩阵的方法 |
-
2019
- 2019-09-03 CN CN201910826436.9A patent/CN110728296B/zh active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102088569A (zh) * | 2010-10-13 | 2011-06-08 | 首都师范大学 | 低空无人飞行器序列图像拼接方法和系统 |
CN103279955A (zh) * | 2013-05-23 | 2013-09-04 | 中国科学院深圳先进技术研究院 | 图像匹配方法和系统 |
CN109064404A (zh) * | 2018-08-10 | 2018-12-21 | 西安电子科技大学 | 一种基于多相机标定的全景拼接方法、全景拼接系统 |
CN109285110A (zh) * | 2018-09-13 | 2019-01-29 | 武汉大学 | 基于鲁棒匹配与变换的红外可见光图像配准方法及系统 |
CN109389555A (zh) * | 2018-09-14 | 2019-02-26 | 复旦大学 | 一种全景图像拼接方法及装置 |
CN110111250A (zh) * | 2019-04-11 | 2019-08-09 | 中国地质大学(武汉) | 一种鲁棒的自动全景无人机图像拼接方法及装置 |
CN110148163A (zh) * | 2019-04-29 | 2019-08-20 | 东南大学 | 一种基于有效区域的改进ransac算法求解单应矩阵的方法 |
Non-Patent Citations (5)
Title |
---|
1REDIA REDZUWAN 等: "Affine versus projective transformation for SIFT and RANSAC image matching methods", 《IEEE INTERNATIONAL CONFERENCE ON SIGNAL AND IMAGE PROCESSING APPLICATIONS (ICSIPA)》 * |
XIAO-QUN WU 等: "Geometry of Motion for Video Shakiness Detection", 《JOURNAL OF COMPUTER SCIENCE》 * |
张晨光 等: "基于SIFT特征点检测的低复杂度图像配准算法", 《扬州大学学报(自然科学版)》 * |
楚东东 等: "基于移动最小二乘法的视差图像拼接", 《计算机应用与软件》 * |
樊逸清 等: "使用线约束运动最小二乘法的视差图像拼接", 《中国图象图形学报》 * |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112712123A (zh) * | 2020-12-31 | 2021-04-27 | 上海商汤科技开发有限公司 | 匹配筛选方法、装置、电子设备和计算机可读存储介质 |
CN112749888A (zh) * | 2020-12-31 | 2021-05-04 | 浙江省方大标准信息有限公司 | 基于ransac算法的多元随机抽查方法、系统、装置 |
CN112712123B (zh) * | 2020-12-31 | 2022-02-22 | 上海商汤科技开发有限公司 | 匹配筛选方法、装置、电子设备和计算机可读存储介质 |
WO2022142084A1 (zh) * | 2020-12-31 | 2022-07-07 | 上海商汤科技开发有限公司 | 匹配筛选方法及装置、电子设备、存储介质和计算机程序 |
TWI776718B (zh) * | 2020-12-31 | 2022-09-01 | 大陸商上海商湯科技開發有限公司 | 匹配篩選方法及電子設備和電腦可讀儲存介質 |
CN112749888B (zh) * | 2020-12-31 | 2023-10-03 | 浙江省标准化研究院(金砖国家标准化(浙江)研究中心、浙江省物品编码中心) | 基于ransac算法的多元随机抽查方法、系统、装置 |
Also Published As
Publication number | Publication date |
---|---|
CN110728296B (zh) | 2022-04-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2021115071A1 (zh) | 单目内窥镜图像的三维重建方法、装置及终端设备 | |
Paglieroni | Distance transforms: Properties and machine vision applications | |
David et al. | Softposit: Simultaneous pose and correspondence determination | |
CN111553939B (zh) | 一种多目摄像机的图像配准算法 | |
Pritchett et al. | Matching and reconstruction from widely separated views | |
Mistry et al. | Image stitching using Harris feature detection | |
Melo et al. | Unsupervised intrinsic calibration from a single frame using a" plumb-line" approach | |
US9767383B2 (en) | Method and apparatus for detecting incorrect associations between keypoints of a first image and keypoints of a second image | |
CN111709980A (zh) | 基于深度学习的多尺度图像配准方法和装置 | |
Zagrouba et al. | An efficient image-mosaicing method based on multifeature matching | |
Schaffalitzky et al. | A six point solution for structure and motion | |
Bazin et al. | Globally optimal inlier set maximization with unknown rotation and focal length | |
WO2012044217A1 (en) | Method and apparatus for optimization and incremental improvement of a fundamental matrix | |
Li et al. | 4FP-structure: A robust local region feature descriptor | |
CN110728296B (zh) | 一种加速特征点匹配的两步随机抽样一致性方法及系统 | |
Ghannam et al. | Cross correlation versus mutual information for image mosaicing | |
Liu et al. | Unsupervised global and local homography estimation with motion basis learning | |
JP6558803B2 (ja) | 幾何検証装置及びプログラム | |
Zhang et al. | Efficient Pairwise 3-D Registration of Urban Scenes via Hybrid Structural Descriptors. | |
Kutulakos | Shape from the light field boundary | |
Chandratre et al. | Image stitching using Harris feature detection and random sampling | |
Da Silveira et al. | Evaluation of keypoint extraction and matching for pose estimation using pairs of spherical images | |
Conomis | Conics-based homography estimation from invariant points and pole-polar relationships | |
Andaló et al. | Vanishing point detection by segment clustering on the projective space | |
Zhang | Binocular Stereo Vision |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |