CN115100444A - 一种图像误匹配滤除方法及其图像匹配装置 - Google Patents
一种图像误匹配滤除方法及其图像匹配装置 Download PDFInfo
- Publication number
- CN115100444A CN115100444A CN202210558483.1A CN202210558483A CN115100444A CN 115100444 A CN115100444 A CN 115100444A CN 202210558483 A CN202210558483 A CN 202210558483A CN 115100444 A CN115100444 A CN 115100444A
- Authority
- CN
- China
- Prior art keywords
- image
- matching
- grid
- pair
- vector
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/75—Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/46—Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
- G06V10/462—Salient features, e.g. scale invariant feature transforms [SIFT]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/761—Proximity, similarity or dissimilarity measures
Landscapes
- Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- Databases & Information Systems (AREA)
- Computing Systems (AREA)
- Artificial Intelligence (AREA)
- Health & Medical Sciences (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种图像误匹配滤除方法及其图像匹配装置,所述方法包括:S1:分别对待处理的第一图像和第二图像进行特征点提取,得到特征点集合;S2:对特征点集合中的每个相对应的特征点进行初始特征匹配,得到特征点局部匹配集合;S3:分别对第一图像和第二图像进行网格划分,根据网格的匹配情况形成第一图像和第二图像之间的网格向量对,根据网格向量对的匹配情况计算每个网格的匹配置信度以保留或剔除局部匹配集合中误匹配的特征对。本发明采用基于网格向量的误匹配剔除算法,能快速降低计算复杂度,能够从整张图像的全局角度出发,不仅能够剔除局部特征不同的误匹配对,还能剔除图案要素相同但排版不同、或图案要素存在对称时产生的误匹配,使得图像间的匹配准确率有效提升。
Description
技术领域
本发明涉及图像匹配技术领域,具体是一种图像误匹配滤除方法及其图像匹配装置。
背景技术
图像特征匹配是从待匹配的图像对中提取特征点,计算特征点间的相似性,来建立图像间的匹配对应关系。它在图像配准、三维重建、机器人定位及导航等领域应用广泛。目前,用于图像间特征匹配的常用方法是利用特征算子进行匹配,常用的特征算子包括SIFT、 SURF及ORB等。
在提取出图像的特征点与描述子后,对图像间的描述子进行匹配。为了降低匹配错误率,获得更好的匹配结果,需要引入一些约束条件。常用的利用约束条件滤除误匹配的方法有暴力匹配算法、RANSAC方法、GMS算法等。暴力匹配算法以返回欧式距离最近的关键点作为匹配点,该方法原理简单,但得到的匹配集中存在大量的错误匹配。进一步的,可以采用Ratio test方法或RANSAC方法过滤外匹配。Ratio test方法通过计算最接近距离和次接近距离的比值,当比值大于既定值,才作为最终匹配。RANSAC算法是一种在包含离群点的数据集里,将3D点按照当前估计的位姿进行重投影,利用重投影误差来剔除错误匹配。GMS算法依据“在正确匹配的特征点附近的正确匹配点对数,应该大于错误匹配点附近的正确匹配点对数”这一假设,将运动平滑约束转换为剔除错误匹配的统计量,来剔除错误匹配。
在图像匹配过滤中,目前较常用的是RANSAC和GMS匹配过滤算法。但以上两种方法都是针对图像的局部特征进行匹配,当存在以下情况时,以上匹配算法仍然会产生错误的匹配:
图像对间存在部分图案要素相同,但图案要素间的排版组合方式不同;
图像对接近对称。
当存在以上情况时,由于图案要素部分相同或对称相同,特征匹配算法仍然会将图像的这些局部特征匹配结果认为是正确的匹配,从而导致将采集自物体的不同表面或不同场景的图片认为是属于物体同一表面或同一场景,从而产生错误的匹配结果,在三维重建或 SLAM中将导致相机的位姿估计出现错误。
发明内容
本发明的目的在于提供一种图像误匹配滤除方法及其图像匹配装置,以解决上述背景技术中提出的问题。
为实现上述目的,本发明提供如下技术方案:一种图像误匹配滤除方法,其特征在于,所述方法包括以下步骤:
S1:采用SIFT特征检测结合角点检测算法分别对待处理的第一图像和第二图像进行特征点提取,得到特征点集合;
S2:对特征点集合中的每个相对应的特征点进行初始特征匹配,得到第一图像和第二图像间的特征点局部匹配集合;
S3:分别对第一图像和第二图像进行网格划分,根据网格的匹配情况形成第一图像和第二图像之间的网格向量对,根据网格向量对的匹配情况计算每个网格的匹配置信度以保留或剔除局部匹配集合中误匹配的特征对。
进一步的,所述步骤S2包括:
S21:进行ratio test过滤,利用欧式距离计算第一幅图像中的点距离第二幅图像中最近距离和次近距离,剔除二者比值不符合要求的特征点;
S22:进行交叉匹配过滤,剔除ratio test过滤后的误匹配;
S23:使用GMS算法消除交叉匹配过滤后的误匹配;
S24:调用RANSAC算法函数,对使用GMS算法消除交叉匹配过滤后的误匹配后的初始匹配对再次进行误匹配剔除得到第一图像和第二图像之间的特征点局部匹配集合;
进一步的,所述步骤S3包括:
S31:分别对第一图像和第二图像进行网格划分,计算第一图像每个网格与第二图像中对应网格含有的匹配对数;
S32:依次遍历第二图像中与第一图像对应的网格,寻求与第一图像中每一网格匹配对数最多的第二图像中对应的网格,形成第一图像和第二图像之间的网格匹配集;
S33:对第一图像中含有匹配对数的网格,两两形成网格向量,对第二图像中对应网格,也两两形成网格向量,将第一图像的网格向量与第二图像中对应的网格向量形成网格向量对;
S34:判断网格向量对是否匹配正确,根据网格向量对的匹配情况计算每个网格的匹配置信度以保留或剔除局部匹配集合中误匹配的特征对。
进一步的,所述步骤S34包括:
S341:分别计算每一网格向量对的夹角;
S342:判断夹角是否大于预设阈值,若夹角大于预设阈值,判定为匹配错误网格向量对,进入S345步骤;若夹角小于预设阈值,进入S343步骤;
S343:计算该网格向量对包含的两个网格的位移,依照式(1)进行计算,
S344:判断式(1)的值是否为0;
若式(1)的值为0,判定为匹配错误网格向量对,若式(1)的值不为0,判定为匹配正确网格向量对;
S345:计算每一网格的匹配置信度得分,按照该网格构成的正确网格向量对与错误网格向量对的差,与第一图像和第二图像之间的形成的网格向量对中正确网格向量对与错误网格向量对的差之间的比值计算每一网格的匹配置信度,如式(3);
S346:依据式(4)判断网格对是否属于正确匹配,判断式(4)的值是否为正;
若式(4)的值为正,则保留正确匹配网格内包含的特征匹配对,若式(4)的值为负,则删除错误匹配网格内包含的特征匹配对,
其中,M表示含有匹配对数的网格数量。
进一步的,所述步骤S32中,对第一图像和第二图像中的网格进行编号,在与第一图像中某个网格存在匹配关系的多个第二图像网格中,求匹配对数最多的第二图像网格编号由此,形成第一图像和第二图像之间一对一的网格匹配集。
进一步的,所述步骤S33中将第一图像的网格向量与第二图像中对应的网格向量形成网格向量对的具体步骤为:将第一图像中的网格向量与第二图像中的对应网格向量形成一对网格向量对,其中,表示第一图像中第i个网格指向第j个网格形成的向量,表示在第二图像中,根据S32步骤中计算的,与第一图像第i个网格匹配的网格、与第一图像第j个网格匹配的网格形成的向量。
进一步的,所述步骤S31中,对第一图像和第二图像进行网格划分后,根据第一图像和第二图像中特征点局部匹配集合中每对匹配特征点各自的坐标,计算第一图像每个网格与第二图像中对应网格含有的匹配对数。
一种图像匹配装置,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时实现如上方法的步骤。
与现有技术相比,本发明的有益效果是:
1、本发明采用基于网格向量的误匹配剔除算法,不使用特征点为基本单元,而使用网格为基本单元进行计算,能快速降低计算复杂度,同时,利用网格之间的夹角和距离变化,能够从整张图像的全局角度出发,综合考虑图像中相同图案要素的排版方式、图案要素间的排列方向,不仅能够剔除局部特征不同的误匹配对,还能剔除图案要素相同但排版不同、或图案要素存在对称时产生的误匹配,使得图像间的匹配准确率有效提升,且计算复杂度低,在三维重建或SLAM定位时,能够更准确的恢复相机位姿,得到更准确的三维建模结果或机器人定位结果,是一种具有较高应用价值的方法;
2、本发明使用更小点阈值、更大边缘效应阈值、更多特征点数量三个参数结合的SIFT 特征检测算法,结合角点检测算法,能使得特征点提取相比传统特征点检测算法数量更多,可以使得经过后续层层过滤后,留下足够多的匹配对,可有效支撑后续的进一步过滤;
3、本发明使用4种匹配过滤算法的结合,得到鲁棒性更强、质量更高的初始匹配结果集,相比于现有的特征点匹配过滤算法,使用暴力匹配时,将ratio test在阈值内的匹配对都保留下,再依次经过交叉过滤、GMS过滤、RANSAC过滤,可以留下质量更高、鲁棒性更强的匹配对,有效支撑后续的进一步过滤。
附图说明
图1为本发明图像误匹配滤除方法流程图;
图2为本发明图像误匹配滤除方法中步骤S2的具体流程图;
图3为本发明图像误匹配滤除方法中步骤S3的具体流程图;
图4为本发明图像误匹配滤除方法中网格向量对示意图;
图5为本发明图像误匹配滤除方法中步骤S33的具体流程图;
图6为实验时采用RANSAC算法进行图像误匹配滤除的结果图;
图7为实验时采用VFC算法进行图像误匹配滤除的结果图;
图8为实验时采用LPM算法进行图像误匹配滤除的结果图;
图9为实验时采用本发明进行图像误匹配滤除的结果图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
如图1~图3所示,本实施例提供一种图像误匹配滤除方法,所述方法包括以下步骤:
S1:采用SIFT特征检测结合角点检测算法分别对待处理的第一图像和第二图像进行特征点提取,得到特征点集合;
在本实施例中,可以先采用角点检测算法分别获取第一图像的角点和第二图像的角点,得到第一角点集合和第二角点集合,再使用更小点阈值、更大边缘效应阈值、更多特征点数量三个参数结合的SIFT特征检测算法分别提取第一图像的特征点和第二图像的特征点,与第一角点集合和第二角点集合合并得到第一图像特征点集合和第二图像特征点集合;
S2:对特征点集合中的每个相对应的特征点进行初始特征匹配,得到第一图像和第二图像间的特征点局部匹配集合;
其中,S2的具体步骤包括:
S21:进行ratio test过滤,计算特征点集合中所有特征点的距离,利用欧式距离计算第一幅图像中的点距离第二幅图像中最近距离和次近距离,剔除二者比值不符合要求的特征点;
S22:进行交叉匹配过滤,剔除ratio test过滤后的误匹配;
S23:使用GMS算法消除交叉匹配过滤后的误匹配;
S24:调用RANSAC算法函数对使用GMS算法消除交叉匹配过滤后的误匹配后的初始匹配对再次进行误匹配剔除得到第一图像和第二图像之间的特征点局部匹配集合;
在本实施例中,首先进行ratio test过滤,计算特征点集合中所有特征点的距离,对第一图像的特征集合A中的每个特征描述符d,在第二图像的特征集合B中找到1个欧式距离最小的匹配点d1和次小的匹配点d2,若|d-d1|/|d-d2|的结果在(0.4-0.6)之间,则保留该匹配,否则剔除该匹配;其次,进行交叉匹配过滤,交换第一图像和第二图像的顺序,若某个匹配既存在于第一图像->第二图像的匹配集中,又存在于第二图像->第一图像的匹配集中,则保留该匹配,否则剔除该匹配;第三,使用GMS算法消除交叉匹配过滤后的误匹配,将运动平滑约束转换为剔除错误匹配的统计量,将匹配点划分为各个小区域,若各区域周围存在的其他匹配对数量,与该区域含有的匹配数相比,大于一定阈值,则认为该区域的匹配是正确的,否则是错误的;第四,调用RANSAC算法函数,利用基础矩阵对使用GMS算法消除交叉匹配过滤后的误匹配后的初始匹配对再次进行误匹配剔除得到质量较高的第一图像和第二图像之间的特征点局部匹配集合;
S3:分别对第一图像和第二图像进行网格划分,根据网格的匹配情况形成第一图像和第二图像之间的网格向量对,根据网格向量对的匹配情况计算每个网格的匹配置信度以保留或剔除局部匹配集合中误匹配的特征对。
其中,S3步骤包括:
S31:分别对第一图像和第二图像进行网格划分,计算第一图像每个网格与第二图像中对应网格含有的匹配对数;
S32:依次遍历第二图像中与第一图像对应的网格,寻求与第一图像中每一网格匹配对数最多的第二图像中对应的网格,形成第一图像和第二图像之间的网格匹配集;
S33:对第一图像中含有匹配对数的网格,两两形成网格向量,对第二图像中对应网格,也两两形成网格向量,将第一图像的网格向量与第二图像中对应的网格向量形成网格向量对;
S34:判断网格向量对是否匹配正确,根据网格向量对的匹配情况计算每个网格的匹配置信度以保留或剔除局部匹配集合中误匹配的特征对。
在本实施例中,分别对第一图像和第二图像进行网格划分,可以划分为20*20的网格,根据第一图像和第二图像中特征点局部匹配集合中每对匹配特征点各自的坐标,计算第一图像每个网格与第二图像中对应网格含有的匹配对数;对第一图像和第二图像中的网格进行编号,依次遍历第二图像中与第一图像对应的网格,寻求与第一图像中每一网格匹配对数最多的第二图像中对应的网格,在与第一图像中某个网格存在匹配关系的多个第二图像网格中,求的匹配对数最多的第二图像网格编号由此,形成第一图像和第二图像之间一对一的网格匹配集:对第一图像中的M个含有匹配对数的网格,两两形成个网格向量,对第二图像中的对应特征网格,也两两形成个网格向量,将第一图像中的网格向量与第二图像中的对应网格向量形成一对网格向量对,其中,表示第一图像中第i个网格指向第j个网格形成的向量,表示在第二图像中,根据S32步骤中计算的,与第一图像第i个网格匹配的网格、与第一图像第j个网格匹配的网格形成的向量,如图4所示,对于图像Ga中的第10号网格与第8号网格形成的网格向量,与Gb中的第11号网格与第8 号网格形成的网格向量,形成了一对网格向量对,由此,共形成个网格向量对,对于这个网格向量对,如图5所示,判断网格向量对是否正确匹配,具体步骤如下:
S341:分别计算每一网格向量对的夹角;
S342:判断夹角是否大于预设阈值,若夹角大于预设阈值,判定为匹配错误网格向量对,进入S345步骤;若夹角小于预设阈值,进入S343步骤,在本实施例中,若网格向量对的夹角大于90°,则表示该网格向量存在反向关系,则认为该网格向量对的匹配是错误的,若网格向量对的夹角小于90°,则表示该网格向量对满足同向关系,则进入S343步骤;
S343:计算该网格向量对包含的两个网格的位移,依照式(1)进行计算,
S344:判断式(1)的值是否为0;
若式(1)的值为0,判定为匹配错误网格向量对,若式(1)的值不为0,判定为匹配正确网格向量对;
S345:计算每一网格的匹配置信度得分,按照该网格构成的正确网格向量对与错误网格向量对的差,与第一图像和第二图像之间的形成的网格向量对中正确网格向量对与错误网格向量对的差之间的比值计算每一网格的匹配置信度,如式(3);
S346:依据式(4)判断网格对是否属于正确匹配,判断式(4)的值是否为正;
若式(4)的值为正,则进入S347:保留正确匹配网格内包含的特征匹配对,若式(4)的值为负,则删除错误匹配网格内包含的特征匹配对,
具体实施时,以上流程可采用软件方式实现自动运行,本实施例还提供一种图像匹配装置,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时实现如上方法的步骤。
实验过程中分别采用RANSAC算法、VFC算法、LPM算法以及本申请的滤除方法对第一图像和第二图像进行图像误匹配滤除,如图6~图9所示,左图的好来牙膏盒体的正面与右图好来牙膏盒体的正面属于图案要素相同、排版不同的情况,采用RANSAC算法、 VFC算法、LPM算法均存在误匹配的情况,而采用本申请的算法,则剔除了误匹配,特别是针对左图下半部分文字“双重薄荷、清新+洁净”及图形“两片薄荷”与右图的下半部分文字“双重薄荷、清新+洁净”及图形“两片薄荷”,采用VFC算法、LPM算法得到的均是匹配的结果,而本申请的算法得到的结果是不匹配,本申请的算法更稳定,更准确,因此本申请不仅能够剔除局部特征不同的误匹配对,还能剔除图案要素相同但排版不同、或图案要素存在对称时产生的误匹配。
本发明采用基于网格向量的误匹配剔除算法,不使用特征点为基本单元,而使用网格为基本单元进行计算,能快速降低计算复杂度,同时,利用网格之间的夹角和距离变化,能够从整张图像的全局角度出发,综合考虑图像中相同图案要素的排版方式、图案要素间的排列方向,不仅能够剔除局部特征不同的误匹配对,还能剔除图案要素相同但排版不同、或图案要素存在对称时产生的误匹配,使得图像间的匹配准确率有效提升,且计算复杂度低,在三维重建或SLAM定位时,能够更准确的恢复相机位姿,得到更准确的三维建模结果或机器人定位结果,是一种具有较高应用价值的方法;使用更小点阈值、更大边缘效应阈值、更多特征点数量三个参数结合的SIFT特征检测算法,结合角点检测算法,能使得特征点提取相比传统特征点检测算法数量更多,可以使得经过后续层层过滤后,留下足够多的匹配对,可有效支撑后续的进一步过滤;使用4种匹配过滤算法的结合,得到鲁棒性更强、质量更高的初始匹配结果集,相比于现有的特征点匹配过滤算法,使用暴力匹配时,将ratiotest在阈值内的匹配对都保留下,再依次经过交叉过滤、GMS过滤、RANSAC过滤,可以留下质量更高、鲁棒性更强的匹配对,有效支撑后续的进一步过滤。
尽管参照前述实施例对本发明进行了详细的说明,对于本领域的技术人员来说,其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换,凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (9)
1.一种图像误匹配滤除方法,其特征在于,所述方法包括以下步骤:
S1:采用SIFT特征检测结合角点检测算法分别对待处理的第一图像和第二图像进行特征点提取,得到特征点集合;
S2:对特征点集合中的每个相对应的特征点进行初始特征匹配,得到第一图像和第二图像间的特征点局部匹配集合;
S3:分别对第一图像和第二图像进行网格划分,根据网格的匹配情况形成第一图像和第二图像之间的网格向量对,根据网格向量对的匹配情况计算每个网格的匹配置信度以保留或剔除局部匹配集合中误匹配的特征对。
2.根据权利要求1所述的图像误匹配滤除方法,其特征在于,所述步骤S2包括:
S21:进行ratio test过滤,利用欧式距离计算第一幅图像中的点距离第二幅图像中最近距离和次近距离,剔除二者比值不符合要求的特征点;
S22:进行交叉匹配过滤,剔除ratio test过滤后的误匹配;
S23:使用GMS算法消除交叉匹配过滤后的误匹配;
S24:调用RANSAC算法函数,对使用GMS算法消除交叉匹配过滤后的误匹配后的初始匹配对再次进行误匹配剔除得到第一图像和第二图像之间的特征点局部匹配集合;
3.根据权利要求1所述的图像误匹配滤除方法,其特征在于,所述步骤S3包括:
S31:分别对第一图像和第二图像进行网格划分,计算第一图像每个网格与第二图像中对应网格含有的匹配对数;
S32:依次遍历第二图像中与第一图像对应的网格,寻求与第一图像中每一网格匹配对数最多的第二图像中对应的网格,形成第一图像和第二图像之间的网格匹配集;
S33:对第一图像中含有匹配对数的网格,两两形成网格向量,对第二图像中对应网格,也两两形成网格向量,将第一图像的网格向量与第二图像中对应的网格向量形成网格向量对;
S34:判断网格向量对是否匹配正确,根据网格向量对的匹配情况计算每个网格的匹配置信度以保留或剔除局部匹配集合中误匹配的特征对。
4.根据权利要求3所述的图像误匹配滤除方法,其特征在于,所述步骤S34包括:
S341:分别计算每一网格向量对的夹角;
S342:判断夹角是否大于预设阈值,若夹角大于预设阈值,判定为匹配错误网格向量对,进入S345步骤;若夹角小于预设阈值,进入S343步骤;
S343:计算该网格向量对包含的两个网格的位移,依照式(1)进行计算,
S344:判断式(1)的值是否为0;
若式(1)的值为0,判定为匹配错误网格向量对,若式(1)的值不为0,判定为匹配正确网格向量对;
S345:计算每一网格的匹配置信度得分,按照该网格构成的正确网格向量对与错误网格向量对的差,与第一图像和第二图像之间的形成的网格向量对中正确网格向量对与错误网格向量对的差之间的比值计算每一网格的匹配置信度,如式(3);
S346:依据式(4)判断网格对是否属于正确匹配,判断式(4)的值是否为正;
若式(4)的值为正,则保留正确匹配网格内包含的特征匹配对,若式(4)的值为负,则删除错误匹配网格内包含的特征匹配对,
其中,M表示含有匹配对数的网格数量。
8.根据权利要求3所述的图像误匹配滤除方法,其特征在于:所述步骤S31中,对第一图像和第二图像进行网格划分后,根据第一图像和第二图像中特征点局部匹配集合中每对匹配特征点各自的坐标,计算第一图像每个网格与第二图像中对应网格含有的匹配对数。
9.一种图像匹配装置,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,其特征在于:所述处理器执行所述程序时实现如权利要求1~9任意一项所述方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210558483.1A CN115100444A (zh) | 2022-05-20 | 2022-05-20 | 一种图像误匹配滤除方法及其图像匹配装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210558483.1A CN115100444A (zh) | 2022-05-20 | 2022-05-20 | 一种图像误匹配滤除方法及其图像匹配装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN115100444A true CN115100444A (zh) | 2022-09-23 |
Family
ID=83289056
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210558483.1A Pending CN115100444A (zh) | 2022-05-20 | 2022-05-20 | 一种图像误匹配滤除方法及其图像匹配装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115100444A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116109852A (zh) * | 2023-04-13 | 2023-05-12 | 安徽大学 | 一种快速及高精度的特征匹配错误消除方法 |
-
2022
- 2022-05-20 CN CN202210558483.1A patent/CN115100444A/zh active Pending
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116109852A (zh) * | 2023-04-13 | 2023-05-12 | 安徽大学 | 一种快速及高精度的特征匹配错误消除方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110378348B (zh) | 视频实例分割方法、设备及计算机可读存储介质 | |
WO2020048396A1 (zh) | 一种连续图像的目标检测方法、装置、设备及存储介质 | |
Wu et al. | Stereo matching with fusing adaptive support weights | |
CN106228528B (zh) | 一种基于决策图与稀疏表示的多聚焦图像融合方法 | |
CN106203342A (zh) | 基于多角度局部特征匹配的目标识别方法 | |
CN110930411B (zh) | 一种基于深度相机的人体分割方法及系统 | |
CN113312973B (zh) | 一种手势识别关键点特征提取方法及系统 | |
CN114782499A (zh) | 一种基于光流和视图几何约束的图像静态区域提取方法及装置 | |
CN110009663B (zh) | 一种目标跟踪方法、装置、设备及计算机可读存储介质 | |
CN113643365B (zh) | 一种相机位姿估计方法、装置、设备以及可读存储介质 | |
CN115601574A (zh) | 一种改进akaze特征的无人机影像匹配方法 | |
CN108305268B (zh) | 一种图像分割方法及装置 | |
CN111402303A (zh) | 一种基于kfstrcf的目标跟踪架构 | |
Song et al. | A joint siamese attention-aware network for vehicle object tracking in satellite videos | |
CN115100444A (zh) | 一种图像误匹配滤除方法及其图像匹配装置 | |
CN115018999A (zh) | 一种多机器人协作的稠密点云地图构建方法及装置 | |
CN112270748B (zh) | 基于图像的三维重建方法及装置 | |
Sun et al. | Uni6Dv2: Noise elimination for 6D pose estimation | |
CN113610760A (zh) | 一种基于u型残差神经网络的细胞图像分割示踪方法 | |
CN111291687B (zh) | 一种3d人体动作标准性判识的方法 | |
CN110349184B (zh) | 基于迭代滤波和观测判别的多行人跟踪方法 | |
CN112084855A (zh) | 一种基于改进ransac方法对视频流的外点剔除方法 | |
CN108665470B (zh) | 一种交互式轮廓提取方法 | |
CN107392936B (zh) | 一种基于meanshift的目标跟踪方法 | |
CN114219706A (zh) | 基于网格分区特征点约减的图像快速拼接方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |