CN116109852A - 一种快速及高精度的特征匹配错误消除方法 - Google Patents

一种快速及高精度的特征匹配错误消除方法 Download PDF

Info

Publication number
CN116109852A
CN116109852A CN202310390886.4A CN202310390886A CN116109852A CN 116109852 A CN116109852 A CN 116109852A CN 202310390886 A CN202310390886 A CN 202310390886A CN 116109852 A CN116109852 A CN 116109852A
Authority
CN
China
Prior art keywords
feature matching
points
grid
feature
representing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202310390886.4A
Other languages
English (en)
Other versions
CN116109852B (zh
Inventor
曹明伟
闫奇
程宜风
吴家乐
江海燕
赵海峰
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Electric Power Research Institute of State Grid Anhui Electric Power Co Ltd
Anhui University
Original Assignee
Electric Power Research Institute of State Grid Anhui Electric Power Co Ltd
Anhui University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Electric Power Research Institute of State Grid Anhui Electric Power Co Ltd, Anhui University filed Critical Electric Power Research Institute of State Grid Anhui Electric Power Co Ltd
Priority to CN202310390886.4A priority Critical patent/CN116109852B/zh
Publication of CN116109852A publication Critical patent/CN116109852A/zh
Application granted granted Critical
Publication of CN116109852B publication Critical patent/CN116109852B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/751Comparing pixel values or logical combinations thereof, or feature values having positional relevance, e.g. template matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/72Data preparation, e.g. statistical preprocessing of image or video features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/761Proximity, similarity or dissimilarity measures

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Artificial Intelligence (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开一种快速及高精度的特征匹配错误消除方法,输入初始特征匹配点,提取特征匹配点坐标,计算正弦值和欧氏距离,对新坐标进行网格划分、统计网格中特征匹配点的数量并获得角度集合;通过自适应参数估计,计算出网格中特征匹配点数量的拐点,获得纠错阈值,将网格中特征匹配点数量小于阈值的特征匹配点剔除,从而获得精确的特征匹配点。本发明能够快速地消除初始特征匹配结果中的错误特征匹配点,提高图像匹配的精度,提升基于图像匹配的计算机视觉应用系统的性能,如基于图像的三维重建、图像拼接、图像检索、视觉定位与导航、虚拟现实和增强现实。

Description

一种快速及高精度的特征匹配错误消除方法
技术领域
本发明涉及数字图像处理和计算视觉技术,具体涉及一种快速及高精度的特征匹配错误消除方法。
背景技术
近年来,计算机视觉技术受到了国内外研究者的广泛关注,且取得了突飞猛进的发展。图像匹配(Image Matching)是计算机视觉领域中的热点研究问题之一,其目的是为了找出图像之间的正确特征匹配点。图像匹配技术在图像拼接、虚拟现实、增强现实、三维重建和图像检索等领域具有广泛的应用。经典的图像匹配方法的流程如下:(1)检测特征点;(2)计算描述子;(3)特征描述子匹配;(4)消除错误的特征匹配。
在实际应用场景中,受光照变化、摄像机旋转、尺度变化、重复结构和重复纹理等因素的影响,仅依赖特征描述子之间的相似性所得到的特征点匹配点通常包含大量错误。这些错误的特征匹配点会影响基于图像匹配技术的高层次计算机视觉应用系统的性能。例如,在基于图像的三维重建中,三维模型的完整性和精确度严重依赖于特征匹配的精度,如果特征匹配精度低,则会破坏三维模型与真实场景的几何一致性,甚至导致三维重建过程失败。因此,通常需要消除错误的特征匹配点,从而获得精确的特征匹配点,进而提升基于图像匹配技术的高层次计算机视觉应用系统的性能。此外,随着卫星图像、航拍图像等高分辨率图像的普及和应用,当处理这些高分辨率图像数据以及对实时性有较高要求的计算机视觉任务时,设计一种快速及高精度的特征匹配错误消除方法具有重要的理论和应用价值。
然而消除错误的特征匹配点是一项具有挑战性的任务。目前,常用的方法是利用几何约束(Geometry Constraint)来消除错误的特征匹配点,但是此类方法难以处理具有形变的图像匹配问题。此外,现有消除特征匹配错误方法的时间复杂度较高,难以适用于对实时性要求较高的计算机视觉系统中。
概括地说,现有消除特征匹配错误的方法主要存在以下问题:
(1)现有消除特征匹配错误方法的时间效率太低,难以处理高分辨率的图像匹配问题。
(2)现有消除特征匹配错误方法的精度低,难以计算出高精度的特征匹配点,严重影响了基于图像匹配技术的高层次计算机视觉应用系统的性能。
发明内容
发明目的:本发明的目的在于解决现有技术中存在的不足,提供一种快速及高精度的特征匹配消除方法,剔除初始特征匹配结果中的错误特征匹配点,从而获得高精度的特征匹配点,使得一系列基于图像匹配技术的高层次计算机视觉应用变成可能。
技术方案:本发明的一种快速及高精度的特征匹配错误消除方法,包括以下步骤:
S1、输入初始特征匹配点,得到初始特征匹配点集合
其中,表示输入的初始查询特征点,表示输入的初始训练特征点,表示特征匹配点的数量,表示特征匹配点的序号;
S2、根据初始特征匹配结果分别计算每对特征匹配点的坐标,得到特征匹配点集合
其中,表示查询特征点(Query Keypoints)的坐标,表示训练特征点(TrainingKeypoints)的坐标;
S3、计算特征匹配点坐标集合中每个特征匹配点与轴之间的夹角的正弦值,以及特征匹配点连线的长度(也就是欧氏距离)之间的欧式距离,然后分别将所得正弦值和对应欧氏距离作为新坐标的轴数值和轴数值,从而获得新坐标集合
S4、对新坐标集合进行网格划分,将特征匹配点分布在不同的网格区域内,得到每个坐标点所在网格的索引号;其中,表示特征匹配点的序号;
S5、计算每个网格中存在的特征匹配点索引,构造每个网格包含的特征匹配点索引集合
其中表示中第个特征匹配点所在网格存放的是第个特征匹配点的索引号;
S6、计算角度集合
将每个网格中包含的特征匹配点索引集合中每个网格中的特征匹配点数量按从大到小排列,排序结果记为,将中的数值以柱状图形式模拟,计算该柱状图中最大值高度和最小值高度依次与其它数值高度所形成的角度,得到角度集合
其中,表示的最大值,表示的最小值,表示以为顶点与两点形成的角度,表示中含有网格的数量且表示网格中特征匹配点数量排序结果的序号,表示序号为的网格中的特征匹配点数量;
S7、自适应参数估计
取角度集合中角度最小值的索引对应的网格中特征匹配点数量,作为每个网格中含有的特征匹配点数量的拐点,根据求得数据密度,经判断后得到网格中特征匹配点数量的阈值
其中,表示角度集合中角度最小值的网格序号;
S8、对特征匹配点数量集合使用阈值来选择正确的特征匹配点,若网格中特征匹配点的数量小于,则删除该网格中所有特征匹配点,最终获得正确特征匹配点索引集合
进一步地,所述步骤S2中计算特征匹配点的坐标集合的具体步骤为:
S2.1、计算初始特征匹配结果中查询特征点轴和轴的数值,记为;其中,表示取特征点在轴上的数值,表示取特征点在轴上的数值;
S2.2、计算初始特征匹配结果中训练特征点轴和轴的数值,记为
S2.3、将合并为一个集合,从而获得特征匹配点的坐标集合
其中,表示查询特征点的坐标,表示训练特征点的坐标。
进一步地,所述步骤S3中获取新坐标集合的方法为:
S3.1、将特征匹配点坐标集合中的每一对特征匹配点在轴上的差值集合定义为:
其中,表示取特征点坐标在轴上的数值,为查询特征点的坐标,为训练特征点的坐标;
S3.2、将特征匹配点坐标集合中的每一对特征匹配点在轴上的差值集合定义为:
其中,表示取特征点坐标在轴上的数值,表示特征匹配点坐标集合中查询特征点的坐标轴上的最大值;
S3.3、计算特征匹配点坐标集合中的特征点坐标在图像上的欧氏距离:
其中,表示特征匹配点在两幅图像中的轴差值集合,表示特征匹配点在两幅图像中的轴差值集合;
S3.4、将原始坐标转化为新坐标,计算方法如下:
其中,表示特征匹配点与轴之间夹角的正弦值,表示特征点坐标在两幅图像之间的欧氏距离。
进一步地,所述步骤S4中每个坐标点所在网格的索引的计算方法为:
S4.1、计算出单个网格长度:
其中,表示新坐标集合中坐标点在轴或轴上的最大值,表示一维网格数量;
S4.2、将坐标点划分在网格点集中,得到每个坐标点所在网格的索引号:
其中,表示新坐标集合中第个坐标点所在网格的行数,表示新坐标集合中第个坐标点所在网格的列数。此处第个坐标点代是指第个特征匹配点中的特征点坐标信息。
进一步地,所述步骤S7网格中特征匹配点数量阈值的计算方法为:
S7.1、取角度集合中角度最小值的索引作为,计算出网格中含有的特征匹配点数量所构成的拐点
S7.2、计算中前5个网格包含的特征匹配点数量之和与特征匹配点数量之间的比值,得到数据密度,并规定在拐点时,不需要考虑数据密度的影响,至此取值为:
其中,表示每个网格中含有的特征匹配点数量构成的拐点,表示集合中角度最小值的索引号,表示数据密度,表示中前5个网格序号,
有益效果:与现有技术相比,本发明具有以下优点:
(1)本发明在计算特征匹配点的统计信息后,使正确特征匹配点和错误特征匹配点之间差异更明显,特征匹配结果的精度提高了80%,且时间效率提高了15倍。
(2)本发明对特征匹配点进行网格划分,并通过自适应参数估计获得网格参数阈值,进而获得正确的特征匹配点,提高了算法的时间效率。
(3)本发明既能提高特征匹配结果的精度,又降低了时间消耗,为基于图像匹配技术的高层次计算机视觉任务的发展和应用奠定了基础。
附图说明
图1为本发明的整体处理流程图;
图2为实施例1中初始特征匹配点示意图;
图3为实施例1获取新坐标集合以及网格划分示意图;
图4为实施例1中的输出结果示意图;
图5为本发明实施例中初始特征匹配点示意图;
图6为采用现有GMS的输出结果示意图;
图7为采用现有CSM的输出结果示意图;
图8为本发明实施例中的输出结果示意图;
图9为本发明实施例与GMS和CSM的精度与召回率散点图;
图10为本发明实施例与GMS和CSM的F-分数的累积分布图;
图11为本发明实施例与GMS和CSM的运行时间累积分布图。
具体实施方式
下面对本发明技术方案进行详细说明,但是本发明的保护范围不局限于所述实施例。
如图1所示,本发明依次包括以下步骤:输入初始特征匹配点、提取特征匹配点坐标、计算出查询特征点(Query Keypoints)和训练特征点(Training Keypoints)的正弦值和欧氏距离、对新坐标进行网格划分、统计网格中特征匹配点的数量并获得角度集合;最后,通过自适应参数估计,计算出网格中特征匹配点数量的拐点,获得纠错阈值,将网格中特征匹配点数量小于阈值的特征匹配点剔除,从而获得精确的特征匹配点。
实施例1:
本实施例的快速及高精度的特征匹配错误消除方法,具体包括以下步骤:
S1、输入初始特征匹配点,得到初始特征匹配点集合,如图2所示;
其中,表示输入的初始查询特征点,表示输入的初始训练特征点;
S2、根据初始特征匹配结果分别计算每对特征匹配点的坐标,得到特征匹配点集合
其中,表示查询特征点的坐标,表示训练特征点的坐标,表示特征匹配点的数量,表示特征匹配点的序号;
S2.1、计算初始特征匹配结果中查询特征点轴和轴的数值,记为;其中,表示取特征点在轴上的数值,表示取特征点在轴上的数值;
S2.2、计算初始特征匹配结果中训练特征点轴和轴的数值,记为
S2.3、将合并为一个集合,从而获得特征匹配点的坐标集合
S3、计算特征匹配点坐标集合中每个特征匹配点与轴之间的夹角的正弦值,以及特征匹配点连线的长度(欧式距离),然后分别将所得正弦值和对应欧氏距离作为新坐标的轴数值和轴数值,从而获得新坐标集合;
S3.1、将特征匹配点坐标集合中的每一对特征匹配点在轴上的差值集合定义为:
 (1)
其中,表示取特征点坐标在轴上的数值,为查询特征点的坐标,为训练特征点的坐标;
S3.2、将特征匹配点坐标集合中的每一对特征匹配点在轴上的差值集合定义为:
 (2)
其中,表示取特征点坐标在轴上的数值,表示特征匹配点坐标集合中查询特征点的坐标轴上的最大值;
S3.3、计算特征匹配点坐标集合中的特征点坐标在图像上的欧氏距离:
 (3)
其中,表示特征匹配点在两幅图像中的轴差值集合,表示特征匹配点在两幅图像中的轴差值集合;
S3.4、将原始坐标转化为新坐标,计算方法如下:
 (4)
其中,表示特征匹配点与轴之间夹角的正弦值,表示特征匹配点坐标在两幅图像之间的欧氏距离;
S4、对新坐标集合进行网格划分(如图3所示),将特征匹配点分布在不同的网格区域内,得到每个坐标点所在网格的索引号;其中,表示特征匹配点的序号;
S4.1、计算出单个网格长度:
 (5)
其中,表示新坐标集合坐标点在轴或轴上中的最大值,表示一维网格数量;
S4.2、将坐标点划分在网格点集中,得到每个坐标点所在网格的索引号:
 (6)
其中,表示新坐标集合中第个坐标点所在网格的行数,表示新坐标集合中第个坐标点所在网格的列数;
S5、计算每个网格中存在的特征匹配点索引,构造每个网格包含的特征匹配点索引集合
 (7)
其中表示中第个特征匹配点所在网格存放的是第个特征匹配点的索引号;
S6、计算角度集合
将每个网格中包含的特征匹配点索引集合中每个网格中的特征匹配点数量按从大到小排列,排序结果记为,将中的数值以柱状图形式模拟,计算该柱状图中最大值高度和最小值高度依次与其它数值高度所形成的角度,得到角度集合
 (8)
其中,表示的最大值,表示的最小值,表示以为顶点与两点形成的角度,表示中含有网格的数量且表示网格中特征匹配点数量排序结果的序号;
S7、自适应参数估计
取角度集合中角度最小值的索引对应的网格中特征匹配点数量,作为每个网格中含有的特征匹配点数量的拐点,根据求得数据密度,经判断后得到网格中特征匹配点数量的阈值
其中,表示角度集合中角度最小值的网格序号;
S7.1、取角度集合中角度最小值的索引作为,计算出网格中含有的特征匹配点数量所构成的拐点
S7.2、计算中前5个网格包含的特征匹配点数量之和与特征匹配点数量之间的比值,得到数据密度,并规定在拐点时,不需要考虑数据密度的影响,至此取值为:
 (9)
其中,表示每个网格中含有的特征匹配点数量构成的拐点,表示集合中角度最小值的索引号,表示数据密度,表示中前5个网格序号;
S8、对特征匹配点数量集合使用阈值来选择正确的特征匹配点,若网格中特征匹配点的数量小于,则删除该网格中所有特征匹配点,最终获得正确特征匹配点索引集合;如图4所示;
 (10)
其中,表示网格的序号,表示网格数量,表示序号为的网格中的特征匹配点数量。
实施例2:
本实施例对图5的初始特征匹配点进行消除错误特征匹配点处理,其最终输出结果如图8所示。本实施例对图5同时采用现有GMS方法和CSM方法进行消除错误特征匹配点处理,其输出结果分别如图6和图7所示。
从图6至图8可以看出,采用本发明技术方案不仅能够保留更多的正确特征匹配点,而且极大程度提高特征匹配结果的精度。
本实施例对三种技术方案(本发明、GMS和CSM)的精度与召回率散点进行对比,如图9所示,采用本发明技术方案对图5处理的精度较高。
本实施例对三种技术方案(本发明、GMS和CSM)的F-分数的累积分布进行对比,如图10所示,采用本发明技术方案对图5处理的F-分数的累积分布明显优于其它两种现有技术。
本实施例对三种技术方案(本发明、GMS和CSM)的运行时间累积分布进行对比,如图11所示,本发明技术方案对图5处理的运行时间较少,提高了时间效率。
综上所述,本发明的快速及高精度的特征匹配错误消除方法,能够快速地消除初始特征匹配结果中的错误特征匹配点,提高图像匹配的精度,提升基于图像匹配的计算机视觉应用系统的性能,如基于图像的三维重建、图像拼接、图像检索、视觉定位与导航、虚拟现实和增强现实。

Claims (5)

1.一种快速及高精度的特征匹配错误消除方法,其特征在于,包括以下步骤:
S1、输入初始特征匹配点,得到初始特征匹配点集合 
其中,表示输入的初始查询特征点,表示输入的初始训练特征点,表示特征匹配点的数量,表示特征匹配点的序号;
S2、根据初始特征匹配点集合中初始特征匹配结果,来分别计算每对特征匹配点的坐标,得到特征匹配点坐标集合
其中,表示查询特征点的坐标,表示训练特征点的坐标;
S3、计算特征匹配点坐标集合中每个特征匹配点与轴之间的夹角的正弦值,以及特征匹配点连线的长度,然后将所得正弦值和对应欧氏距离作为新坐标的轴数值和轴数值,从而获得新坐标集合
S4、对新坐标集合进行网格划分,将特征匹配点分布在不同的网格区域内,得到每个坐标点所在网格的索引号
S5、计算每个网格中存在的特征匹配点索引,构造每个网格包含的特征匹配点索引集合
其中,表示中第个特征匹配点所在网格存放的是第个特征匹配点的索引号;
S6、计算角度集合
先将每个网格中包含的特征匹配点索引集合中每个网格中的特征匹配点数量按从大到小排列,排序结果记为,将中的数值以柱状图形式模拟,然后计算该柱状图中最大值高度和最小值高度依次与其它数值高度所形成的角度,得到角度集合
其中,表示的最大值,表示的最小值,表示以为顶点与两点形成的角度,表示中含有网格的数量且表示网格中特征匹配点数量排序结果的序号,表示序号为的网格中的特征匹配点数量;
S7、自适应参数估计
取角度集合中角度最小值的索引对应的网格中特征匹配点数量,作为网格中含有的特征匹配点数量的拐点,根据求得数据密度,经判断后得到网格中特征匹配点数量的阈值
其中,表示角度集合中角度最小值的网格序号;
S8、对特征匹配点数量集合使用阈值来选择正确的特征匹配点,若网格中特征匹配点的数量小于,则删除该网格中所有特征匹配点,最终获得正确特征匹配点索引集合
 。
2.根据权利要求1所述的快速及高精度的特征匹配错误消除方法,其特征在于:所述步骤S2中计算特征匹配点的坐标集合的具体步骤为:
S2.1、计算初始特征匹配结果中查询特征点轴和轴的数值,记为表示取特征点在轴上的数值,表示取特征点在轴上的数值;
S2.2、计算初始特征匹配结果中训练特征点轴和轴的数值,记为
S2.3、将合并为一个集合,从而获得特征匹配点的坐标集合
3.根据权利要求1所述的快速及高精度的特征匹配错误消除方法,其特征在于:所述步骤S3中获取新坐标集合的方法为:
S3.1、将特征匹配点坐标集合中的每一对特征匹配点在轴上的差值集合定义为:
其中,表示取特征点坐标在轴上的数值,为查询特征点的坐标,为训练特征点的坐标;
S3.2、将特征匹配点坐标集合中的每一对特征匹配点在轴上的差值集合定义为:
其中,表示取特征点坐标在轴上的数值,表示特征匹配点坐标集合中查询特征点的坐标轴上的最大值;
S3.3、计算特征匹配点坐标集合中的特征点坐标在图像上的欧氏距离:
其中,表示特征匹配点在两幅图像中的轴差值集合,表示特征匹配点在两幅图像中的轴差值集合;
S3.4、将原始坐标转化为新坐标,计算方法如下:
其中,表示特征匹配点与轴之间夹角的正弦值,表示特征点坐标在两幅图像之间的欧氏距离。
4.根据权利要求1所述的快速及高精度的特征匹配错误消除方法,其特征在于:所述步骤S4中每个坐标点所在网格的索引的计算方法为:
S4.1、计算出单个网格长度:
其中,表示新坐标集合中坐标点在轴或轴上的最大值,表示一维网格数量;
S4.2、将坐标点划分在网格点集中,得到每个坐标点所在网格的索引号:
其中,表示新坐标集合中第个坐标点所在网格的行数,表示新坐标集合中第个坐标点所在网格的列数。
5.根据权利要求1所述的快速及高精度的特征匹配错误消除方法,其特征在于:所述步骤S7网格中特征匹配点数量阈值的计算方法为:
S7.1、取角度集合中角度最小值的索引记为,计算出网格中含有的特征匹配点数量所构成的拐点
S7.2、计算中前5个网格包含的特征匹配点数量之和与特征匹配点数量之间的比值,得到数据密度,并规定在拐点时,不需要考虑数据密度的影响,至此取值为:
其中,表示每个网格中含有的特征匹配点数量构成的拐点,表示集合中角度最小值的索引号,表示数据密度,表示中前5个网格序号,
CN202310390886.4A 2023-04-13 2023-04-13 一种快速及高精度的图像特征匹配错误消除方法 Active CN116109852B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202310390886.4A CN116109852B (zh) 2023-04-13 2023-04-13 一种快速及高精度的图像特征匹配错误消除方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202310390886.4A CN116109852B (zh) 2023-04-13 2023-04-13 一种快速及高精度的图像特征匹配错误消除方法

Publications (2)

Publication Number Publication Date
CN116109852A true CN116109852A (zh) 2023-05-12
CN116109852B CN116109852B (zh) 2023-06-20

Family

ID=86262411

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202310390886.4A Active CN116109852B (zh) 2023-04-13 2023-04-13 一种快速及高精度的图像特征匹配错误消除方法

Country Status (1)

Country Link
CN (1) CN116109852B (zh)

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104036480A (zh) * 2014-06-20 2014-09-10 天津大学 基于surf算法的快速消除误匹配点方法
CN108460727A (zh) * 2018-03-28 2018-08-28 中南大学 一种基于投影几何与sift特征的图像拼接方法
CN110895791A (zh) * 2019-11-15 2020-03-20 国网福建省电力有限公司漳州供电公司 一种提高输电线路无人机影像快速拼接质量的方法
US20210201068A1 (en) * 2019-12-30 2021-07-01 Sensetime International Pte. Ltd. Image processing method and apparatus, and electronic device
CN113298742A (zh) * 2021-05-20 2021-08-24 广东省人民医院 基于图像配准的多模态视网膜图像融合方法及系统
CN114119437A (zh) * 2021-11-10 2022-03-01 哈尔滨工程大学 一种基于gms的用于改善运动物体畸变的图像拼接方法
CN114332510A (zh) * 2022-01-04 2022-04-12 安徽大学 一种层次化的图像匹配方法
CN115100444A (zh) * 2022-05-20 2022-09-23 莆田学院 一种图像误匹配滤除方法及其图像匹配装置
US20230023046A1 (en) * 2019-12-16 2023-01-26 Changsha Intelligent Driving Institute Corp., Ltd Method and device for generating vehicle panoramic surround view image
CN115661474A (zh) * 2022-10-12 2023-01-31 河北汉光重工有限责任公司 一种基于网格加速的图像特征点匹配方法

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104036480A (zh) * 2014-06-20 2014-09-10 天津大学 基于surf算法的快速消除误匹配点方法
CN108460727A (zh) * 2018-03-28 2018-08-28 中南大学 一种基于投影几何与sift特征的图像拼接方法
CN110895791A (zh) * 2019-11-15 2020-03-20 国网福建省电力有限公司漳州供电公司 一种提高输电线路无人机影像快速拼接质量的方法
US20230023046A1 (en) * 2019-12-16 2023-01-26 Changsha Intelligent Driving Institute Corp., Ltd Method and device for generating vehicle panoramic surround view image
US20210201068A1 (en) * 2019-12-30 2021-07-01 Sensetime International Pte. Ltd. Image processing method and apparatus, and electronic device
CN113298742A (zh) * 2021-05-20 2021-08-24 广东省人民医院 基于图像配准的多模态视网膜图像融合方法及系统
CN114119437A (zh) * 2021-11-10 2022-03-01 哈尔滨工程大学 一种基于gms的用于改善运动物体畸变的图像拼接方法
CN114332510A (zh) * 2022-01-04 2022-04-12 安徽大学 一种层次化的图像匹配方法
CN115100444A (zh) * 2022-05-20 2022-09-23 莆田学院 一种图像误匹配滤除方法及其图像匹配装置
CN115661474A (zh) * 2022-10-12 2023-01-31 河北汉光重工有限责任公司 一种基于网格加速的图像特征点匹配方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
STEFAN HINTERSTOISSER: "going further with point pair features", ARXIV, pages 1 - 15 *
张少杰,马银中,赵海峰: "基于点云几何特征的错误匹配点对剔除算法", 计 算 机 工 程, vol. 45, no. 4, pages 163 - 168 *

Also Published As

Publication number Publication date
CN116109852B (zh) 2023-06-20

Similar Documents

Publication Publication Date Title
CN106919944B (zh) 一种基于orb算法的大视角图像快速识别方法
WO2024077812A1 (zh) 基于点云语义分割与结构拟合的单体建筑三维重建方法
CN111311650B (zh) 一种点云数据的配准方法、装置及存储介质
CN109215129B (zh) 一种基于三维点云的局部特征描述方法
CN114170279A (zh) 一种基于激光扫描的点云配准方法
CN114972459A (zh) 一种基于低维点云局部特征描述符的点云配准方法
CN111797744B (zh) 一种基于共现滤波算法的多模态遥感图像匹配方法
CN110111375B (zh) 一种Delaunay三角网约束下的影像匹配粗差剔除方法及装置
CN110490915B (zh) 一种基于卷积受限玻尔兹曼机的点云配准方法
CN116229019A (zh) 面向数字孪生的大场景融合三维重建方法及系统
CN110910492A (zh) 非刚性三维模型之间点点匹配的方法
Gao et al. Classification of 3D terracotta warrior fragments based on deep learning and template guidance
CN102208033A (zh) 基于数据聚类的鲁棒sift特征匹配方法
Li et al. Combining topological and view-based features for 3D model retrieval
CN116109852B (zh) 一种快速及高精度的图像特征匹配错误消除方法
CN113435479A (zh) 基于区域特征表达约束的特征点匹配方法与系统
CN111597367B (zh) 基于视图和哈希算法的三维模型检索方法
CN109035311A (zh) 一种弯骨骨折自动配准及内固定钢板预弯建模方法
CN112183596B (zh) 结合局部网格约束和几何约束的直线段匹配方法与系统
CN116721345A (zh) 一种马尾松苗木的形态指标无损测量方法
CN109658489B (zh) 一种基于神经网络的立体网格数据处理方法和系统
CN115830340B (zh) 一种点云目标识别方法和装置、存储介质
CN114881850A (zh) 点云超分辨率方法、装置、电子设备及存储介质
CN110473258B (zh) 基于点线统一框架的单目slam系统初始化算法
CN111414802A (zh) 蛋白质数据特征提取方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant