CN110390336B - 一种提高特征点匹配精度的方法 - Google Patents

一种提高特征点匹配精度的方法 Download PDF

Info

Publication number
CN110390336B
CN110390336B CN201910485720.4A CN201910485720A CN110390336B CN 110390336 B CN110390336 B CN 110390336B CN 201910485720 A CN201910485720 A CN 201910485720A CN 110390336 B CN110390336 B CN 110390336B
Authority
CN
China
Prior art keywords
descriptor
encoder
training
image
convolution
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201910485720.4A
Other languages
English (en)
Other versions
CN110390336A (zh
Inventor
张宏
代壮
朱蕾
陈炜楠
何力
管贻生
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Guangdong University of Technology
Original Assignee
Guangdong University of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Guangdong University of Technology filed Critical Guangdong University of Technology
Priority to CN201910485720.4A priority Critical patent/CN110390336B/zh
Publication of CN110390336A publication Critical patent/CN110390336A/zh
Application granted granted Critical
Publication of CN110390336B publication Critical patent/CN110390336B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/253Fusion techniques of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • G06V10/462Salient features, e.g. scale invariant feature transforms [SIFT]
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种提高特征点匹配精度的方法,包括下述步骤:(1)通过SIFT检测出图像中的特征点;(2)提取特征点64*64领域的图像块;(3)分别计算该图像块的训练卷积描述符和预训练卷积描述符;(4)将预训练描述符通过一个编码器进行降维;(5)采用典型相关分析融合卷积描述符和降维后的预训练描述符;本发明将光照和视角变化采用两种描述符分别表示,可以有效降低特征点匹配的难度;采用典型相关分析方法来融合两种类型,可以有效提取两类描述符之间的互补信息,提高融合后描述符对光照和视角变化的鲁棒性;描述符融合系统是一个可升级系统,以后随着不同类型的描述符被提出,都可以应用到本系统中。

Description

一种提高特征点匹配精度的方法
技术领域
本发明涉及计算机视觉技术领域,具体涉及一种提高特征点匹配精度的方法。
背景技术
特征点匹配是许多计算机视觉和机器人应用中非常关键的一步,比如运动获取,多视角立体,图像检索,以及视觉导航都依赖于特征点匹配。特征点匹配主要包括四个部分:(1)检测图像中的特征点;(2)计算特征点描述符;(3)计算两幅图像特征点描述符之间的距离,(4)通过最近邻搜索,找出两幅图像中的特征点匹配对。特征点匹配的好坏非常依赖于特征点描述符的设计,一个好的特征点描述符可以让特征点具有很高的区分度;尤其是两幅图像之间存在明显的光照和视角变化时,一个好的特征点描述符对光照和视角变化应该比较鲁棒。但是,现有特征点匹配中,当匹配的两幅图像存在光照和视角变化的时候,特征点匹配精度较低,不能够很好的满足在计算机视觉和机器人中的应用。
发明内容
本发明的目的在于克服现有技术的缺点与不足,提供一种提高特征点匹配精度的方法,该方法通过融合训练卷积神经网络模型和预训练卷积神经网络模型来提高描述符对光照和视角变化的鲁棒性。
本发明的目的通过下述技术方案实现:
一种提高特征点匹配精度的方法,包括下述步骤:
(1)通过SIFT检测出图像中的特征点;
(2)提取特征点64*64领域的图像块;
(3)分别计算该图像块的训练卷积描述符和预训练卷积描述符;
(4)将预训练描述符通过一个编码器进行降维;
(5)采用典型相关分析融合卷积描述符和降维后的预训练描述符。
优选地,所述步骤(3)中的训练卷积描述符选择HardNet模型生成的描述符;而预训练卷积描述符选择在ImageNet数据集上训练好的DenseNet169的第三层卷积作为图像的描述符。
优选地,所述步骤(4)中的编码器即自编码器训练好的模型的编码器部分;所述自编码器主要包括两个部分:编码器部分和解码器部分;而整个模型通过最小化输入与输出的误差来优化模型,模型训练好后,可以使用编码器的输出作为图像压缩后的描述符。
优选地,所述编码器部分和解码器部分都包括三个块;其中编码器部分的每个块都包括一个卷积层CL、一个批正则化层BN和一个参数化修正线性单元PReLU激活函数;其中解码器部分每个块都包括一个反卷积层DCL、一个批正则化层BN和一个参数化修正线性单元PReLU。
本发明与现有技术相比具有以下的有益效果:
(1)本发明将光照和视角变化采用两种描述符分别表示,可以有效降低特征点匹配的难度;
(2)本发明采用典型相关分析方法来融合两种类型,可以有效提取两类描述符之间的互补信息,提高融合后描述符对光照和视角变化的鲁棒性;
(3)本发明的描述符融合系统是一个可升级系统。
附图说明
图1为本发明自编码器的流程示意图;
图2为本发明卷积自编码模型示意图。
具体实施方式
下面结合实施例及附图对本发明作进一步详细的描述,但本发明的实施方式不限于此。
如图1~2所示,一种提高特征点匹配精度的方法,包括下述步骤:
(1)通过SIFT检测出图像中的特征点;
(2)提取特征点64*64领域的图像块;
(3)分别计算该图像块的训练卷积描述符和预训练卷积描述符;所述训练卷积描述符选择HardNet模型生成的描述符;而预训练卷积描述符选择在ImageNet数据集上训练好的DenseNet169的第三层卷积作为图像的描述符;
(4)将预训练描述符通过一个编码器进行降维;如图2所示,所述编码器即自编码器训练好的模型的编码器部分;所述自编码器主要包括两个部分:编码器部分和解码器部分;而整个模型通过最小化输入与输出的误差来优化模型,模型训练好后,可以使用编码器的输出作为图像压缩后的描述符;如图2所示,所述编码器部分和解码器部分都包括三个块;其中编码器部分的每个块都包括一个卷积层CL、一个批正则化层BN和一个参数化修正线性单元PReLU激活函数;其中解码器部分每个块都包括一个反卷积层DCL、一个批正则化层BN和一个参数化修正线性单元PReLU;
(5)采用典型相关分析融合卷积描述符和降维后的预训练描述符。
本发明的目的是通过融合训练卷积神经网络模型和预训练卷积神经网络模型,来提高描述符对光照和视角变化的鲁棒性。下述本发明的一些基本概念:
特征点:图像中一些比较有特征的点,比如图像边缘,角点等;
SIFT:一种采用高斯差分的方式来检测图像特征点的算法;
训练描述符:图像块经过训练卷积神经网络模型后的输出称为训练描述符;
预训练描述符:图像块经过预训练卷积神经网络模型后的输出称为预训练描述符;
编码器:一种将高维空间向量压缩到低维空间的方法,通过重构输入与输出数据误差来优化模型;
典型相关分析:一种基于最大化两种数据之间相关性的数据融合方法;
训练描述符对图像视角变化鲁棒,而预训练描述符对图像光照变化鲁棒,通过融合这两类描述符,使得新的描述符对光照和视角变化都比较鲁棒;相比于现有特征点描述符的方法,本发明的特征点描述符是通过将光照和视角变化看成是两个子问题,采用了两种不同的卷积神经网络来分别解决光照和视角变化问题,最后采用了典型相关分析技术来融合两种不同类型的描述符。
训练卷积神经网络模型的输入为一个图像块,然后通过一个卷积神经网络,模型输出一个一维的特征向量作为图像的描述符。预训练卷积神经网络表示该模型已经在图像分类的数据集(ImageNet)上已经训练好了,通过直接提取模型的中间卷积层作为图像的描述符。
本发明将光照和视角变化采用两种描述符分别表示,可以有效降低特征点匹配的难度;采用典型相关分析方法来融合两种类型,可以有效提取两类描述符之间的互补信息,提高融合后描述符对光照和视角变化的鲁棒性;描述符融合系统是一个可升级系统,以后随着不同类型的描述符被提出,都可以应用到本系统中,主要可以替换图1中训练卷积神经网络模型和预训练卷积神经网络模型;目前,本发明专利提出的融合模型中训练卷积神经网络模型选择HardNet模型,而预训练卷积神经网络模型选择在ImageNet数据集上训练好的DenseNet169模型。
上述为本发明较佳的实施方式,但本发明的实施方式并不受上述内容的限制,其他的任何未背离本发明的精神实质与原理下所作的改变、修饰、替代、组合、简化,均应为等效的置换方式,都包含在本发明的保护范围之内。

Claims (3)

1.一种提高特征点匹配精度的方法,其特征在于,包括下述步骤:
(1)通过SIFT检测出图像中的特征点;
(2)提取特征点64*64领域的图像块;
(3)分别计算该图像块的训练卷积描述符和预训练卷积描述符,通过训练卷积描述符表示图像视角变化,通过预训练卷积描述符表示图像光照变化;
(4)将预训练卷积描述符通过一个编码器进行降维;
(5)采用典型相关分析融合训练卷积描述符和降维后的预训练卷积描述符;
所述步骤(3)中的训练卷积描述符选择HardNet模型生成的描述符;而预训练卷积描述符选择在ImageNet数据集上训练好的DenseNet169的第三层卷积作为图像的描述符。
2.根据权利要求1所述提高特征点匹配精度的方法,其特征在于,所述步骤(4)中的编码器即自编码器训练好的模型的编码器部分;所述自编码器主要包括两个部分:编码器部分和解码器部分;而整个模型通过最小化输入与输出的误差来优化模型,模型训练好后,可以使用编码器的输出作为图像压缩后的描述符。
3.根据权利要求2所述提高特征点匹配精度的方法,其特征在于,所述编码器部分和解码器部分都包括三个块;其中编码器部分的每个块都包括一个卷积层CL、一个批正则化层BN和一个参数化修正线性单元PReLU激活函数;其中解码器部分每个块都包括一个反卷积层DCL、一个批正则化层BN和一个参数化修正线性单元PReLU。
CN201910485720.4A 2019-06-05 2019-06-05 一种提高特征点匹配精度的方法 Active CN110390336B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910485720.4A CN110390336B (zh) 2019-06-05 2019-06-05 一种提高特征点匹配精度的方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910485720.4A CN110390336B (zh) 2019-06-05 2019-06-05 一种提高特征点匹配精度的方法

Publications (2)

Publication Number Publication Date
CN110390336A CN110390336A (zh) 2019-10-29
CN110390336B true CN110390336B (zh) 2023-05-23

Family

ID=68285258

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910485720.4A Active CN110390336B (zh) 2019-06-05 2019-06-05 一种提高特征点匹配精度的方法

Country Status (1)

Country Link
CN (1) CN110390336B (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112463999A (zh) * 2020-12-10 2021-03-09 中国科学院深圳先进技术研究院 视觉位置识别方法及装置、计算机设备及可读存储介质
CN113298097B (zh) * 2021-07-27 2021-10-26 电子科技大学 基于卷积神经网络的特征点提取方法、设备及存储介质

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
ITUB20153277A1 (it) * 2015-08-28 2017-02-28 St Microelectronics Srl Procedimento per ricerche visuali, sistema, apparecchiatura e prodotto informatico corrispondenti
CN108665432A (zh) * 2018-05-18 2018-10-16 百年金海科技有限公司 一种基于生成对抗网络的单幅图像去雾方法
CN109446923B (zh) * 2018-10-10 2021-09-24 北京理工大学 基于训练特征融合的深度监督卷积神经网络行为识别方法
CN109559358B (zh) * 2018-10-22 2023-07-04 天津大学 一种基于卷积自编码的图像样本升采样方法

Also Published As

Publication number Publication date
CN110390336A (zh) 2019-10-29

Similar Documents

Publication Publication Date Title
CN111768388B (zh) 一种基于正样本参考的产品表面缺陷检测方法及系统
CN112767554B (zh) 一种点云补全方法、装置、设备及存储介质
CN112801047B (zh) 缺陷检测方法、装置、电子设备及可读存储介质
CN112598721A (zh) 基于归一化回归函数单目深度估计系统训练方法和网络
CN115984494A (zh) 一种基于深度学习的月面导航影像三维地形重建方法
CN110390336B (zh) 一种提高特征点匹配精度的方法
CN112562081A (zh) 一种用于视觉分层定位的视觉地图构建方法
Chen et al. Multi-dimensional cooperative network for stereo matching
CN113971735A (zh) 一种深度图像聚类方法、系统、设备、介质及终端
CN115035172B (zh) 基于置信度分级及级间融合增强的深度估计方法及系统
CN116204694A (zh) 一种基于深度学习与哈希算法的多模态检索方法
CN116468947A (zh) 刀具图像识别方法、装置、计算机设备及存储介质
CN115115883A (zh) 一种基于多模态特征融合的证照分类方法及系统
CN114120202A (zh) 一种基于多尺度目标模型和特征融合的半监督视频目标分割方法
CN118115559A (zh) 结合Transformer和HITNet网络的立体匹配算法
CN113592015A (zh) 定位以及训练特征匹配网络的方法和装置
CN110555406B (zh) 一种基于Haar-like特征及CNN匹配的视频运动目标识别方法
CN110516640B (zh) 一种基于特征金字塔联合表示的车辆再辨识方法
CN117651144A (zh) 基于深度学习的建筑物点云压缩方法及系统
CN110378167B (zh) 一种基于深度学习的条码图像补正方法
CN117115474A (zh) 一种基于多阶段特征提取的端到端单目标跟踪方法
CN117173655A (zh) 基于语义传播和跨注意力机制的多模态3d目标检测方法
CN110176029B (zh) 基于层级稀疏表示的图像复原与匹配一体化方法及系统
CN110826564A (zh) 一种复杂场景图像中的小目标语义分割方法及系统
CN113112464B (zh) 基于跨模态交流编码器的rgbd显著性物体检测方法及系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant