CN110390336A - 一种提高特征点匹配精度的方法 - Google Patents
一种提高特征点匹配精度的方法 Download PDFInfo
- Publication number
- CN110390336A CN110390336A CN201910485720.4A CN201910485720A CN110390336A CN 110390336 A CN110390336 A CN 110390336A CN 201910485720 A CN201910485720 A CN 201910485720A CN 110390336 A CN110390336 A CN 110390336A
- Authority
- CN
- China
- Prior art keywords
- descriptor
- training
- encoder
- feature points
- points matching
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/253—Fusion techniques of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/46—Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
- G06V10/462—Salient features, e.g. scale invariant feature transforms [SIFT]
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Abstract
本发明公开了一种提高特征点匹配精度的方法,包括下述步骤:(1)通过SIFT检测出图像中的特征点;(2)提取特征点64*64领域的图像块;(3)分别计算该图像块的训练卷积描述符和预训练卷积描述符;(4)将预训练描述符通过一个编码器进行降维;(5)采用典型相关分析融合卷积描述符和降维后的预训练描述符;本发明将光照和视角变化采用两种描述符分别表示,可以有效降低特征点匹配的难度;采用典型相关分析方法来融合两种类型,可以有效提取两类描述符之间的互补信息,提高融合后描述符对光照和视角变化的鲁棒性;描述符融合系统是一个可升级系统,以后随着不同类型的描述符被提出,都可以应用到本系统中。
Description
技术领域
本发明涉及计算机视觉技术领域,具体涉及一种提高特征点匹配精度的方法。
背景技术
特征点匹配是许多计算机视觉和机器人应用中非常关键的一步,比如运动获取,多视角立体,图像检索,以及视觉导航都依赖于特征点匹配。特征点匹配主要包括四个部分:(1)检测图像中的特征点;(2)计算特征点描述符;(3)计算两幅图像特征点描述符之间的距离,(4)通过最近邻搜索,找出两幅图像中的特征点匹配对。特征点匹配的好坏非常依赖于特征点描述符的设计,一个好的特征点描述符可以让特征点具有很高的区分度;尤其是两幅图像之间存在明显的光照和视角变化时,一个好的特征点描述符对光照和视角变化应该比较鲁棒。但是,现有特征点匹配中,当匹配的两幅图像存在光照和视角变化的时候,特征点匹配精度较低,不能够很好的满足在计算机视觉和机器人中的应用。
发明内容
本发明的目的在于克服现有技术的缺点与不足,提供一种提高特征点匹配精度的方法,该方法通过融合训练卷积神经网络模型和预训练卷积神经网络模型来提高描述符对光照和视角变化的鲁棒性。
本发明的目的通过下述技术方案实现:
一种提高特征点匹配精度的方法,包括下述步骤:
(1)通过SIFT检测出图像中的特征点;
(2)提取特征点64*64领域的图像块;
(3)分别计算该图像块的训练卷积描述符和预训练卷积描述符;
(4)将预训练描述符通过一个编码器进行降维;
(5)采用典型相关分析融合卷积描述符和降维后的预训练描述符。
优选地,所述步骤(3)中的训练卷积描述符选择HardNet模型生成的描述符;而预训练卷积描述符选择在ImageNet数据集上训练好的DenseNet169的第三层卷积作为图像的描述符。
优选地,所述步骤(4)中的编码器即自编码器训练好的模型的编码器部分;所述自编码器主要包括两个部分:编码器部分和解码器部分;而整个模型通过最小化输入与输出的误差来优化模型,模型训练好后,可以使用编码器的输出作为图像压缩后的描述符。
优选地,所述编码器部分和解码器部分都包括三个块;其中编码器部分的每个块都包括一个卷积层CL、一个批正则化层BN和一个参数化修正线性单元PReLU激活函数;其中解码器部分每个块都包括一个反卷积层DCL、一个批正则化层BN和一个参数化修正线性单元PReLU。
本发明与现有技术相比具有以下的有益效果:
(1)本发明将光照和视角变化采用两种描述符分别表示,可以有效降低特征点匹配的难度;
(2)本发明采用典型相关分析方法来融合两种类型,可以有效提取两类描述符之间的互补信息,提高融合后描述符对光照和视角变化的鲁棒性;
(3)本发明的描述符融合系统是一个可升级系统。
附图说明
图1为本发明自编码器的流程示意图;
图2为本发明卷积自编码模型示意图。
具体实施方式
下面结合实施例及附图对本发明作进一步详细的描述,但本发明的实施方式不限于此。
如图1~2所示,一种提高特征点匹配精度的方法,包括下述步骤:
(1)通过SIFT检测出图像中的特征点;
(2)提取特征点64*64领域的图像块;
(3)分别计算该图像块的训练卷积描述符和预训练卷积描述符;所述训练卷积描述符选择HardNet模型生成的描述符;而预训练卷积描述符选择在ImageNet数据集上训练好的DenseNet169的第三层卷积作为图像的描述符;
(4)将预训练描述符通过一个编码器进行降维;如图2所示,所述编码器即自编码器训练好的模型的编码器部分;所述自编码器主要包括两个部分:编码器部分和解码器部分;而整个模型通过最小化输入与输出的误差来优化模型,模型训练好后,可以使用编码器的输出作为图像压缩后的描述符;如图2所示,所述编码器部分和解码器部分都包括三个块;其中编码器部分的每个块都包括一个卷积层CL、一个批正则化层BN和一个参数化修正线性单元PReLU激活函数;其中解码器部分每个块都包括一个反卷积层DCL、一个批正则化层BN和一个参数化修正线性单元PReLU;
(5)采用典型相关分析融合卷积描述符和降维后的预训练描述符。
本发明的目的是通过融合训练卷积神经网络模型和预训练卷积神经网络模型,来提高描述符对光照和视角变化的鲁棒性。下述本发明的一些基本概念:
特征点:图像中一些比较有特征的点,比如图像边缘,角点等;
SIFT:一种采用高斯差分的方式来检测图像特征点的算法;
训练描述符:图像块经过训练卷积神经网络模型后的输出称为训练描述符;
预训练描述符:图像块经过预训练卷积神经网络模型后的输出称为预训练描述符;
编码器:一种将高维空间向量压缩到低维空间的方法,通过重构输入与输出数据误差来优化模型;
典型相关分析:一种基于最大化两种数据之间相关性的数据融合方法;
训练描述符对图像视角变化鲁棒,而预训练描述符对图像光照变化鲁棒,通过融合这两类描述符,使得新的描述符对光照和视角变化都比较鲁棒;相比于现有特征点描述符的方法,本发明的特征点描述符是通过将光照和视角变化看成是两个子问题,采用了两种不同的卷积神经网络来分别解决光照和视角变化问题,最后采用了典型相关分析技术来融合两种不同类型的描述符。
训练卷积神经网络模型的输入为一个图像块,然后通过一个卷积神经网络,模型输出一个一维的特征向量作为图像的描述符。预训练卷积神经网络表示该模型已经在图像分类的数据集(ImageNet)上已经训练好了,通过直接提取模型的中间卷积层作为图像的描述符。
本发明将光照和视角变化采用两种描述符分别表示,可以有效降低特征点匹配的难度;采用典型相关分析方法来融合两种类型,可以有效提取两类描述符之间的互补信息,提高融合后描述符对光照和视角变化的鲁棒性;描述符融合系统是一个可升级系统,以后随着不同类型的描述符被提出,都可以应用到本系统中,主要可以替换图1中训练卷积神经网络模型和预训练卷积神经网络模型;目前,本发明专利提出的融合模型中训练卷积神经网络模型选择HardNet模型,而预训练卷积神经网络模型选择在ImageNet数据集上训练好的DenseNet169模型。
上述为本发明较佳的实施方式,但本发明的实施方式并不受上述内容的限制,其他的任何未背离本发明的精神实质与原理下所作的改变、修饰、替代、组合、简化,均应为等效的置换方式,都包含在本发明的保护范围之内。
Claims (4)
1.一种提高特征点匹配精度的方法,其特征在于,包括下述步骤:
(1)通过SIFT检测出图像中的特征点;
(2)提取特征点64*64领域的图像块;
(3)分别计算该图像块的训练卷积描述符和预训练卷积描述符;
(4)将预训练描述符通过一个编码器进行降维;
(5)采用典型相关分析融合卷积描述符和降维后的预训练描述符。
2.根据权利要求1所述提高特征点匹配精度的方法,其特征在于,所述步骤(3)中的训练卷积描述符选择HardNet模型生成的描述符;而预训练卷积描述符选择在ImageNet数据集上训练好的DenseNet169的第三层卷积作为图像的描述符。
3.根据权利要求1所述提高特征点匹配精度的方法,其特征在于,所述步骤(4)中的编码器即自编码器训练好的模型的编码器部分;所述自编码器主要包括两个部分:编码器部分和解码器部分;而整个模型通过最小化输入与输出的误差来优化模型,模型训练好后,可以使用编码器的输出作为图像压缩后的描述符。
4.根据权利要求3所述提高特征点匹配精度的方法,其特征在于,所述编码器部分和解码器部分都包括三个块;其中编码器部分的每个块都包括一个卷积层CL、一个批正则化层BN和一个参数化修正线性单元PReLU激活函数;其中解码器部分每个块都包括一个反卷积层DCL、一个批正则化层BN和一个参数化修正线性单元PReLU。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910485720.4A CN110390336B (zh) | 2019-06-05 | 2019-06-05 | 一种提高特征点匹配精度的方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910485720.4A CN110390336B (zh) | 2019-06-05 | 2019-06-05 | 一种提高特征点匹配精度的方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110390336A true CN110390336A (zh) | 2019-10-29 |
CN110390336B CN110390336B (zh) | 2023-05-23 |
Family
ID=68285258
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910485720.4A Active CN110390336B (zh) | 2019-06-05 | 2019-06-05 | 一种提高特征点匹配精度的方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110390336B (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112463999A (zh) * | 2020-12-10 | 2021-03-09 | 中国科学院深圳先进技术研究院 | 视觉位置识别方法及装置、计算机设备及可读存储介质 |
CN113298097A (zh) * | 2021-07-27 | 2021-08-24 | 电子科技大学 | 基于卷积神经网络的特征点提取方法、设备及存储介质 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20170060904A1 (en) * | 2015-08-28 | 2017-03-02 | Stmicroelectronics S.R.L. | Method for visual search, corresponding system, apparatus and computer program product |
CN108665432A (zh) * | 2018-05-18 | 2018-10-16 | 百年金海科技有限公司 | 一种基于生成对抗网络的单幅图像去雾方法 |
CN109446923A (zh) * | 2018-10-10 | 2019-03-08 | 北京理工大学 | 基于训练特征融合的深度监督卷积神经网络行为识别方法 |
CN109559358A (zh) * | 2018-10-22 | 2019-04-02 | 天津大学 | 一种基于卷积自编码的图像样本升采样方法 |
-
2019
- 2019-06-05 CN CN201910485720.4A patent/CN110390336B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20170060904A1 (en) * | 2015-08-28 | 2017-03-02 | Stmicroelectronics S.R.L. | Method for visual search, corresponding system, apparatus and computer program product |
CN108665432A (zh) * | 2018-05-18 | 2018-10-16 | 百年金海科技有限公司 | 一种基于生成对抗网络的单幅图像去雾方法 |
CN109446923A (zh) * | 2018-10-10 | 2019-03-08 | 北京理工大学 | 基于训练特征融合的深度监督卷积神经网络行为识别方法 |
CN109559358A (zh) * | 2018-10-22 | 2019-04-02 | 天津大学 | 一种基于卷积自编码的图像样本升采样方法 |
Non-Patent Citations (2)
Title |
---|
仇晓松等: "基于卷积神经网络的视觉位置识别方法", 《计算机工程与设计》 * |
肖大鹏: "典型场景下无人驾驶三维目标识别算法研究", 《中国优秀硕士学位论文全文数据库信息科技辑》 * |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112463999A (zh) * | 2020-12-10 | 2021-03-09 | 中国科学院深圳先进技术研究院 | 视觉位置识别方法及装置、计算机设备及可读存储介质 |
CN113298097A (zh) * | 2021-07-27 | 2021-08-24 | 电子科技大学 | 基于卷积神经网络的特征点提取方法、设备及存储介质 |
CN113298097B (zh) * | 2021-07-27 | 2021-10-26 | 电子科技大学 | 基于卷积神经网络的特征点提取方法、设备及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN110390336B (zh) | 2023-05-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110868598B (zh) | 基于对抗生成网络的视频内容替换方法及系统 | |
Fang et al. | Densely nested top-down flows for salient object detection | |
Li et al. | Spatio-temporal unity networking for video anomaly detection | |
CN110175603B (zh) | 一种雕刻文字识别方法、系统及存储介质 | |
CN109190566B (zh) | 一种融合局部编码与cnn模型手指静脉识别方法 | |
CN114792372B (zh) | 一种基于多头两级注意力的三维点云语义分割方法及系统 | |
Wu et al. | Hidanet: Rgb-d salient object detection via hierarchical depth awareness | |
CN113744153B (zh) | 双分支图像修复伪造检测方法、系统、设备及存储介质 | |
CN102682266B (zh) | 一种基于图像拼接的柱面二维条码识读方法 | |
CN110390336A (zh) | 一种提高特征点匹配精度的方法 | |
An et al. | LPViT: a transformer based model for PCB image classification and defect detection | |
CN114724155A (zh) | 基于深度卷积神经网络的场景文本检测方法、系统及设备 | |
Zhou et al. | Attention transfer network for nature image matting | |
CN115984339A (zh) | 基于几何特征精炼与对抗生成网络的双管道点云补全方法 | |
CN113657414B (zh) | 一种物体识别方法 | |
CN113344933B (zh) | 一种基于多层次特征融合网络的腺体细胞分割方法 | |
CN113807356A (zh) | 一种端到端的低能见度图像语义分割方法 | |
CN112927236A (zh) | 一种基于通道注意力和自监督约束的服装解析方法及系统 | |
CN109035318B (zh) | 一种图像风格的转换方法 | |
CN116452793A (zh) | 一种基于多视角和多层级的绿色编解码显著目标检测方法 | |
CN111860151A (zh) | 一种无监督跨角度面部表情图像识别方法 | |
CN114612456B (zh) | 一种基于深度学习的钢坯自动语义分割识别方法 | |
CN115497085A (zh) | 基于多分辨率双特征折叠的点云补全方法及系统 | |
Li et al. | A deep learning approach for face hallucination guided by facial boundary responses | |
CN111951287A (zh) | 一种二维码检测和识读方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |