CN113128518A - 基于孪生卷积网络和特征混合的sift误匹配检测方法 - Google Patents

基于孪生卷积网络和特征混合的sift误匹配检测方法 Download PDF

Info

Publication number
CN113128518A
CN113128518A CN202110339794.4A CN202110339794A CN113128518A CN 113128518 A CN113128518 A CN 113128518A CN 202110339794 A CN202110339794 A CN 202110339794A CN 113128518 A CN113128518 A CN 113128518A
Authority
CN
China
Prior art keywords
sample
network
sift
feature
samples
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202110339794.4A
Other languages
English (en)
Other versions
CN113128518B (zh
Inventor
肖照林
李锐源
金海燕
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Xian University of Technology
Original Assignee
Xian University of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Xian University of Technology filed Critical Xian University of Technology
Priority to CN202110339794.4A priority Critical patent/CN113128518B/zh
Publication of CN113128518A publication Critical patent/CN113128518A/zh
Application granted granted Critical
Publication of CN113128518B publication Critical patent/CN113128518B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • G06V10/462Salient features, e.g. scale invariant feature transforms [SIFT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/253Fusion techniques of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Biology (AREA)
  • Biophysics (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Molecular Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Biomedical Technology (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了基于孪生卷积网络和特征混合的sift误匹配检测方法,具体为:首先,采用sift算法将待匹配的两幅原始图像进行处理,得到训练集和测试集;并得到样本对应特征点的领域图像,输入到孪生卷积网络,提取领域图像的特征图;然后获取样本对应的sift描述子数据的特征和对应特征点的Harris矩阵,并用全连接层和交叉熵损失函数对融合后的特征进行二分类判断,反向传播更新网络参数,保存训练网络的权重偏置参数;最后将权重偏置参数载入到sift误匹配检测网络中,将待检测的样本数据输入到检测网络,并得出待测样本的预测结果。本发明的方法,大大改善了现有技术中容易出现误判的问题,同时提高了误匹配检测的准确率。

Description

基于孪生卷积网络和特征混合的sift误匹配检测方法
技术领域
本发明属于计算机图像处理技术领域,具体涉及基于孪生卷积网络和特征混合的sift误匹配检测方法。
背景技术
图像匹配技术是图像处理中和计算机视觉中的一个基本问题,有着广泛的应用,它是图像处理技术中一个最最基本的步骤,是运动目标跟踪、物体识别、图像特征匹配、全景图像拼接、三维重建等图像处理技术的基础。目前关于在两幅图像如何去做匹配,提出了许多的方法,目前比较常用的有SIFT算法以及各种改进的SIFT算法,这些算法具有尺度不变性,旋转不变性,光照不变性,在特征点匹配中具有良好的鲁棒性,但是无论哪种匹配方法都有缺点,就是存在着匹配错误的现象,目前无论对哪种匹配算法改进都无法解决这一问题。为了消除误匹配点,进一步提高匹配精度,目前主流的解决思路就是在正常的匹配之后,再加上特征误匹配检测的算法,检测到错误匹配并舍去掉。目前关于误匹配的检测方法最常用的方法有以下几种:利用拟合函数的思想去做误匹配检测,选取一个合适的函数模型,通过最小二乘法求出函数的参数,检测匹配点的位置与函数模型所预测的位置是否距离太大,如果距离过大则此匹配点为误匹配点;该算法缺点是误差较大的数据导致拟合的函数模型完全偏离实际数据;利用统计模型思想的RANSAC算法,它是通过不断在数据集中迭代,寻找出一个最佳单应性矩阵模型,如果匹配点的位置和模型所预测的结果相差太大,从而判断出此匹配点是外点,是不正确的匹配点,应舍去,否则是内点,是正确的匹配点;该算法缺点是RANSAC只能从特定的数据集中估计出一个模型,如果存在两个(或多个)模型,RANSAC不能找到别的模型;利用图思想的GTM算法,它是通过KNN算法构造出两个匹配集的无向图以及相应的邻接矩阵,并求出邻接矩阵的残差,残差中误差较大的列所对应的匹配点对就是误匹配;该算法缺点就是计算过程太过于复杂,计算时间过长。虽然这些算法虽然能够剔除大量的错误匹配,但是又存在着把大量正确的匹配剔除,计算时间过长,模型鲁棒性不好等诸多问题。
发明内容
本发明的目的是提供了基于孪生卷积网络和特征混合的sift误匹配检测方法,大大改善了现有sift误匹配检测技术中容易出现误判的问题,同时提高了误匹配检测的准确率。
本发明采用的技术方案是,基于孪生卷积网络和特征混合的sift误匹配检测方法,具体按照以下步骤实施:
步骤1,采用sift算法将需要匹配的两幅原始图像进行处理,得到错误样本集合和正确样本集合,并得到训练集和测试集;
步骤2,获取测试集和训练集中所有样本对应特征点的领域图像,并对领域图像进行预处理,并输入到孪生卷积网络,提取领域图像的特征图;
步骤3,获取测试集和训练集中样本所对应特征点的sift描述子,并将每个样本位置坐标输入到MLP网络进行融合,将MLP网络的输出与该样本所对应的特征点的sift描述子结合,得到sift描述子数据的特征;
步骤4,获取训练集和测试中样本所对应特征点的Harris矩阵;
步骤5,将到领域图像的特征图,sift描述子数据的特征,Harris矩阵进行特征融合,并用全连接层和交叉熵损失函数对融合后的特征进行二分类判断,并反向传播更新网络参数;重复步骤2到5,用训练集数据训练网络,并保存训练网络的权重偏置参数;
步骤6,将权重偏置参数载入到sift误匹配检测网络中,将待检测的样本数据输入到sift误匹配检测网络,并得出待测样本的预测结果。
本发明的特点还在于,
步骤1中,具体为:
步骤1.1,使用sift算法处理需要匹配的两幅原始图像,得到图像的数个匹配对,每个匹配对由原始图像上两个特征点组成;
步骤1.2,若每个匹配对应的两个特征点在真实场景中代表的是同一个位置,则这个匹配对属于正确样本集合,如果不是同一个位置,则这个匹配对属于错误样本集合;
步骤1.3,分别从正确样本集合和错误样本集合中任意选取500个样本作为训练集,再分别从正确样本集合和错误样本集合中任意选取100个样本作为测试集。
步骤2中,具体为:
步骤2.1,选取测试集和训练集中所有样本,每个样本代表一个匹配,每个匹配对应两个特征点,找到两个特征点分别在步骤1.1中原始图像上的位置坐标,以该位置坐标为中心,选取长为64像素,宽为64像素范围内,对原始图像进行分割,分割后的图像作为该特征点的领域图像,即每个样本可以得到两张领域图像,以此,获得测试集和训练集所有样本的领域图像;
步骤2.2,对训练集和测试集中的所有样本对应的领域图像进行灰度化处理和归一化处理;
步骤2.3,经步骤2.2后,将每个样本对应的两张领域图像均输入到孪生卷积神经网络中,得到样本所对应的两张领域图像的特征图。
步骤3中,具体为:
步骤3.1,构建共包含6层的MLP网络模型,依次为输入层、卷积层1、BN层1、卷积层2、BN层2、卷积层3、BN层3;
步骤3.2,获取由步骤1.1输入的两张原始图像,对两张图像分别进行不同尺度的高斯卷积,构造两个高斯差分金字塔;
步骤3.3,在步骤3.2所得到的高斯差分金字塔上做阈值化和空间极值的检测,找到候选极值点,对候选极值点进行拟合来精确确定极值点的位置以及所在的尺度,并舍去低对比度和有边缘响应的点,从而确定最终极值点,每个图像所有最终极值点即为关键点;
步骤3.4,获取每个关键点的坐标,一个关键点的坐标对应一个描述子,以此构造关键点坐标描述子集合;
步骤3.5,在训练集和测试集中,任选一个样本,在样本中选取一个特征点,获取这个特征点的坐标,在步骤3.4获得的关键点坐标描述子集合中,根据这个坐标来获取这个特征点的描述子,以此类推,获得另外一个特征点的描述子,一个样本对应的描述子有两个,重复上述操作,获得测试集和训练集所有样本所对应的描述子,并对测试集和训练集所有样本所对应的描述子进行归一化处理;
步骤3.6,经步骤3.5后,在测试集和训练集中,选取一个样本,在该样本中选取一个特征点,获取这个特征点在步骤1.1中输入的原始图像上的位置坐标,将该位置坐标输入到步骤3.1所构造的MLP网络中,并把MLP网络的输出与该特征点所对应的sift描述子进行数据相加,得到该特征点的sift描述子数据的特征,重复上述过程,可得到该样本另外一个特征点的sift描述子数据的特征,以此,得到测试集和训练集中所有样本所对应特征点的sift描述子数据的特征。
步骤4中,具体为:
步骤4.1,在训练集或者测试集中选取一个样本,在该样本中选取一个特征点;
步骤4.2,经步骤4.1后,寻找该特征点在步骤1.1中输入的原始图像上的位置坐标,在原始图像上,以这个位置坐标为中心,选取长为10像素,宽为10像素范围的图像,作为计算Harris矩阵所需要的领域范围;
步骤4.3,计算领域范围内的每个像素在X和Y梯度方向的内积,分别用Ixx,Iyy,Ixy表示,对领域范围内的每个像素的Ixx,Iyy,Ixy进行高斯加权滤波;
步骤4.4,经步骤4.3后,对领域范围内的每个像素的Ixx,Iyy,Ixy分别进行累加,从而得到Harris矩阵中的每个分量,即可得到该特征点的Harris矩阵;
步骤4.5,重复步骤4.1到步骤4.4,可得到该样本另外一个特征点的Harris矩阵,以此类推,得到训练集和测试集所有样本所对应特征点的Harris矩阵。
步骤5中,具体为:
步骤5.1,构建共包含4层的ANN网络模型,依次为全连接层1、全连接层2、全连接层3、全连接层4、全连接层5;其中每一层的输出即为下一层的输入;
步骤5.2,在训练集中选取一个样本,把该样本所对应特征点的领域图像的特征图和Harris矩阵展开成一维向量的形式,并把这些一维向量和该样本所对应特征点的sift描述子数据的特征水平拼接在一起;
步骤5.3,把步骤5.2得到的结果作为ANN网络模型的输入,并得到输出结果;
步骤5.4,将步骤5.3所得到的结果进行softmax计算,将softmax的计算结果作为交叉熵损失函数的输入,计算出交叉熵损失函数的输出值,这个输出值就是损失值,根据损失值,进行反向传播计算,并更新网络中的权重偏置参数;
步骤5.6,重复步骤5.2到步骤5.4,用训练集中的所有样本数据训练网络32个epcho,并根据网络loss曲线调节网络的学习率参数,使得loss曲线趋于收敛,训练完成后,导出网络的权重偏置参数并进行保存。
步骤6中,具体为:
步骤6.1,根据步骤5的结果,导入网络的权重偏置参数;
步骤6.2,在测试集中选取一个样本,获取该样本的领域图像,位置坐标,sift的描述子数据,Harris矩阵;
步骤6.3,将步骤6.2的结果输入到sift误匹配检测网络,并将输出结果进行softmax运算,选取最大的数值所对应的标签作为网络的预测结果;
步骤6.4,根据步骤6.3所获得到的结果,如果所预测到的标签为right,那么此匹配为正确匹配,如果所预测到的标签为wrong,那么此匹配为错误匹配。
本发明的有益效果是,本发明方法利用深度学习的技术,让神经网络去学习如何判断误匹配,从而大大改善了现有sift误匹配检测技术中容易出现误判的问题,同时也提高了误匹配检测的准确率,算法的运行较为简便且耗时较短,只需把领域图像等数据输入到该神经网络,即可得到相应的预测结果。
附图说明
图1为本发明中训练集样本loss曲线图;
图2为本发明中测试集样本训练网络的准确率曲线图。
具体实施方式
下面结合附图和具体实施方式对本发明进行详细说明。
本发明基于孪生卷积网络和特征混合的sift误匹配检测方法,具体按照以下步骤实施:
步骤1,采用sift算法将需要匹配的两幅原始图像进行处理,得到错误样本集合和正确样本集合,并得到训练集和测试集;具体为:
步骤1.1,使用sift算法处理需要匹配的两幅原始图像,得到图像的数个匹配对,每个匹配对由原始图像上两个特征点组成;
步骤1.2,若每个匹配对应的两个特征点在真实场景中代表的是同一个位置,则这个匹配对属于正确样本集合,如果不是同一个位置,则这个匹配对属于错误样本集合;
步骤1.3,分别从正确样本集合和错误样本集合中任意选取500个样本作为训练集,再分别从正确样本集合和错误样本集合中任意选取100个样本作为测试集,选取的标准就是不能重复;
步骤2,获取测试集和训练集中所有样本对应特征点的领域图像,并对领域图像进行预处理,并输入到孪生卷积网络,提取领域图像的特征图;
步骤2.1,选取测试集和训练集中所有样本,每个样本代表一个匹配,每个匹配对应两个特征点,找到两个特征点分别在步骤1.1中原始图像上的位置坐标,以该位置坐标为中心,选取长为64像素,宽为64像素范围内,对原始图像进行分割,分割后的图像作为该特征点的领域图像,如果这两个特征点中存在无法分割出长为64,宽为64的图像的情况,则舍去该样本,即每个样本可以得到两张领域图像,以此类推,获得测试集和训练集所有样本的领域图像;
步骤2.2,对训练集和测试集中的所有样本对应的领域图像进行灰度化处理和归一化处理;
步骤2.3,经步骤2.2后,将每个样本对应的两张领域图像均输入到孪生卷积神经网络中,得到样本所对应的两张领域图像的特征图;
孪生卷积神经网络,依次为第一卷积层、第一ReLU层、第一池化层、第二卷积层、第二ReLU层、第二池化层、第三卷积层、第三ReLU层、第四卷积层、第四ReLU层、第五卷积层、第五ReLU层、第三池化层;其中每一层的输出即为下一层的输入;其中参数设置为:
第一卷积层中,输入图像大小为1*1*64*64,设置卷积核大小为7*7,步长为1,填补为3,输出图像大小为1*24*64*64;
第一ReLU层中,输入图像大小为1*24*64*64,输出图像大小为1*24*64*64;
第一池化层中,输入图像大小为1*24*64*64,设置卷积核大小为3*3,步长为2,填补为0,输出图像大小为1*24*32*32;
第二卷积层中,输入图像大小为1*24*32*32,设置卷积核大小为5*5,步长为1,填补为2,输出图像大小为1*64*32*32;
第二ReLU层中,输入图像大小为1*64*32*32,输出图像大小为1*64*32*32;
第二池化层中,输入图像大小为1*64*32*32,设置卷积核大小为3*3,步长为2,填补为0,输出图像大小为1*64*16*16;
第三卷积层中,输入图像大小为1*64*16*16,设置卷积核大小为3*3,步长为1,填补为1,输出图像大小为1*96*16*16;
第三ReLU层中,输入图像大小为1*96*16*16,输出图像大小为1*96*16*16;
第四卷积层中,输入图像大小为1*96*16*16,设置卷积核大小为3*3,步长为1,填补为1,输出图像大小为1*96*16*16;
第四ReLU层中,输入图像大小为1*96*16*16,输出图像大小为1*96*16*16;
第五卷积层中,输入图像大小为1*96*16*16,设置卷积核大小为3*3,步长为1,填补为1,输出图像大小为1*64*16*16;
第五ReLU层中,输入图像大小为1*64*16*16,输出图像大小为1*64*16*16;
第三池化层中,输入图像大小为1*64*16*16,设置卷积核大小为3*3,步长为2,填补为0,输出图像大小为1*64*8*8;
步骤3,获取样本所对应特征点的sift描述子,并将每个样本位置坐标输入到MLP网络进行融合,将MLP网络的输出与该样本所对应的特征点的sift描述子结合,得到sift描述子数据的特征;
步骤3.1,构建共包含6层的MLP网络模型,依次为输入层、卷积层1、BN层1、卷积层2、BN层2、卷积层3、BN层3;其中每一层的输出即为下一层的输入;其中参数设置为:
卷积层1中,输入张量大小为1×2,设置卷积核大小为1×1,步长为0,填补为0,滤波器数量为16,输出尺寸为1×32;
BN层1中,输入张量大小为1×32,输出张量为1×32;
卷积层2中,输入张量大小为1×32,设置卷积核大小为1×1,步长为0,填补为0,滤波器数量为2,输出尺寸为1×64;
BN层2中,输入张量大小为1×64,输出张量为1×64;
卷积层3中,输入张量大小为1×64,设置卷积核大小为1×1,步长为0,填补为0,滤波器数量为2,输出尺寸为1×128;
BN层3中,输入张量大小为1×128,输出张量为1×128;
步骤3.2,获取由步骤1.1输入的两张原始图像,对两张图像分别进行不同尺度的高斯卷积,构造两个高斯差分金字塔;
高斯差分金字塔构建过程如下,首先将图像扩大一倍,在扩大的图像的基础之上构建高斯金字塔,然后对该图像进行不同尺度的高斯模糊,尺度的公式如式(1)所示,几幅模糊之后的图像集合构成了一个八度,然后对该八度下的最模糊的一幅图像进行下采样,长和宽分别缩短一倍,图像面积变为原来四分之一,这幅图像就是下一个八度的初始图像,在初始图像的基础上完成属于这个八度的高斯模糊处理,以此类推完成整个算法所需要的所有八度构建,构建高斯金字塔;将高斯金字塔中的相邻尺度的图像作差,得到高斯差分金字塔;
Figure BDA0002998790950000111
其中,O代表第几个八度,s代表八度中的第几层,S代表每个八度有几层;
步骤3.3,在步骤3.2所得到的高斯差分金字塔上做阈值化和空间极值的检测,找到候选极值点,对候选极值点进行拟合来精确确定极值点的位置以及所在的尺度,并舍去低对比度和有边缘响应的点,从而确定最终极值点,每个图像所有最终极值点即为关键点;
步骤3.4,确定最终极值点的主方向并计算关键点的描述子,由此可得到每个图像的所有关键点的描述子,获取每个关键点的坐标,一个关键点的坐标对应一个描述子,以此构造关键点坐标描述子集合;
步骤3.5,在训练集和测试集中,任选一个样本,在样本中选取一个特征点,获取这个特征点的坐标,在步骤3.4获得的关键点坐标描述子集合中,根据这个坐标来获取这个特征点的描述子,以此类推,获得另外一个特征点的描述子,一个样本对应的描述子有两个,重复上述操作,获得测试集和训练集所有样本所对应的描述子,并对测试集和训练集所有样本所对应的描述子进行归一化处理;
步骤3.6,经步骤3.5后,在测试集和训练集中,选取一个样本,在该样本中选取一个特征点,获取这个特征点在步骤1.1中输入的原始图像上的位置坐标,将该位置坐标输入到步骤3.1所构造的MLP网络中,并把MLP网络的输出与该特征点所对应的sift描述子进行数据相加,得到该特征点的sift描述子数据的特征,重复上述过程,可得到该样本另外一个特征点的sift描述子数据的特征,以此类推,得到测试集和训练集中所有样本所对应特征点的sift描述子数据的特征;
步骤4,获取训练集和测试中样本所对应特征点的Harris矩阵,具体为:
步骤4.1,在训练集或者测试集中选取一个样本,在该样本中选取一个特征点;
步骤4.2,经步骤4.1后,寻找该特征点在步骤1.1中输入的原始图像上的位置坐标,在原始图像上,以这个位置坐标为中心,选取长为10像素,宽为10像素范围的图像,作为计算Harris矩阵所需要的领域范围;
步骤4.3,计算领域范围内的每个像素在X和Y梯度方向的内积,分别用Ixx,Iyy,Ixy表示,对领域范围内的每个像素的Ixx,Iyy,Ixy进行高斯加权滤波;
步骤4.4,经步骤4.3后,对领域范围内的每个像素的Ixx,Iyy,Ixy分别进行累加,从而得到Harris矩阵中的每个分量,即可得到该特征点的Harris矩阵;
步骤4.5,重复步骤4.1到步骤4.4,可得到该样本另外一个特征点的Harris矩阵,以此类推,得到训练集和测试集所有样本所对应特征点的Harris矩阵;
步骤5,将步骤2所得到领域图像的特征图,步骤3所得到的sift描述子数据的特征,步骤4所得到的Harris矩阵进行特征融合,并用全连接层和交叉熵损失函数对融合后的特征进行二分类判断,并反向传播更新网络参数;重复步骤2到5,用训练集数据训练好网络,训练完毕后保存训练好网络的权重偏置参数;
具体为:步骤5.1,构建共包含4层的ANN网络模型,依次为全连接层1、全连接层2、全连接层3、全连接层4、全连接层5;其中每一层的输出即为下一层的输入;其中参数设置为:
全连接层1中,输入张量大小为1×8454,输出张量为1×4096;
全连接层2中,输入张量大小为1×4096,输出张量为1×2048;
全连接层3中,输入张量大小为1×2048,输出张量为1×1024;
全连接层4中,输入张量大小为1×1024,输出张量为1×512;
全连接层5中,输入张量大小为1×512,输出张量为1×2;
步骤5.2,在训练集中选取一个样本,根据步骤2,步骤3,步骤4的结果,把该样本所对应特征点的领域图像的特征图和Harris矩阵展开成一维向量的形式,并把这些一维向量和该样本所对应特征点的sift描述子数据的特征水平拼接在一起;
步骤5.3,把步骤5.2得到的结果作为ANN网络模型的输入,并得到输出结果;
步骤5.4,将步骤5.3所得到的结果进行softmax计算,softmax公式如式(2)所示,其中i代表神经网络最后一层第i个结点的输出值,e代表指数函数,神经网络最后一层有两个结点,这两个结点分别对应着匹配正确和匹配错误这两种情况,Si的值代表该匹配是正确匹配或错误匹配的概率。将softmax的计算结果作为交叉熵损失函数的输入,计算出交叉熵损失函数的输出值,这个输出值就是损失值,交叉熵损失函数的公式如公式(3)所示,其中p(x)为标签值,标签值为1时代表正确匹配,标签值为0时代表错误匹配。q(x)该匹配是正确匹配或错误匹配的概率,H(X,q)代表损失值;根据损失值,进行反向传播计算,并更新网络中的权重偏置参数;
Figure BDA0002998790950000141
H(X,q)=-∑p(x)log q(x) (3);
步骤5.6,重复步骤5.2到步骤5.4,用训练集中的所有样本数据训练网络32个epcho,并根据网络loss曲线调节网络的学习率参数,使得loss曲线趋于收敛,如图1所示,可以看到该曲线逐渐趋近于0,如图2所示,可以看到随着网络的训练,测试集的准确率在稳步提高,说明该网络已经收敛。训练完成后,导出网络的权重偏置参数并进行保存;
步骤6,将步骤5中训练好的权重偏置参数载入到sift误匹配检测网络中,将需要检测的样本的相关数据输入到sift误匹配检测网络,并得出待测样本的预测结果,具体为:
步骤6.1,根据步骤5的结果,导入网络的权重偏置参数;
步骤6.2,在测试集中选取一个样本,获取该样本的领域图像,位置坐标,sift的描述子数据,Harris矩阵;
步骤6.3,将步骤6.2的结果输入到sift误匹配检测网络,并将输出结果进行softmax运算,选取最大的数值所对应的标签作为网络的预测结果;
步骤6.4,根据步骤6.3所获得到的结果,如果所预测到的标签为right,那么此匹配为正确匹配,如果所预测到的标签为wrong,那么此匹配为错误匹配。

Claims (7)

1.基于孪生卷积网络和特征混合的sift误匹配检测方法,其特征在于,具体按照以下步骤实施:
步骤1,采用sift算法将需要匹配的两幅原始图像进行处理,得到错误样本集合和正确样本集合,并得到训练集和测试集;
步骤2,获取测试集和训练集中所有样本对应特征点的领域图像,并对领域图像进行预处理,并输入到孪生卷积网络,提取领域图像的特征图;
步骤3,获取测试集和训练集中样本所对应特征点的sift描述子,并将每个样本位置坐标输入到MLP网络进行融合,将MLP网络的输出与该样本所对应的特征点的sift描述子结合,得到sift描述子数据的特征;
步骤4,获取训练集和测试中样本所对应特征点的Harris矩阵;
步骤5,将到领域图像的特征图,sift描述子数据的特征,Harris矩阵进行特征融合,并用全连接层和交叉熵损失函数对融合后的特征进行二分类判断,并反向传播更新网络参数;重复步骤2到5,用训练集数据训练网络,并保存训练网络的权重偏置参数;
步骤6,将权重偏置参数载入到sift误匹配检测网络中,将待检测的样本数据输入到sift误匹配检测网络,并得出待测样本的预测结果。
2.根据权利要求1所述的基于孪生卷积网络和特征混合的sift误匹配检测方法,其特征在于,所述步骤1中,具体为:
步骤1.1,使用sift算法处理需要匹配的两幅原始图像,得到图像的数个匹配对,每个匹配对由原始图像上两个特征点组成;
步骤1.2,若每个匹配对应的两个特征点在真实场景中代表的是同一个位置,则这个匹配对属于正确样本集合,如果不是同一个位置,则这个匹配对属于错误样本集合;
步骤1.3,分别从正确样本集合和错误样本集合中任意选取500个样本作为训练集,再分别从正确样本集合和错误样本集合中任意选取100个样本作为测试集。
3.根据权利要求2所述的基于孪生卷积网络和特征混合的sift误匹配检测方法,其特征在于,所述步骤2中,具体为:
步骤2.1,选取测试集和训练集中所有样本,每个样本代表一个匹配,每个匹配对应两个特征点,找到两个特征点分别在步骤1.1中原始图像上的位置坐标,以该位置坐标为中心,选取长为64像素,宽为64像素范围内,对原始图像进行分割,分割后的图像作为该特征点的领域图像,即每个样本可以得到两张领域图像,以此,获得测试集和训练集所有样本的领域图像;
步骤2.2,对训练集和测试集中的所有样本对应的领域图像进行灰度化处理和归一化处理;
步骤2.3,经步骤2.2后,将每个样本对应的两张领域图像均输入到孪生卷积神经网络中,得到样本所对应的两张领域图像的特征图。
4.根据权利要求3所述的基于孪生卷积网络和特征混合的sift误匹配检测方法,其特征在于,所述步骤3中,具体为:
步骤3.1,构建共包含6层的MLP网络模型,依次为输入层、卷积层1、BN层1、卷积层2、BN层2、卷积层3、BN层3;
步骤3.2,获取由步骤1.1输入的两张原始图像,对两张图像分别进行不同尺度的高斯卷积,构造两个高斯差分金字塔;
步骤3.3,在步骤3.2所得到的高斯差分金字塔上做阈值化和空间极值的检测,找到候选极值点,对候选极值点进行拟合来精确确定极值点的位置以及所在的尺度,并舍去低对比度和有边缘响应的点,从而确定最终极值点,每个图像所有最终极值点即为关键点;
步骤3.4,获取每个关键点的坐标,一个关键点的坐标对应一个描述子,以此构造关键点坐标描述子集合;
步骤3.5,在训练集和测试集中,任选一个样本,在样本中选取一个特征点,获取这个特征点的坐标,在步骤3.4获得的关键点坐标描述子集合中,根据这个坐标来获取这个特征点的描述子,以此类推,获得另外一个特征点的描述子,一个样本对应的描述子有两个,重复上述操作,获得测试集和训练集所有样本所对应的描述子,并对测试集和训练集所有样本所对应的描述子进行归一化处理;
步骤3.6,经步骤3.5后,在测试集和训练集中,选取一个样本,在该样本中选取一个特征点,获取这个特征点在步骤1.1中输入的原始图像上的位置坐标,将该位置坐标输入到步骤3.1所构造的MLP网络中,并把MLP网络的输出与该特征点所对应的sift描述子进行数据相加,得到该特征点的sift描述子数据的特征,重复上述过程,可得到该样本另外一个特征点的sift描述子数据的特征,以此,得到测试集和训练集中所有样本所对应特征点的sift描述子数据的特征。
5.根据权利要求4所述的基于孪生卷积网络和特征混合的sift误匹配检测方法,其特征在于,所述步骤4中,具体为:
步骤4.1,在训练集或者测试集中选取一个样本,在该样本中选取一个特征点;
步骤4.2,经步骤4.1后,寻找该特征点在步骤1.1中输入的原始图像上的位置坐标,在原始图像上,以这个位置坐标为中心,选取长为10像素,宽为10像素范围的图像,作为计算Harris矩阵所需要的领域范围;
步骤4.3,计算领域范围内的每个像素在X和Y梯度方向的内积,分别用Ixx,Iyy,Ixy表示,对领域范围内的每个像素的Ixx,Iyy,Ixy进行高斯加权滤波;
步骤4.4,经步骤4.3后,对领域范围内的每个像素的Ixx,Iyy,Ixy分别进行累加,从而得到Harris矩阵中的每个分量,即可得到该特征点的Harris矩阵;
步骤4.5,重复步骤4.1到步骤4.4,可得到该样本另外一个特征点的Harris矩阵,以此类推,得到训练集和测试集所有样本所对应特征点的Harris矩阵。
6.根据权利要求5所述的基于孪生卷积网络和特征混合的sift误匹配检测方法,其特征在于,所述步骤5中,具体为:
步骤5.1,构建共包含4层的ANN网络模型,依次为全连接层1、全连接层2、全连接层3、全连接层4、全连接层5;其中每一层的输出即为下一层的输入;
步骤5.2,在训练集中选取一个样本,把该样本所对应特征点的领域图像的特征图和Harris矩阵展开成一维向量的形式,并把这些一维向量和该样本所对应特征点的sift描述子数据的特征水平拼接在一起;
步骤5.3,把步骤5.2得到的结果作为ANN网络模型的输入,并得到输出结果;
步骤5.4,将步骤5.3所得到的结果进行softmax计算,将softmax的计算结果作为交叉熵损失函数的输入,计算出交叉熵损失函数的输出值,这个输出值就是损失值,根据损失值,进行反向传播计算,并更新网络中的权重偏置参数;
步骤5.6,重复步骤5.2到步骤5.4,用训练集中的所有样本数据训练网络32个epcho,并根据网络loss曲线调节网络的学习率参数,使得loss曲线趋于收敛,训练完成后,导出网络的权重偏置参数并进行保存。
7.根据权利要求6所述的基于孪生卷积网络和特征混合的sift误匹配检测方法,其特征在于,所述步骤6中,具体为:
步骤6.1,根据步骤5的结果,导入网络的权重偏置参数;
步骤6.2,在测试集中选取一个样本,获取该样本的领域图像,位置坐标,sift的描述子数据,Harris矩阵;
步骤6.3,将步骤6.2的结果输入到sift误匹配检测网络,并将输出结果进行softmax运算,选取最大的数值所对应的标签作为网络的预测结果;
步骤6.4,根据步骤6.3所获得到的结果,如果所预测到的标签为right,那么此匹配为正确匹配,如果所预测到的标签为wrong,那么此匹配为错误匹配。
CN202110339794.4A 2021-03-30 2021-03-30 基于孪生卷积网络和特征混合的sift误匹配检测方法 Active CN113128518B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110339794.4A CN113128518B (zh) 2021-03-30 2021-03-30 基于孪生卷积网络和特征混合的sift误匹配检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110339794.4A CN113128518B (zh) 2021-03-30 2021-03-30 基于孪生卷积网络和特征混合的sift误匹配检测方法

Publications (2)

Publication Number Publication Date
CN113128518A true CN113128518A (zh) 2021-07-16
CN113128518B CN113128518B (zh) 2023-04-07

Family

ID=76774607

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110339794.4A Active CN113128518B (zh) 2021-03-30 2021-03-30 基于孪生卷积网络和特征混合的sift误匹配检测方法

Country Status (1)

Country Link
CN (1) CN113128518B (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116580181A (zh) * 2023-07-13 2023-08-11 征图新视(江苏)科技股份有限公司 一种智能的基于模板匹配的检测定位算法
CN117196958A (zh) * 2023-11-03 2023-12-08 广州市玄武无线科技股份有限公司 基于深度学习的图片拼接方法、装置、设备及存储介质

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20170366709A1 (en) * 2015-03-31 2017-12-21 Fujifilm Corporation Image processing apparatus, image processing method, and program
CN108229500A (zh) * 2017-12-12 2018-06-29 西安工程大学 一种基于函数拟合的sift误匹配点剔除法
CN109934272A (zh) * 2019-03-01 2019-06-25 大连理工大学 一种基于全卷积网络的图像匹配方法
CN110222792A (zh) * 2019-06-20 2019-09-10 杭州电子科技大学 一种基于孪生网络的标签缺陷检测算法
CN110533631A (zh) * 2019-07-15 2019-12-03 西安电子科技大学 基于金字塔池化孪生网络的sar图像变化检测方法
CN111898633A (zh) * 2020-06-19 2020-11-06 北京理工大学 一种基于高光谱图像的海上舰船目标检测方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20170366709A1 (en) * 2015-03-31 2017-12-21 Fujifilm Corporation Image processing apparatus, image processing method, and program
CN108229500A (zh) * 2017-12-12 2018-06-29 西安工程大学 一种基于函数拟合的sift误匹配点剔除法
CN109934272A (zh) * 2019-03-01 2019-06-25 大连理工大学 一种基于全卷积网络的图像匹配方法
CN110222792A (zh) * 2019-06-20 2019-09-10 杭州电子科技大学 一种基于孪生网络的标签缺陷检测算法
CN110533631A (zh) * 2019-07-15 2019-12-03 西安电子科技大学 基于金字塔池化孪生网络的sar图像变化检测方法
CN111898633A (zh) * 2020-06-19 2020-11-06 北京理工大学 一种基于高光谱图像的海上舰船目标检测方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
ASIE ZARE ET AL: "A fast method for mismatch detection in the model-based detector using Condition Number", 《2008 INTERNATIONAL SYMPOSIUM ON TELECOMMUNICATIONS》 *
张九龙等: "基于时间维度局部特征的人体行为识别", 《西安理工大学学报》 *

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116580181A (zh) * 2023-07-13 2023-08-11 征图新视(江苏)科技股份有限公司 一种智能的基于模板匹配的检测定位算法
CN116580181B (zh) * 2023-07-13 2023-09-26 征图新视(江苏)科技股份有限公司 一种智能的基于模板匹配的检测定位算法
CN117196958A (zh) * 2023-11-03 2023-12-08 广州市玄武无线科技股份有限公司 基于深度学习的图片拼接方法、装置、设备及存储介质
CN117196958B (zh) * 2023-11-03 2024-04-05 广州市玄武无线科技股份有限公司 基于深度学习的图片拼接方法、装置、设备及存储介质

Also Published As

Publication number Publication date
CN113128518B (zh) 2023-04-07

Similar Documents

Publication Publication Date Title
CN113160192B (zh) 复杂背景下基于视觉的压雪车外观缺陷检测方法及装置
CN109118473B (zh) 基于神经网络的角点检测方法、存储介质与图像处理系统
CN108470354A (zh) 视频目标跟踪方法、装置和实现装置
CN109165540B (zh) 一种基于先验候选框选择策略的行人搜索方法和装置
CN101980250B (zh) 基于降维局部特征描述子和隐条件随机场的目标识别方法
CN107633226B (zh) 一种人体动作跟踪特征处理方法
CN111126412B (zh) 基于特征金字塔网络的图像关键点检测方法
CN112200121B (zh) 基于evm和深度学习的高光谱未知目标检测方法
CN110287873A (zh) 基于深度神经网络的非合作目标位姿测量方法、系统及终端设备
CN113128518B (zh) 基于孪生卷积网络和特征混合的sift误匹配检测方法
CN108550166B (zh) 一种空间目标图像匹配方法
CN111582337A (zh) 基于小样本细粒度图像分析的草莓畸形状态检测方法
CN106295710B (zh) 基于非几何约束的图像局部特征匹配方法、装置及终端
CN112861672A (zh) 一种基于光学-sar异源遥感图像匹配方法
CN115439694A (zh) 一种基于深度学习的高精度点云补全方法及装置
CN112364881B (zh) 一种进阶采样一致性图像匹配方法
CN112364747A (zh) 一种有限样本下的目标检测方法
CN109961103B (zh) 特征提取模型的训练方法、图像特征的提取方法及装置
Bianchi et al. Improving image classification robustness through selective cnn-filters fine-tuning
CN113780145A (zh) 精子形态检测方法、装置、计算机设备和存储介质
CN116258877A (zh) 土地利用场景相似度变化检测方法、装置、介质及设备
CN113221914B (zh) 一种基于杰卡德距离的图像特征点匹配和误匹配剔除方法
US11645827B2 (en) Detection method and device for assembly body multi-view change based on feature matching
CN115761888A (zh) 基于nl-c3d模型的塔吊操作人员异常行为检测方法
CN114022522A (zh) 基于多尺度感受野的多时相遥感图像配准方法及系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant