CN110659680A - 一种基于多尺度卷积的图像patch匹配方法 - Google Patents

一种基于多尺度卷积的图像patch匹配方法 Download PDF

Info

Publication number
CN110659680A
CN110659680A CN201910872936.6A CN201910872936A CN110659680A CN 110659680 A CN110659680 A CN 110659680A CN 201910872936 A CN201910872936 A CN 201910872936A CN 110659680 A CN110659680 A CN 110659680A
Authority
CN
China
Prior art keywords
patch
channel
matching
similarity
network
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201910872936.6A
Other languages
English (en)
Other versions
CN110659680B (zh
Inventor
王爽
焦李成
魏少玮
方帅
杨博武
李彦锋
权豆
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Xian University of Electronic Science and Technology
Original Assignee
Xian University of Electronic Science and Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Xian University of Electronic Science and Technology filed Critical Xian University of Electronic Science and Technology
Priority to CN201910872936.6A priority Critical patent/CN110659680B/zh
Publication of CN110659680A publication Critical patent/CN110659680A/zh
Application granted granted Critical
Publication of CN110659680B publication Critical patent/CN110659680B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/755Deformable models or variational models, e.g. snakes or active contours
    • G06V10/7557Deformable models or variational models, e.g. snakes or active contours based on appearance, e.g. active appearance models [AAM]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • G06V10/462Salient features, e.g. scale invariant feature transforms [SIFT]

Abstract

本发明公开了一种基于多尺度卷积的图像patch匹配方法,通过准备数据集;制作数据集;数据预处理;设计三分支‑双通道网络结构;设计多尺度卷积模块;根据提取的特征计算相似性;网络训练;预测匹配概率;评估网络性能。本发明有效克服了现有技术中训练不充分、没有使用多尺度信息等问题,极大的提高了网络的性能,提升了网络的训练效率,增强了网络的鲁棒性。本发明可应用于图像配准、图像检索、图像追踪、多视角重建等领域。

Description

一种基于多尺度卷积的图像patch匹配方法
技术领域
本发明属于图像处理技术领域,具体涉及一种基于多尺度卷积的图像patch匹配方法。
背景技术
在图像patch之间建立一个精确的匹配对应关系在许多计算机视觉领域中起了至关重要的作用,例如:图像配准、图像检索、细粒度分类等。由于图像的外观容易受到视角变化、光照变化,遮挡,相机参数设定等很多方面的影响,图像匹配具有很大的挑战性,需要提取到的特征具有良好的不变性以及判别性。在本文中我们提出一个通用的方法,不仅仅在同源数据集上取得较好的匹配结果,并且在更加困难的异源数据集上也取得先进的性能。
在深度学习之前,在图像匹配领域普遍使用基于SIFT的方法来提取patch的描述子向量,然后根据两个patch之间的欧氏距离来判断给定的patch对是否匹配。深度学习在许多计算机视觉领域的任务中都取得了非常出色的效果,因此越来越多的研究者开始使用深度学习的方法来解决图像匹配问题。现阶段,基于深度学习的方法主要分成两大类。一种是Metric Learning,另一种是Descriptor Learning。Metric Learning利用卷积神经网络直接建模patch对的相似性度量函数,而Descriptor Learning先使用卷积神经网络提取patch的特征描述子,根据patch对特征描述子之间的欧式距离来判断给定的patch对是否匹配。
现有的数据采样策略是在一个mini-batch内穷尽的挖掘所有的困难负样本,极大的改进基于描述子学习方法的性能。但是这种方法并没有考虑使用patch的多尺度特征。
发明内容
本发明所要解决的技术问题在于针对上述现有技术中的不足,提供一种基于多尺度卷积的图像patch匹配方法,可用于图像检索、目标追踪、图像配准等,能有效的提高同源以及异源图像的匹配精度。
本发明采用以下技术方案:
一种基于多尺度卷积的图像patch匹配方法,包括以下步骤:
S1、准备数据集,使用公开的异源VIS-NIR数据集和同源UBC PhotoTour数据集;
S2、随机挑选2个匹配的patch以及一个不匹配的patch在深度方向级联,获得一个训练的Triplet;
S3、将每一个训练Triplet按照通道进行归一化;
S4、设计三分支-双通道网络结构,网络有三个相同的分支,三个分支共享参数,每个分支的输入是一个双通道图像patch对;
S5、利用多尺度卷积模块结构提取patch对的多尺度特征;
S6、将每个训练Triplet两两组合得到3个双通道patch对,分别输入到每个分支提取patch对的多尺度特征;
S7、将步骤S6中提取的多尺度特征输入全连接层得到每个patch对相似性得分;
S8、基于步骤S7获得的相似性得分,通过挖掘得到一个匹配对和一个困难的不匹配对的相似性得分,然后通过PNSigmoid loss以及Distribution loss联合优化整个网络;
S9、将步骤S8训练得到的权重载入网络,得到每一个输入patch对的相似性概率得分;
S10、分别在UBC PhotoTour以及VIS-NIR数据集上计算FPR95,通过FPR95评估网络在这2个数据集上的性能。
具体的,步骤S1中,VIS-NIR数据集共有9个子集,在Country子集上训练,在剩余8个子集上测试;UBC-PhotoTour数据集包含3个子集(Liberty、Notredame、Yosemite),每次在一个子集上训练在另外二个子集上测试。
具体的,步骤S3具体为:
S301、对于每个patch块,计算每个通道的均值和标准差,然后将每个通道内的像素值减去其对应的均值和标准差进行通道归一化操作;
S302、对于每个patch块采用随机数据增强操作,包括随机上下翻转,随机镜像翻转和随机旋转。
进一步的,归一化操作,具体为:
Figure BDA0002203412310000031
Figure BDA0002203412310000032
Figure BDA0002203412310000033
其中,m,n表示每个通道的宽度和高度,i,j表示通道中每个元素的坐标,F表示当前通道,Fi,j表示当前像素点的像素值,μ是当前通道的均值,σ是当前通道的标准差,
Figure BDA0002203412310000034
是归一化之后的通道。
具体的,步骤S5中,多尺度卷积模块包含四个分支,一个1×1分支,一个3×3分支,一个5×5分支以及一个最大池化分支,通过汇聚由不同大小的卷积核得到的特征,输出patch对的多尺度特征。
具体的,步骤S8具体为:
S801、基于步骤S7中得到的Triplet相似性得分<S1,2,S1,3,S2,3>挖掘困难负样本,S+=S1,2,S-=max(S1,3,S2,3),S1,2是一对匹配样本对的相似性得分,S1,3、S2,3分别是2个不匹配样本对的相似性得分,S-表示挖掘得到的困难负样本对的相似性得分;
S802、建立PNSigmoid损失函数训练网络;
S803、建立Distribution loss损失函数缓解由于Triplet采样造成的梯度消失现象;
S804、联合优化PNSigmoid loss损失函数和Distribution loss损失函数,确定最终的损失函数。
进一步的,步骤S802中,PNSigmoid损失函数为:
Figure BDA0002203412310000041
其中yi=0或者1,yi代表匹配的标签。
进一步的,步骤S803中,Distribution loss具体为:
L(D)=λ(varmatch+varnon-match)+max(0,m-meannon-match+meanmatch)
其中,varmatch是匹配样本对相似性分布的方差,meanmatch是匹配样本对相似性分布的均值,varnon-match是不匹配样本对相似性分布的方差,meannon-match是不匹配样本对相似性分布的均值,m代表匹配以及不匹配样本对相似性分布均值之间的间隔,λ代表方差损失和均值损失之间的偏置项。
进一步的,步骤S804中,最终的损失函数为:
L=L(T)+L(D)
其中,优化器使用Adam,学习率设置为0.001,学习率每过5个epoch衰减0.9。
具体的,步骤S9中,设定阈值为0.5,相似性概率得分大于0.5,则认为匹配,否者认为不匹配。
与现有技术相比,本发明至少具有以下有益效果:
本发明提供的基于多尺度卷积的图像patch匹配方法,利用Triplet采样方式缓解训练中正负样本质量不平衡的问题。并且利用多尺度卷积模块,提取patch的多尺度特征,最后将多尺度特征输入全连接层建模相似性度量函数。为了缓解在训练过程中由于Triplet采样方式导致的梯度消失现象,引入了一个简单高效的Distribution loss进一步提升了匹配性能。
进一步的,本发明在公有的同源数据集(UBCPhotoTour)和异源数据集(VIS-NIR)验证了其具有良好的鲁棒性和泛化能力。
进一步的,使用通道归一化技术,使网络在训练过程中更加稳定。并且通道归一化能够消除通道间特征的差异性,进一步提升学习到的描述子的鲁棒性。
进一步的,本发明提出了一种新颖的三分支-双通道度量学习网络架构,充分结合三分支网络以及双通道网络的优点。三分支-双通道网络具有更好的匹配性能以及更快的收敛速度。
进一步的,本发明提出了一种多尺度卷积模块自动的学习patch对的多尺度特征,这样使得提取的特征更加具有判别性以及不变性。
进一步的,本发明提出了一种能对够对困难样本程度进行自适应加权的PNSigmoid loss。为了缓解由于Triplet采样带来的梯度消失问题,本发明提出了Distribution loss。通过联合优化PNSigmoid loss和Distribution loss取得了先进的匹配性能。
进一步的,本发明利用已经训练好的网络权重,可以计算任意一对输入的patch对图像输出其相似性得分以判断其是否是匹配的。
综上所述,本发明有效克服了现有技术中训练不充分、没有使用多尺度信息等问题,极大的提高了网络的性能,提升了网络的训练效率,增强了网络的鲁棒性。本发明可应用于图像配准、图像检索、图像追踪、多视角重建等领域。
下面通过附图和实施例,对本发明的技术方案做进一步的详细描述。
附图说明
图1为发明的流程图;
图2为本发明在仿真实验中使用的UBC PhotoTour训练集数据;
图3为本发明在仿真实验中使用的VIS-NIR训练集数据;
图4为本发明三分支-双通道网络结构示意图;
图5为本发明多尺度卷积模块结构示意图;
图6为本发明匹配结果图,其中,(a)为正确的判断为匹配的样本对TP,(b)为正确的判断为不匹配的样本对TN,(c)为错误的判断为匹配的样本对FP,(d)为错误的判断为不匹配的样本对FN。
具体实施方式
基于patch的图像匹配是计算机视觉领域中一项重要的基础研究,其在图像配准、图像检索、多视角重构、图像分类等应用中发挥着重要的作用。当前的基于深度学习的图像匹配方法包括双分支结构、三分支结构、双通道结构,每种结构都有自己的优势,但是当前的方法都没有考虑将上述结构进行整合。此外,当前的方法几乎都没有考虑使用patch的多尺度特征。
本发明提供了一种基于多尺度卷积的图像patch匹配方法,通过准备数据集;制作数据集;数据预处理;设计三分支-双通道网络结构;设计多尺度卷积模块;根据提取的特征计算相似性;网络训练;预测匹配概率;评估网络性能。本发明有效克服了现有技术中训练不充分、没有使用多尺度信息等问题,极大的提高了网络的性能,提升了网络的训练效率,增强了网络的鲁棒性。本发明可应用于图像配准、图像检索、图像追踪、多视角重建等领域。
请参阅图1,本发明一种基于多尺度卷积的图像patch匹配方法,利用两个损失函数联合优化,不仅极大的提高了图像匹配的准确率,而且缩短了网络的训练周期,包括以下步骤:
S1、准备数据集
使用公开的异源VIS-NIR数据集和同源UBC PhotoTour数据集;VIS-NIR数据集共有9个子集,在Country子集上训练,在剩余8个子集上测试。UBC-PhotoTour数据集包含3个子集(Liberty、Notredame、Yosemite),每次在一个子集上训练在另外二个子集上测试;
S2、制作数据集
随机挑选2个匹配的patch以及一个不匹配的patch在深度方向级联,获得一个训练的Triplet;
S3、数据预处理
将每一个训练Triplet按照通道进行归一化,防止训练过程中出现梯度消失或者梯度爆炸问题;
S4、三分支-双通道网络结构
设计一个三分支-双通道网络结构,网络有三个相同的分支,三个分支共享参数。每个分支的输入是一个双通道图像patch对;
S5、多尺度卷积模块结构
不同的卷积核具有不同的感受野,利用不同大小的卷积核提取patch对的多尺度特征;
S6、多尺度特征提取
将每个训练Triplet两两组合得到3个双通道patch对,分别输入到每个分支提取patch对的多尺度特征;
S7、建模相似性度量函数
将步骤S6中提取的多尺度特征输入全连接层得到每个patch对相似性得分;
S8、训练网络
基于步骤S7获得的相似性得分,通过挖掘得到一个匹配对和一个困难的不匹配对的相似性得分,然后通过PNSigmoid loss以及Distribution loss联合优化整个网络;
S9、预测匹配概率
将步骤S8、训练得到的权重载入网络,得到每一个输入patch对的相似性概率得分;
S10、评估网络性能
分别在UBC PhotoTour以及VIS-NIR数据集上计算FPR95,通过FPR95评估网络在这2个数据集上的性能。
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。通常在此处附图中的描述和所示的本发明实施例的组件可以通过各种不同的配置来布置和设计。因此,以下对在附图中提供的本发明的实施例的详细描述并非旨在限制要求保护的本发明的范围,而是仅仅表示本发明的选定实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
实施例
S1、为了评估我们的方法的性能,我们在广泛使用的同源数据集UBC PhotoTour以及异源数据集VIS-NIR上进行验证。UBC PhotoTour包含三个子集分别是:Liberty、Yosemite、Notredame,三个子集分别含有450K、634K、468K独立的patch块和160K、230K、147K唯一的3D point。VIS-NIR包含9个子集,分别是:Country,Field,Forest,Indoor,Mountain,Oldbuilding,Street,Urban,Water,每个子集中匹配样本以及不匹配样本各占一半。在UBC PhotoTour数据集上我们分别在Liberty、Yosemite、Notredame上训练,然后在另外2个子集上测试。在VIS-NIR数据集上,我们在Country子集上训练,在另外8个子集上测试;
S2、UBC PhotoTour数据集上每一个独立的3D point含有2-5个patch,具有相同3Dpoint的2个patch构成一个匹配对。在UBC PhotoTour每个子集上对于每一个3D point随机挑选2个patch(T1,T2)构成一个匹配对,然后从另外一个不同的3D point包含的patch中随机挑选一个作为负样本patch(T3),T3和T1、T2分别构成2个不匹配的patch对。将T1、T2、T3在深度方向级联构成一个训练样本Triplet<T1,T2,T3>,在VIS-NIR采用同样的方式制作训练数据集;
S3、为了防止在训练过程中出现梯度消失,梯度爆炸,以及过拟合现象,对数据预处理包括如下步骤:
S301、对于每个patch块,计算每个通道的均值和标准差,然后将每个通道内的像素值减去其对应的均值和标准差进行通道归一化操作,具体为:
Figure BDA0002203412310000101
Figure BDA0002203412310000102
Figure BDA0002203412310000103
其中,m,n表示每个通道的宽度和高度,i,j表示通道中每个元素的坐标,F表示当前通道,Fi,j表示当前像素点的像素值。μ是当前通道的均值,σ是当前通道的标准差,是归一化之后的通道。在本发明中,通过采取这种通道归一化的方式比直接归一化到[0,1]取得了更高的效果和更快的收敛速度。
S302、对于每个patch块采用随机数据增强操作,包括随机上下翻转,随机镜像翻转和随机旋转;
S4、三分支-双通道网络结构:
参考图3,我们设计了一个三分支-双通道网络结构,网络有三个相同的分支,三个分支共享参数。每个分支的输入是一个双通道图像patch,每个分支包含3个多尺度卷积模块,2个最大池化层,2个1×1卷积层,和2个全连接层,每个分支输出的是一个patch对的相似性概率得分;
S5、多尺度卷积模块结构:
参考图4和图5,多尺度卷积模块包含四个分支,一个1×1分支,一个3×3分支,一个5×5分支(由2个3×3卷积核堆叠得到5×5的感受)以及一个最大池化(maxpooling)分支。通过汇聚由不同大小的卷积核得到的特征,输出patch对的多尺度特征。
S6、多尺度特征提取:
将步骤S3中得到每一个训练Triplet<T1,T2,T3>两两组合得到3个patch对,分别是:<T1,T2>、<T1,T3>、<T2,T3>。<T1,T2>是一个匹配样本对,<T1,T3>、<T2,T3>分别是2个不匹配样本对。将3个patch对分别输入每个分支中得到每个patch对的多尺度特征;
S7、将步骤S6中得到的多尺度特征送入每个分支后的2个全连接层计算每个patch对的相似性概率得分,最后网络输出一个Triplet相似性得分<S1,2,S1,3,S2,3>;
S8、根据步骤S7中得到的Triplet相似性得分挖掘困难负样本,通过挖掘得到一组匹配样本的相似性概率得分和一组困难的不匹配样本的相似性概率得分。然后通过PNSigmoid loss计算相似性损失,由于Triplet采样方式会导致训练中出现梯度消失现象,引入Distribution loss约束网络,联合优化PNSigmoid loss和Distribution loss;
S801、基于步骤S7中得到的Triplet相似性得分<S1,2,S1,3,S2,3>挖掘困难负样本,S+=S1,2,S-=max(S1,3,S2,3),S1,2是一对匹配样本对的相似性得分,S1,3、S2,3分别是2个不匹配样本对的相似性得分,S-表示挖掘得到的困难负样本对的相似性得分;
S802、为了对负样本的困难程度有一个自适应的加权惩罚,使网络能够充分的训练,我们提出了PNSigmoid损失函数:
Figure BDA0002203412310000111
其中yi=0或者1,yi代表匹配的标签。PNSigmoid损失函数随着负样本对的困难程度的增大而增大,因此会对负样本对的困难程度进行自适应加权,从而使网络优化更加充分;
S803、为了缓解由于Triplet采样造成的梯度消失现象,提出Distribution loss:
L(D)=λ(varmatch+varnon-match)+max(0,m-meannon-match+meanmatch)
其中,varmatch是匹配样本对相似性分布的方差,meanmatch是匹配样本对相似性分布的均值,varnon-match是不匹配样本对相似性分布的方差,meannon-match是不匹配样本对相似性分布的均值,m代表匹配以及不匹配样本对相似性分布均值之间的间隔,λ代表方差损失和均值损失之间的偏置项。Distribution loss在一个训练mini-batch内约束匹配以及不匹配样本对相似性分布,缓解了优化时由于采样方式带来的梯度消失问题;
S804、联合优化PNSigmoid loss和Distribution loss,最终的损失函数为:
L=L(T)+L(D)
优化器使用Adam,学习率设置为0.001,学习率每过5个epoch衰减0.9。
S9、将步骤S8训练得到的权重载入网络,得到每一个输入patch对的相似性概率得分,该分支反应了输入的patch对相似程度,越大代表越相似。以0.5为阈值,相似性概率得分大于0.5,则认为匹配,否者认为不匹配;
S10、分别在UBC PhotoTour以及VIS-NIR数据集上计算FPR95,通过FPR95评估网络在这2个数据集上的性能。
仿真实验条件:
本发明仿真实验的硬件平台是:
戴尔计算机Intel(R)Core5处理器,主频3.20GHz,内存64GB;仿真软件平台是:Spyder软件(Python3.6)版。
仿真实验内容与结果分析:
本发明的仿真实验具体分为两个仿真实验。
请参阅图2和图3,本发明使用公开的UBC PhotoTour以及VIS-NIR数据集。UBCPhotoTour数据集包含3个子集,分别是:Liberty,Yosemite,Notredame。三个子集分别含有450K、634K、468K独立的patch块和160K、230K、147K唯一的3D point。VIS-NIR包含9个子集,分别是:Country,Field,Forest,Indoor,Mountain,Oldbuilding,Street,Urban,Water,每个子集中匹配样本以及不匹配样本各占一半。依照步骤(2)制作训练数据集,在UBCPhotoTour数据集上我们分别在Liberty、Yosemite、Notredame上训练,然后在另外2个子集上测试。在VIS-NIR数据集上,我们在Country子集上训练,在另外8个子集上测试。本发明使用训练好的网络权重预测测试集各组数据的匹配概率,得到的匹配结果参见图6。
仿真实验1
本发明与现有技术的在UBC PhotoTour基准数据集上的性能对比。采用本发明与现有技术中基于CNN的图像匹配方法,分别用相同训练集样本进行训练,再用相同测试集样本对各种方法进行评价。评价结果如表1所示,表中的数据为各方法在测试集各组别上FPR95的值,FPR95越小,表明网络准确率越高。
表1不同方法在UBC PhotoTour数据集上仿真实验测试集准确率
Figure BDA0002203412310000131
其中,MS-Net表示本发明的结果。从表1可以看出MS-Net在6个子集上的平均性能最好,在三个子集上取得了最优的结果并且可以看到性能增益比较大,分别为:16.2%,43.1%,40.2%。在另外三个子集上虽然没有取得最优结果,但是他们之间的差异非常小。表1说明了本发明在同源数据集上取得了先进的性能。
仿真实验2
本发明与现有技术的在VIS-NIR基准数据集上的性能对比。采用本发明与现有技术中基于CNN的图像匹配方法,分别在Country子集上进行训练,再其他8个子集上对各种方法进行评价。评价结果如表2所示,MS-Net代表本发明所提出的的方法,表中的数据为各方法在测试集各组别上FPR95的值,FPR95越小,表明网络准确率越高。
表2不同方法在VIS-NIR数据集上仿真实验测试集准确率
Figure BDA0002203412310000142
Figure BDA0002203412310000151
从表2可以看到,本发明在异源数据集上同样取得了最好的结果并且在异源数据集上取得了更大的性能提升。本发明在大多数子集上取得了最优结果。本发明取得性能高于其他对比算法的原因在于:
1、充分结合了三分支网络和双通道网络的优点具有更好的性能以及更快的收敛速度;
2、使用多尺度卷积模块提取patch对的多尺度特征,使得提取的特征更加具有判别性和不变性;
3、使用了对困难样本程度自适应加权的PNSigmoid loss以及约束相似性分布的Distribution loss。
本发明提出了一种通用的patch匹配算法,不仅仅在同源数据集上取得了很好的效果,在更加困难的异源数据集上依旧取得了先进的性能,本发明实际匹配结果请参见图6。
综上所述,本发明公开的一种基于多尺度卷积的图像patch匹配方法,本发明有效克服了现有技术中训练不充分、没有使用多尺度信息等问题,极大的提高了网络的性能,提升了网络的训练效率,增强了网络的鲁棒性。本发明可应用于图像配准、图像检索、图像追踪、多视角重建等领域。
以上内容仅为说明本发明的技术思想,不能以此限定本发明的保护范围,凡是按照本发明提出的技术思想,在技术方案基础上所做的任何改动,均落入本发明权利要求书的保护范围之内。

Claims (10)

1.一种基于多尺度卷积的图像patch匹配方法,其特征在于,包括以下步骤:
S1、准备数据集,使用公开的异源VIS-NIR数据集和同源UBC PhotoTour数据集;
S2、随机挑选2个匹配的patch以及一个不匹配的patch在深度方向级联,获得一个训练的Triplet;
S3、将每一个训练Triplet按照通道进行归一化;
S4、设计三分支-双通道网络结构,网络有三个相同的分支,三个分支共享参数,每个分支的输入是一个双通道图像patch对;
S5、利用多尺度卷积模块结构提取patch对的多尺度特征;
S6、将每个训练Triplet两两组合得到3个双通道patch对,分别输入到每个分支提取patch对的多尺度特征;
S7、将步骤S6中提取的多尺度特征输入全连接层得到每个patch对相似性得分;
S8、基于步骤S7获得的相似性得分,通过挖掘得到一个匹配对和一个困难的不匹配对的相似性得分,然后通过PNSigmoid loss以及Distribution loss联合优化整个网络;
S9、将步骤S8训练得到的权重载入网络,得到每一个输入patch对的相似性概率得分;
S10、分别在UBC PhotoTour以及VIS-NIR数据集上计算FPR95,通过FPR95评估网络在这2个数据集上的性能。
2.根据权利要求1所述的基于多尺度卷积的图像patch匹配方法,其特征在于,步骤S1中,VIS-NIR数据集共有9个子集,在Country子集上训练,在剩余8个子集上测试;UBC-PhotoTour数据集包含3个子集(Liberty、Notredame、Yosemite),每次在一个子集上训练在另外二个子集上测试。
3.根据权利要求1所述的基于多尺度卷积的图像patch匹配方法,其特征在于,步骤S3具体为:
S301、对于每个patch块,计算每个通道的均值和标准差,然后将每个通道内的像素值减去其对应的均值和标准差进行通道归一化操作;
S302、对于每个patch块采用随机数据增强操作,包括随机上下翻转,随机镜像翻转和随机旋转。
4.根据权利要求3所述的基于多尺度卷积的图像patch匹配方法,其特征在于,归一化操作,具体为:
Figure FDA0002203412300000021
Figure FDA0002203412300000022
其中,m,n表示每个通道的宽度和高度,i,j表示通道中每个元素的坐标,F表示当前通道,Fi,j表示当前像素点的像素值,μ是当前通道的均值,σ是当前通道的标准差,
Figure FDA0002203412300000024
是归一化之后的通道。
5.根据权利要求1所述的基于多尺度卷积的图像patch匹配方法,其特征在于,步骤S5中,多尺度卷积模块包含四个分支,一个1×1分支,一个3×3分支,一个5×5分支以及一个最大池化分支,通过汇聚由不同大小的卷积核得到的特征,输出patch对的多尺度特征。
6.根据权利要求1所述的基于多尺度卷积的图像patch匹配方法,其特征在于,步骤S8具体为:
S801、基于步骤S7中得到的Triplet相似性得分<S1,2,S1,3,S2,3>挖掘困难负样本,S+=S1,2,S-=max(S1,3,S2,3),S1,2是一对匹配样本对的相似性得分,S1,3、S2,3分别是2个不匹配样本对的相似性得分,S-表示挖掘得到的困难负样本对的相似性得分;
S802、建立PNSigmoid损失函数训练网络;
S803、建立Distribution loss损失函数缓解由于Triplet采样造成的梯度消失现象;
S804、联合优化PNSigmoid loss损失函数和Distribution loss损失函数,确定最终的损失函数。
7.根据权利要求6所述的基于多尺度卷积的图像patch匹配方法,其特征在于,步骤S802中,PNSigmoid损失函数为:
Figure FDA0002203412300000031
其中yi=0或者1,yi代表匹配的标签。
8.根据权利要求6所述的基于多尺度卷积的图像patch匹配方法,其特征在于,步骤S803中,Distribution loss具体为:
L(D)=λ(varmatch+varnon-match)+max(0,m-meannon-match+meanmatch)
其中,varmatch是匹配样本对相似性分布的方差,meanmatch是匹配样本对相似性分布的均值,varnon-match是不匹配样本对相似性分布的方差,meannon-match是不匹配样本对相似性分布的均值,m代表匹配以及不匹配样本对相似性分布均值之间的间隔,λ代表方差损失和均值损失之间的偏置项。
9.根据权利要求6所述的基于多尺度卷积的图像patch匹配方法,其特征在于,步骤S804中,最终的损失函数为:
L=L(T)+L(D)
其中,优化器使用Adam,学习率设置为0.001,学习率每过5个epoch衰减0.9。
10.根据权利要求1所述的基于多尺度卷积的图像patch匹配方法,其特征在于,步骤S9中,设定阈值为0.5,相似性概率得分大于0.5,则认为匹配,否者认为不匹配。
CN201910872936.6A 2019-09-16 2019-09-16 一种基于多尺度卷积的图像patch匹配方法 Active CN110659680B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910872936.6A CN110659680B (zh) 2019-09-16 2019-09-16 一种基于多尺度卷积的图像patch匹配方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910872936.6A CN110659680B (zh) 2019-09-16 2019-09-16 一种基于多尺度卷积的图像patch匹配方法

Publications (2)

Publication Number Publication Date
CN110659680A true CN110659680A (zh) 2020-01-07
CN110659680B CN110659680B (zh) 2022-02-11

Family

ID=69037085

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910872936.6A Active CN110659680B (zh) 2019-09-16 2019-09-16 一种基于多尺度卷积的图像patch匹配方法

Country Status (1)

Country Link
CN (1) CN110659680B (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111222468A (zh) * 2020-01-08 2020-06-02 浙江光珀智能科技有限公司 一种基于深度学习的人流检测方法及系统
CN113221923A (zh) * 2021-05-31 2021-08-06 西安电子科技大学 一种用于多模态图像块匹配的特征分解方法及系统
CN113223068A (zh) * 2021-05-31 2021-08-06 西安电子科技大学 一种基于深度全局特征的多模态图像配准方法及系统

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101140624A (zh) * 2007-10-18 2008-03-12 清华大学 图像匹配方法
CN100401324C (zh) * 2003-01-06 2008-07-09 索尼株式会社 指纹核对设备和方法、记录介质和程序
CN101393599A (zh) * 2007-09-19 2009-03-25 中国科学院自动化研究所 一种基于人脸表情的游戏角色控制方法
CN103185724A (zh) * 2011-12-28 2013-07-03 富士通株式会社 路面检查装置
CN103455818A (zh) * 2013-04-28 2013-12-18 南京理工大学 一种多层次描述的人体特征提取方法
US9031331B2 (en) * 2012-07-30 2015-05-12 Xerox Corporation Metric learning for nearest class mean classifiers
CN106815323A (zh) * 2016-12-27 2017-06-09 西安电子科技大学 一种基于显著性检测的跨域视觉检索方法
US9875253B2 (en) * 2013-06-14 2018-01-23 Microsoft Technology Licensing, Llc Color sketch image searching
CN107665351A (zh) * 2017-05-06 2018-02-06 北京航空航天大学 基于难样本挖掘的机场检测方法

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN100401324C (zh) * 2003-01-06 2008-07-09 索尼株式会社 指纹核对设备和方法、记录介质和程序
CN101393599A (zh) * 2007-09-19 2009-03-25 中国科学院自动化研究所 一种基于人脸表情的游戏角色控制方法
CN101140624A (zh) * 2007-10-18 2008-03-12 清华大学 图像匹配方法
CN103185724A (zh) * 2011-12-28 2013-07-03 富士通株式会社 路面检查装置
US9031331B2 (en) * 2012-07-30 2015-05-12 Xerox Corporation Metric learning for nearest class mean classifiers
CN103455818A (zh) * 2013-04-28 2013-12-18 南京理工大学 一种多层次描述的人体特征提取方法
US9875253B2 (en) * 2013-06-14 2018-01-23 Microsoft Technology Licensing, Llc Color sketch image searching
CN106815323A (zh) * 2016-12-27 2017-06-09 西安电子科技大学 一种基于显著性检测的跨域视觉检索方法
CN107665351A (zh) * 2017-05-06 2018-02-06 北京航空航天大学 基于难样本挖掘的机场检测方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
MUHAMMAD SHEHZAD HANIF: "Patch match networks: Improved two-channel and Siamese networks for image patch matching", 《ELSEVIER》 *
VASSILEIOS BALNTAS 等: "PN-Net: Conjoined Triple DLearning Local Image Descriptorseep Network for", 《ARXIV:160105030V1》 *
张建明 等: "行人再识别研究进展综述", 《信息技术》 *

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111222468A (zh) * 2020-01-08 2020-06-02 浙江光珀智能科技有限公司 一种基于深度学习的人流检测方法及系统
CN113221923A (zh) * 2021-05-31 2021-08-06 西安电子科技大学 一种用于多模态图像块匹配的特征分解方法及系统
CN113223068A (zh) * 2021-05-31 2021-08-06 西安电子科技大学 一种基于深度全局特征的多模态图像配准方法及系统
CN113221923B (zh) * 2021-05-31 2023-02-24 西安电子科技大学 一种用于多模态图像块匹配的特征分解方法及系统
CN113223068B (zh) * 2021-05-31 2024-02-02 西安电子科技大学 一种基于深度全局特征的多模态图像配准方法及系统

Also Published As

Publication number Publication date
CN110659680B (zh) 2022-02-11

Similar Documents

Publication Publication Date Title
WO2021134871A1 (zh) 基于局部二值模式和深度学习的合成人脸图像取证方法
CN112308158B (zh) 一种基于部分特征对齐的多源领域自适应模型及方法
CN113378632B (zh) 一种基于伪标签优化的无监督域适应行人重识别方法
CN111126202B (zh) 基于空洞特征金字塔网络的光学遥感图像目标检测方法
CN111199214B (zh) 一种残差网络多光谱图像地物分类方法
CN110659680B (zh) 一种基于多尺度卷积的图像patch匹配方法
CN113011499A (zh) 一种基于双注意力机制的高光谱遥感图像分类方法
CN111126482B (zh) 一种基于多分类器级联模型的遥感影像自动分类方法
CN113221911B (zh) 一种基于双重注意力机制的车辆重识别方法及系统
CN110851645A (zh) 一种基于深度度量学习下相似性保持的图像检索方法
CN111368683A (zh) 基于模约束CentreFace的人脸图像特征提取方法及人脸识别方法
CN106780639B (zh) 基于显著性特征稀疏嵌入和极限学习机的哈希编码方法
CN111353411A (zh) 一种基于联合损失函数的遮挡人脸的识别方法
CN113033454B (zh) 一种城市视频摄像中建筑物变化的检测方法
CN115223017B (zh) 一种基于深度可分离卷积的多尺度特征融合桥梁检测方法
CN111833322B (zh) 一种基于改进YOLOv3的垃圾多目标检测方法
CN112784921A (zh) 任务注意力引导的小样本图像互补学习分类算法
CN108388901B (zh) 基于空间-语义通道的协同显著目标检测方法
CN113628297A (zh) 一种基于注意力机制和迁移学习的covid-19深度学习诊断系统
CN113095158A (zh) 一种基于对抗生成网络的笔迹生成方法及装置
CN113920472A (zh) 一种基于注意力机制的无监督目标重识别方法及系统
CN116385832A (zh) 双模态生物特征识别网络模型训练方法
CN114861761A (zh) 一种基于孪生网络特征与几何验证的回环检测方法
CN111524140A (zh) 基于cnn和随机森林法的医学图像语义分割方法
CN111310820A (zh) 基于交叉验证深度cnn特征集成的地基气象云图分类方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant