CN115331021A - 基于多层特征自身差异融合的动态特征提取与描述方法 - Google Patents
基于多层特征自身差异融合的动态特征提取与描述方法 Download PDFInfo
- Publication number
- CN115331021A CN115331021A CN202210849429.2A CN202210849429A CN115331021A CN 115331021 A CN115331021 A CN 115331021A CN 202210849429 A CN202210849429 A CN 202210849429A CN 115331021 A CN115331021 A CN 115331021A
- Authority
- CN
- China
- Prior art keywords
- key point
- feature extraction
- loss function
- point detection
- self
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000605 extraction Methods 0.000 title claims abstract description 66
- 238000000034 method Methods 0.000 title claims abstract description 40
- 230000004927 fusion Effects 0.000 title claims abstract description 33
- 238000001514 detection method Methods 0.000 claims abstract description 104
- 238000012549 training Methods 0.000 claims abstract description 12
- 238000010586 diagram Methods 0.000 claims description 12
- 239000011159 matrix material Substances 0.000 claims description 10
- 238000003860 storage Methods 0.000 claims description 9
- 238000004590 computer program Methods 0.000 claims description 8
- 238000010276 construction Methods 0.000 claims description 5
- 230000005764 inhibitory process Effects 0.000 claims description 3
- 238000004364 calculation method Methods 0.000 abstract description 10
- 230000008859 change Effects 0.000 abstract description 3
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 abstract description 2
- 238000005286 illumination Methods 0.000 abstract description 2
- 238000012545 processing Methods 0.000 abstract description 2
- 230000000644 propagated effect Effects 0.000 abstract 1
- 230000009466 transformation Effects 0.000 abstract 1
- 230000000694 effects Effects 0.000 description 4
- 238000009826 distribution Methods 0.000 description 3
- 230000007246 mechanism Effects 0.000 description 3
- 230000004913 activation Effects 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 230000002776 aggregation Effects 0.000 description 1
- 238000004220 aggregation Methods 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 230000010339 dilation Effects 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 238000011176 pooling Methods 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/766—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using regression, e.g. by projecting features on hyperplanes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/80—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
- G06V10/806—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Computing Systems (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- Evolutionary Computation (AREA)
- Databases & Information Systems (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
本发明属于图像处理领域,并公开了一种基于多层特征自身差异融合的动态特征提取与描述方法。首先,基于特征提取模块对输入的图像进行特征提取;其次,多层特征自身差异检测模块对不同网络层的输出计算对应的特征自身差异图,然后将它们融合来获得具有多层信息的检测分值图;在训练方面,近似关键点距离检测损失函数使用softargmax近似回归局部区域极大值点坐标作为关键点坐标,使得涉及关键点坐标的计算能够被反向传播;最后,提出正匹配与误匹配比例描述损失函数指导网络学习可靠的描述子,进一步提升匹配性能。如此,本发明能够提高当前联合特征提取与描述方法的关键点检测精度与匹配精度,对光照变化、仿射变换等干扰都有较高鲁棒性。
Description
技术领域
本发明属于图像处理领域,更具体地,涉及一种基于多层特征自身差异融合的动态特征提取与描述方法。
背景技术
检测和描述不同图像之间的像素级对应关系是许多计算机视觉应用的基础任务,例如图像匹配、视觉定位、三维重建以及图像拼接等。在这些应用中,通常存在光照、噪声、模糊、旋转、尺度、仿射、遮挡等干扰,这些干扰会使得可找到的像素级对应较少或错误较多,影响最终的应用效果。因此,提取可重复的关键点以及可区分的、鲁棒的描述子是许多视觉任务的基础和关键。
联合特征提取与描述是目前主流的图像匹配方法,使用一个网络来同时输出关键点和描述子,简化了传统匹配的流程,并且可以获得更加全局的信息,有助于提高描述子的鲁棒性以及获得更多的对应关系。
目前,大多数联合特征提取与描述的匹配方法由于关键点检测分值图感受野较大而产生了较低的关键点检测精度,从而限制了匹配精度和下游任务的效果。并且,由于关键点坐标的离散性和不可导性,现有方法缺乏直接针对关键点检测优化的检测损失函数,进一步限制了关键点检测精度和匹配精度。因此,需要提出一种能够精确检测关键点并鲁棒描述的方法来提升下游任务的性能。
发明内容
针对现有技术的以上缺陷或改进需求,本发明提供了一种基于多层特征自身差异融合的动态特征提取与描述方法,其目的在于利用多层特征自身差异融合和近似关键点距离损失函数等提高当前联合特征提取与描述方法的关键点检测精度,进而提升匹配的数量和精度,进而提高下游任务的性能。
为实现上述目的,第一方面,本发明提供了一种基于多层特征自身差异融合的动态特征提取与描述模型的构建方法,包括:
S1,搭建特征提取与描述模型;其中,所述特征提取与描述模型包括:
特征提取模块,用于对输入的图像进行特征提取,得到不同层级的特征图;
多层特征自身差异检测模块,用于根据某一层级的特征图,计算每个像素特征维度各特征值与平均特征值之间的差异,以得到对应层级的特征自身差异分值图;并将若干层级的特征自身差异分值图进行融合,得到关键点检测分值图;
S2,计算损失函数,并将损失反向传播训练所述特征提取与描述模型;
所述损失函数包括关键点检测精确度损失函数和回归精确度损失函数,所述关键点检测精确度损失函数表征第一关键点检测分值图和第二关键点检测分值图划分的对应patch分别通过softargmax回归得到的近似可导极大值点坐标之间的平均距离,其中,第一关键点检测分值图为第一图像通过特征提取与描述模型得到的关键点检测分值图,所述第二关键点检测分值图为根据同一场景下的第一图像和第二图像之间的真值匹配图映射的所述第二图像的关键点检测分值图;所述回归精确度损失函数表征关键点检测分值图划分的各patch通过softargmax回归得到的近似可导极大值点坐标与通过argmax得到的不可导极大值点坐标之间的平均距离。
进一步地,所述损失函数还包括正匹配比例损失函数和误匹配比例损失函数,所述正匹配比例损失函数用于训练特征提取与描述模型时通过使正样本和最难的负样本之间的比例尽可能小以增加正确匹配的数量;所述误匹配比例损失函数用于训练特征提取与描述模型时通过使难以成为正确匹配的点的最近邻与次近邻距离尽可能大,从而通过比例匹配过滤掉所述难以成为正确匹配的点。
进一步地,令F和F′为第一图像I和第二图像I′的描述子特征图,选取第一关键点检测分值图S中最大的K个像素作为关键点,并且在描述子特征图F中选取这些关键点的描述子集D={d1,d2,d3,…,dK};同时,根据真值匹配图M在描述子特征图F′中找到对应的描述子D′={d′1,d′2,d′3,…,d′K};计算描述子集D与D′的欧氏距离得到大小为K×K的距离矩阵J,距离矩阵J对角线上的元素表示对应点对的描述子距离;
所述正匹配比例损失函数表示为:
其中,E(·)是度量两个描述子的欧氏距离函数,cp是常数系数,用于忽略已经被区分的比较好的样本,dk和d′k是对应点的描述子,d′n是D′中除了匹配对外与dk欧氏距离最小的描述子,dn是D中除了匹配对外与d′k欧氏距离最小的描述子;
所述误匹配比例损失函数表示为:
其中,Q是距离矩阵J对角线上元素,Jq,min1和Jq,min2分别是难以成为正确匹配的点所在行的最小值与次小值,cn是一个常数系数。
进一步地,令S和S′为第一图像I和第二图像I′的关键点检测分值图,令S′M为根据真值匹配图M映射的第二图像I′的检测分值图,将关键点检测分值图S和S′M平均分为N个patch;
所述关键点检测精确度损失函数表示为:
其中,xn和yn是关键点检测分值图S第n个patch通过softargmax回归得到的近似可导极大值点坐标,xn′和yn′是关键点检测分值图S′M第n个patch通过softargmax回归得到的近似可导极大值点坐标;
所述回归精确度损失函数表示为:
进一步地,所述特征提取模块包括级联的若干标准卷积层和动态注意卷积层。
第二方面,本发明提供了一种基于多层特征自身差异融合的动态特征提取与描述方法,包括:
将待处理图像输入到采用第一方面所述的基于多层特征自身差异融合的动态特征提取与描述模型的构建方法所构建的特征提取与描述模型中,得到所述待处理图像对应的描述子特征图和关键点检测分值图。
第三方面,本发明提供了一种图像匹配方法,包括:
将待匹配的两张图像输入到采用第一方面所述的基于多层特征自身差异融合的动态特征提取与描述模型的构建方法所构建的特征提取与描述模型中,得到各自对应的描述子特征图和关键点检测分值图;
第四方面,本发明提供了一种计算机可读存储介质,所述计算机可读存储介质包括存储的计算机程序,其中,在所述计算机程序被处理器运行时控制所述存储介质所在设备执行如第一方面所述的基于多层特征自身差异融合的动态特征提取与描述模型的构建方法。
第五方面,本发明提供了一种计算机可读存储介质,所述计算机可读存储介质包括存储的计算机程序,其中,在所述计算机程序被处理器运行时控制所述存储介质所在设备执行如第二方面所述的基于多层特征自身差异融合的动态特征提取与描述方法和/或如第三方面所述的图像匹配方法。
总体而言,通过本发明所构思的以上方法与现有方法相比,能够取得下列有益效果:
1、本发明通过特征自身差异计算模块对不同网络层的输出计算对应的特征自身差异图,然后通过多层融合模块将它们融合来获得具有多层信息的关键点检测分值图,可有效提高关键点检测精度,进而提高匹配数量和匹配精度;同时,可使得提取到的关键点更多的分布于纹理区域,从而降低关键点分布于非纹理区域而造成的误匹配数量。进一步提出关键点检测精确度损失函数和回归精确度损失函数,用于训练阶段优化网络的关键点检测能力,通过softargmax近似回归局部区域最大值点坐标,使得关键点坐标离散导致不可求导的问题得到解决,能够有效提升网络的关键点检测精度。
2、本发明通过正匹配比例损失函数和误匹配比例损失函数,优化正例和难负例之间的距离,提高正确匹配的数量,降低误匹配的数量,进而提高匹配精度。
3、本发明通过基于动态注意卷积的特征提取模块来对图像进行密集特征提取的方式,可以针对不同的样本选取最适合的网络参数,进而提高关键点的检测精度和描述子的判别性。
附图说明
图1是本发明实施例提供的基于多层特征自身差异融合的动态特征提取与描述模型的构建方法的流程示意图;
图2是本发明实施例提供的整体网络模型示意图;
图3是本发明实施例提供的近似关键点距离损失函数计算流程示意图;
图4是本发明实施例提供的描述子距离矩阵示意图;
图5是本发明实施例提供的用于图像匹配的流程示意图;
图6是本发明实施例提供的关键点提取与匹配效果示意图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。此外,下面所描述的本发明各个实施方式中所涉及到的技术特征只要彼此之间未构成冲突就可以相互组合。
实施例1
参阅图1,结合图2至4,本发明提供了一种基于多层特征自身差异融合的动态特征提取与描述模型的构建方法,包括:
S1,搭建特征提取与描述模型;其中,所述特征提取与描述模型包括:
特征提取模块,用于对输入的图像进行特征提取,得到不同层级的特征图;
多层特征自身差异检测模块,用于根据某一层级的特征图,计算每个像素特征维度各特征值与平均特征值之间的差异,以得到对应层级的特征自身差异分值图;并将若干层级的特征自身差异分值图进行融合,得到关键点检测分值图;
S2,计算损失函数,并将损失反向传播训练所述特征提取与描述模型;
所述损失函数包括关键点检测精确度损失函数和回归精确度损失函数,所述关键点检测精确度损失函数表征第一关键点检测分值图和第二关键点检测分值图划分的对应patch分别通过softargmax回归得到的近似可导极大值点坐标之间的平均距离,其中,第一关键点检测分值图为第一图像通过特征提取与描述模型得到的关键点检测分值图,所述第二关键点检测分值图为根据同一场景下的第一图像和第二图像之间的真值匹配图映射的所述第二图像的关键点检测分值图;所述回归精确度损失函数表征关键点检测分值图划分的各patch通过softargmax回归得到的近似可导极大值点坐标与通过argmax得到的不可导极大值点坐标之间的平均距离。
本实施例中,如图2所示,该网络模型包括基于动态注意卷积的特征提取模块、多层特征自身差异检测模块、近似关键点距离检测损失函数以及正匹配与误匹配比例描述损失函数。以下对提出的算法进行详细说明。
(1)基于动态注意卷积的特征提取模块
如图2所示,基于动态注意卷积的特征提取模块用于图像密集特征提取,其包括4个标准卷积层和5个动态注意卷积层,每个卷积层卷积核为3x3,步长为1,使用了膨胀卷积来增大感受野。动态注意卷积层用于针对不同样本自适应网络参数,每层会设置多套卷积核参数,通过一个注意力机制回归出不同卷积核参数的权重,最后对不同卷积核参数进行加权聚合来实现参数的动态变化,继而提升网络的特征提取能力。最终特征提取模块输出128维的特征图,代表每个像素的描述子。
所述动态注意卷积,即在测试时针对不同的输入图片,通过注意力机制动态变化网络卷积参数,以实现对不同样本特征的自适应,增强网络的特征提取能力。对于输入特征x,输出特征y的计算公式为:
其中,g(·)表示激活函数,Wk表示第k套卷积参数对应的卷积权重矩阵,bk表示第k套卷积参数对应的偏置向量,K表示卷积参数的套数,ck表示第k套卷积参数的注意权重。本专利中,K=4,即每个动态注意卷积层具有四套不同的卷积参数。
如图2所示,所述动态注意卷积的注意力机制,首先对特征图下采样并扩张特征通道,将空间信息融合到特征维度,其次,使用全局平均池化来压缩空间维度,然后,使用一个全连接层和sigmoid激活函数回归出K个卷积核参数的注意权重ck,最后,对所有卷积核参数进行加权,生成最终的卷积核权重进行卷积。
(2)多层特征自身差异检测模块
多层特征自身差异检测模块,包括特征自身差异计算模块和多层融合两部分,用于获得具有多层信息、能够实现精确关键点检测的检测分值图。
(2-1)特征自身差异计算模块
如图2所示,所述特征自身差异计算模块对特征图每个像素的特征维度计算自身差异来表示显著性,使得关键点周围信息越丰富则分值越大,这些关键点更容易在其他图像中的相同位置被检测到。给定特征图f∈RH×W×C,每个位置(i,j)的特征自身差异分值可计算为:
其中,C是特征通道的数量,可以通过这种方式根据第l个卷积层的输出特征图计算得到对应的特征自身差异分值图Sl。
(2-2)多层融合
所述多层融合用于对低、中、高层特征自身差异分值图融合来获得关键点检测分值图,进而充分利用网络学得的低层结构信息和较高层的语义信息,进而提高关键点检测精度。本实施例中,融合第2、4、6层特征图来生成关键点检测分值图,具体融合方式如下式所示:
(3)近似关键点距离检测损失函数
所述近似关键点距离检测损失函数,包括关键点检测精确度损失函数和回归精确度损失函数,用于训练阶段优化网络的关键点检测能力,通过softargmax近似回归局部区域最大值点坐标,使得关键点坐标离散导致不可求导的问题得到解决,能够有效提升网络的关键点检测精度。
所述softargmax为一种将可导的softmax与不可导的argmax相结合、能够通过概率分布近似回归出数组极大值索引的方法,给定一个二维数组H∈RH×W,极大值点坐标可被近似计算为:
对于同一场景的两张图像I和I′,以及它们之间的真值匹配图M∈RH×W×2,具体的,可以通过Mi,j=(i′,j′)找到第一张图像中的像素(i,j)对应第二张图像中的像素(i′,j′)。令S和S′为图像I和I′通过多层特征自身差异检测模块计算出的关键点检测分值图,令S′M为根据M映射的图像I′的检测分值图,则图S中的关键点pi,j和在图S′M中的对应点p′i,j在坐标上是一样的。由于softargmax函数只能回归一个区域的极大值点坐标,并不能得到大量关键点来计算损失,因此本专利将分值图S和S′M平均分为大小为α的patch,这样可以从分值图S中回归出N=HW/α2个关键点。
所述关键点检测精确度损失函数,即构建对应patch近似极大值点坐标的均方误差损失来提高关键点检测精度,计算公式如下式所示:
[xn,yn]=Φ(Pn),[xn′,yn′]=Φ(Pn′)
其中,Pn和Pn′是分值图S和S′M中的对应patch,Φ(·)是上述的softargmax函数。
所述回归精确度损失函数,用于保证softargmax函数近似回归出区域极大值点坐标的精确度,通过优化softargmax回归出的近似可导极大值点坐标与argmax得到的不可导极大值点坐标之间的距离来改变数据分布,计算公式如下式所示:
此外,针对本专利中所用192×192大小的训练图像,α设置太大则用于计算损失的关键点数量太少,α设置太小则回归关键点坐标的信息不足,因此本专利使用二尺度方法计算损失,具体的,将关键点检测分值图S和S′M划分为大小为4和8的块,分别计算关键点检测精确度损失函数和回归精确度损失函数,最终的近似关键点距离检测损失函数可以被计算为:
LAKD=Lra(α=4)+Lra(α=8)+β(Lkda(α=4)+Lkda(α=8))
其中,β是平衡关键点检测精确度损失函数和回归精确度损失函数的权重系数,本专利设置为0.25。
(4)正匹配与误匹配比例描述损失函数
所述正匹配与误匹配比例描述损失函数,用于训练阶段优化网络对特征的描述能力,进而提升匹配性能,其包括正匹配比例损失函数和误匹配比例损失函数,基于最近邻与次近邻比值匹配方式而设计。
令F和F′为图像I和I′的描述子特征图,令F′M为根据M映射的图像I′的描述子特征图。首先,选取检测分值图S中最大的K个像素作为关键点,并且在描述子特征图F中选取这些关键点的描述子D={d1,d2,d3,…,dK},同时,根据M在F′中找到对应的描述子D′={d′1,d′2,d′3,…,d′K},通过对描述子集D与D′计算欧氏距离可以得到大小为K×K的距离矩阵J,距离矩阵J如图4所示,对角线上的元素表示对应点对的描述子距离。
(4-1)正匹配比例损失函数
所述正匹配比例损失函数,用于训练网络时通过使正样本和最难的负样本之间的比例尽可能小以增加正确匹配的数量来优化网络的描述能力,计算公式如下式所示:
其中,E(·)是度量两个描述子的欧氏距离函数,cp是用于忽略已经被区分的比较好的样本的系数,本专利中设置为0.4,dk和d′k是对应点的描述子,d′n是D′中除了匹配对外与dk欧氏距离最小的描述子,表示最难的反例,同样的,dn是D中除了匹配对外与d′k欧氏距离最小的描述子。
(4-2)误匹配比例损失函数
所述误匹配比例损失函数,用于训练网络时通过使难以成为正确匹配的点的最近邻与次近邻距离尽可能大以通过比例匹配过滤掉,成为不匹配而不是误匹配,减少误匹配数量,进而提高匹配精度,计算公式如下式所示:
其中,Q是对角线上元素不是对应行最小值的数量,Jq,min1和Jq,min2分别是这些容易造成误匹配的点所在行的最小值与次小值,cn是一个常数系数,本专利中设置为1。
实施例2
一种基于多层特征自身差异融合的动态特征提取与描述方法,包括:
将待处理图像输入到采用实施例1所述的基于多层特征自身差异融合的动态特征提取与描述模型的构建方法所构建的特征提取与描述模型中,得到所述待处理图像对应的描述子特征图和关键点检测分值图。
实施例3
一种图像匹配方法,如图5所示,对于两张待匹配图像I1和I2,首先分别输入到本专利提出的网络模型,得到各自对应的关键点检测分值图S1和S2,以及描述子特征图F1和F2,然后对两张关键点检测分值图进行非极大值抑制并选取相应最大的K个关键点和根据这些关键点在描述子特征图中选取对应的描述子和最后即可对两个描述子集应用最近邻与次近邻比例匹配来获得匹配关系。
综上所述,本发明所提出的基于多层特征自身差异融合的动态特征提取与描述方法,采用基于动态注意卷积的特征提取模块对图像进行密集特征提取,使用了基于注意力的动态卷积来使得网络能够针对不同样本自适应卷积参数,可以提升网络对特征的提取能力;采用多层特征自身差异检测模块生成关键点检测分值图,利用关键点特征自身方差表达显著性,并采用多层融合增加低层结构信息,使得关键点的分布更注重于纹理区域,能够在提高关键点检测精度的同时减少关键点分布在非纹理区域造成的误匹配;采用近似关键点距离损失函数,使用softargmax近似回归小patch极值点坐标的方式解决关键点坐标不可求导而导致的缺乏有效检测损失函数的问题,能够有效提升网络的关键点检测精度,进而提升匹配精度;采用正匹配与误匹配比例描述损失函数,基于最近邻与次近邻比例匹配的方式,通过对正例样本对与负例样本对的距离进行优化,增加正确匹配的数量,并使得难以成为正确匹配的样本对尽可能成为不匹配而不是误匹配,有效提高了网络的描述性能,进而提高了匹配精度。
本领域的技术人员容易理解,以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明的保护范围之内。
Claims (9)
1.一种基于多层特征自身差异融合的动态特征提取与描述模型的构建方法,其特征在于,包括:
S1,搭建特征提取与描述模型;其中,所述特征提取与描述模型包括:
特征提取模块,用于对输入的图像进行特征提取,得到不同层级的特征图;
多层特征自身差异检测模块,用于根据某一层级的特征图,计算每个像素特征维度各特征值与平均特征值之间的差异,以得到对应层级的特征自身差异分值图;并将若干层级的特征自身差异分值图进行融合,得到关键点检测分值图;
S2,计算损失函数,并将损失反向传播训练所述特征提取与描述模型;
所述损失函数包括关键点检测精确度损失函数和回归精确度损失函数,所述关键点检测精确度损失函数表征第一关键点检测分值图和第二关键点检测分值图划分的对应patch分别通过softargmax回归得到的近似可导极大值点坐标之间的平均距离,其中,第一关键点检测分值图为第一图像通过特征提取与描述模型得到的关键点检测分值图,所述第二关键点检测分值图为根据同一场景下的第一图像和第二图像之间的真值匹配图映射的所述第二图像的关键点检测分值图;所述回归精确度损失函数表征关键点检测分值图划分的各patch通过softargmax回归得到的近似可导极大值点坐标与通过argmax得到的不可导极大值点坐标之间的平均距离。
2.根据权利要求1所述的基于多层特征自身差异融合的动态特征提取与描述模型的构建方法,其特征在于,所述损失函数还包括正匹配比例损失函数和误匹配比例损失函数,所述正匹配比例损失函数用于训练特征提取与描述模型时通过使正样本和最难的负样本之间的比例尽可能小以增加正确匹配的数量;所述误匹配比例损失函数用于训练特征提取与描述模型时通过使难以成为正确匹配的点的最近邻与次近邻距离尽可能大,从而通过比例匹配过滤掉所述难以成为正确匹配的点。
3.根据权利要求2所述的基于多层特征自身差异融合的动态特征提取与描述模型的构建方法,其特征在于,
令F和F′为第一图像I和第二图像I′的描述子特征图,选取第一关键点检测分值图S中最大的K个像素作为关键点,并且在描述子特征图F中选取这些关键点的描述子集D={d1,d2,d3,…,dK};同时,根据真值匹配图M在描述子特征图F′中找到对应的描述子D′={d′1,d′2,d′3,…,d′K};计算描述子集D与D′的欧氏距离得到大小为K×K的距离矩阵J,距离矩阵J对角线上的元素表示对应点对的描述子距离;
所述正匹配比例损失函数表示为:
其中,E(·)是度量两个描述子的欧氏距离函数,cp是常数系数,用于忽略已经被区分的比较好的样本,dk和d′k是对应点的描述子,d′n是D′中除了匹配对外与dk欧氏距离最小的描述子,dn是D中除了匹配对外与d′k欧氏距离最小的描述子;
所述误匹配比例损失函数表示为:
其中,Q是距离矩阵J对角线上元素,Jq,min1和Jq,min2分别是难以成为正确匹配的点所在行的最小值与次小值,cn是一个常数系数。
4.根据权利要求1所述的基于多层特征自身差异融合的动态特征提取与描述模型的构建方法,其特征在于,
令S和S′为第一图像I和第二图像I′的关键点检测分值图,令S′M为根据真值匹配图M映射的第二图像I′的检测分值图,将关键点检测分值图S和S′M平均分为N个patch;
所述关键点检测精确度损失函数表示为:
其中,xn和yn是关键点检测分值图S第n个patch通过softargmax回归得到的近似可导极大值点坐标,xn′和yn′是关键点检测分值图S′M第n个patch通过softargmax回归得到的近似可导极大值点坐标;
所述回归精确度损失函数表示为:
5.根据权利要求1所述的基于多层特征自身差异融合的动态特征提取与描述模型的构建方法,其特征在于,所述特征提取模块包括级联的若干标准卷积层和动态注意卷积层。
6.一种基于多层特征自身差异融合的动态特征提取与描述方法,其特征在于,包括:
将待处理图像输入到采用权利要求1至5任一项所述的基于多层特征自身差异融合的动态特征提取与描述模型的构建方法所构建的特征提取与描述模型中,得到所述待处理图像对应的描述子特征图和关键点检测分值图。
8.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质包括存储的计算机程序,其中,在所述计算机程序被处理器运行时控制所述存储介质所在设备执行如权利要求1至5任一项所述的基于多层特征自身差异融合的动态特征提取与描述模型的构建方法。
9.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质包括存储的计算机程序,其中,在所述计算机程序被处理器运行时控制所述存储介质所在设备执行如权利要求6所述的基于多层特征自身差异融合的动态特征提取与描述方法和/或如权利要求7所述的图像匹配方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210849429.2A CN115331021A (zh) | 2022-07-19 | 2022-07-19 | 基于多层特征自身差异融合的动态特征提取与描述方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210849429.2A CN115331021A (zh) | 2022-07-19 | 2022-07-19 | 基于多层特征自身差异融合的动态特征提取与描述方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN115331021A true CN115331021A (zh) | 2022-11-11 |
Family
ID=83917770
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210849429.2A Pending CN115331021A (zh) | 2022-07-19 | 2022-07-19 | 基于多层特征自身差异融合的动态特征提取与描述方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115331021A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117351246A (zh) * | 2023-10-18 | 2024-01-05 | 暨南大学 | 一种误匹配对去除方法、系统及可读介质 |
-
2022
- 2022-07-19 CN CN202210849429.2A patent/CN115331021A/zh active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117351246A (zh) * | 2023-10-18 | 2024-01-05 | 暨南大学 | 一种误匹配对去除方法、系统及可读介质 |
CN117351246B (zh) * | 2023-10-18 | 2024-04-09 | 暨南大学 | 一种误匹配对去除方法、系统及可读介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107945204B (zh) | 一种基于生成对抗网络的像素级人像抠图方法 | |
Li et al. | SAR image change detection using PCANet guided by saliency detection | |
CN111625667A (zh) | 一种基于复杂背景图像的三维模型跨域检索方法及系统 | |
CN106780546B (zh) | 基于卷积神经网络的运动模糊编码点的身份识别方法 | |
CN114663502A (zh) | 物体姿态估计、图像处理方法及相关设备 | |
CN112288758B (zh) | 一种电力设备红外与可见光图像配准方法 | |
CN111126134A (zh) | 基于非指纹信号消除器的雷达辐射源深度学习识别方法 | |
CN111833237A (zh) | 基于卷积神经网络和局部单应性变换的图像配准方法 | |
CN112365511B (zh) | 基于重叠区域检索与对齐的点云分割方法 | |
Yan et al. | Monocular depth estimation with guidance of surface normal map | |
CN113505634B (zh) | 一种双流解码跨任务交互网络的光学遥感图像显著目标检测方法 | |
CN111310821A (zh) | 多视图特征融合方法、系统、计算机设备及存储介质 | |
CN111259808A (zh) | 一种基于改进ssd算法的交通标识的检测识别方法 | |
CN111383281A (zh) | 一种基于rbf神经网络的摄像机标定方法 | |
CN115311502A (zh) | 基于多尺度双流架构的遥感图像小样本场景分类方法 | |
CN112364881B (zh) | 一种进阶采样一致性图像匹配方法 | |
CN112308825A (zh) | 一种基于SqueezeNet的农作物叶片病害识别方法 | |
CN112364979A (zh) | 一种基于GoogLeNet的红外图像识别方法 | |
CN114998610A (zh) | 一种目标检测方法、装置、设备及存储介质 | |
CN115331021A (zh) | 基于多层特征自身差异融合的动态特征提取与描述方法 | |
CN113609904B (zh) | 一种基于动态全局信息建模和孪生网络的单目标跟踪算法 | |
CN114861761A (zh) | 一种基于孪生网络特征与几何验证的回环检测方法 | |
WO2022120996A1 (zh) | 视觉位置识别方法及装置、计算机设备及可读存储介质 | |
TW202127312A (zh) | 影像處理方法及存儲介質 | |
CN113704276A (zh) | 地图更新方法、装置、电子设备及计算机可读存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |