CN109934258A - 特征加权和区域整合的图像检索方法 - Google Patents
特征加权和区域整合的图像检索方法 Download PDFInfo
- Publication number
- CN109934258A CN109934258A CN201910091915.0A CN201910091915A CN109934258A CN 109934258 A CN109934258 A CN 109934258A CN 201910091915 A CN201910091915 A CN 201910091915A CN 109934258 A CN109934258 A CN 109934258A
- Authority
- CN
- China
- Prior art keywords
- channel
- weighting
- feature
- vector
- region
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Landscapes
- Image Analysis (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
特征加权和区域整合的图像检索方法,包括以下步骤:步骤1,特征提取与加权,提取卷积神经网络最后一个卷积层的三维特征,将提取的特征进行空间加权和通道加权;在空间加权时将多个通道相加求和以突显出非零且响应大的区域,而这些区域也一般都是物体所在的区域;在通道加权时,使用逆向文件频率的方法进行赋值;步骤2,区域整合,设计多种不同尺寸的滑窗,将加权后的特征平面划分成多个区域,每个区域内的元素相加求和得到多个局部特征向量,经过L2归一化,PAC‑whitening降维,再次L2归一化,直接相加得到全局特征;步骤3,检索与重排,用余弦距离衡量查询图与测试图的相似度得出初始排名,用拓展查询方法进行重排得出最终的mAP;提高图像检索的精确。
Description
技术领域
本发明属于图像分析及检索方法技术领域,具体涉及特征加权和区域整合的图像检索方法,用于对卷积神经网络提取的卷积特征进行加权和区域整合后的图像检索。
背景技术
近年来,CBIR(基于内容的图像检索技术)迅速发展,在各方面得到了广泛的应用。传统的CBIR大致检索流程是通过提取诸如图像颜色、纹理、形状等图像底层视觉特征,计算查询图像与测试图像特征的距离,返回与查询图像最为相同或相似的图像。但底层视觉特征与高层语义之间存在语义鸿沟,不能准确反映出用户的检索意图。早期,绝大多数的图像检索是基于底层视觉特征,如SIFT特征、Gist 特征、颜色特征,纹理特征等,并结合BOF模型进行检索。但由于SIFT, GIST等特征不能表达图片的深层语义,而且BOF模型的复杂度较高,限制了这类方法的提升空间。随着社会信息技术高速发展以及大数据时代的到来,不仅图片数量增多,而且图片内容也变得复杂多样,传统的基于内容的检索技术已无法满足用户的需求。
在ILSVRC-2012比赛中,Krizheysky等人设计了一种深度卷积网络模型AlexNet(Krizhevsky A,Sutskever I,Hinton G E. “ImageNet classification with deepconvolutional neural networks,”. Magazine Communications of the Acm,vol.60,pp.1097-1105,2012.)将图像分类错误率从26.2%降到15.3%,远远领先于其他算法。这使得 CNN(卷积神经网络)在视觉图像领域得到极大的重视,其一跃成为图像检索特征基础模型的首选。最近研究表明,CNN特征在图像检索领域取得了意想不到的效果,相比于传统的方法,检索精度得到了极大的提升。由于深度学习的特征具有高维度的特性,将导致时间和内存的巨大消耗,因此,使其简单化成了当务之急。目前大致可分为两种处理方法:一是使用哈希(hashing)算法处理特征;二是将高维特征压缩降维形成全局特征来描述整幅图像,如CroW(Kalantidis Y, Mellina C,Osindero S.“Cross-Dimensional Weighting forAggregated Deep Convolutional Features,”European Conference on ComputerVision.2016,pp.685-701,2016)。SPoC(Babenko A,Lempitsky V. “Aggregating DeepConvolutional Features for Image Retrieval,” Computer Science,2015.),该方法解决了如何把卷积层的特征图变成单个特征向量的问题,其使用和池化(sum-pooling)技术也达到了不错的效果。但有一个问题是,再好的特征也是有噪声的,SPoC仅仅是使用径向基函数计算每个像素点的权重,却忽略了每个通道 (channel)的权重。后来,Yannis等人提出了提取CroW特征的方法,该方法对CNN最后一个卷积层特征赋予权重,其改变每个层特征图元素权重的同时还对每个通道加权,达到了更好的效果。最近研究表明,使用滑窗原理有利于目标定位,R-MAC(Tolias G,Sicre R,Jégou H.“ticular object retrieval withintegral max-pooling of CNN activations,”Computer Science,2015.)度的滑窗对特征图做最大池化,再将多个通道的三维特征整合成单维向量用来描述全局信息。我们发现这两种方法是可以联合使用的,因此我们提出了一种新的处理特征的方法,改善了检索性能。
现如今,重排已经成为图像检索过程必不可少的一步,文献通过复杂的重排算法大幅度提升了识别精度。但本发明侧重点是对处理后的全局特征向量的性能进行测试,因此重排方法选取效果好的 QE(query expansion)算法。
发明内容
为克服上述现有技术的不足,本发明的目的在于提供特征加权和区域整合的图像检索方法,一个基于卷积神经网络的图像检索模型,该模型输入一张查询图和一个大型图像数据库,将会输出图像库中图像和查询图的相似度排名,而且该排名和人眼排名要尽量一致。
为实现上述目的,本发明采用的技术方案是:特征加权和区域整合的图像检索方法,包括以下步骤:
步骤1,特征提取与加权,提取卷积神经网络最后一个卷积层的三维特征,将提取的特征进行空间加权和通道加权;在空间加权时将多个通道相加求和以突显出非零且响应大的区域,而这些区域也一般都是物体所在的区域;在通道加权时,使用IDF(逆向文件频率)的方法进行赋值;
步骤2,区域整合,设计多种不同尺寸的滑窗,将加权后的特征平面划分成多个区域,每个区域内的元素相加求和得到多个局部特征向量,经过L2归一化,PAC-whitening降维,再次L2归一化,最后直接相加得到全局特征;
步骤3,检索与重排,使用余弦距离衡量查询图与测试图的相似度得出初始排名,并且用拓展查询方法进行重排得出最终的mAP(平均精度均值)。
步骤1的特征提取与加权,具体按照以下步骤实施:
用X∈R(N×W×H)表示用卷积神经网络提取的三维特征,W、H分别表示每一层特征平面(feature map)的宽度、长度,N是通道(channel) 的数量;W,H的大小会随输入网络图像的大小不同而变化;xkij表示在第k个通道上的特征图位置为(i,j)处的元素;C(k)表示第k个通道的整张特征图,首先对C(k)上的每个元素加权,则总共有i×j个权重,每个权重用aij表示,类似的,用表示第k个通道的特征平面上位置为(i,j)处的元素,对每个通道加权,每个权重用bk表示,
步骤1.1,对空间加权(特征平面加权),直接对每个通道的特征图相加求和,通常情况下,通过卷积滤波,响应强的地方一般都是物体的边缘等,将多个通道相加求和后,那些非零且响应大的区域一般都是物体所在的区域,因而可以将其作为特征图的权重,s′ij表示每个特征图上位置为(i,j)处的元素的加和,表达式如下:
于是可以得到空间权重aij,表达式如下:
公式(2)中,m的取值范围是[1,W],n的取值范围是[1,H],其中可以看做是矩阵s的2范数;根据预实验数据,当α=2,β=2时检索精确度最好,aij表示空间权重,s′ij表示每个特征图上位置为(i,j)处的元素的加和;
步骤1.2,对特征通道加权,采用了IDF(逆向文件频率)权重的方法,若某个通道的特征图上每个像素值都是非零的,且都比较大,那么视觉上,强响应区域将占据整个特征图,因此这个通道的特征图不利于定位物体所在的区域,需要降低其通道权重,对于强响应区域占特征图面积相对较小的通道,认为其包含了更准确的图像物体位置信息,需要增大这些通道的权重,Mk表示第k个通道上非零元素的个数,表达式如下:
公式(3)中,Mk表示第k个通道上非零元素的个数,用表示第k个通道的特征平面上位置为(i,j)处的元素;
非零元素稀少的通道更能描述图像的位置信息,因此可以根据非零元素的多寡进行通道加权,bk表达式如下:
公式(4)中,bk表示每个通道的权值,Mk表示第k个通道上非零元素的个数,ε为极小值,保证分母不为零,取ε=1,对结果不影响;
为了保证分母不为零,加入了极小值ε,因为分子比较大,所以在本专利实验中取ε=1,对结果几乎不影响;
步骤1.3,形成最终加权特征,加权之后,每个元素的值变为x′kij,其中x′kij=aijbkxkij,aij表示空间权重,bk表示每个通道的权值,xkij表示在第k个通道上的特征图位置为(i,j)处的元素,
空间加权和通道加权的目的是增大感兴趣区域的权重,降低非物体区域的权重。
步骤2所述的区域整合,具体按照以下步骤实施:
该步骤为合成全局特征向量的方法,CroW将每个通道的元素直接相加,得到长度为N的特征向量F,F=[f1,f2,...,fN],fk的表达式如下:
公式(5)中,fk表示第k个特征向量,xkij表示在第k个通道上的特征图位置为(i,j)处的元素,
CroW特征只考虑了特征图的全局性,而没有考虑局部性,因此,将特征图分成多个不同区域进行单独计算,再进行整合;预设三种窗口大小,采用求和的方式处理每一个窗口对应的特征图区域;用L种不同尺度的滑窗对特征图进行区域划分,例如L=3时,通常可以得到 20个区域特征,此外,采用相加求和的方式处理整个特征图得到一个特征向量,于是一幅图可以得到21个区域特征,将这21个区域特征直接相加求和,即得到最终的全局特征;在窗口与窗口之间,都有一定的重叠区域,采用相加求和的方式生成全局特征,赋予了那些重叠的区域较大的权重;每个滑窗都是正方形的,采用均匀采样的方式并且自动调整中心的位置,以保证重叠的区域达到40%;滑窗的大小由特征图的短边决定,滑窗边长的表达式如下:
公式(6)中,l表示滑窗边长,L表示不同尺度的滑窗,
当L=3时,有3种不同尺度的滑窗套在特征图上,将滑窗内的元素直接相加;一个滑窗会生成一个特征向量F′,做法如CroW类似, F′=[f1′,f2′,...,fN′],只是fk′只限于滑窗内的元素的加和,而不是整张特征图的元素相加;通过n个滑窗处理后,依次采用L2归一化、PAC -whitening降维、L2归一化的顺序进行优化,三维特征变成n个区域特征向量;最后将所有区域特征向量直接相加生成全局特征向量G, G的表达式如下:
G=F′1+F′2+...+F′n (7)
公式(7)中,G表示全局特征向量,特征向量F′表示局部特征向量。
步骤3所述的检索与重排,具体按照以下步骤实施:
步骤3.1,使用余弦距离衡量查询图与测试图的相似性,余弦距离,也称为余弦相似度,是用向量空间中两个向量夹角的余弦值作为衡量两个个体间差异大小的度量;欧氏距离能够体现个体数值特征的绝对差异,所以更多的用于需要从维度的数值大小中体现差异的分析,余弦距离更多的是从方向上区分差异,而对绝对的数值不敏感,更多的用于使用户对内容评分来区分兴趣的相似度和差异,同时修正了用户间可能存在的度量标准不统一的问题(因为余弦距离对绝对数值不敏感);将全局特征向量看成是多维空间中有方向的线段,如果两个向量的方向一致,即夹角接近零,那么可以认为这两个向量相近;而要确定两个向量方向是否一致,这就要用到余弦定理计算向量的夹角;因此,使用余弦距离来判别全局特征向量的相似性,图片X和Y的相似性用下面表达式表示:
因为余弦距离是体现向量之间方向上的差异,因此使用L2归一化和PAC-whitening降维后不会影响最后相似度的评价;
步骤3.2,使用查询扩展算法对初始排名进行重排,查询扩展,即QE(queryexpansion),是一种效果好的重排方法,该方法选取排名最前的几张图像(包括查询图像),计算其特征向量的平均值向量,最后用平均值向量对结果进行最终重排;虽然方法简单,但对结果有显而易见的提升,能极大提高检索召回率。
本发明的有益效果在于:
1)本发明使用特征加权和区域整合的方法对提取的卷积特征进行优化处理得到能描述整幅图像的全局特征,该特征突显图像的位置信息和边缘信息,并且包含图像局部信息。因此,本发明能获得一种精确描述图像的特征描述子。
2)本发明将对卷积特征优化处理后得到的特征描述子用于图像检索,提高图像检索的精确度。
3)本发明最后采用余弦相似性和查询扩展方法进行检索和重排,能明显提高图像检索的鲁棒性。
4)本发明特征加权和区域整合的图像检索方法也适合于视频检索领域,能大幅提高视频检索的精度。
附图说明
图1是本发明基于CNN特征加权和区域整合的图像检索方法的框架图。
具体实施方式
下面结合附图和具体实施方式对本发明进行详细说明。
从算法流程来看,本发明大体包括三个步骤:特征提取与加权、区域整合、检索与重排。特征提取与加权阶段,提取卷积神经网络最后一个卷基层三维特征,然后通过空间加权和通道加权对特征每个元素赋予新的权重,于是得到能突显图像边缘信息和位置信息的新三维特征。区域整合阶段,用事先设计好的不同尺度的滑窗使每个特征平面划分成不同多个区域,对每个区域内的元素直接求和,因此每个区域得到一个代表该区域性质的向量。对于这些向量经过L2归一化, PAC-whitening降维,再次L2归一化,再对多个向量相加整合成一个向量,该向量就是我们最终用来表示整张图像的特征描述子。检索与重排阶段,计算图像之间的余弦距离作为相似度得分,根据得分获得初始检索排名,再利用初始排名进行查询扩展得到最终检索结果。
从算法输入输出来看,本发明输入三个图像库(训练图库、查询图库、测试图库),输出测试图库相对于查询图库的检索mAP(平均精度均值)。训练图库用于训练PCA参数,该参数使用于查询图库和测试图库的区域向量进行PAC-whitening优化时。目的是对于查询图库中的每张图,测试图中所有图得到前后排名,且该排名需要符合人眼的感知排名。因此查询图和测试图特征描述子的获取步骤相同。
参见图1,本发明特征加权与区域整合的图像检索方法,具体按照以下步骤实施:
步骤1,特征提取与加权,提取最后一个卷积层的三维特征,将提取的特征进行空间加权和通道加权,在空间加权时将多个通道相加求和以突显出非零且响应大的区域,而这些区域也一般都是物体所在的区域,在通道加权时,使用IDF(逆向文件频率)的思想进行赋值;
步骤2,区域整合,设计多种不同尺寸的滑窗将加权后的特征平面划分成多个区域,每个区域内的元素相加求和得到多个局部特征向量,经过L2归一化,PAC-whitening降维,再次L2归一化,最后直接相加得到全局特征;
步骤3,检索与重排,使用余弦距离衡量查询图与测试图的相似度得出初始排名,并且用拓展查询方法进行重排得出最终的mAP(平均精度均值)。
步骤1所述的特征提取与加权,提取最后一个卷积层的三维特征,将提取的特征进行空间加权和通道加权,在空间加权时我们将多个通道相加求和以突显出非零且响应大的区域,而这些区域也一般都是物体所在的区域,在通道加权时,使用IDF(逆向文件频率)的思想进行赋值。图1中训练图库用于PCA参数训练。查询图库和测试图库用于评判图像检索方法的好坏。要做到的效果是,选择一张查询图库中图像,能输出在测试图库中与该查询图像最相似的图片。具体按照以下步骤实施:
用X∈R(N×W×H)表示用卷积神经网络提取的三维特征,W、H分别表示每一层特征平面(feature map)的宽度、长度,N是通道的数量;W, H的大小会随输入网络图像的大小不同而变化;xkij表示在第k个通道上的特征图位置为(i,j)处的元素;C(k)表示第k个通道的整张特征图,首先对C(k)上的每个元素加权,则总共有i×j个权重,每个权重用aij表示,类似的,用表示第k个通道的特征平面上位置为(i,j) 处的元素,对每个通道加权,每个权重用bk表示。
步骤1.1,对空间加权(特征平面加权),直接对每个通道的特征图相加求和,通常情况下,通过卷积滤波,响应强的地方一般都是物体的边缘等,将多个通道相加求和后,那些非零且响应大的区域一般都是物体所在的区域,因而可以将其作为特征图的权重,s′ij表示每个特征图上位置为(i,j)处的元素的加和,表达式如下:
于是可以得到空间权重aij,表达式如下:
公式(2)中,m的取值范围是[1,W],n的取值范围是[1,H],其中可以看做是矩阵s的2范数;根据预实验数据,当α=2,β=2时检索精确度最好,aij表示空间权重,s′ij表示每个特征图上位置为(i,j)处的元素的加和;
步骤1.2,对特征通道加权,采用逆向文件频率权重的方法,若某个通道的特征图上每个像素值都是非零的,且都比较大,那么视觉上,强响应区域将占据整个特征图,这个通道的特征图不利于定位物体所在的区域,要降低其通道权重,对于强响应区域占特征图面积相对较小的通道,认为其包含了图像更准确的物体位置信息,要增大这些通道的权重,Mk表示第k个通道上非零元素的个数,表达式如下:
公式(3)中,Mk表示第k个通道上非零元素的个数,用表示第k个通道的特征平面上位置为(i,j)处的元素,
根据非零元素的多寡进行通道加权,bk表达式如下:
公式(4)中,bk表示每个通道的权值,Mk表示第k个通道上非零元素的个数,ε为极小值,保证分母不为零,取ε=1,对结果几乎不影响;
步骤1.3,形成最终加权特征,加权之后,每个元素的值变为x′kij,其中x′kij=aijbkxkij,aij表示空间权重,bk表示每个通道的权值,xkij表示在第k个通道上的特征图位置为(i,j)处的元素,
公式空间加权和通道加权的目的是增大感兴趣区域的权重,降低非物体区域的权重,
空间加权和通道加权的目的是增大感兴趣区域的权重,降低非物体区域的权重。
步骤2,区域整合,设计多种不同尺寸的滑窗将加权后的特征平面划分成多个区域,每个区域内的元素相加求和得到多个局部特征向量,经过L2归一化,PAC-whitening降维,再次L2归一化,最后直接相加得到全局特征,具体按照以下方法实施:
本小节介绍将三维特征整合成全局特征向量的方法,CroW将每个通道的元素直接相加,得到长度为N的特征向量F,F=[f1,f2,...,fk], fk的表达式如下:
公式(5)中,fk表示第k个特征向量,xkij表示在第k个通道上的特征图位置为(i,j)处的元素,
CroW特征只考虑了特征图的全局性,而没有考虑局部性,因此,将特征图分成多个不同区域进行单独计算,再进行整合,设三种窗口大小,采用求和的方式处理每一个窗口对应的特征图区域,用L种不同尺度的滑窗对特征图进行区域划分,例如L=3时,通常可以得到20 个区域特征,此外,采用相加求和的方式处理整个特征图得到一个特征向量,于是一幅图可以得到21个区域特征,将这21个区域特征直接相加求和,即得到最终的全局特征,在窗口与窗口之间,都有一定的重叠区域,采用相加求和的方式生成全局特征,因此,可以认为赋予了那些重叠的区域较大的权重,每个滑窗都是正方形的,采用均匀采样的方式并且自动调整中心的位置以保证重叠的区域达到40%。滑窗的大小由特征图的短边决定,滑窗边长的表达式如下:
公式(6)中,1表示滑窗边长,L表示不同尺度的滑窗,
当L=3时,有3种不同尺度的滑窗套在特征图上,将滑窗内的元素直接相加;一个滑窗会生成一个特征向量F′,做法如CroW类似, F′=[f1′,f2′,...,fN′],只是fk′只限于滑窗内的元素的加和;通过n个滑窗处理后,依次采用L2归一化、PAC—whitening降维、L2归一化的顺序进行优化,三维特征变成n个区域特征向量;最后将所有区域特征向量直接相加生成全局特征向量G,G的表达式如下:
G=F1'+F2'+...+Fn' (7)
公式(7)中,G表示全局特征向量,特征向量F'表示局部特征向量。
步骤3,检索与重排,使用余弦距离衡量查询图与测试图的相似度得出初始排名,并且用拓展查询方法进行重排得出最终的mAP(平均精度均值),具体按照以下方法实施:
步骤3.1,使用余弦距离衡量查询图与测试图的相似性,余弦距离,也称为余弦相似度,是用向量空间中两个向量夹角的余弦值作为衡量两个个体间差异大小的度量。欧氏距离能够体现个体数值特征的绝对差异,所以更多的用于需要从维度的数值大小中体现差异的分析,余弦距离更多的是从方向上区分差异,而对绝对的数值不敏感,更多的用于使用户对内容评分来区分兴趣的相似度和差异,同时修正了用户间可能存在的度量标准不统一的问题(因为余弦距离对绝对数值不敏感)。将全局特征向量看成是多维空间中有方向的线段,如果两个向量的方向一致,即夹角接近零,那么可以认为这两个向量相近。而要确定两个向量方向是否一致,这就要用到余弦定理计算向量的夹角。因此,本发明使用余弦距离来判别全局特征向量的相似性,图片X和 Y的相似性用下面表达式表示:
因为余弦距离是体现向量之间方向上的差异,因此使用L2归一化和PAC-whitening降维后不会影响最后相似度的评价;
步骤3.2,使用查询扩展算法对初始排名进行重排,查询扩展,即QE(queryexpansion),是一种简单的重排方法,该方法选取排名最前的几张图像(包括查询图像),计算其特征向量的平均值向量,最后用平均值向量对结果进行最终重排。虽然方法简单,但对结果有显而易见的提升,能极大提高检索召回率。
以往提取局部特征(比如SIFT特征)构建BoW、VLAD、Fisher Vectors向量时,可以将SIFT特征限制在有物体的区域内。同理,基于CNN的图像检索中,提取有物体的区域的特征。通常有两种方式来细化图像检索的特征:一种是先做物体检测,然后在检测到的物体区域里面提取CNN特征;另一种方式是我们通过某种权重自适应的方式,加大有物体区域的权重,而减小非物体区域的权重。本文即是采用的后一种方法。Y Gong等人提出的MOP算法(GongY,Wang L,Guo R,et al.Multi-scale Orderless Pooling of Deep ConvolutionalActivation Features)采用一种多尺度的滑窗对原图进行处理,本文采用类似的方法在特征平面上进行滑窗处理得到区域特征向量,区域向量直接相加得到全局特征,最后计算特征向量之间的相似性得分进行检索排名。
Claims (4)
1.特征加权和区域整合的图像检索方法,其特征在于,包括以下步骤:
步骤1,特征提取与加权,提取卷积神经网络最后一个卷积层的三维特征,将提取的特征进行空间加权和通道加权;在空间加权时将多个通道相加求和以突显出非零且响应大的区域,而这些区域也一般都是物体所在的区域;在通道加权时,使用逆向文件频率的方法进行赋值;
步骤2,区域整合,设计多种不同尺寸的滑窗,将加权后的特征平面划分成多个区域,每个区域内的元素相加求和得到多个局部特征向量,经过L2归一化,PAC-whitening降维,再次L2归一化,最后直接相加得到全局特征;
步骤3,检索与重排,使用余弦距离衡量查询图与测试图的相似度得出初始排名,用拓展查询方法进行重排得出最终的mAP。
2.根据权利要求1所述的特征加权和区域整合的图像检索方法,其特征在于,步骤1的特征提取与加权,具体按照以下步骤实施:
用X∈R(N×W×H)表示用卷积神经网络提取的三维特征,W、H分别表示每一层特征平面的宽度、长度,N是通道的数量;W,H的大小会随输入网络图像的大小不同而变化;xkij表示在第k个通道上的特征图位置为(i,j)处的元素;C(k)表示第k个通道的整张特征图,首先对C(k)上的每个元素加权,则总共有i×j个权重,每个权重用aij表示,类似的,用表示第k个通道的特征平面上位置为(i,j)处的元素, 对每个通道加权,每个权重用bk表示,
步骤1.1,对空间加权,直接对每个通道的特征图相加求和,通常情况下,通过卷积滤波,响应强的地方一般都是物体的边缘等,将多个通道相加求和后,那些非零且响应大的区域一般都是物体所在的区域,因而可以将其作为特征图的权重,s'ij表示每个特征图上位置为(i,j)处的元素的加和,表达式如下:
于是可以得到空间权重aij,表达式如下:
公式(2)中,m的取值范围是[1,W],n的取值范围是[1,H],其中可以看做是矩阵s的2范数;根据预实验数据,当α=2,β=2时检索精确度最好,aij表示空间权重,s'ij表示每个特征图上位置为(i,j)处的元素的加和;
步骤1.2,对特征通道加权,采用逆向文件频率权重的方法,若某个通道的特征图上每个像素值都是非零的,且都比较大,那么视觉上,强响应区域将占据整个特征图,这个通道的特征图不利于定位物体所在的区域,要降低其通道权重,对于强响应区域占特征图面积相对较小的通道,认为其包含了更准确的图像物体位置信息,要增大这些通道的权重,Mk表示第k个通道上非零元素的个数,表达式如下:
公式(3)中,Mk表示第k个通道上非零元素的个数,用表示第k个通道的特征平面上位置为(i,j)处的元素;
根据非零元素的多寡进行通道加权,bk表达式如下:
公式(4)中,bk表示每个通道的权值,Mk表示第k个通道上非零元素的个数,ε为极小值,保证分母不为零,取ε=1,对结果不影响;
步骤1.3,形成最终加权特征,加权之后,每个元素的值变为x'kij,其中x'kij=aijbkxkij,aij表示空间权重,bk表示每个通道的权值,xkij表示在第k个通道上的特征图位置为(i,j)处的元素,
公式空间加权和通道加权的目的是增大感兴趣区域的权重,降低非物体区域的权重。
3.根据权利要求1所述的特征加权和区域整合的图像检索方法,其特征在于,步骤2所述的区域整合,具体按照以下步骤实施:
该步骤为合成全局特征向量的方法,CroW将每个通道的元素直接相加,得到长度为N的特征向量F,F=[f1,f2,...,fN],fk的表达式如下:
公式(5)中,fk表示第k个特征向量,xkij表示在第k个通道上的特征图位置为(i,j)处的元素,
将特征图分成多个不同区域进行单独计算,再进行整合;预设三种窗口大小,采用求和的方式处理每一个窗口对应的特征图区域;用L种不同尺度的滑窗对特征图进行区域划分,采用相加求和的方式处理整个特征图得到一个特征向量,于是一幅图可以得到多个区域特征,将多个区域特征直接相加求和,即得到最终的全局特征;在窗口与窗口之间,都有一定的重叠区域,采用相加求和的方式生成全局特征,赋予那些重叠的区域较大的权重;每个滑窗都是正方形的,采用均匀采样的方式并且自动调整中心的位置,以保证重叠的区域达到40%;滑窗的大小由特征图的短边决定,滑窗边长的表达式如下:
公式(6)中,l表示滑窗边长,L表示不同尺度的滑窗,
当L=3时,有3种不同尺度的滑窗套在特征图上,将滑窗内的元素直接相加;一个滑窗会生成一个特征向量F′,做法如CroW类似,F′=[f1′,f2′,...,fN′],只是fk'只限于滑窗内的元素的加和;通过n个滑窗处理后,依次采用L2归一化、PAC—whitening降维、L2归一化的顺序进行优化,三维特征变成n个区域特征向量;最后将所有区域特征向量直接相加生成全局特征向量G,G的表达式如下:
G=F1'+F2'+...+Fn' (7)
公式(7)中,G表示全局特征向量,特征向量F′表示局部特征向量。
4.根据权利要求1所述的特征加权和区域整合的图像检索方法,其特征在于,步骤3所述的检索与重排,具体按照以下步骤实施:
步骤3.1,使用余弦距离衡量查询图与测试图的相似性;将全局特征向量看成是多维空间中有方向的线段,若两个向量的方向一致,即夹角接近零,可认为这两个向量相近;用余弦定理计算向量的夹角,确定两个向量方向是否一致;使用余弦距离来判别全局特征向量的相似性,图片X和Y的相似性用下面表达式表示:
因为余弦距离是体现向量之间方向上的差异,因此使用L2归一化和PAC-whitening降维后不会影响最后相似度的评价;
步骤3.2,使用查询扩展算法对初始排名进行重排,查询扩展,即QE,选取排名最前的几张图像,包括查询图像,计算其特征向量的平均值向量,最后用平均值向量对结果进行最终重排。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910091915.0A CN109934258B (zh) | 2019-01-30 | 2019-01-30 | 特征加权和区域整合的图像检索方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910091915.0A CN109934258B (zh) | 2019-01-30 | 2019-01-30 | 特征加权和区域整合的图像检索方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109934258A true CN109934258A (zh) | 2019-06-25 |
CN109934258B CN109934258B (zh) | 2022-10-04 |
Family
ID=66985422
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910091915.0A Active CN109934258B (zh) | 2019-01-30 | 2019-01-30 | 特征加权和区域整合的图像检索方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109934258B (zh) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112650869A (zh) * | 2020-12-23 | 2021-04-13 | 科大讯飞股份有限公司 | 图像检索重排序方法、装置、电子设备及存储介质 |
CN112712092A (zh) * | 2021-01-07 | 2021-04-27 | 泰康保险集团股份有限公司 | 采集图像特征的方法、装置、设备和计算机可读介质 |
CN113127677A (zh) * | 2020-01-15 | 2021-07-16 | 中移(苏州)软件技术有限公司 | 一种信息处理方法、装置、终端及存储介质 |
CN114064952A (zh) * | 2021-07-09 | 2022-02-18 | 武汉邦拓信息科技有限公司 | 一种基于空间感知增强的图形检索方法 |
CN117788850A (zh) * | 2024-02-21 | 2024-03-29 | 深圳欧税通技术有限公司 | 一种商标相似度评估方法及装置 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP1221662A2 (en) * | 2001-01-09 | 2002-07-10 | Samsung Electronics Co., Ltd. | Image retrieval method |
CN109033172A (zh) * | 2018-06-21 | 2018-12-18 | 西安理工大学 | 一种深度学习与近似目标定位的图像检索方法 |
-
2019
- 2019-01-30 CN CN201910091915.0A patent/CN109934258B/zh active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP1221662A2 (en) * | 2001-01-09 | 2002-07-10 | Samsung Electronics Co., Ltd. | Image retrieval method |
CN109033172A (zh) * | 2018-06-21 | 2018-12-18 | 西安理工大学 | 一种深度学习与近似目标定位的图像检索方法 |
Non-Patent Citations (1)
Title |
---|
杨红菊等: "基于深度卷积网络的特征融合图像检索方法", 《山西大学学报(自然科学版)》 * |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113127677A (zh) * | 2020-01-15 | 2021-07-16 | 中移(苏州)软件技术有限公司 | 一种信息处理方法、装置、终端及存储介质 |
CN112650869A (zh) * | 2020-12-23 | 2021-04-13 | 科大讯飞股份有限公司 | 图像检索重排序方法、装置、电子设备及存储介质 |
CN112650869B (zh) * | 2020-12-23 | 2022-12-06 | 科大讯飞股份有限公司 | 图像检索重排序方法、装置、电子设备及存储介质 |
CN112712092A (zh) * | 2021-01-07 | 2021-04-27 | 泰康保险集团股份有限公司 | 采集图像特征的方法、装置、设备和计算机可读介质 |
CN114064952A (zh) * | 2021-07-09 | 2022-02-18 | 武汉邦拓信息科技有限公司 | 一种基于空间感知增强的图形检索方法 |
CN117788850A (zh) * | 2024-02-21 | 2024-03-29 | 深圳欧税通技术有限公司 | 一种商标相似度评估方法及装置 |
CN117788850B (zh) * | 2024-02-21 | 2024-05-10 | 深圳欧税通技术有限公司 | 一种商标相似度评估方法及装置 |
Also Published As
Publication number | Publication date |
---|---|
CN109934258B (zh) | 2022-10-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Bagri et al. | A comparative study on feature extraction using texture and shape for content based image retrieval | |
CN109934258A (zh) | 特征加权和区域整合的图像检索方法 | |
Gevers et al. | Pictoseek: Combining color and shape invariant features for image retrieval | |
Zhao et al. | Learning mid-level filters for person re-identification | |
Csurka et al. | Visual categorization with bags of keypoints | |
JP4963216B2 (ja) | コンピュータにより実施される、データサンプルのセットについて記述子を作成する方法 | |
CN102073748B (zh) | 一种基于视觉关键词的遥感影像语义检索方法 | |
Amores et al. | Context-based object-class recognition and retrieval by generalized correlograms | |
CN110309810B (zh) | 一种基于批次中心相似度的行人重识别方法 | |
Lou et al. | An image classification algorithm based on bag of visual words and multi-kernel learning | |
CN109299664A (zh) | 一种行人重识别的重排序方法 | |
Ismail | A survey on content-based image retrieval | |
Mai et al. | Content-based image retrieval system for an image gallery search application | |
Sethulekshmi et al. | Ayurvedic leaf recognition for plant classification | |
CN110287973A (zh) | 一种基于低秩鲁棒线性鉴别分析的图像特征提取方法 | |
Naaz et al. | Enhanced content based image retrieval using machine learning techniques | |
Tsay et al. | On visual clothing search | |
Kumar et al. | Automatic feature weight determination using indexing and pseudo-relevance feedback for multi-feature content-based image retrieval | |
Chowdhury et al. | Compact image signature generation: An application in image retrieval | |
Barakbah et al. | An image search system with analytical functions for 3D color vector quantization and cluster-based shape and structure features | |
Sasireka et al. | Comparative Analysis on Image Retrieval Technique using Machine Learning | |
Reddy | Extensive Content Feature based Image Classification and Retrieval using SVM | |
Chen et al. | An efficient framework for location-based scene matching in image databases | |
Feng et al. | Efficient indexing for mobile image retrieval | |
Shinde et al. | Content based image retrieval and classification using support vector machine |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
TR01 | Transfer of patent right |
Effective date of registration: 20230614 Address after: 266000 Room 502, floor 5, building a, Shinan Software Park, No. 288, Ningxia road, Shinan District, Qingdao, Shandong Patentee after: Qingdao class cognition artificial intelligence Co.,Ltd. Address before: 710048 No. 5 Jinhua South Road, Shaanxi, Xi'an Patentee before: XI'AN University OF TECHNOLOGY |
|
TR01 | Transfer of patent right |