CN109740541B - 一种行人重识别系统与方法 - Google Patents
一种行人重识别系统与方法 Download PDFInfo
- Publication number
- CN109740541B CN109740541B CN201910009061.7A CN201910009061A CN109740541B CN 109740541 B CN109740541 B CN 109740541B CN 201910009061 A CN201910009061 A CN 201910009061A CN 109740541 B CN109740541 B CN 109740541B
- Authority
- CN
- China
- Prior art keywords
- image
- score
- feature
- new
- reference image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 27
- 230000004927 fusion Effects 0.000 claims abstract description 41
- 238000004364 calculation method Methods 0.000 claims abstract description 32
- 238000012163 sequencing technique Methods 0.000 claims abstract description 5
- 230000004913 activation Effects 0.000 claims description 86
- 238000000605 extraction Methods 0.000 claims description 65
- 230000011218 segmentation Effects 0.000 claims description 42
- 238000010586 diagram Methods 0.000 claims description 24
- 238000005457 optimization Methods 0.000 claims description 22
- 238000013507 mapping Methods 0.000 claims description 20
- 239000000284 extract Substances 0.000 claims description 8
- 238000011176 pooling Methods 0.000 claims description 7
- 238000010276 construction Methods 0.000 claims description 4
- 230000001419 dependent effect Effects 0.000 claims description 3
- 230000008929 regeneration Effects 0.000 claims description 3
- 238000011069 regeneration method Methods 0.000 claims description 3
- 241001134453 Lista Species 0.000 claims description 2
- 230000006872 improvement Effects 0.000 abstract description 11
- 230000000694 effects Effects 0.000 abstract description 7
- 238000012360 testing method Methods 0.000 description 20
- 101100153586 Caenorhabditis elegans top-1 gene Proteins 0.000 description 13
- 101100370075 Mus musculus Top1 gene Proteins 0.000 description 13
- 238000004422 calculation algorithm Methods 0.000 description 8
- 238000011156 evaluation Methods 0.000 description 8
- 210000000746 body region Anatomy 0.000 description 7
- 238000013527 convolutional neural network Methods 0.000 description 6
- 238000002474 experimental method Methods 0.000 description 6
- 238000013459 approach Methods 0.000 description 5
- 230000006870 function Effects 0.000 description 5
- 238000012545 processing Methods 0.000 description 5
- 238000007500 overflow downdraw method Methods 0.000 description 4
- 238000012549 training Methods 0.000 description 4
- 238000013528 artificial neural network Methods 0.000 description 3
- 230000004044 response Effects 0.000 description 3
- 230000009286 beneficial effect Effects 0.000 description 2
- 230000000295 complement effect Effects 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 230000007547 defect Effects 0.000 description 2
- 239000000203 mixture Substances 0.000 description 2
- 238000002922 simulated annealing Methods 0.000 description 2
- 230000003044 adaptive effect Effects 0.000 description 1
- 230000003321 amplification Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000007635 classification algorithm Methods 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 230000000052 comparative effect Effects 0.000 description 1
- 230000001186 cumulative effect Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 239000006185 dispersion Substances 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 238000011478 gradient descent method Methods 0.000 description 1
- 230000000977 initiatory effect Effects 0.000 description 1
- 230000002427 irreversible effect Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 238000003199 nucleic acid amplification method Methods 0.000 description 1
- 230000008569 process Effects 0.000 description 1
Images
Landscapes
- Image Analysis (AREA)
Abstract
本发明公开了一种行人重识别系统,包括用于计算待测图像p与初始参考图像集G中各参考图像的图像相似度的多流特征距离融合系统、用于根据图像相似度对参考图像进行排序的排序系统以及基于k邻域分布得分的重排序系统;重排序系统用于在初始排序列表的基础上,根据k邻域分布得分对初始排序列表中的参考图像进行重新排序。本发明还公开了一种行人重识别方法,采用本发明的行人重识别系统。本发明针对影响行人重识别的两个主要因素,即图像相似度计算与图像排序,分别进行了改进,任意一方面的改进与现有技术相比,均能提高行人重识别的准确性。两方面改进的结合则能得到最优的行人重识别效果。
Description
技术领域
本发明涉及图像识别领域,尤其是一种检索图像中特定行人的行人重识别系统,还涉及一种行人重识别方法。
背景技术
行人重识别旨在从具有不同摄像机视角的参考图像集中检索相同的行人。行人重识别是视频监控和公共安全中的一个重要且具有挑战性的课题,目前的行人重识别一般是通过待测图像与参考图像的图像相似度在参考图像数据集中进行检索,然后根据相似度的高低进行排序,然后将与待测图像相似度最高的参考图像作为top-1。
对于行人重识别的相似度计算部分,由于受到摄像机角度和人体姿势的变化,行人重识别主要面临以下挑战:如图1中(a)所示,图像中的局部身体区域错位,红色框检测头部,但黄色框只能找到背景,提升了比较难度;如图1中(b)所示,遮挡,红色框可以检测到下半身区域,但在相应的黄色框中,下半身被遮挡;如图1中(c)所示,不同行人的相似外观,局部特征在此刻起重要作用,不同的行人可以通过红色和黄色检测框的细节信息来区分。
此外,由于参考图像数据集中既存在正样本,又存在负样本,负样本对图像相似度计算存在干扰,由于正样本存在拍照角度、遮挡等问题,这会造成某些角度或没有遮挡的负样本与待测图像的相似度高于正样本与待测图像的相似度,那么采用现有技术中单纯依赖相似度计算得到的排序不准确,甚至出现负样本排到top-1的情况。
发明内容
针对上述现有技术的不足,本发明提供一种行人重识别系统,解决现有技术中行人重识别准确率不高的技术问题,能够提高行人重识别准确率。
为了解决上述技术问题,本发明采用了如下的技术方案:一种行人重识别系统,包括用于计算待测图像p与初始参考图像集G中各参考图像的图像相似度的多流特征距离融合系统以及用于根据图像相似度对参考图像进行排序的排序系统;
所述多流特征距离融合系统包括逐级连接的多流特征提取网络、贡献系数自适应生成模块与距离融合模块;
多流特征提取网络包括用于提取输入图像的特征图的特征图提取网络,所述特征图包括全局特征图与n个区域特征图,输入图像包括待测图像p与参考图像;多流特征提取网络还包括用于分别从各特征图中提取相应特征的特征提取网络;多流特征提取网络能够将特征图输出给贡献系数自适应生成模块,并能将提取到的特征输出给距离融合模块;
贡献系数自适应生成模块包括激活比计算模块与用于根据各区域特征图的激活比计算各区域特征的贡献系数的贡献度映射模块;所述激活比是指区域特征图上的非零值点的数量与全局特征图上的非零值点的数量的比率;所述贡献系数是指全局特征或区域特征对融合距离的贡献程度;全局特征贡献系数恒为1;
距离融合模块用于根据待测图像p的各特征与参考图像的各特征计算相应特征之间的特征距离,并利用各特征的贡献系数将各特征距离融合成多流特征距离;然后采用多流特征距离作为图像相似度指标:多流特征距离越小,图像相似度越高,多流特征距离越大,图像相似度越低。
优选的,所述特征图提取网络包括用于在输入图像上分割出n-1个局部区域的区域分割网络、用于去除输入图像的背景的语义分割模块、用于提取输入图像的全局特征图的全局特征图提取网络以及用于根据区域分割网络所分割出的各局部区域在全局特征图上提取出相应区域特征图的池化模块;输入图像经语义分割模块去除背景后作为第n个区域特征图。
优选的,所述区域分割网络为身体分割提取网络。
优选的,所述激活比计算模块按如下公式计算激活比ar:
其中,N表示特征图的维度,Hl、Wl分别是区域特征图的高度尺寸、宽度尺寸,Hg、Wg分别是全局特征图的高度尺寸、宽度尺寸;
优选的,贡献度映射模块以激活比作为自变量,以贡献系数作为因变量,按如下映射函数将激活比映射出贡献系数:
f(x)=A/(1+e-D(x-C))+B;
其中,x是激活比;e是自然常数;A、B、C和D均是公式参数,并根据激活比取值区间[μ1,μ2]与贡献系数取值区间[γ1,γ2]分别按以下公式计算:
A=γ2-γ1;
B=γ1;
D=min{D|f(μ1)-γ1<0.01,f(μ2)-γ1<0.01,D∈N*};
其中,N*表示正整数;0≤μ1≤1,0≤μ2≤1,0≤γ1≤1,0≤γ2≤1。
优选的,距离融合模块按如下公式计算多流特征距离R:
R=Cg.dg(Ip,Ig)+C1.d1(Ip,Ig)+......+Cn.dn(Ip,Ig)
其中,Cg表示全局特征贡献系数;dg(Ip,Ig)表示待测图像的全局特征与参考图像的全局特征的特征距离,即欧氏距离;d1(Ip,Ig)......dn(Ip,Ig)分别表示待测图像的各区域特征到参考图像的各对应区域特征的欧氏距离。
优选的,激活比取值区间采用激活比优化区间,以对激活比进行约束:贡献系数取值区间采用贡献系数优化区间,以对贡献系数进行约束:当激活比计算模块计算出的激活比在激活比优化区间外时,通过所述映射函数就能将激活比所对应的贡献系数映射到贡献系数优化区间内。
优选的,所述排序系统包括初始排序列表生成模块:用于根据待试图像与各参考图像的图像相似度,从高到低进行排序,从而获得初始排序列表其中,是在初始排序列表中排在第i位的参考图像,N表示初始参考图像集G中参考图像总数量;
还包括基于k邻域分布得分的重排序系统,用于在初始排序列表的基础上,根据k邻域分布得分对初始排序列表中的参考图像进行重新排序,并包括以下功能模块:
扩展查询集生成模块:用于建立待试图像p的扩展查询集Q(p,k),按如下公式:Q(p,k)={p}+N(p,k-1);
参考图像集重生成模块:用于将待试图像p添加到初始参考图像集G中,从而得到新的参考图像集Gnew={p}+G;
临时排序列表生成模块:用于计算以Pnew中各图像依次作为新的待试图像到新的参考图像集Gnew中各参考图像的图像相似度,并根据图像相似度从高到低对新的参考图像集Gnew中各参考图像进行排序,从而对应每个新的待试图像均获得临时排序列表;
排序位置搜索模块:用于根据Pnew中各新的待试图像所对应的临时排序列表,搜索扩展查询集Q(p,k)中k张图像在各个临时排序列表中的排序位置L;
其中,扩展查询集Q(p,k)中待试图像p在新的待试图像所对应的临时排序列表中的排序位置为L(p);扩展查询集Q(p,k)中参考图像在新的待试图像所对应的临时排序列表中的排序位置为待试图像p的权重系数为k-1张参考图像的权重系数均为
其中,N(p,k)表示待试图像p的最近k领域,即初始排序列表Ω(p,G)中的前k张参考图像组成的图像集;表示新的待试图像的最近k领域,即新的待试图像所对应的临时排序列表中的前k张参考图像组成的图像集;card[·]表示求N(p,k)与相同图像的数量;
其中,var[·]表示方差计算;
k领域分布得分构造模块:用于根据得分计算模块计算出的得分为各个初始排序列表Ω(p,G)中各参考图像按以下任意一种方式构造k领域分布得分Sd:
以位置得分作为k领域分布得分:Sd=Sd-l;
以重叠得分作为k邻域分布得分:Sd=Sd-o;
以位置得分与重叠得分的乘积作为k邻域分布得分:Sd=Sd-l×Sd-o;
以离散得分与重叠得分的乘积作为k邻域分布得分:Sd=Sd-d×Sd-o;
以位置得分、离散得分与重叠得分的乘积作为k邻域分布得分:Sd=Sd-l×Sd-d×Sd-o;
重排序列表生成模块,用于根据初始排序列表Ω(p,G)中各参考图像的k领域分布得分,从高到低,对初始排序列表Ω(p,G)中各参考图像进行重新排序,从而得到基于k邻域分布得分的重排序列表。
优选的,k值根据初始参考图像集G中同一目标对象所拥有的平均参考图像数量n进行确定,k的取值区间为[0.6n,0.7n]。
本发明还提供一种行人重识别方法,采用本发明的行人重识别系统,包括以下步骤:
步骤1:输入待测图像至多流特征提取网络,通过特征图提取网络提取待测图像的全局特征图与n个区域特征图;特征提取网络分别根据待测图像的全局特征图与n个区域特征图提取待测图像的全局特征与n个区域特征;并将待测图像的全局特征图与n个区域特征图发送给贡献度自适应模块,将待测图像的全局特征与n个区域特征发送给距离融合模块;
步骤2:激活比计算模块根据待试图像的全局特征图与n个区域特征图,计算待测图像的各个区域特征图的激活比;
步骤3:贡献度映射模块根据待测图像的各个区域特征图的激活比计算各区域特征的贡献系数;
步骤4:将初始参考图像集G中各参考图像依次输入至多流特征提取网络,通过特征图提取网络依次提取各参考图像的全局特征图与n个区域特征图;特征提取网络分别根据各参考图像的全局特征图与n个区域特征图提取各参考图像的全局特征与n个区域特征;并依次将各参考图像的全局特征与n个区域特征发送给距离融合模块;
步骤5:距离融合模块依次计算待测图像与各参考图像的各种特征距离;
步骤6:距离融合模块获取待测图像的各特征的贡献系数,利用各特征的贡献系数依次将各参考图像与待测图像之间的各种特征距离融合成多流特征距离,使得每幅参考图像均对应一个多流特征距离;然后以多流特征距离作为图像相似度指标,并发送给排序系统;
步骤8:建立待试图像p的扩展查询集Q(p,k),按如下公式:
Q(p,k)={p}+N(p,k-1);
步骤10:将待试图像p添加到初始参考图像集G中,从而得到新的参考图像集Gnew={p}+G;
步骤11:遍历新的待试图像集Pnew,计算以Pnew中各图像依次作为新的待试图像到新的参考图像集Gnew中各参考图像的相似度,并根据相似度从高到低对新的参考图像集Gnew中各参考图像进行排序,从而对应每个新的待试图像均获得临时排序列表;
步骤12:根据各新的待试图像所对应的临时排序列表,搜索扩展查询集Q(p,k)中k张图像在各个临时排序列表中的排序位置L;
步骤13:计算初始排序列表Ω(p,G)中各参考图像的以下得分:位置得分Sd-l、重叠得分Sd-o以及离散得分Sd-d;
步骤14:构造各个初始排序列表Ω(p,G)中各参考图像的k领域分布得分Sd,按以下任意一种方式:
以位置得分作为k领域分布得分:Sd=Sd-l;
以重叠得分作为k邻域分布得分:Sd=Sd-o;
以位置得分与重叠得分的乘积作为k邻域分布得分:Sd=Sd-l×Sd-o;
以离散得分与重叠得分的乘积作为k邻域分布得分:Sd=Sd-d×Sd-o;
以位置得分、离散得分与重叠得分的乘积作为k邻域分布得分:Sd=Sd-l×Sd-d×Sd-o;
步骤15:根据初始排序列表Ω(p,G)中各参考图像的k领域分布得分,从高到低,对初始排序列表Ω(p,G)中各参考图像进行重新排序,从而得到基于k邻域分布得分的重排序列表;
步骤16:以重排序列表中前k张参考图像作为与待测图像具有同一行人的目标图像,从而完成行人重识别。
与现有技术相比,本发明具有以下有益效果:
1、本发明采用了多流特征距离作为图像相似度指标,多流特征距离不是简单的将各特征距离进行叠加,在进行距离融合时,考虑了全局特征与各个区域特征对融合距离的贡献程度,即引入了贡献系数,从而能够更好的判断整体相似度高,而局部具有差异的图像的相似性:在整体相似性高,但某一个或几个局部区域区别较小时,相应区域特征图像的激活比越小,则相应的区域特征贡献系数越小,那么多流特征距离的值越小,图像相似性越高;在整体相似性高,但某一个或几个局部细节区别较大时,相应区域特征图像的激活比越大,相应的区域特征贡献系数越大,那么多流特征距离的值越大,图像相似性越低,从而极大程度的排除了行人重识别中相似行人的干扰,对提高行人重识别准确性起到重要作用。
2、采用身体分割提取网络作为区域分割网络,身体分割提取网络是根据身体区域进行区域分割的,解决了待测图像与参考图像的拍摄距离不同而导致相应身体区域发生错位的问题,对提高行人重识别准确性起到重要作用。
3、本发明引入了基于k邻域分布得分的重排序系统,在初始排序列表的基础上,根据k邻域分布得分对初始排序列表中的参考图像进行重新排序,从而克服了单纯依赖图像相似度进行排序,而无法避免负样本干扰的缺陷,能够降低负样本对排序的干扰,对提高行人重识别准确性起到重要作用。
4、本发明通过贡献系数自适应生成模块根据输入的特征图自动生成贡献系数,具有良好的自适应性。
5、本发明的多流特征提取网络通过全局特征提取网络首先提取全局特征图;通过语义分割模块提取去除背景后的输入图像作为其中一幅区域特征图,从而减少环境变化带来的影响;区域分割网络先在输入图像上进行区域分割,从而确定各局部区域的位置,然后池化模块根据各局部区域的位置在全局特征图上提取出相应区域特征图,这样能够减少运算量。
6、激活比取值区间与贡献系数取值区间的全区间均为[0,1],在全区间上进行区间优化:主要是根据分段区间的分布概率来缩小取值区间,剔除掉分布概率小于阈值的分段区间,从而能够将贡献系数强制约束到分布概率较大的优化区间上,以提高识别精度。
7、本发明提供的5种构造k领域分布得分Sd的方式,均能在初始排序列表的基础上提高准确率。其中,尤其当Sd=Sd-l×Sd-d×Sd-o时,具有最高的准确率。
8、本发明中k值根据初始参考图像数据集的构成进行确定,根据大量实验统计,k的取值区间为[0.6n,0.7n]时,重排序能够获得最高的准确率。
9、本发明针对影响行人重识别的两个主要方面,即图像相似度计算与图像排序,分别进行了改进,任意一方面的改进与现有技术相比,均能提高行人重识别的准确性。两方面改进的结合则能得到最优的行人重识别效果。
附图说明
图1是行人重识别所面临挑战的示意图;
图2是多流特征距离融合网络的原理图;
图3是身体分割提取网络的原理图;
图4是特征图提取网络的原理图;
图5是激活比的获取示意图;
图6是各新的待试图像对应的临时排序列表的参考示意图;
图7是重叠得分的计算原理示意图;
图8是基于k邻域分布得分的图像重排序方法的效果示意图;
图9是基于CUHK03数据集的激活比与贡献系数的映射关系图;
图10是基于Market1501数据集的激活比与贡献系数的映射关系图;
图11是基于CUHK03数据集的不同取值区间下的重识别准确率对比图;
图12是基于Market1501数据集的不同取值区间下的重识别准确率对比图;
图13是改变k值对图像数据集CUHK03的重识别性能评估图;
图14是改变k值对图像数据集Market1501的重识别性能评估图。
具体实施方式
下面结合附图和优选实施方式对本发明作进一步的详细说明。
一种行人重识别系统,包括用于计算待测图像p与初始参考图像集G中各参考图像的图像相似度的多流特征距离融合系统以及用于根据图像相似度对参考图像进行排序的排序系统;
参考图2所示,多流特征距离融合系统包括逐级连接的多流特征提取网络、贡献系数自适应生成模块与距离融合模块;
多流特征提取网络包括用于提取输入图像的特征图的特征图提取网络,所述特征图包括全局特征图与n个区域特征图,输入图像包括待测图像p与参考图像;多流特征提取网络还包括用于分别从各特征图中提取相应特征的特征提取网络;多流特征提取网络能够将特征图输出给贡献系数自适应生成模块,并能将提取到的特征输出给距离融合模块;
贡献系数自适应生成模块包括激活比计算模块与用于根据各区域特征图的激活比计算各区域特征的贡献系数的贡献度映射模块;所述激活比是指区域特征图上的非零值点的数量与全局特征图上的非零值点的数量的比率;所述贡献系数是指全局特征或区域特征对融合距离的贡献程度;全局特征贡献系数恒为1;
距离融合模块用于根据待测图像p的各特征与参考图像的各特征计算相应特征之间的特征距离,并利用各特征的贡献系数将各特征距离融合成多流特征距离;然后采用多流特征距离作为图像相似度指标:多流特征距离越小,图像相似度越高,多流特征距离越大,图像相似度越低。
本具体实施方式中,所述特征图提取网络包括用于在输入图像上分割出n-1个局部区域的区域分割网络、用于去除输入图像的背景的语义分割模块、用于提取输入图像的全局特征图的全局特征图提取网络以及用于根据区域分割网络所分割出的各局部区域在全局特征图上提取出相应区域特征图的池化模块;输入图像经语义分割模块去除背景后作为第n个区域特征图。
本具体实施方式中,所述区域分割网络为身体分割提取网络,如图3所示,身体分割提取网络采用全卷积架构的CNN神经网络,复杂度较低,输入图像并计算网络响应,根据最大化特征响应并将这些网络响应组合起来生成13个身体关键点,然后根据关键点生成包括头肩区域、胸腹区域和腰腿区域在内的三个身体局部区域。
本具体实施方式中,所述多流特征提取网络包括用于在输入图像上分割出n-1个局部区域的区域分割网络、用于去除输入图像的背景的语义分割模块FCNs、用于提取输入图像的全局特征图的全局特征图提取网络以及用于根据区域分割网络所分割出的各局部区域在全局特征图上提取出相应区域特征图的池化模块;输入图像经语义分割模块去除背景后作为第n个区域特征图。
如图4所示,全局特征图提取网络采用CNN神经网络,并包括4个卷积层和一个inception模块,inception模块包括1×1convolutions,3×3convolutions,3×3maxpooling和filter concatenation。另外,图中ROI pooling为池化模块,区域分割网络(身体分割网络BPEN)先在输入图像上进行区域分割,从而确定各局部区域的位置,然后池化模块根据各局部区域的位置在全局特征图上提取出相应区域特征图,这样能够减少运算量。提取到全局特征图与各区域特征图后,特征提取网络再从全局特征图与各区域特征图上提取全局特征与各区域特征。特征提取网络包括一个全局特征提取网络与n个区域特征提取网络,全局特征提取网络与区域特征提取网络均采用由两个inception模块组成的CNN神经网络,从而提取到的全局特征与区域特征均为256维特征,维数过小不能表达特征,过大会增加计算复杂度。
本具体实施方式中,所述激活比计算模块按如下公式计算激活比ar:
其中,N表示特征图的维度,Hl、Wl分别是区域特征图的高度尺寸、宽度尺寸,Hg、Wg分别是全局特征图的高度尺寸、宽度尺寸;
为了更好的说明激活比,以单个特征图为例,如图5所示,全局特征图大小为8×8,0和符号“+”分别表示零和非零值,三个不同颜色的边界框表示三个不同的身体区域。全局特征图中共有40个点非零,在相应的身体区域特征图中,非零值的数量分别为4,8和5,除以40得到0.1,0.2和0.125的激活比。在mask特征图(语义分割模块所提取的区域特征图)中的非零数是36,可以得出0.9的激活率。
本具体实施方式中,贡献度映射模块以激活比作为自变量,以贡献系数作为因变量,按如下映射函数将激活比映射出贡献系数:
f(x)=A/(1+e-D(x-C))+B;
其中,x是激活比;e是自然常数;A、B、C和D均是公式参数,并根据激活比取值区间[μ1,μ2]与贡献系数取值区间[γ1,γ2]分别按以下公式计算:
A=γ2-γ1;
B=γ1;
D=min{D|f(μ1)-γ1<0.01,f(μ2)-γ1<0.01,D∈N*};
其中,N*表示正整数;0≤μ1≤1,0≤μ2≤1,0≤γ1≤1,0≤γ2≤1。
本具体实施方式中,距离融合模块按如下公式计算多流特征距离R:
R=Cg.dg(Ip,Ig)+C1.d1(Ip,Ig)+......+Cn.dn(Ip,Ig)
其中,Cg表示全局特征贡献系数;dg(Ip,Ig)表示待测图像的全局特征与参考图像的全局特征的特征距离,即欧氏距离;d1(Ip,Ig)......dn(Ip,Ig)分别表示待测图像的各区域特征到参考图像的各对应区域特征的欧氏距离。
本具体实施方式中,激活比取值区间采用激活比优化区间,以对激活比进行约束:贡献系数取值区间采用贡献系数优化区间,以对贡献系数进行约束:当激活比计算模块计算出的激活比在激活比优化区间外时,通过所述映射函数就能将激活比所对应的贡献系数映射到贡献系数优化区间内。
本具体实施方式中,激活比优化区间按如下方式确定:
首先,获取具有s张图像的图像数据集,并提取各图像的全局特征图与n个区域特征图;
然后,重复进行N次随机试验,每进行一次随机试验便计算出n×s个激活比,每幅图像均对应有n种类型的激活比;N次随机试验结束后,对于每种类型的激活比均获得包含N×s个激活比的激活比集合;
最后,以区间长度Δar将每种类型的激活比集合划分成若干分段区间;之后,计算每种类型的激活比的每个分段区间的分布概率,对于每种类型的激活比,均去除掉分布概率小于设定阈值的分段区间,合并剩余分段区间,从而得到每种类型的激活比的激活比优化区间。
本具体实施方式中,贡献系数优化区间按如下方式确定:
首先,获取图像数据集,所述图像数据集中同一目标对象至少包含两张图像,将同一目标对象的一张图像作为参考图像放入批量参考集中,同一目标对象的其余图像作为测试图像放入批量测试集中;
然后,以贡献系数组C=[Cg,C1,....,Cn]作为区间变量,并采用区间优化算法对批量测试集进行M次测试,其中,Cg表示全局特征贡献系数,保持Cg=1,C1,....,Cn分别为与各区域特征对应的区域特征贡献系数;每次测试均采用模拟退火算法搜索最优贡献系数组H,其中,模拟退火算法的迭代次数为L,每迭代一次均根据参考图像的贡献系数组计算当前贡献系数组的损失函数,迭代完毕后获得一个最优贡献系数组H;测试完毕后获得由M个最优贡献系数组H组成的最优贡献系数集;
最后,从最优贡献系数集中提取相同类型的区域特征贡献系数,并以区间长度ΔC将相同类型的区域特征贡献系数划分成若干分段区间;之后,计算每种类型区域特征贡献系数的每个分段区间的分布概率,对于每种类型的区域特征贡献系数,均去除掉分布概率小于设定阈值的分段区间,合并剩余分段区间,从而得到每种类型的区域特征贡献系数的贡献系数优化区间。
优化算法中还有一个细节需要注意,保持贡献系数Cg等于1,因为该措施可以提供一个重要的基准线,防止一组实验产生多组最优解的,如解[C1,C2,......,Cn]及其倍数解也可以达到同样的精度,这将增加下一步工作的难度并带来不可逆转的负面影响。
为获得更准确的区间,基于每个贡献系数,处理获得的H,具体策略是计算每个分段区间内每种类型贡献系数的分布概率,如0~0.1,0.1~0.2等,然后去除概率低于设定阈值的分段区间。接下来将保留的分段区间合并生成所求区间。以贡献系数C1为例,在M重复随机化后,得到一组C1,并设置0.1作为每个分段区间的长度,计算得到贡献系数在不同区间的分布概率,假设它们是β1,β2,β3…β10并且β1,β2,β10均小于阈值,贡献系数C1在这三个区间内的概率非常低,所以丢弃0~0.1,0.1~0.2和0.9~1.0的区间,得到最终的G贡献系数优化区间为0.3~0.9。
本具体实施方式中,所述排序系统包括初始排序列表生成模块:用于根据待试图像与各参考图像的图像相似度,从高到低进行排序,从而获得初始排序列表其中,是在初始排序列表中排在第i位的参考图像,N表示初始参考图像集G中参考图像总数量。
本具体实施方式中,还包括基于k邻域分布得分的重排序系统,用于在初始排序列表的基础上,根据k邻域分布得分对初始排序列表中的参考图像进行重新排序,并包括以下功能模块:
扩展查询集生成模块:用于建立待试图像p的扩展查询集Q(p,k),按如下公式:Q(p,k)={p}+N(p,k-1);
参考图像集重生成模块:用于将待试图像p添加到初始参考图像集G中,从而得到新的参考图像集Gnew={p}+G;
临时排序列表生成模块:用于计算以Pnew中各图像依次作为新的待试图像到新的参考图像集Gnew中各参考图像的图像相似度,并根据图像相似度从高到低对新的参考图像集Gnew中各参考图像进行排序,从而对应每个新的待试图像均获得临时排序列表;参考图6所示,对应各新的测试图像新的参考图像集Gnew中各参考图像均得到新排名,图6中I表示来新的自参考图像集Gnew但不属于p的扩展查询集Q(p,k)的图像。
排序位置搜索模块:用于根据Pnew中各新的待试图像所对应的临时排序列表,搜索扩展查询集Q(p,k)中k张图像在各个临时排序列表中的排序位置,排序位置即排序中的序号,排序位置的倒数即为排序位置得分。
其中,扩展查询集Q(p,k)中待试图像p在新的待试图像所对应的临时排序列表中的排序位置为L(p);扩展查询集Q(p,k)中参考图像在新的待试图像所对应的临时排序列表中的排序位置为待试图像p的权重系数为k-1张参考图像的权重系数均为
其中,重叠得分的计算原理参考图7所示:N(p,k)表示待试图像p的最近k领域,即初始排序列表Ω(p,G)中的前k张参考图像组成的图像集;表示新的待试图像的最近k领域,即新的待试图像所对应的临时排序列表中的前k张参考图像组成的图像集;card[·]表示求N(p,k)与相同图像的数量;
其中,var[·]表示方差计算;
k领域分布得分构造模块:用于根据得分计算模块计算出的得分为各个初始排序列表Ω(p,G)中各参考图像按以下任意一种方式构造k领域分布得分Sd:
以位置得分作为k领域分布得分:Sd=Sd-l;
以重叠得分作为k邻域分布得分:Sd=Sd-o;
以位置得分与重叠得分的乘积作为k邻域分布得分:Sd=Sd-l×Sd-o;
以离散得分与重叠得分的乘积作为k邻域分布得分:Sd=Sd-d×Sd-o;
以位置得分、离散得分与重叠得分的乘积作为k邻域分布得分:Sd=Sd-l×Sd-d×Sd-o;
重排序列表生成模块,用于根据初始排序列表Ω(p,G)中各参考图像的k领域分布得分,从高到低,对初始排序列表Ω(p,G)中各参考图像进行重新排序,从而得到基于k邻域分布得分的重排序列表。
重排序效果可参考图8所示:设置k=5;顶端:测试图像p和在初始排序表中前9个样本,其中N1-N2是负样本,P1-P7为正样本。测试图像p的查询扩展集Q(p,5)由p,N1,P1,P2和N2组成,然后设置N1为新的测试图像。中间:图像N1的最近邻域N(N1,5)和Q(p,5)在新的排名表中的5个位置标签,分别是39,1,504,437和47,得出分布和离散得分各为0.141和4.11×10-3。Q(p,5)和N(N1,5)相同图像的数目为1,所以重叠的分为1,三种得分相乘得到最终得分0.58×10-3,利用相同的方法求取其余图像的得分。底端:根据得分高低修改排序表,发现正样本P1,P2,P3,P4和P5在最终的排名表中处于前五的位置。
在两个大型数据集上评估本发明的有益效果:CUHK03和Market1501。
CUHK03由13164张图像组成,一共1467个行人,由两个不同的摄像头收集,包括手动标注的边界框和由可变形部件模型(Deformable Part Model,DPM)检测的边界框,在本文中采用单镜头模式,数据集可分为包含1367人的训练集和100人的测试集,从第二个摄像头选择图像作为测试集,从第一个摄像头视角的图像中每个行人随机选取一张图像组成参考图像集。
Market1501包含来自六个摄像机的1501个行人的32668张图像,它被分成两个部分:来自751个行人的12,936张图像作为训练集和来自750个行人的19,732个图像作为测试集,利用DPM检测边界框。采用与CUHK03数据集类似的测试协议。需要注意的是,一部分训练数据用于训练CNN,另一部分用于优化贡献度反馈模块。
作为识别任务中的重要评价标准,采用累积匹配曲线(Cumulative MatchingCharacteristic,CMC)评价该行人重识别的性能,根据测试图像与参考图像之间的相似度排列排序列表。
1、实现细节
Caffe用于部署CNN,基于MPII人体姿势数据集训练身体分割提取网络,以生成关键点和三个局部身体区域。在训练多流特征提取网络中的五个分类CNN模块时,每幅图像大小缩放为96×96像素,mini-batch size设置为60,每个迭代包括1000个mini-batch size。学习率,冲量和权重衰减分别设置为0.1,0.9和0.0005,模块权重根据随机梯度下降法(Stochastic Gradient Descent,SGD)更新,最终模型在70000次迭代完成时停止并用于测试。对于图像语义分割模块,将训练好的FCNs嵌入到特征提取网络中,mask特征提取模块和全局特征提取模块在网络的前半部分共享权重参数。此外,ROIPooling模块用于获取三个身体局部区域的特征图,并缩放为24×24,然后输入到后续网络进行前向传播,在此工作中,采用softmax分类损失优化CNN并选择欧式距离计算图像之间的相似性和top-n排名算法进行行人重识别。整个实验在硬件平台上实现,配备GeForce GTX 1080 GPU,16GB内存和Intel i7CPU。
2、与主流方法对比
对于CUHK03和Market1501数据集,本文将提出的多流贡献框架(MSCF)和k分布重排序策略(MSCF_RK)与主流方法进行比较,其中包含基于距离度量学习的方法:BoW+Kissme,LOMO+XQDA,WARCA,LDNS和深度学习方法:Gated Siamese,MSCAN,DLPAR,SSM,Spindle和GLAD。对比结果如表1所示,发现本发明提出的行人重识别方法在CUHK03数据集上可以达到91.2%的top-1准确率,优于所有距离度量学习方法,比最佳的深度学习方法高2.7%。特别是在嵌入了重排序策略后,在表1中表示为MSCF_RK,可以获得93.5%的top-1准确率,较不使用重排序方法提高了2.3%。对于Market1501数据集,MSCF可以在不使用重排序策略时达到最佳的82.9%准确率,比表中的最佳方法高0.7%,从该表的底部可以观察到重排序的策略可以带来2.8%的性能提升至85.7%。
表1
3、激活比、贡献系数优化区间和映射关系的确定
如前所述,在优化贡献度反馈模块的过程中,需要进行M次重复实验,M设置为100000,然后记录激活比和贡献系数的值,并计算其在每个分段区间中的分布概率,如表2与表3所示。
表2.CUHK03和Market1501数据集上四种特征在不同激活比区间的分布概率
表3.CUHK03和Market1501数据集上四种特征在不同贡献系数区间的分布概率
在表2中,显示了不同分段区间中四个激活比的分布概率,将阈值设置为5%。通过融合分段区间,可以得出CUHK03数据集上激活比的四个特征的最佳区间为0.3~0.6,0.4~0.7,0.1~0.4和0.8~1,对于数据集Market1501,它们分别为0.3~0.6,0.3~0.7,0.1~0.4和0.7~1。表3说明了不同分段区间内四个贡献系数的分布概率,得出在CUHK03数据集上贡献系数的四个最佳区间分别为0.2~0.6,0.1~0.6,0.1~0.5和0.1~0.4。对于Market1501数据集,最优的区间为0.3~0.8,0.1~0.6,0~0.6和0~0.4。
基于三种局部身体区域特征和无背景图像mask特征的四种激活比与贡献系数映射关系,图9和图10对应于CUHK03和Market1501数据集。
4、评估多流特征距离融合
提出的网络管道是可以学习一个全局特征和四个局部特征多流CNN结构,能够进行多流特征距离融合,本文提出的方法是计算两幅图像间相应特征的欧氏距离,并将该距离与贡献系数相结合,以获得最终距离。
表4.基于CUHK03和Market1501数据集,对不同特征距离的评估
为证明本文特征距离融合策略的有效性,首先比较基于五个独立特征距离的测试结果,实验结果如表4所示,显然所提出的方法优于所有单一特征距离,比表现最佳的全局特征距离高4.8%和4.6%。另外,本文还验证了mask特征的引入可以提高重识别性能,去除mask特征的特征距离融合方法在两个数据集上分别获得了90.3%和82.6%的top-1准确率,比本文MSCF方法分别低0.9%和0.3%,虽然基于mask特征距离的重识别精度较低,只有34.6%和29.3%,但将其与其他特征距离相结合可以得到更好的提升。最后,为证明提出的多特征距离融合方法超出了特征融合的方法,进行了扩展实验,利用一个额外的CNN,以五个256维的特征为输入,生成全新的256维特征,然后计算两幅图像这两个特征之间的欧氏距离。可以分析它可以达到84.6%和77.9%的top-1准确率,与特征距离融合策略相比,在两个数据集上分别下降了6.6%和5%。以上结果证明了本文提出的多流特征距离融合方法的有效性,可以实现更高的重识别性能。
5、评估贡献系数自适应生成模块
前面已经提到,贡献度反馈模块可以根据来自inception结构中的filterconcatenation处理层的特征图生成一组贡献系数,如表5所示。
表5 基于CUHK03和Market1501数据集inception模块中不同处理层生成的贡献系数对重识别性能影响的评估。
优化与否的激活比区间与贡献系数区间之间的不同映射对重识别性能影响的评估,图11和图12分别对应于CUHK03和Market1501数据集。
为证明本发明选择filter concatenation处理层之后的特征图生成贡献系数的合理性,进行了基于其他三个层的对比实验,实验结果如表5所示,“无贡献系数基准线”表示每个特征贡献系数为1。可以发现使用贡献度反馈模块与不使用该模块相比可以在两个数据集上分别增加1%和0.8%的top-1准确率。很明显,利用filter concatenation处理层的特征图生成的贡献系数可以最大程度优化性能,在CUHK03数据集上,与选择其他处理层相比,可以实现1%,0.3%,0.2%的准确率提升,对于Market1501数据集,提升分别为0.8%,0.6%和0.1%,因为这一层融合了更丰富的图像特征信息。
区间优化算法用于将激活比和贡献系数约束在最佳范围。同样进行对比实验验证该方法的有效性,实验结果如图11与图12所示。Full和Opt表示完整区间[0,1]和优化后的区间,“Full-Full”表示将激活比全区间[0,1]映射到贡献系数全区间[0,1],“Full-Opt”表示将激活比全区间[0,1]映射到优化后的贡献系数区间。可以发现“Opt-Opt”的表现超过了其他三种映射。在CUHK03数据集中,Opt-Opt的top-1准确率分别比Full-Full,Full-Opt和Opt-Full高3.4%,0.9%和1.5%,在Market1501数据集上增幅为4.2%,1.3%和1.6%。
6、整体评估基于k领域分布的图像重排序方法
在具体实施方式中,将提出的基于k领域分布的图像重排序方法与其他现有的重排序方法进行比较,将没有使用任何重排序方法的识别性能作为基准线,如表6所示:
表6
重排序方法 | CUHK03 | Market1501 |
基准线 | 91.2 | 82.9 |
CDM | 91.5 | 83.3 |
AQE | 91.3 | 83.1 |
SCA | 92.0 | 83.5 |
k-NN | 91.9 | 83.4 |
k-reciprocal neighbors | 92.1 | 84.1 |
k分布重排序 | 93.5 | 85.7 |
将上下文相异性度量(Contextual Dissimilarity Measure,CDM),平均查询扩展(Average Query Expansion,AQE),稀疏上下文激活(Sparse Contextual Activation,SCA),k-最近邻域重排序(k-Nearest Neighbor re-ranking,k-NN)和k倒数编码(k-reciprocal encoding)与本发明的方法相比较。实验结果如表1所示,结果表明本发明的重排序方法可以实现有效的top-1准确率提高,CUHK03和Market1501数据集的基准线分别为91.2%和82.9%,对应于两个数据集k的值为7和17,用k分布重排序可以获得2.3%和2.8%的提升,可以发现这种策略已经超过了其他方法。
7、评估k领域分布得分的不同构造方式
前面已经提到k分布重排序得分可由三部分组成:位置得分、离散得分和重叠得分,因此这三个独立得分和由其两两组合产生获得另外三个潜在得分:“位置得分×离散得分”、“位置得分×重叠得分”和“离散得分×重叠得分”可以组成六种得分类型。以数据集CUHK03为例,每种得分的实验结果见表7:可以发现包含三部分的得分达到最佳效果,优于其他分数组合,比性能最优的单种类型“重叠得分”和组合类型“离散得分×重叠得分”分别高0.3%和0.6%。值得注意的是,基于“离散得分”的效果较差,只能达到6.7%,与基准线91.2%相比下降较多,但舍弃这项得分后,“位置得分×重叠得分”组合获得了92.6%的top-1准确率,比含有三种分数的组合降低了0.9%。因此,将其与“位置得分”和“重叠得分”相组合以实现不同属性信息的互补并最终获得最佳性能提升。
表7
分数类型 | Top-1 |
位置得分 | 92.9 |
离散得分 | 6.7 |
重叠得分 | 93.2 |
位置得分×离散得分 | 84.9 |
位置得分×重叠得分 | 92.6 |
离散得分×重叠得分 | 92.9 |
位置得分×离散得分×重叠得分 | 93.5 |
8、评估k值的影响
参数影响:在k领域分布得分的图像重排序方法中,k值是可变的,之前呈现的所有图表中,对应于两个数据集取值为k=7和k=17,考虑到每个数据集的组成不同,评估改变k值对重识别性能的影响。如图13与图14所示,发现在两个数据集上当参数k取值在区间[6,14]和[9,23]之内时,性能优于基准线,对于CUHK03,提升为0.8~2.3%,当k=7时,达到最佳的top-1准确率为93.5%,对于Market1501,提升为0.5~2.8%,在k=17时可获得85.7%的最高精度。两个数据集的参考图像集中同一行人平均有9.76和26.3张图像,可见当k的取值是该值的0.6~0.7倍时,提出的重排序策略可以实现较高的重识别性能。此外,当k超过一定阈值后,top-1准确率将逐渐降低,主要是因为较大的参数k将引入更多负样本并增加误差,以至于降低性能并提高计算复杂度。
综上所述,本发明基于行人重识别提出了一种基于特征贡献度的多流贡献框架和一个高效的k分布重排序策略。首先讨论全局特征和局部特征可以应用于行人重识别,因此提出身体分割提取网络(BPEN)来获取身体局部区域并实现身体区域对齐,并在此基础上,提出一种多流贡献框架(MSCF)学习不同层面的行人特征,并将图像语义分割与行人重识别相结合,引入mask特征作为一种全新的局部特征。此外,为融合不同的特征距离,本发明首次提出贡献度的概念,在多流贡献框架(MSCF)中引入贡献度反馈模块,给五个不同特征距离动态分配贡献系数,并且利用分段学习方法来增强系统鲁棒性。大量实验证明,本发明提出的基于身体分割提取网络的多流贡献框架和k分布重排序策略可以独立协同工作,实现行人重识别的性能提升。
Claims (10)
1.一种行人重识别系统,其特征在于:包括用于计算待测图像p与初始参考图像集G中各参考图像的图像相似度的多流特征距离融合系统以及用于根据图像相似度对参考图像进行排序的排序系统;
所述多流特征距离融合系统包括逐级连接的多流特征提取网络、贡献系数自适应生成模块与距离融合模块;
多流特征提取网络包括用于提取输入图像的特征图的特征图提取网络,所述特征图包括全局特征图与n个区域特征图,输入图像包括待测图像p与参考图像;多流特征提取网络还包括用于分别从各特征图中提取相应特征的特征提取网络;多流特征提取网络能够将特征图输出给贡献系数自适应生成模块,并能将提取到的特征输出给距离融合模块;
贡献系数自适应生成模块包括激活比计算模块与用于根据各区域特征图的激活比计算各区域特征的贡献系数的贡献度映射模块;所述激活比是指区域特征图上的非零值点的数量与全局特征图上的非零值点的数量的比率;所述贡献系数是指全局特征或区域特征对融合距离的贡献程度;全局特征贡献系数恒为1;
距离融合模块用于根据待测图像p的各特征与参考图像的各特征计算相应特征之间的特征距离,并利用各特征的贡献系数将各特征距离融合成多流特征距离;然后采用多流特征距离作为图像相似度指标:多流特征距离越小,图像相似度越高,多流特征距离越大,图像相似度越低。
2.根据权利要求1所述的行人重识别系统,其特征在于:所述特征图提取网络包括用于在输入图像上分割出n-1个局部区域的区域分割网络、用于去除输入图像的背景的语义分割模块、用于提取输入图像的全局特征图的全局特征图提取网络以及用于根据区域分割网络所分割出的各局部区域在全局特征图上提取出相应区域特征图的池化模块;输入图像经语义分割模块去除背景后作为第n个区域特征图。
3.根据权利要求2所述的行人重识别系统,其特征在于:所述区域分割网络为身体分割提取网络。
6.根据权利要求5所述的行人重识别系统,其特征在于:距离融合模块按如下公式计算多流特征距离R:
R=Cg.dg(Ip,Ig)+C1.d1(Ip,Ig)+......+Cn.dn(Ip,Ig)
其中,Cg表示全局特征贡献系数;C1,....,Cn分别为与各区域特征对应的区域特征贡献系数;dg(Ip,Ig)表示待测图像的全局特征与参考图像的全局特征的特征距离,即欧氏距离;d1(Ip,Ig)......dn(Ip,Ig)分别表示待测图像的各区域特征到参考图像的各对应区域特征的欧氏距离。
7.根据权利要求5所述的行人重识别系统,其特征在于:激活比取值区间采用激活比优化区间,以对激活比进行约束;贡献系数取值区间采用贡献系数优化区间,以对贡献系数进行约束;当激活比计算模块计算出的激活比在激活比优化区间外时,通过所述映射函数就能将激活比所对应的贡献系数映射到贡献系数优化区间内。
8.根据权利要求1所述的行人重识别系统,其特征在于:所述排序系统包括初始排序列表生成模块:用于根据待试图像与各参考图像的图像相似度,从高到低进行排序,从而获得初始排序列表其中,是在初始排序列表中排在第i位的参考图像,N表示初始参考图像集G中参考图像总数量;
还包括基于k邻域分布得分的重排序系统,用于在初始排序列表的基础上,根据k邻域分布得分对初始排序列表中的参考图像进行重新排序,并包括以下功能模块:
扩展查询集生成模块:用于建立待试图像p的扩展查询集Q(p,k),按如下公式:Q(p,k)={p}+N(p,k-1);
参考图像集重生成模块:用于将待试图像p添加到初始参考图像集G中,从而得到新的参考图像集Gnew={p}+G;
临时排序列表生成模块:用于计算以Pnew中各图像依次作为新的待试图像到新的参考图像集Gnew中各参考图像的图像相似度,并根据图像相似度从高到低对新的参考图像集Gnew中各参考图像进行排序,从而对应每个新的待试图像均获得临时排序列表;
排序位置搜索模块:用于根据Pnew中各新的待试图像所对应的临时排序列表,搜索扩展查询集Q(p,k)中k张图像在各个临时排序列表中的排序位置L;
其中,扩展查询集Q(p,k)中待试图像p在新的待试图像所对应的临时排序列表中的排序位置为L(p);扩展查询集Q(p,k)中参考图像在新的待试图像所对应的临时排序列表中的排序位置为待试图像p的权重系数为k-1张参考图像的权重系数均为
其中,N(p,k)表示待试图像p的最近k领域,即初始排序列表Ω(p,G)中的前k张参考图像组成的图像集;表示新的待试图像的最近k领域,即新的待试图像所对应的临时排序列表中的前k张参考图像组成的图像集;card[·]表示求N(p,k)与相同图像的数量;
其中,var[·]表示方差计算;
k领域分布得分构造模块:用于根据得分计算模块计算出的得分为各个初始排序列表Ω(p,G)中各参考图像按以下任意一种方式构造k领域分布得分Sd:
以位置得分作为k领域分布得分:Sd=Sd-l;
以重叠得分作为k邻域分布得分:Sd=Sd-o;
以位置得分与重叠得分的乘积作为k邻域分布得分:Sd=Sd-l×Sd-o;
以离散得分与重叠得分的乘积作为k邻域分布得分:Sd=Sd-d×Sd-o;
以位置得分、离散得分与重叠得分的乘积作为k邻域分布得分:Sd=Sd-l×Sd-d×Sd-o;
重排序列表生成模块,用于根据初始排序列表Ω(p,G)中各参考图像的k领域分布得分,从高到低,对初始排序列表Ω(p,G)中各参考图像进行重新排序,从而得到基于k邻域分布得分的重排序列表。
9.根据权利要求8所述的行人重识别系统,其特征在于:k值根据初始参考图像集G中同一目标对象所拥有的平均参考图像数量n进行确定,k的取值区间为[0.6n,0.7n]。
10.一种行人重识别方法,其特征在于:采用权利要求8或9所述的行人重识别系统,包括以下步骤:
步骤1:输入待测图像至多流特征提取网络,通过特征图提取网络提取待测图像的全局特征图与n个区域特征图;特征提取网络分别根据待测图像的全局特征图与n个区域特征图提取待测图像的全局特征与n个区域特征;并将待测图像的全局特征图与n个区域特征图发送给贡献度自适应模块,将待测图像的全局特征与n个区域特征发送给距离融合模块;
步骤2:激活比计算模块根据待试图像的全局特征图与n个区域特征图,计算待测图像的各个区域特征图的激活比;
步骤3:贡献度映射模块根据待测图像的各个区域特征图的激活比计算各区域特征的贡献系数;
步骤4:将初始参考图像集G中各参考图像依次输入至多流特征提取网络,通过特征图提取网络依次提取各参考图像的全局特征图与n个区域特征图;特征提取网络分别根据各参考图像的全局特征图与n个区域特征图提取各参考图像的全局特征与n个区域特征;并依次将各参考图像的全局特征与n个区域特征发送给距离融合模块;
步骤5:距离融合模块依次计算待测图像与各参考图像的各种特征距离;
步骤6:距离融合模块获取待测图像的各特征的贡献系数,利用各特征的贡献系数依次将各参考图像与待测图像之间的各种特征距离融合成多流特征距离,使得每幅参考图像均对应一个多流特征距离;然后以多流特征距离作为图像相似度指标,并发送给排序系统;
步骤8:建立待试图像p的扩展查询集Q(p,k),按如下公式:
Q(p,k)={p}+N(p,k-1);
步骤10:将待试图像p添加到初始参考图像集G中,从而得到新的参考图像集Gnew={p}+G;
步骤11:遍历新的待试图像集Pnew,计算以Pnew中各图像依次作为新的待试图像到新的参考图像集Gnew中各参考图像的相似度,并根据相似度从高到低对新的参考图像集Gnew中各参考图像进行排序,从而对应每个新的待试图像均获得临时排序列表;
步骤12:根据各新的待试图像所对应的临时排序列表,搜索扩展查询集Q(p,k)中k张图像在各个临时排序列表中的排序位置L;
步骤13:计算初始排序列表Ω(p,G)中各参考图像的以下得分:位置得分Sd-l、重叠得分Sd-o以及离散得分Sd-d;
步骤14:构造各个初始排序列表Ω(p,G)中各参考图像的k领域分布得分Sd,按以下任意一种方式:
以位置得分作为k领域分布得分:Sd=Sd-l;
以重叠得分作为k邻域分布得分:Sd=Sd-o;
以位置得分与重叠得分的乘积作为k邻域分布得分:Sd=Sd-l×Sd-o;
以离散得分与重叠得分的乘积作为k邻域分布得分:Sd=Sd-d×Sd-o;
以位置得分、离散得分与重叠得分的乘积作为k邻域分布得分:Sd=Sd-l×Sd-d×Sd-o;
步骤15:根据初始排序列表Ω(p,G)中各参考图像的k领域分布得分,从高到低,对初始排序列表Ω(p,G)中各参考图像进行重新排序,从而得到基于k邻域分布得分的重排序列表;
步骤16:以重排序列表中前k张参考图像作为与待测图像具有同一行人的目标图像,从而完成行人重识别。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910009061.7A CN109740541B (zh) | 2019-01-04 | 2019-01-04 | 一种行人重识别系统与方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910009061.7A CN109740541B (zh) | 2019-01-04 | 2019-01-04 | 一种行人重识别系统与方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109740541A CN109740541A (zh) | 2019-05-10 |
CN109740541B true CN109740541B (zh) | 2020-08-04 |
Family
ID=66363512
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910009061.7A Active CN109740541B (zh) | 2019-01-04 | 2019-01-04 | 一种行人重识别系统与方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109740541B (zh) |
Families Citing this family (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109740672B (zh) * | 2019-01-04 | 2020-08-04 | 重庆大学 | 多流特征距离融合系统与融合方法 |
CN112149470B (zh) * | 2019-06-28 | 2023-09-05 | 杭州海康威视数字技术股份有限公司 | 一种行人重识别方法和装置 |
CN112766021A (zh) * | 2019-11-04 | 2021-05-07 | 广东毓秀科技有限公司 | 一种基于行人的关键点信息与语义分割信息进行行人重识别的方法 |
CN110852276B (zh) * | 2019-11-12 | 2022-07-01 | 杭州云栖智慧视通科技有限公司 | 一种基于多任务深度学习的行人再识别方法 |
CN111260577B (zh) * | 2020-01-15 | 2023-04-18 | 哈尔滨工业大学 | 基于多引导图和自适应特征融合的人脸图像复原系统 |
CN111401265B (zh) * | 2020-03-19 | 2020-12-25 | 重庆紫光华山智安科技有限公司 | 行人重识别方法、装置、电子设备和计算机可读存储介质 |
CN111709906A (zh) * | 2020-04-13 | 2020-09-25 | 北京深睿博联科技有限责任公司 | 医学图像的质量评估方法和装置 |
CN112541453A (zh) * | 2020-12-18 | 2021-03-23 | 广州丰石科技有限公司 | 一种行李重识别模型训练及行李重识别方法 |
CN113158732A (zh) * | 2020-12-31 | 2021-07-23 | 深圳市商汤科技有限公司 | 图像处理方法及相关装置 |
CN113095263B (zh) * | 2021-04-21 | 2024-02-20 | 中国矿业大学 | 遮挡下行人重识别模型训练方法、装置及遮挡下行人重识别方法、装置 |
CN113408356A (zh) * | 2021-05-21 | 2021-09-17 | 深圳市广电信义科技有限公司 | 基于深度学习的行人重识别方法、装置、设备及存储介质 |
CN113221922B (zh) * | 2021-05-31 | 2023-02-03 | 深圳市商汤科技有限公司 | 图像处理方法及相关装置 |
CN113378729B (zh) * | 2021-06-16 | 2024-05-10 | 西安理工大学 | 一种基于位姿嵌入的多尺度卷积特征融合行人重识别方法 |
CN113553975B (zh) * | 2021-07-29 | 2023-04-07 | 西安交通大学 | 基于样本对关系蒸馏的行人重识别方法、系统、设备及介质 |
CN115050048B (zh) * | 2022-05-25 | 2023-04-18 | 杭州像素元科技有限公司 | 一种基于局部细节特征的跨模态行人重识别方法 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8762390B2 (en) * | 2011-11-21 | 2014-06-24 | Nec Laboratories America, Inc. | Query specific fusion for image retrieval |
CN106250915A (zh) * | 2016-07-22 | 2016-12-21 | 福州大学 | 一种融合深度特征和语义邻域的自动图像标注方法 |
CN108664951A (zh) * | 2018-05-22 | 2018-10-16 | 南京邮电大学 | 基于颜色名特征的行人重识别方法 |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9396412B2 (en) * | 2012-06-21 | 2016-07-19 | Siemens Aktiengesellschaft | Machine-learnt person re-identification |
CN103793721B (zh) * | 2014-03-04 | 2017-05-10 | 武汉大学 | 一种基于区域相关反馈的行人重识别方法及系统 |
CN105354548B (zh) * | 2015-10-30 | 2018-10-26 | 武汉大学 | 一种基于ImageNet检索的监控视频行人重识别方法 |
CN108229468B (zh) * | 2017-06-28 | 2020-02-21 | 北京市商汤科技开发有限公司 | 车辆外观特征识别及车辆检索方法、装置、存储介质、电子设备 |
CN107944238A (zh) * | 2017-11-15 | 2018-04-20 | 中移在线服务有限公司 | 身份认证方法、服务器和系统 |
-
2019
- 2019-01-04 CN CN201910009061.7A patent/CN109740541B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8762390B2 (en) * | 2011-11-21 | 2014-06-24 | Nec Laboratories America, Inc. | Query specific fusion for image retrieval |
CN106250915A (zh) * | 2016-07-22 | 2016-12-21 | 福州大学 | 一种融合深度特征和语义邻域的自动图像标注方法 |
CN108664951A (zh) * | 2018-05-22 | 2018-10-16 | 南京邮电大学 | 基于颜色名特征的行人重识别方法 |
Also Published As
Publication number | Publication date |
---|---|
CN109740541A (zh) | 2019-05-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109740541B (zh) | 一种行人重识别系统与方法 | |
CN110851645B (zh) | 一种基于深度度量学习下相似性保持的图像检索方法 | |
CN107515895B (zh) | 一种基于目标检测的视觉目标检索方法与系统 | |
CN106778604B (zh) | 基于匹配卷积神经网络的行人再识别方法 | |
CN105844669B (zh) | 一种基于局部哈希特征的视频目标实时跟踪方法 | |
CN103810299B (zh) | 基于多特征融合的图像检索方法 | |
CN109325471B (zh) | 一种结合表观特征和时空分布的双流网络行人重识别方法 | |
CN107315795B (zh) | 联合特定人物和场景的视频实例检索方法及系统 | |
CN109740672B (zh) | 多流特征距离融合系统与融合方法 | |
CN109063649B (zh) | 基于孪生行人对齐残差网络的行人重识别方法 | |
CN110852168A (zh) | 基于神经架构搜索的行人重识别模型构建方法及装置 | |
CN107577990A (zh) | 一种基于gpu加速检索的大规模人脸识别方法 | |
CN109740679B (zh) | 一种基于卷积神经网络和朴素贝叶斯的目标识别方法 | |
CN109784197B (zh) | 基于孔洞卷积与注意力学习机制的行人再识别方法 | |
CN107424161B (zh) | 一种由粗至精的室内场景图像布局估计方法 | |
CN110866134B (zh) | 一种面向图像检索的分布一致性保持度量学习方法 | |
CN112818790A (zh) | 一种基于注意力机制与空间几何约束的行人重识别方法 | |
WO2021036028A1 (zh) | 图像特征提取及网络的训练方法、装置和设备 | |
CN104462550A (zh) | 基于相似性和不相似性融合排序优化的行人重识别方法 | |
CN116052218B (zh) | 一种行人重识别方法 | |
CN108229435A (zh) | 一种用于行人识别的方法 | |
CN110443174A (zh) | 一种基于解耦自适应判别性特征学习的行人重识别方法 | |
CN115375672A (zh) | 一种基于改进型YOLOv4算法的煤矸检测方法 | |
CN107451617B (zh) | 一种图转导半监督分类方法 | |
CN114782997A (zh) | 基于多损失注意力自适应网络的行人重识别方法及系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |