CN114005096B - 基于特征增强的车辆重识别方法 - Google Patents
基于特征增强的车辆重识别方法 Download PDFInfo
- Publication number
- CN114005096B CN114005096B CN202111317650.5A CN202111317650A CN114005096B CN 114005096 B CN114005096 B CN 114005096B CN 202111317650 A CN202111317650 A CN 202111317650A CN 114005096 B CN114005096 B CN 114005096B
- Authority
- CN
- China
- Prior art keywords
- network
- features
- attention
- vehicle
- feature
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 96
- 230000008569 process Effects 0.000 claims abstract description 23
- 238000012549 training Methods 0.000 claims description 51
- 230000006870 function Effects 0.000 claims description 34
- 239000013598 vector Substances 0.000 claims description 33
- 238000011176 pooling Methods 0.000 claims description 23
- 230000003044 adaptive effect Effects 0.000 claims description 22
- 238000013140 knowledge distillation Methods 0.000 claims description 20
- 238000004821 distillation Methods 0.000 claims description 15
- 230000004913 activation Effects 0.000 claims description 9
- 238000007781 pre-processing Methods 0.000 claims description 8
- 238000013507 mapping Methods 0.000 claims description 6
- 230000009467 reduction Effects 0.000 claims description 5
- 238000010606 normalization Methods 0.000 claims description 3
- NAWXUBYGYWOOIX-SFHVURJKSA-N (2s)-2-[[4-[2-(2,4-diaminoquinazolin-6-yl)ethyl]benzoyl]amino]-4-methylidenepentanedioic acid Chemical compound C1=CC2=NC(N)=NC(N)=C2C=C1CCC1=CC=C(C(=O)N[C@@H](CC(=C)C(O)=O)C(O)=O)C=C1 NAWXUBYGYWOOIX-SFHVURJKSA-N 0.000 claims 1
- 238000000638 solvent extraction Methods 0.000 claims 1
- 230000008859 change Effects 0.000 abstract description 8
- 238000005286 illumination Methods 0.000 abstract description 8
- 230000007613 environmental effect Effects 0.000 abstract description 2
- 238000012360 testing method Methods 0.000 description 18
- 238000012544 monitoring process Methods 0.000 description 12
- 239000000284 extract Substances 0.000 description 9
- 102100040160 Rabankyrin-5 Human genes 0.000 description 7
- 101710086049 Rabankyrin-5 Proteins 0.000 description 7
- 238000000605 extraction Methods 0.000 description 7
- 238000013459 approach Methods 0.000 description 4
- 238000010586 diagram Methods 0.000 description 4
- 230000000694 effects Effects 0.000 description 4
- 238000006243 chemical reaction Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 230000008901 benefit Effects 0.000 description 2
- 238000010276 construction Methods 0.000 description 2
- 238000011840 criminal investigation Methods 0.000 description 2
- 230000007547 defect Effects 0.000 description 2
- 230000008034 disappearance Effects 0.000 description 2
- 230000002708 enhancing effect Effects 0.000 description 2
- 238000011156 evaluation Methods 0.000 description 2
- 238000002474 experimental method Methods 0.000 description 2
- 230000004927 fusion Effects 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- 238000005457 optimization Methods 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 230000000452 restraining effect Effects 0.000 description 2
- 238000012935 Averaging Methods 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 239000000969 carrier Substances 0.000 description 1
- 230000015556 catabolic process Effects 0.000 description 1
- 238000012512 characterization method Methods 0.000 description 1
- 230000002860 competitive effect Effects 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000006731 degradation reaction Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000010998 test method Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/253—Fusion techniques of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/048—Activation functions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/082—Learning methods modifying the architecture, e.g. adding, deleting or silencing nodes or connections
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Software Systems (AREA)
- Mathematical Physics (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Computing Systems (AREA)
- Molecular Biology (AREA)
- General Health & Medical Sciences (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Analysis (AREA)
Abstract
本发明为基于特征增强的车辆重识别方法,该方法以构建具有空间注意力引导的自适应特征擦除模块和多感受野残差注意力模块的基于多注意力引导的特征增强网络,通过多感受野残差注意力在不同大小的感受野下帮助主干网络获得丰富的车辆外观特征,利用空间注意力引导的自适应特征擦除模块有选择性的擦除车辆最显著特征,使多注意力引导的特征增强网络的局部分支能够挖掘潜在局部特征,融合全局分支的全局特征和擦除分支的潜在局部特征完成车辆重识别过程。本发明方法不仅能够克服复杂的环境变化,如光照剧烈变化、障碍物遮挡而造成局部显著信息丢失的问题,而且能够满足在安全监管、智能交通系统中高效、快速的查找目标车辆的需求。
Description
技术领域:
本发明涉及用于识别图形的记录载体的处理技术领域,具体地说是基于特征增强的车辆重识别方法,更优选地是将特征增强与知识蒸馏相结合的车辆重识别方法。
背景技术:
车辆重识别可以视为实例级对象搜索任务。与传统的车辆检测问题不同,车辆重识别问题是指在一个特定范围内的交通监控场景下,判断非重叠区域内拍摄的车辆图像是否属于同一辆车的检索问题。目前,国内外在交通发达的区域都安装了监控摄像头,如何更好地利用监控摄像头进行交通监管和刑侦,构建一个安全完善的智能监控系统系统,是一个非常值得研究的问题。随着深度神经网络的兴起和人工智能的快速发展,车辆重识别技术因其能够定位目标车辆而被广泛应用到城市智能监控领域。因此,提升车辆重识别的准确性成为近年来计算机视觉和多媒体领域的研究热点。
常见的车辆重识别方法主要利用多模态数据(例如,车型、颜色、车牌和时空信息等)和全局-局部特征相结合的形式来提高网络提取特征的能力。CN112560932A公开了一种基于双分支网络融合的车辆重识别方法,通过双分支网络提取全局和局部特征,并加入批处理擦除策略,突出了车辆图像的类内相似性和类间差异性,提高了车辆重识别检索的效率和精确性。但是该发明中的批处理擦除策略只能随机的对车辆特征进行擦除并未有选择性的擦除显著特征,会在车辆重识别过程中产生次优的结果。同时,未考虑车辆重识别任务在实际应用中由于网络过于复杂而造成效率不高、实时性差,无法满足交通监管和刑侦领域需求的问题。
本发明方法通过构建基于多注意力引导的特征增强网络,能够提取丰富的全局特征和潜在局部特征,能够解决车辆重识别任务在真实场景下容易受到图像模糊、视图转换以及光照变化而造成关键信息被忽视的问题,同时为了满足在安全监管、智能交通系统中高效、快速的查找目标车辆的需求,使用知识蒸馏方法减少网络参数量,降低网络的复杂度,提高车辆重识别的效率。
发明内容:
针对现有技术的不足,本发明所要解决的技术问题是:提供一种基于特征增强的车辆重识别方法。该方法以构建具有空间注意力引导的自适应特征擦除模块和多感受野残差注意力模块的基于多注意力引导的特征增强网络,通过多感受野残差注意力在不同大小的感受野下帮助主干网络获得丰富的车辆外观特征,利用空间注意力引导的自适应特征擦除模块有选择性的擦除车辆最显著特征,使多注意力引导的特征增强网络的局部分支能够挖掘潜在局部特征,最后,融合全局分支的全局特征向量和擦除分支的潜在局部特征向量完成车辆重识别过程。更优地,将带有四损失函数知识蒸馏方式引入,基于多注意力引导的特征增强网络作为教师网络,利用带有四损失函数的知识蒸馏方法将复杂的教师网络的知识转移到轻量的学生网络,使学生网络在保证重识别性能的前提下,网络参数量、测试效率得到有效的提升。本发明方法不仅能够克服复杂的环境变化,如光照剧烈变化、障碍物遮挡而造成局部显著信息丢失的问题,而且能够满足在安全监管、智能交通系统中高效、快速的查找目标车辆的需求,通过知识蒸馏方法对特征增强车辆重识别网络进行处理,使网络更加轻量、高效。
本发明解决该技术问题所采用的技术方案是:
一种基于特征增强的车辆重识别方法,该方法包括以下内容:
获取车辆图像,经预处理后获得训练集、查询集和图库集;在测试阶段,重识别时在查询集中每次选择一张图像,在图库集中寻找匹配的车辆图像;
构建基于多注意力引导的特征增强网络:该特征增强网络包括ResNet-50主干网络,在主干网络的最后四层的相邻层之间均引入多感受野残差注意力模块,主干网络最后一层的输出分别进入两个分支:全局分支和局部分支;
所述局部分支引入空间注意力引导的自适应擦除模块,所述空间注意力引导的自适应擦除模块也包括两个分支,分别为擦除剩余分支和多感受野分支;
擦除剩余分支利用空间注意力去定位高级语义特征中最显著的特征区域,并设置函数自动在通道、高度、宽度三个维度上寻找特征中的最大像素值,设置擦除概率,利用空间注意力定位的最显著的特征区域的最大像素值进行乘法计算擦除阈值,并将大于擦除阈值的像素值设置为0,小于擦除阈值的像素值设置为1得到二进制擦除掩膜,通过与主干网络在最后一层输出的高级语义特征进行元素相乘得到了擦除高级语义特征中最显著特征后的剩余特征;
多感受野分支直接由主干网络在最后一层输出连接一个多感受野残差注意力模块组成;
在基于多注意力引导的特征增强网络的下次分类时以等概率随机选择经过空间注意力引导的自适应特征擦除模块后得到的剩余特征或者经过多感受野残差注意力模块所提取的多感受野残差特征,捕捉和提取车辆的潜在局部特征;
所述多感受野残差注意力模块用于通过不同大小的感受野,学习不同层次的特征;
融合全局分支的全局特征和局部分支的潜在局部特征获得增强特征向量,完成车辆重识别过程。
车辆图像预处理的过程包括对在道路监控系统中采集的车辆图像进行裁剪、翻转等预处理。构建基于多注意力引导的特征增强网络,利用多感受野残差注意力模块在不同的感受野下提取更多的车辆外观特征。通过空间注意力定位具有最显著性特征区域并进行特征擦除来捕捉和提取车辆的潜在局部特征。
所述多感受野残差注意力模块包括四个感受野不同的分支,第一个分支的卷积核大小为1×1、第二个分支的卷积核大小为3×3,第三个分支使用两个卷积核大小为3×3的卷积串联形成与5×5卷积核相同的感受野,第四个分支使用三个卷积核大小为3×3的卷积串联形成与7×7卷积核相同的感受野;四个分支得到四个不同的子特征,四个子特征拼接后再利用3×3的卷积得到与原始特征具有相同维度、相同尺寸的多感受野特征,最后使用Sigmoid函数将多感受野特征归一化到(0,1)区间得到多感受野注意力特征,将多感受野残差注意力模块的原始输入特征与多感受野注意力特征相乘,得到最终多感受野残差特征。
该车辆重识别方法,以基于多注意力引导的特征增强网络作为教师网络,并设计一种类似于教师网络结构的、轻量的双分支网络作为学生网络,然后,使用四个损失函数来指导和监督学生网络,四个损失函数分别为交叉熵损失、三元组损失、蒸馏损失、相似度损失,学生网络不仅能够学习到教师网络的特征分布,而且能够让学生网络自主的学习与教师网络不同的车辆的特征。
具体地,本发明基于特征增强与知识蒸馏的车辆重识别方法,具体步骤如下:
第一步,车辆图像预处理:
首先,将在不同摄像头下采集的原始图像集X={x1,x2,…,xm}划分为训练集T={x1,x2,…,xt;t<m}、查询集Q={xt+1,…,xq;t<q<m}、图库集G={xq+1,…,xm;q<g≤m}。其中,xi代表每一张原始车辆图像,车辆重识别数据集的划分是随机的,i∈[1,m]仅代表每一张图像的下标,t,q,g分别代表训练集、查询集、图库集中最后一张图像的下标,没有特殊的排序。训练集T的分类标签定义为YT={y1,y2,…,yN}。其中,yi代表训练集中车辆图像的标签,N代表训练集中有N种不同的车辆。然后,在训练阶段对训练集T中的车辆图像采用双线性内插法,将图像尺寸从原始大小转化为[256,256]并按照概率P=0.5进行随机水平翻转。最后,根据公式(1),按照ImageNet数据集标准的RGB模式均值和方差将车辆图像归一化并转化为tensor张量。
其中,均值mean=[0.485,0.456,0.406],方差std=[0.229,0.224,0.225],Xp表示原车辆图像像素值,Y表示归一化后的像素值。
第二步,构建基于多注意力引导的特征增强网络:
第2.1步,主干网络:
采用ResNet-50作为主干网络,ResNet-50网络共包含5层,分别定义为(stage0~4)。其中,stage1~stage4每层包含多个Bottleneck(ResNet-50网络的stage1包含3个Bottleneck,stage2包含4个Bottleneck,stage3包含6个Bottleneck,stage4包含3个Bottleneck)。在ResNet-50的stage4中将最后一个卷积层的步长设置为1来提高车辆特征的分辨率,保留更多的特征信息。根据主干网络预测的特征映射,在全局分支使用全局平均池化层将特征映射转化为全局特征向量,局部分支使用GeM池化将特征映射转化为局部特征向量。然后,全局分支和局部分支分别利用两个全连接层(FC-2048、FC-512)将特征向量从2048维编码到512维再到固定维。
第2.2步,构建多感受野残差注意力模块:
车辆重识别中的大部分注意力是基于空间和通道的软注意力,这种注意力的优点是确定性且可微的注意力。但是,基于空间和通道的注意力都只增加了网络的深度,在网络宽度上没有提高。而网络宽度的提高往往能够让网络学习到更加丰富的特征(例如,不同的视角,不同的纹理等)。因此,本发明使用带有四个不同卷积核大小(1×1、3×3、5×5、7×7)的多感受野残差注意力,能够通过不同大小的感受野,学习不同层次的特征。然后,在通道维度对不同的特征进行融合。最后,使用残差注意力的思想以防止出现梯度消失的情况。为了进一步减少网络参数的数量,分别用两个和三个较小的3×3卷积核来代替5×5和7×7的卷积核。
具体来说,原始输入特征利用四个并行的1×1卷积在通道维度上降维为四个相同尺寸的不同特征/>a=1,2,3,4,其中C、H、W分别表示通道、高度和宽度。然后,每个特征Ia(1×1的卷积核分支除外)在经过不同大小的卷积核(1×1、3×3、5×5、7×7)进行卷积操作,得到不同感受野下的四个子特征/>对于每个卷积核,都有合适的填充和ReLU激活函数,以保证特征空间维度的不变性和网络的非线性能力,如公式(2)所示。
其中,δ(·)代表ReLU函数,W1×1和W3×3分别表示1×1和3×3的卷积核权重。
然后,通过在通道维度上对得到的四个不同的子特征F1、F2、F3、进行拼接,再利用3×3的卷积得到与原始特征具有相同的维度、相同尺寸的多感受野特征/> 如公式(3)所示:
Z=δ(W3×3·(F1;F2;F3;F4)) (3)
其中,δ(·)代表激活函数ReLU,W3×3表示3×3卷积核的权重。
最后,通过使用Sigmoid函数将多感受野特征归一化到(0,1)区间得到多感受野注意力/>利用残差的思想让原始特征/>与多感受野注意力/> 相乘,得到最终多感受野残差特征。
第2.3步,空间注意力引导的自适应擦除模块:
通过在主干网络中添加多感受野残差注意力模块,经过全局平均池化后网络已经能够在车辆重识别的过程捕获到判别性特征。然而,在一些具有挑战性的场景中,由于相似车辆或者出现遮挡、光照变化等情况的影响,往往需要让的网络关注潜在的局部显著特征。因此,在训练过程中,首先通过将在主干网络中提取的高级语义特征作为输入,利用空间注意力定位高级语义特征中最显著的特征区域。然后,选择适当的擦除概率,利用空间注意力中最显著区域的最大像素值进行乘法计算擦除阈值并将大于擦除阈值的像素值设置为0,小于擦除阈值的像素值设置为1得到二进制擦除掩膜,再进行特征擦除得到剩余特征完成车辆重识别任务。擦除操作将主干网络提取的高级语义特征中最显著特征擦除,提取新的次显著特征并利用次显著特征进行下一步车辆图像分类。同时,为了避免最显著特征消失导致的特征增强网络提取特征的能力下降,通过引入多感受野残差注意力模块,将主干网络stage4阶段的输出特征以等概率随机选择的方式输入到多感受野残差注意力模块或者空间注意力引导的特征擦除模块其中之一并进行下一步车辆图像分类,来提高车辆重识别网络提取鲁棒性特征的能力。
空间注意力引导的自适应擦除模块就是将从主干网提取的高级语义特征作为输入,其中,高级语义特征代表经过若干次卷积后提取的抽象的、有利于分类任务的特征。然后,通过使用最大池化Pmax和平均池化Pavg在通道维度上将原始特征的维度分别降至1得到/>并将池化结果在通道维度上进行拼接,再使用3×3的卷积降维至1来得到空间注意力。最后,使用Sigmoid函数将特征归一化到(0,1)区间得到空间注意力/> 如公式(4)-(6)所示:
SA=σ(W3×3·(Smax;Savg)) (6)
其中,W3×3表示3×3卷积核的权重,σ(·)代表激活函数Sigmoid。c,h,w表示高级语义特征S中像素点的索引。表示在通道维度上得到特征中的最大值。/>表示在通道维度上得到特征的平均值。然后,通过公式(7)计算擦除阈值τ。
τ=α·max(SA(c,h,w)) (7)
其中,α是一个超参数,代表擦除的概率。max(·)表示得到特征中最大的像素值。然后,通过擦除阈值τ,将空间注意力中大于擦除阈值τ的值设置为0,小于擦除阈值τ的值设置为1来生成二进制擦除掩码/>
在获得二进制擦除掩码后,通过与主干网在stage4阶段提取的高级语义特征S进行元素相乘得到了擦除高级语义特征中最显著特征后的剩余特征。因此,网络被强制要求更多地关注潜在的重要局部特征。然而,如果训练过程的每次迭代中都应用二进制擦除掩码,擦除分支会因为无法提取最具辨别力的局部特征使网络的特征提取能力下降。这种方式得到的车辆重识别结果是次优的。因此,为了克服基于多注意力引导的特征增强网络提取特征能力下降问题,通过引入多感受野残差注意力模块,并在多注意力引导的特征增强网络的下次分类时以等概率随机选择多感受野残差注意力模块或者空间注意力引导的自适应特征擦除模块,使网络能够在辨别线索不明确的实际情况下捕捉和提取车辆的潜在局部特征。
第三步,构建知识蒸馏方法:
考虑到车辆重识别在真实场景下构建智能交通、城市监控系统中快速定位和跟踪可疑车辆的重要性,除了要考虑车辆重识别的准确性,还需要考虑车辆重识别的效率问题。因此,提出了一种知识蒸馏方法。通过将特征增强网络作为教师网络,并使用一种类似于教师网络结构的、轻量的双分支网络作为学生网络。然后,使用四个损失函数(交叉熵损失、三元组损失、蒸馏损失、相似度损失)来指导和监督学生网络。学生网络同样采用ResNet-50作为主干网络,通过复制ResNet-50的stage4结构,然后并行添加到ResNet-50中stage4阶段构建下分支,达到类似于教师网络结构的目的。
具体来说,蒸馏损失能够让学生网络的预测结果更加接近教师网络的预测结果,如公式(9)所示。
其中,yter=softmax(qter/tp),ystu=softmax(qstu/tp),分别代表教师网络和学生网络的预测概率。qter和qstu代表教师网络和学生网络在网络深层中经过全连接层后的输出特征。tp表示温度,tp越高,网络的预测结果越趋于平滑,网络训练将更加关注负标签。
相似度损失能够让学生网络的特征分布与教师网络的特征分布相似,如公式(10)所示。
其中,表示教师网络在stage4阶段之后提取的高级语义特征,/>表示学生网络在stage4阶段之后提取的高级语义特征。t表示车辆训练集图像的数量。/>表示计算训练集图像损失之和。||·||1表示L1范数。
交叉熵损失和三元组损失能够让学生网络自主的去学习车辆的特征表示。交叉熵损失如公式(11)所示:
其中,i∈{0,…,t-1}是训练集中图像的索引,n∈{0,…,N-1}是N个类的索引。qi,n是输出向量中第i个样本的第n个值,即第i个样本属于第n个类的概率。pi,n是一个平滑的标签,如公式(12)所示。
其中,ε∈[0,1]是一个超参数。yn∈YT是第i个样本的标签。此外,三元组损失如公式(13)所示。
其中,分别表示目标样本、正样本、负样本,β是控制到目标样本的正样本和负样本之间的距离余量。||·||2表示L2范数。
最终,学生网络不仅能够学习到教师网络的特征分布,而且能够让学生网络自主的学习与教师网络不同的车辆的特征。学生网络在保证准确率的情况下,提高了车辆重识别的效率。
与现有技术相比,本发明的有益效果是:
本发明的显著进步如下:
本发明提出了基于多注意力引导的特征增强网络,在不引入其它属性标签且不需要人工标注零件标签的情况下能够提取具有更好的判别性和鲁棒性的车辆增强特征。本发明通过在以ResNet50为主干网络中添加多感受野残差注意力模块,利用不同大小的感受野来帮助网络在不同尺度下获得更多、更具有代表性的车辆外观特征。然后,通过空间注意力引导的自适应特征擦除模块,利用空间注意力定位具有最显著性特征区域,对原始特征中的最显著特征区域进行特征擦除。定位最显著车辆局部后,选择局部最大像素值,并利用一个擦除概率与最大像素值相乘得到擦除阈值,由于最大像素值会随着最显著区域的变化而变化,因此是自适应的,利用公式(7)能够自适应调整擦除阈值,生成一个二进制擦除掩膜。针对在训练过程中特征擦除导致网络可能无法观察到车辆显著特征而学习能力下降的问题,通过再次引入多感受野残差注意力进行等概率随机选择的方式进行优化,来增强网络的学习能力,挖掘车辆的潜在判别性的局部特征。最后,通过结合全局与局部特征向量构建增强特征向量,得到车辆重识别网络。
除此之外,本发明通过将多注意力引导的特征增强网络作为教师网络,利用蒸馏损失和相似度损失监督学生网络预测的概率分布与教师网络一致,利用交叉熵损失和三元组损失指导学生网络自主的挖掘车辆区分性特征,最后,在保证车辆重识别性能的条件下,学生网络在网络参数量、效率方面优于教师网络,充分考虑了车辆重识别在实际应用中的快速、高效性。
本发明所提出的空间注意力引导的特征擦除模块是空间注意力定位车辆显著局部之后,通过擦除小部分显著特征后,在剩余特征中寻找车辆的潜在显著特征并与全局分支进行融合来完成特征增强,空间注意力引导的特征擦除模块能够有效的改善车辆重识别网络提取特征的能力,能够解决树木遮挡中显著信息不明显的情况,所以,能够避免次优结果产生。
本发明突出的实质性特点是:
(1)本发明所提出的注意力不同于车辆重识别中传统的基于空间和通道的软注意力。基于空间和通道的注意力都只增加了网络的深度,在网络宽度上没有提高。本发明所采用的多感受野残差注意力模块通过利用四个并行的1×1的卷积核将原始输入特征在通道维度上降为原始输入特征的1/4,而特征的尺寸不变。然后,利用四个不同尺寸的卷积核分别提取到不同的子特征再在通道维度上拼接为与原始特征相同通道数和尺寸的多感受野特征。这在很大程度上提高了网络宽度,能够让网络学习到更加丰富的特征(例如,不同的视角,不同的纹理等)。
(2)本发明所提出空间注意力引导的自适应特征擦除模块,通过使用空间注意力定位车辆图像中最具区分性的特征并使用二进制擦除掩膜将最具区分性特征擦除得到剩余特征。然后,通过在网络的下次分类时以等概率随机选择经过多感受野残差注意力输出的多感受野残差特征或者经过空间注意力引导的自适应特征擦除模块的剩余特征。这种方式使多注意力引导的特征增强网络能够在辨别线索不明确的实际情况下捕捉提取物体的潜在局部特征。对于解决图像模糊、视图转换以及光照变化而造成关键信息被忽视的问题是十分有效的。
(3)本发明所提出知识蒸馏方法,通过将多注意力引导的特征增强网络作为教师网络,并使用一种类似于教师网络结构的、轻量的双分支网络作为学生网络并使用四个损失函数(交叉熵损失、三元组损失、蒸馏损失、相似度损失)来指导和监督学生网络。其中,蒸馏损失能够让学生网络的预测结果更加接近教师网络的预测结果。相似度损失能够让学生网络的特征分布与教师网络的特征分布相似。而交叉熵损失和三元组损失能够使学生网络自主的学习车辆的特征。采用这种方式,学生网络不仅能够保证重识别的性能,而且能够提高重识别的效率,满足车辆重识别任务在构建智能交通、城市监控系统中快速定位和跟踪可疑车辆需求。
(4)本发明方法不使用颜色、车型标签和车牌信息,通过使用多感受野残差注意力模块帮助主干网络提取更加丰富的特征,为下一步全局分支的分类以及空间注意力引导的自适应擦除模块提供更多的选择。同时,空间注意力引导的自适应擦除模块通过擦除最显著局部特征,来强制网络关注潜在的显著特征,最后,结合擦除分支的局部特征向量和全局分支的全局特征向量构建增强特征向量能够实现最佳的车辆重识别结果。这种方式不仅能够最大限度的减少标签造成带来的负面影响,而且能够获得更加鲁棒的增强特征,解决车辆在光照变化明显、遮挡严重、车牌信息不明确的场景下显著特征较少的情况。
(4)本发明方法通过使用知识蒸馏方法,将复杂的特征增强网络作为教师网络,并设计一种轻量的学生网络,利用相似度损失约束学生网络与教师网络的特征分布一致,利用蒸馏损失约束学生网络的分类预测与教师网络分类预测一致,利用交叉熵损失和三元组损失保持学生网络自主捕获和提取车辆特征的能力。最终,在保证车辆重识别准确率的条件下,学生网络不仅模型参数量变小,而且重识别性能也有一定的提高,学生网络在网络参数量、效率方面优于教师网络,能够满足在安全监管、智能交通系统中高效、快速的查找目标车辆的需求。
附图说明
下面结合附图和实施例对本发明进一步说明。
图1是本发明一种实施例基于特征增强的车辆重识别方法流程示意图。
图2是本发明方法中多感受野残差注意力模块的结构示意图。
图3是本发明方法中空间注意力引导的自适应擦除模块的结构示意图。
图4是本发明一种实施例基于特征增强的车辆重识别方法的整体框架图。
图5为本发明方法中知识蒸馏的示意图。
具体实施方式
图1所示实施例表明,本发明方法的流程为:道路监控系统中车辆图像预处理→构建基于多注意力引导的特征增强网络(以ResNet-50为主干网络,在主干网络中引入多感受野残差注意力模块和空间注意力引导的自适应特征擦除模块,并完成训练和测试)→知识蒸馏方法(以基于多注意力引导的特征增强网络为教师网络,设计简单、类似于教师网络结构的学生网络,并使用四个损失函数实现知识蒸馏方法)。
图2所示实施例表明,本发明方法构建多感受野残差注意力模块的过程是:首先,多感受野残差注意力模块分别加入到主干网络ResNet-50的stage2、stage3和stage3、stage4之间。其中,位于ResNet-50的stage2、stage3之间的多感受野残差注意力模块以ResNet-50网络在stage2阶段的输出特征作为多感受野残差注意力模块的输入特征,位于ResNet-50的stage3、stage4之间的多感受野残差注意力模块以ResNet-50网络在stage3阶段的输出特征作为多感受野残差注意力模块的输入特征。然后,多感受野残差注意力模块通过将四个尺寸不同的卷积核(1×1、3×3、5×5、7×7)并行排列对输入特征进行卷积操作,得到四个尺寸相同的不同子特征(如公式2所示)。通过将四个子特征Fa在通道维度上进行融合得到与输入特征具有相同尺寸的多感受野特征/>(如公式3所示)。最后,多感受野特征Z经过Sigmoid激活函数将归一化到(0,1)区间得到多感受野注意力/>利用残差的思想让输入特征与多感受野注意力/>相乘,得到多感受野残差注意力模块的最终输出特征。其中,位于ResNet-50的stage2、stage3之间的多感受野残差注意力模块的最终输出特征作为ResNet-50的stage3阶段的输入特征,位于ResNet-50的stage3、stage4之间的多感受野残差注意力模块的最终输出特征作为ResNet-50的stage4阶段的输入特征。
图3所示实施例表明,本发明方法构建空间注意力引导的自适应特征擦除模块的过程是:首先,将主干网络ResNet-50的stage4阶段的输出特征作为空间注意力引导的自适应特征擦除模块的输入特征。通过使用最大池化Pmax和平均池化Pavg操作在通道维度上将输入特征的维度分别降至1得到(如公式4、5所示)并将池化结果在通道维度上进行拼接,再使用3×3的卷积操作降维至1。然后,使用Sigmoid函数将特征归一化到(0,1)区间得到空间注意力/>(如公式6所示)。通过利用空间注意力中最大的像素值与擦除概率α相乘计算出阈值(如公式7所示)。通过使用阈值将大于阈值的像素值设置为0,将小于阈值的像素值设置为1来构建擦除掩膜/>(如公式8所示)。通过将空间注意力引导的自适应特征擦除模块的输入特征和擦除掩膜me进行元素相乘得到剩余特征。为了克服在整个训练过程中局部分支会因为无法提取最具辨别力的局部特征使网络的特征提取能力下降,通过在空间注意力引导的自适应特征擦除模块并行加入多感受野残差注意力模块,并在多注意力引导的特征增强网络的下次分类时以等概率随机选择经过多感受野残差注意力模块输出的多感受野残差特征或者经过空间注意力引导的自适应特征擦除模块输出的剩余特征,使多注意力引导的特征增强网络能够在辨别线索不明确的实际情况下捕捉提取物体的潜在细粒度特征。
本申请中的自适应擦除的概念是自适应擦除是在空间注意力引导自适应擦除模块中通过将空间注意力定位最显著车辆局部后,选择局部最大像素值,并利用一个擦出概率与最大像素值相乘得到擦除阈值。由于最大像素值会随着最显著区域的变化而变化,因此是自适应的。
图4所示实施例表明,本发明方法构建基于多注意力引导的特征增强网络的过程为:首先,通过在监控系统中不同摄像头下采集图像组成原始图像集并划分为训练集、查询集和测试集。在训练阶段,将训练集图像作为网络的输入。在测试阶段,将查询集和测试集作为网络的输入。然后,构建主干网络。主干网络ResNet-50共包含5层,分别定义为(stage0~4)。其其中,stage1~stage4每层包含多个Bottleneck(ResNet-50网络的stage1包含3个Bottleneck,stage2包含4个Bottleneck,stage3包含6个Bottleneck,stage4包含3个Bottleneck)。接下来,将多感受野残差注意力模块分别加入主干网络ReaNet-50中的stage2、stage3之间和stage3、stage4之间来帮助主干网络在不同大小的感受野下捕获更加丰富的特征。主干网络的输出分别经过两个分支,一个全局分支,一个局部分支,在全局分支中使用全局平均池化、全连接层(FC-2048、FC-512)将在主干网络中得到的特征转化为全局特征向量。在局部分支中,空间注意力引导的自适应特征擦除模块通过擦除最显著的特征,再通过在基于多注意力引导的特征增强网络的下次分类时以相同的概率随机选择多感受野残差特征和剩余特征的方式,使基于多注意力引导的特征增强网络能够在辨别特征不明确的实际情况下提取车辆的潜在局部特征,同时,使用GeM池化、全连接层(FC-2048、FC-512)将在主干网络中得到的特征转化为局部特征向量。在测试阶段,通过结合全局分支和局部分支的全局特征向量和局部特征向量实现最优的车辆重识别结果。
图4在主干网络中加入多感受野残差注意力是为了帮助特征增强网络提取更丰富的特征。图3空间注意力引导的自适应特征擦除模块中加入多感受野残差注意力模块是为了防止特征擦除可能会导致擦除分支无法观察到最显著特征而导致整个网络特征提取能力下降。因此,通过等概率随机选择多感受野残差注意力模块或者空间注意力引导的自适应特征擦除模块来进行下一步的分类任务。
图5所示实施例表明,本发明方法构建知识蒸馏方法的过程为:首先,设计和构建学生网络。学生网络同样采用ResNet-50作为主干网络。通过复制ResNet-50的stage4结构并添加到主干网络的下分支来构建双分支网络,达到类似于教师网络结构的目的。同样的,在ResNet-50的stage4中将最后一个卷积层的步长设置为1来提高车辆特征的分辨率,保留更多的特征信息。根据主干网络预测的特征映射,在每个分支都使用全局平均池化(GAP)层将特征映射转化为特征向量,然后利用两个全连接层(FC-2048、FC-512)将特征向量从2048维编码到512维再到固定维。然后,通过将多注意力引导的特征增强网络作为教师网络,同时使用蒸馏损失Lkd(如公式9所示)、相似度损失(如公式10所示)、交叉熵损失Lce(如公式11所示)、三元组损失(如公式12所示)共同来指导和监督学生网络,完成知识蒸馏方法的构建。其中,蒸馏损失能够让学生网络的预测结果更加接近教师网络的预测结果。相似度损失能够让学生网络的特征分布与教师网络的特征分布相似,通过添加相似度损失约束学生网络和教师网络在征空间的分布一致。而交叉熵损失和三元组损失能够使学生网络自主的学习车辆的特征,提高学生网络预测能力。最终,结合四个损失函数不仅能够让教师网络的知识尽可能多的转移到学生网络中,而且学生网络也能够自主学习与教师网络不同的车辆特征,学生网络不仅能够学习到教师网络的特征分布,而且能够让学生网络自主的学习与教师网络不同的车辆的特征。学生网络在保证准确率的情况下,提高车辆重识别的效率。
实施例1
本发明基于特征增强的车辆重识别方法,通过不同的注意力,提取车辆全局特征向量和局部特征向量并通过知识蒸馏方法减少网络参数量的方法,具体步骤如下:
第一步,车辆图像预处理:
首先,将在不同摄像头下采集的原始图像集X={x1,x2,…,xm}划分为训练集F={x1,x2,…,xt;t<m}、查询集Q={xt+1,…,xq;t<q<m}、图库集G={xq+1,…,xm;q<g≤m}。其中,xi代表每一张原始车辆图像,车辆重识别数据集的划分是随机的,i∈[1,m]仅代表每一张图像的下标,t,q,g分别代表训练集、查询集、图库集中最后一张图像的下标,没有特殊的排序。训练集T的分类标签定义为YT={y1,y2,…,yN}。其中,yi代表训练集中车辆图像的标签,N代表训练集中有N种不同的车辆。然后,在训练阶段对训练集F中的车辆图像采用双线性内插法,将图像尺寸从原始大小转化为[256,256]并按照概率P=0.5进行随机水平翻转。最后,根据公式(1),按照ImageNet数据集标准的RGB模式均值和方差将车辆图像归一化并转化为tensor张量。
其中,均值mean=[0.485,0.456,0.406],方差std=[0.229,0.224,0.225],Xp表示原车辆图像像素值,Y表示归一化后的像素值。
第二步,构建基于多注意力引导的特征增强网络:
基于多注意力引导的特征增强网络中使用了多感受野残差注意力和空间注意力,因此命名为“多注意力”。
第2.1步,主干网络:
采用ResNet-50作为主干网络,ResNet-50网络共包含5层,分别定义为(stage0~4)。其中,stage1~stage4每层包含多个Bottleneck(ResNet-50网络的stage1包含3个Bottleneck,stage2包含4个Bottleneck,stage3包含6个Bottleneck,stage4包含3个Bottleneck)。在ResNet-50的stage4中将最后一个卷积层的步长设置为1来提高车辆特征的分辨率,保留更多的特征信息。根据主干网络预测的特征映射,在全局分支使用全局平均池化层将特征映射转化为特征向量,局部分支使用GeM池化将特征映射转化为特征向量。然后,利用两个全连接层(FC-2048、FC-512)将特征向量从2048维编码到512维再到固定维。通过池化得到特征向量的尺寸为(B,2048),经过两个全连接层得到特征向量的尺寸分别为(B,512),(B,固定维)。其中,B为训练时每一个批次的图像的数量。固定维是根据数据集的车辆身份的数量得到的。例如,Veri-776数据集的固定维是576。
第2.2步,构建多感受野残差注意力模块:
车辆重识别中的大部分注意力是基于空间和通道的软注意力,这种注意力的优点是确定性且可微的注意力。但是,基于空间和通道的注意力都只增加了网络的深度,在网络宽度上没有提高。而网络宽度的提高往往能够让网络学习到更加丰富的特征(例如,不同的视角,不同的纹理等)。因此,本发明使用带有四个不同卷积核大小(1×1、3×3、5×5、7×7)的多感受野残差注意力。使用的注意力能够通过不同大小的感受野,学习不同层次的特征。然后,在通道维度对不同的特征进行融合。最后,使用残差注意力的思想以防止出现梯度消失的情况。为了进一步减少网络参数的数量,分别用两个3×3卷积串联和三个3×3卷积核串联来代替5×5和7×7的卷积核,保证感受野大小不变。
具体来说,原始输入特征利用四个并行的1×1卷积核在通道维度降维为四个相同尺寸的不同特征/>a=1,2,3,4,其中C、H、W分别表示通道、高度和宽度。然后,每个特征Ia(1×1的卷积核分支除外)在经过不同大小的卷积核(1×1、3×3、5×5、7×7)进行卷积操作,得到不同感受野下的四个子特征/>对于每个卷积核,都有合适的填充和ReLU激活函数,以保证特征空间维度的不变性和网络的非线性能力,如公式(2)所示。
其中,δ(·)代表ReLU函数,W1×1和W3×3分别表示1×1和3×3的卷积核权重。
然后,通过在通道维度上对得到的四个不同的子特征F1、F2、F3、进行拼接,再利用3×3的卷积得到与原始特征具有相同的维度、相同尺寸的多感受野特征/> 如公式(3)所示:
Z=δ(W3×3·(F1;F2;F3;F4)) (3)
其中,δ(·)代表激活函数ReLU,W3×3表示3×3卷积核的权重。
最后,通过使用Sigmoid函数将多感受野特征归一化到(0,1)区间得到多感受野注意力/>利用残差的思想让原始输入特征/>与多感受野注意力/> 相乘,得到最终多感受野残差注意力模块的输出特征。
第2.3步,空间注意力引导的自适应擦除模块:
通过在主干网络中添加多感受野残差注意力模块,然后经过全局平均池化后网络已经能够在车辆重识别的过程捕获到全局判别性特征。然而,在一些具有挑战性的场景中,由于相似车辆或者出现遮挡、光照变化等情况的影响,往往需要让的网络关注其它潜在的局部显著特征。因此,在训练过程中,首先通过将在主干网络中提取的高级语义特征作为输入,利用空间注意力去定位高级语义特征中最显著的特征区域。然后,选择适当的擦除概率,利用空间注意力中最显著区域的像素值进行乘法计算擦除阈值并将大于阈值的像素值设置为0,小于阈值的像素值设置为1得到二进制擦除掩膜,再进行特征擦除得到剩余特征完成车辆重识别任务。擦除操作将主干网络提取的高级语义特征中最显著特征,保留次显著特征并利用次显著特征进行下一步车辆图像分类。同时,通过将经过空间注意力引导的自适应特征擦除模块后得到的剩余特征或者经过多感受野残差注意力模块所提取的多感受野残差特征采用等概率随机选择的方式进行下一步车辆图像分类,来进一步提高车辆重识别网络提取鲁棒性特征的能力。
空间注意力引导的自适应擦除模块就是将从主干网提取的高级语义特征作为输入,其中,高级语义特征代表经过若干次卷积后提取的抽象的、有利于分类任务的特征。然后,通过使用最大池化Pmax和平均池化Pavg在通道维度上将原始特征的维度分别降至1得到/>并将池化结果在通道维度上进行拼接,再使用3×3的卷积降维至1来得到空间注意力。最后,使用Sigmoid函数将特征归一化到(0,1)区间得到空间注意力/> 如公式(4)-(6)所示:
SA=σ(W3×3·(Smax;Savg)) (6)
其中,W3×3表示3×3卷积核的权重,σ(·)代表激活函数Sigmoid;c,h,w表示高级语义特征S中像素点的索引,表示在通道维度上得到特征中的最大像素值;表示在通道维度上得到特征的平均值;然后,通过公式(7)计算擦除阈值τ;/>
其中,α是一个超参数,代表擦除的概率。表示在通道、高度、宽度三个维度上得到特征中最大的像素值;
然后,通过擦除阈值τ,将空间注意力中大于擦除阈值τ的值设置为0,小于擦除阈值τ的值设置为1来生成二进制擦除掩码/>
在获得二进制擦除掩码后,通过与主干网在stage4阶段提取的高级语义特征S进行元素相乘得到了擦除高级语义特征中最显著特征后的剩余特征。因此,网络被强制要求更多地关注潜在的重要局部特征。然而,如果训练过程的每次迭代中都应用二进制擦除掩码,擦除分支会因为无法提取最具辨别力的局部特征使网络的特征提取能力下降。这种方式得到的车辆重识别结果是次优的。因此,为了克服网络提取特征能力下降问题,通过在基于多注意力引导的特征增强网络的下次分类时以等概率随机选择经过空间注意力引导的自适应特征擦除模块后得到的剩余特征或者经过多感受野残差注意力模块所提取的多感受野残差特征,使基于多注意力引导的特征增强网络能够在辨别线索不明确的实际情况下捕捉和提取车辆的潜在局部特征。
第三步,构建知识蒸馏方法:
考虑到车辆重识别在真实场景下构建智能交通、城市监控系统中快速定位和跟踪可疑车辆的重要性,除了要考虑车辆重识别的准确性,还需要考虑车辆重识别的效率问题。因此,提出了一种知识蒸馏方法。通过将特征增强网络作为教师网络,并使用一种类似于教师网络结构的、轻量的双分支网络作为学生网络。然后,使用四个损失函数(交叉熵损失、三元组损失、蒸馏损失、相似度损失)来指导和监督学生网络。
具体来说,蒸馏损失能够让学生网络的预测结果更加接近教师网络的预测结果,如公式(9)所示。
其中,yter=softmax(qter/tp),ystu=softmax(qstu/tp),分别代表教师网络和学生网络的预测概率;Lkd为蒸馏损失,KL代表KL散度。qter和qstu代表教师网络和学生网络在网络深层中经过全连接层后的输出特征。tp表示温度,tp越高,网络的预测结果越趋于平滑,网络训练将更加关注负标签。
相似度损失能够让学生网络的特征分布与教师网络的特征分布相似,如公式(10)所示。
其中,表示教师网络在stage4阶段之后提取的高级语义特征,/>表示学生网络在stage4阶段之后提取的高级语义特征。t表示车辆训练集图像的数量。/>表示计算训练集图像损失之和。||·||1表示L1范数。/>
交叉熵损失和三元组损失能够让学生网络自主的去学习车辆的特征表示。交叉熵损失如公式(11)所示:
其中,i∈{0,…,t-1}是训练集中图像的索引,n∈{0,…,N-1}是N个类的索引。qi,n是输出向量中第i个样本的第n个值,即第i个样本属于第n个类的概率。pi,n是一个平滑的标签,如公式(12)所示。
其中,ε∈[0,1]是一个超参数。yn∈YT是第i个样本的标签。此外,三元组损失如公式(13)所示。
其中,分别表示目标样本、正样本、负样本,β是控制到目标样本的正样本和负样本之间的距离余量。||·||2表示L2范数。
最终,学生网络不仅能够学习到教师网络的特征分布,而且能够让学生网络自主的学习与教师网络不同的车辆的特征。学生网络在保证重识别性能的情况下,提高车辆重识别的效率。
本实施例基于特征增强的车辆重识别方法在数据库VeRi-776和VERI-Wild上进行了实验验证。其中,VeRi-776数据集是从真实世界的监控场景中收集的。它包含776辆车的大约51035张图像。VeRi-776数据集将576辆车用于训练,200辆车用于测试。查询集和图库分别包含1678和11579张图像。该数据集中的车辆分别呈现三个视点,即前视图、后视图和侧视图,使其成为最具挑战性的车辆重识别数据集之一。VeRi-776提供了车辆的标识、型号、颜色、摄像机之间的关系以及轨迹信息的注释。VERI-Wild数据集是在野外由一个包含174个摄像机,拍摄范围覆盖超过200平方公里的市区CCTV系统拍摄收集的数据。摄像机是24小时连续拍摄30天,其长时间的连续拍摄考虑了车辆真实的各种天气和光照问题。数据集收集了40671个车辆ID的416314张车辆图像。数据集将30671辆车辆的277797张图像用于训练。测试集被划分为三个,分别包含3000、5000、10000辆车辆的38862、64389、128518张图像。数据集还提供了丰富的上下文信息,例如摄像机ID,时间戳,摄像机之间的跟踪关系。本实验是基于Pytorch的,训练过程是在一台带有RTX-1080Ti显卡的PC机上完成的。实验结果如下所示:
本发明在衡量车辆跨域重识别性能时,采用的评价指标主要包括平均精度均值(mean average precision,mAP)和Rank-N。其中,平均精度均值用于评估车辆重识别的总体性能,表示所有检索结果精度的平均值。mAP首先需要对每一个查询集中图像的检索结果计算平均精度AP,如公式(12)所示。
其中,r表示图库集图像的索引,Ng表示测试图像的总数,Ngt表示正确匹配目标车辆的真实样本数,P(r)表示在检索列表中第r位之前的精度,gt(r)表示第r位图像是否与目标车辆具有相同ID。最后,对所有查询集检索结果的平均精度求均值,即为mAP,如公式(13)所示。
其中,Q代表查询图像的总数。
Rank-N是车辆重识别中比较常见的评价指标,一般选择Rank-1和Rank-5来衡量性能的好坏。Rank-1和Rank-5分别表示在检索结果列表中前1张和前5张图像正确匹配的概率。
将本实施例的方法与一些传统方法和目前最先进的方法进行了比较。其中,LOMO通过手工方法提取局部特征来处理视角和照明变化。GoogLeNet直接在CompCars数据集上预训练的GoogleNet中学习车辆全局特征。FACT用颜色和纹理特征联合进行车辆重识别,而PROVID利用车牌和时空信息进一步优化了FACT算法。AAVER通过利用车辆方向和局部关键点来捕获车辆的局部显著特征。为了解决视点变化的影响,VANet、PAMTRI使用了额外的视点估计器来提取车辆的突出特征。SAN通过使用多模态信息获得最终的车辆特征表示。MADRL准确地聚焦于多注意力区域,以提取鉴别性车辆特征。表1详细显示了本实施例MAFEN与其他方法的比较结果。粗体数字表示最优结果,而次优结果用下划线数字表示。
表1在VeRi-776数据集上本实施例与最先进的车辆重识别方法的比较。
如表1所示,可以看出基于深度学习的方法(即GoogLeNet、FACT、PROVID、AAVER、VANet、PAMTRI、SAN和MADRL)比基于手工制作的特征方法(即LOMO)表现出更具竞争力的结果。与使用额外的属性标签(即FACT,SAN)或时空信息(即PROVID)相比,本实施例MAFEN在Rank-1、Rank-5方面具有明显的提高。这表明本实施例可以在不使用额外信息的情况下提取更丰富的车辆显著特征。与解决视点问题的方法(即VANet、PAMTRI)即,本实施例MAFEN在Rank-1中也取得了最佳性能。这证明了MAFEN可以解决由视点变换引起的车辆显著局部特征被忽视的问题。与提取局部特征的方法(即AAVER)相比,本实施例MAFEN分别提高了在Rank-1、Rank-5分别提高了6.17%、2.62%。与使用注意力机制的方法(即MADRL)相比,MAFEN在Rank-1、Rank-5分别提高了3.87%、1.66%。综上所述,实验结果能够说明本实施例在解决由于树木遮挡、图像模糊和视角转换导致的细节特征消失的问题,以及由于光照变化导致的车辆颜色的剧烈变化方面是有效的。
在VERI-Wild数据集上,本实施例MAFEN与最先进的方法进行了比较。表2和表3显示了在三个不同规模的测试数据集上的比较结果。
表2在VERI-Wild数据集上与最先进的方法在mAP方面的比较。
表3在VERI-Wild数据集上与最先进的方法在Rank-1、Rank-5方面的比较。
如表2、3所示,在小、中、大数据集上,本实施例与上述最佳方法FDA-Net相比,MAFEN在三个测试数据集上mAP分别提高了34.67%、34.03%和33.13%,rank-1分别提高了27.13%、30.55%、34.39%,rank-5分别提高了13.85%、16.82%、22.16%。实验结果再一次说明本实施例能够很好地解决在处理复杂场景时,局部特征被忽略和图像模糊的问题。
考虑到车辆重识别在实际场景中的应用,通过在同一台机器上比较了学生网络和教师网络在两个数据集(即Veri-776和VERI-Wild)上的效率,如表4所示。其中,所有实验都是在一台装有Nvidia GeForce GTX 1080Ti GPU的计算机上训练和测试的。测试时间是指:测试阶段,在所有目标车辆图像的输入到网络时开始计时到正确匹配每个图库集图像为止所花费的时间。
在Veri-776数据集上,学生网络完成整个车辆重识别过程花费9.52s。与教师网络花费的13.01s的测试时间相比,学生网络实现了26.83%的效率提升。在VERI-Wild的三个测试数据集上,教师网络完成测试过程所花的时间分别为22.23s、30.41s和41.86s。相比之下,学生网络在三个测试数据集上只花了16.55s、23.09s和32.89s,效率至少提高了21.43%。。
上述实施例中所述MAFEN方法的英文为Multi-Attention Guided and FeatureEnhancement Network for Vehicle Re-Identification,中文译为基于多注意力引导的特征增强网络;其中LOMO、GoogLeNet、FACT、PROVID、AAVER、VANet、PAMTRI、SAN、MADRL、Triplet、Softmax、CCL、HDC、GSTE、Unlabled GAN、FDA-Net都是本领域公知的。
本申请通过在主干网络不同stage之间引入多感受野残差注意力,利用不同大小的卷积核来帮助主干网络在不同尺度,提取更加丰富的车辆外观特征。通过空间注意力引导的自适应擦除模块,利用空间注意力引导擦除最具有区分性的特征,并引入多感受野残差注意力进行等概率随机选择优化,使网络在优化过程中能够挖掘其它显著局部特征。通过将全局特征向量和局部特征向量相结合实现最佳的车辆重识别结果。最后,使用知识蒸馏方法,通过将MAFEN作为教师网络,利用四个损失函数来约束学生网络,使学生网络在保证重识别性能的前提下,网络参数量、测试效率优于教师网络。
本发明未述及之处适用于现有技术。
Claims (4)
1.一种基于特征增强的车辆重识别方法,该方法包括以下内容:
获取车辆图像,经预处理后获得训练集、查询集和图库集;
构建基于多注意力引导的特征增强网络:该特征增强网络包括ResNet-50主干网络,在主干网络的最后四层的相邻层之间均引入多感受野残差注意力模块,主干网络最后一层的输出分别进入两个分支:全局分支和局部分支;
所述局部分支引入空间注意力引导的自适应擦除模块,所述空间注意力引导的自适应擦除模块也包括两个分支,分别为擦除剩余分支和多感受野分支;
擦除剩余分支利用空间注意力去定位高级语义特征中最显著的特征区域,并设置函数自动在通道、高度、宽度三个维度上寻找特征中的最大像素值,设置擦除概率,利用空间注意力定位的最显著的特征区域的最大像素值进行乘法计算擦除阈值,并将大于擦除阈值的像素值设置为0,小于擦除阈值的像素值设置为1得到二进制擦除掩膜,通过与主干网络在最后一层输出的高级语义特征进行元素相乘得到了擦除高级语义特征中最显著特征后的剩余特征;
多感受野分支直接由主干网络在最后一层输出连接一个多感受野残差注意力模块组成;
在基于多注意力引导的特征增强网络的下次分类时以等概率随机选择经过空间注意力引导的自适应特征擦除模块后得到的剩余特征或者经过多感受野残差注意力模块所提取的多感受野残差特征,捕捉和提取车辆的潜在局部特征;
所述多感受野残差注意力模块用于通过不同大小的感受野,学习不同层次的特征;
融合全局分支的全局特征和局部分支的潜在局部特征获得增强特征向量,完成车辆重识别过程;
所述多感受野残差注意力模块包括四个感受野不同的分支,第一个分支的卷积核大小为1×1、第二个分支的卷积核大小为3×3,第三个分支使用两个卷积核大小为3×3的卷积串联形成与5×5卷积核相同的感受野,第四个分支使用三个卷积核大小为3×3的卷积串联形成与7×7卷积核相同的感受野;四个分支得到四个不同的子特征,四个子特征拼接后再利用3×3的卷积得到与原始特征具有相同维度、相同尺寸的多感受野特征,最后使用Sigmoid函数将多感受野特征归一化到(0,1)区间得到多感受野注意力特征,将多感受野残差注意力模块的原始输入特征与多感受野注意力特征相乘,得到最终多感受野残差特征。
2.根据权利要求1所述的基于特征增强的车辆重识别方法,其特征在于,该车辆重识别方法,以基于多注意力引导的特征增强网络作为教师网络,并使用一种类似于教师网络结构的、轻量的双分支网络作为学生网络,然后,使用四个损失函数来指导和监督学生网络,四个损失函数分别为交叉熵损失、三元组损失、蒸馏损失、相似度损失,学生网络不仅能够学习到教师网络的特征分布,而且能够让学生网络自主的学习与教师网络不同的车辆的特征。
3.根据权利要求2所述的基于特征增强的车辆重识别方法,其特征在于,
所述相似度损失按照公式(10)获得,能够让学生网络的特征分布与教师网络的特征分布相似,
其中,表示教师网络在主干网络最后一层输出的高级语义特征,/>表示学生网络在主干网络最后一层输出的高级语义特征;t表示车辆训练集图像的数量,/>表示计算训练集图像损失之和,||·||1表示L1范数;
交叉熵损失和三元组损失能够让学生网络自主的去学习车辆的特征表示,所述三元组损失的公式为公式(13),
其中,分别表示目标样本、正样本、负样本,β是控制到目标样本的正样本和负样本之间的距离余量,||·||2表示L2范数。
4.根据权利要求1所述的基于特征增强的车辆重识别方法,其特征在于,该车辆重识别方法的具体步骤是:
第一步,车辆图像预处理:
首先,将在不同摄像头下采集的原始图像集X={x1,x2,…,xm}划分为训练集T={x1,x2,…,xt;t<m}、查询集Q={xt+1,…,xq;t<q<m}、图库集G={xq+1,…,xm;q<g≤m},其中,xi代表每一张原始车辆图像,车辆重识别数据集的划分是随机的,i∈[1,m]仅代表每一张图像的下标,t,q,g分别代表训练集、查询集、图库集中最后一张图像的下标;训练集T的分类标签定义为YT={y1,y2,…,yN},其中,yi代表训练集中车辆图像的标签,N代表训练集中有N种不同的车辆;然后,在训练阶段对训练集T中的车辆图像采用双线性内插法,将图像尺寸从原始大小转化为[256,256]并按照概率P=0.5进行随机水平翻转;最后,根据公式(1),按照ImageNet数据集标准的RGB模式均值和方差将车辆图像归一化并转化为tensor张量;
其中,均值mean=[0.485,0.456,0.406],方差std=[0.229,0.224,0.225],Xp表示原车辆图像像素值,Y表示归一化后的像素值;
第二步,构建基于多注意力引导的特征增强网络:
第2.1步,主干网络:
采用ResNet-50作为主干网络,ResNet-50网络共包含5层,分别定义为stage0~4,其中,stage1~stage4每层包含多个Bottleneck,在ResNet-50的stage4中将最后一个卷积层的步长设置为1来提高车辆特征的分辨率,保留更多的特征信息;根据主干网络预测的特征映射,在全局分支使用全局平均池化层将特征映射转化为全局特征向量,局部分支使用GeM池化将特征映射转化为局部特征向量;然后,全局分支和局部分支分别利用两个全连接层(FC-2048、FC-512)将特征向量从2048维编码到512维再到固定维;
第2.2步,构建多感受野残差注意力模块:
原始输入特征利用四个并行的1×1卷积核按照通道维度降维为四个相同尺寸的不同特征/>其中C、H、W分别表示通道、高度和宽度;
然后,除1×1的卷积核分支外的每个特征Ia再按照公式(2)经过不同大小的卷积核(1×1、3×3、5×5、7×7)进行卷积操作,得到不同感受野下的四个子特征对于每个卷积核,都有合适的填充和ReLU激活函数,以保证特征空间维度的不变性和网络的非线性能力,
其中,δ(·)代表ReLU函数,W1×1和W3×3分别表示1×1和3×3的卷积核权重;
在通道维度上对得到的四个不同的子特征F1、F2、F3、进行拼接,再利用3×3的卷积得到与原始输入特征具有相同的维度、相同尺寸的多感受野特征/>
最后,通过使用Sigmoid函数将多感受野特征归一化到(0,1)区间得到多感受野注意力/>让原始输入特征/>与多感受野注意力/>相乘,得到最终多感受野残差特征;
第2.3步,空间注意力引导的自适应擦除模块:
所述空间注意力引导的自适应擦除模块也包括两个分支,分别为擦除剩余分支和多感受野分支;
擦除剩余分支利用空间注意力去定位高级语义特征中最显著的特征区域,并设置函数自动在通道、高度、宽度三个维度上寻找特征中的最大像素值,设置擦除概率,利用空间注意力定位的最显著的特征区域的最大像素值进行乘法计算擦除阈值,并将大于擦除阈值的像素值设置为0,小于阈值的像素值设置为1得到二进制擦除掩膜,通过与主干网络在最后一层输出的高级语义特征进行元素相乘得到了擦除高级语义特征中最显著特征后的剩余特征;
具体是:将从主干网提取的高级语义特征作为输入,然后,通过使用最大池化Pmax和平均池化Pavg在通道维度上将特征S的维度分别降至1得到Smax,/>并将池化结果在通道维度上进行拼接,再使用3×3的卷积降维至1来得到空间注意力;最后,使用Sigmoid函数将特征归一化到(0,1)区间得到空间注意力/>如公式(4)-(6)所示:
SA=σ(W3×3·(Smax;Savg)) (6)
其中,W3×3表示3×3卷积核的权重,σ(·)代表激活函数Sigmoid;c,h,w表示高级语义特征S中像素点的索引,表示在通道维度上得到特征中的最大值;/>表示在通道维度上得到特征的平均值;然后,通过公式(7)计算擦除阈值τ;
其中,α是一个超参数,代表擦除的概率;表示在通道、高度、宽度三个维度上得到特征中最大的像素值;
然后,通过擦除阈值τ,将空间注意力中大于擦除阈值τ的值设置为0,小于擦除阈值τ的值设置为1来生成二进制擦除掩码/>
在获得二进制擦除掩码后,通过与主干网在stage4阶段提取的高级语义特征S进行元素相乘得到了擦除高级语义特征中最显著特征后的剩余特征;
多感受野分支直接由主干网络在最后一层输出连接一个多感受野残差注意力模块组成;
在基于多注意力引导的特征增强网络的下次分类时以等概率随机选择经过空间注意力引导的自适应特征擦除模块后得到的剩余特征或者经过多感受野残差注意力模块所提取的多感受野残差特征,捕捉和提取车辆的潜在局部特征;
第三步,构建知识蒸馏方法:
将基于多注意力引导的特征增强网络作为教师网络,并设计一种类似于教师网络结构的、轻量的双分支网络作为学生网络,再使用交叉熵损失、三元组损失、蒸馏损失、相似度损失四个损失函数来指导和监督学生网络;学生网络同样采用ResNet-50作为主干网络,通过复制ResNet-50的stage4结构,然后并行添加到ResNet-50中stage4阶段构建下分支,达到类似于教师网络结构的目的;
具体来说,蒸馏损失能够让学生网络的预测结果更加接近教师网络的预测结果,如公式(9)所示;
其中,yter=sogtmax(qter/tp),ystu=softmax(qstu/tp),分别代表教师网络和学生网络的预测概率;qter和qstu代表教师网络和学生网络在网络深层中经过全连接层后的输出特征;tp表示温度,tp越高,网络的预测结果越趋于平滑,网络训练将更加关注负标签;
相似度损失能够让学生网络的特征分布与教师网络的特征分布相似,如公式(10)所示,
其中,表示教师网络在stage4阶段之后提取的高级语义特征,/>表示学生网络在stage4阶段之后提取的高级语义特征;t表示车辆训练集图像的数量;/>表示计算训练集图像损失之和;||·||1表示L1范数;
交叉熵损失和三元组损失能够让学生网络自主的去学习车辆的特征表示,交叉熵损失如公式(11)所示:
其中,i∈{0,…,t-1}是训练集中图像的索引,n∈{0,…,N-1}是N个类的索引,qi,n是输出向量中第i个样本的第n个值,即第i个样本属于第n个类的概率,pi,n是一个平滑的标签,如公式(12)所示,
其中,ε∈[0,1]是一个超参数,yn∈YT是第i个样本的标签;
三元组损失如公式(13)所示,
其中,分别表示目标样本、正样本、负样本,β是控制到目标样本的正样本和负样本之间的距离余量;||·||2表示L2范数。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111317650.5A CN114005096B (zh) | 2021-11-09 | 2021-11-09 | 基于特征增强的车辆重识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111317650.5A CN114005096B (zh) | 2021-11-09 | 2021-11-09 | 基于特征增强的车辆重识别方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN114005096A CN114005096A (zh) | 2022-02-01 |
CN114005096B true CN114005096B (zh) | 2024-05-10 |
Family
ID=79928276
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111317650.5A Active CN114005096B (zh) | 2021-11-09 | 2021-11-09 | 基于特征增强的车辆重识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114005096B (zh) |
Families Citing this family (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114881240B (zh) * | 2022-02-28 | 2023-09-26 | 复旦大学 | 一种基于多注意力机制的机器人视觉示教学习模型及方法 |
CN114937199B (zh) * | 2022-07-22 | 2022-10-25 | 山东省凯麟环保设备股份有限公司 | 一种基于判别性特征增强的垃圾分类方法与系统 |
CN115062300B (zh) * | 2022-08-18 | 2022-11-15 | 江苏新希望科技有限公司 | 一种基于多通道深度卷积的入侵检测方法和系统 |
CN115761654B (zh) * | 2022-11-11 | 2023-11-24 | 中南大学 | 一种车辆重识别方法 |
CN116342985B (zh) * | 2023-02-14 | 2023-09-12 | 中南大学 | 一种用于动态智能货柜的鲁棒性特征学习方法 |
CN116168443B (zh) * | 2023-04-25 | 2023-07-07 | 安徽大学 | 一种基于信息差知识蒸馏的遮挡面部情绪识别方法 |
CN116402821B (zh) * | 2023-06-08 | 2023-09-22 | 湖南大学 | 一种基于神经网络的飞机蒙皮涂胶质量缺陷检测方法 |
CN116453105B (zh) * | 2023-06-20 | 2023-08-18 | 青岛国实科技集团有限公司 | 基于知识蒸馏深度神经网络的船牌号识别方法及系统 |
CN116665019B (zh) * | 2023-07-31 | 2023-09-29 | 山东交通学院 | 一种用于车辆重识别的多轴交互多维度注意力网络 |
CN116704453B (zh) * | 2023-08-08 | 2023-11-28 | 山东交通学院 | 一种采用自适应划分和先验强化部位学习网络进行车辆重识别的方法 |
CN116994076B (zh) * | 2023-09-28 | 2024-01-19 | 中国海洋大学 | 一种基于双分支相互学习特征生成的小样本图像识别方法 |
CN117315516B (zh) * | 2023-11-30 | 2024-02-27 | 华侨大学 | 基于多尺度注意力相似化蒸馏的无人机检测方法及装置 |
CN117456480B (zh) * | 2023-12-21 | 2024-03-29 | 华侨大学 | 一种基于多源信息融合的轻量化车辆再辨识方法 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111259982A (zh) * | 2020-02-13 | 2020-06-09 | 苏州大学 | 一种基于注意力机制的早产儿视网膜图像分类方法和装置 |
CN111311518A (zh) * | 2020-03-04 | 2020-06-19 | 清华大学深圳国际研究生院 | 基于多尺度混合注意力残差网络的图像去噪方法及装置 |
JP6830707B1 (ja) * | 2020-01-23 | 2021-02-17 | 同▲済▼大学 | ランダムバッチマスクとマルチスケール表現学習を融合した人物再同定方法 |
CN113076957A (zh) * | 2021-04-21 | 2021-07-06 | 河南大学 | 一种基于跨模态特征融合的rgb-d图像显著性目标检测方法 |
CN113221911A (zh) * | 2021-04-09 | 2021-08-06 | 华南理工大学 | 一种基于双重注意力机制的车辆重识别方法及系统 |
CN113361464A (zh) * | 2021-06-30 | 2021-09-07 | 重庆交通大学 | 一种基于多粒度特征分割的车辆重识别方法 |
CN113591928A (zh) * | 2021-07-05 | 2021-11-02 | 武汉工程大学 | 基于多视角和卷积注意力模块的车辆重识别方法和系统 |
-
2021
- 2021-11-09 CN CN202111317650.5A patent/CN114005096B/zh active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6830707B1 (ja) * | 2020-01-23 | 2021-02-17 | 同▲済▼大学 | ランダムバッチマスクとマルチスケール表現学習を融合した人物再同定方法 |
CN111259982A (zh) * | 2020-02-13 | 2020-06-09 | 苏州大学 | 一种基于注意力机制的早产儿视网膜图像分类方法和装置 |
CN111311518A (zh) * | 2020-03-04 | 2020-06-19 | 清华大学深圳国际研究生院 | 基于多尺度混合注意力残差网络的图像去噪方法及装置 |
CN113221911A (zh) * | 2021-04-09 | 2021-08-06 | 华南理工大学 | 一种基于双重注意力机制的车辆重识别方法及系统 |
CN113076957A (zh) * | 2021-04-21 | 2021-07-06 | 河南大学 | 一种基于跨模态特征融合的rgb-d图像显著性目标检测方法 |
CN113361464A (zh) * | 2021-06-30 | 2021-09-07 | 重庆交通大学 | 一种基于多粒度特征分割的车辆重识别方法 |
CN113591928A (zh) * | 2021-07-05 | 2021-11-02 | 武汉工程大学 | 基于多视角和卷积注意力模块的车辆重识别方法和系统 |
Non-Patent Citations (1)
Title |
---|
基于Focal Loss的多特征融合地物小目标检测;宋建辉;饶威;于洋;刘砚菊;火力与指挥控制;20211231(001);全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN114005096A (zh) | 2022-02-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN114005096B (zh) | 基于特征增强的车辆重识别方法 | |
CN113239784B (zh) | 一种基于空间序列特征学习的行人重识别系统及方法 | |
CN111723693B (zh) | 一种基于小样本学习的人群计数方法 | |
CN108920643B (zh) | 加权多特征融合的细粒度图像检索方法 | |
CN110751018A (zh) | 一种基于混合注意力机制的群组行人重识别方法 | |
CN115171165A (zh) | 全局特征与阶梯型局部特征融合的行人重识别方法及装置 | |
CN110765841A (zh) | 基于混合注意力机制的群组行人重识别系统及终端 | |
US20230162522A1 (en) | Person re-identification method of integrating global features and ladder-shaped local features and device thereof | |
CN114241053B (zh) | 基于改进的注意力机制FairMOT多类别跟踪方法 | |
CN115019039B (zh) | 一种结合自监督和全局信息增强的实例分割方法及系统 | |
CN115063832A (zh) | 一种基于全局与局部特征的对抗学习跨模态行人重识别方法 | |
CN114511878A (zh) | 一种基于多模态关系聚合的可见光红外行人重识别方法 | |
CN112329771A (zh) | 一种基于深度学习的建筑材料样本识别方法 | |
CN116844126A (zh) | 一种基于YOLOv7改进的复杂道路场景目标检测方法 | |
CN115953621A (zh) | 一种基于不可靠伪标签学习的半监督高光谱图像分类方法 | |
CN114782977A (zh) | 一种基于拓扑信息和亲和度信息引导行人重识别方法 | |
Peng et al. | Point-based multilevel domain adaptation for point cloud segmentation | |
CN115393788B (zh) | 一种基于增强全局信息注意力的多尺度监控行人重识别方法 | |
CN116204675A (zh) | 全局关系注意力引导的交叉视图地理定位方法 | |
CN115098646A (zh) | 一种图文数据的多级关系分析与挖掘方法 | |
CN115082854A (zh) | 一种面向安防监控视频的行人搜索方法 | |
CN114627492A (zh) | 一种双金字塔结构引导的多粒度行人重识别方法及系统 | |
Mo et al. | Cascaded hierarchical context-aware vehicle re-identification | |
Zhao et al. | TransFG: A Cross-view geo-localization of Satellite and UAVs Imagery Pipeline using Transformer-Based Feature Aggregation and Gradient Guidance | |
Ma et al. | An efficient real-time vehicle re-identification scheme using urban surveillance videos |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |