CN111797700B - 一种基于细粒度判别网络与二阶重排序的车辆重识别方法 - Google Patents

一种基于细粒度判别网络与二阶重排序的车辆重识别方法 Download PDF

Info

Publication number
CN111797700B
CN111797700B CN202010523812.XA CN202010523812A CN111797700B CN 111797700 B CN111797700 B CN 111797700B CN 202010523812 A CN202010523812 A CN 202010523812A CN 111797700 B CN111797700 B CN 111797700B
Authority
CN
China
Prior art keywords
fine
grained
network
vehicle
loss
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202010523812.XA
Other languages
English (en)
Other versions
CN111797700A (zh
Inventor
闵卫东
汪琦
黄铁梅
刘慧婷
赵浩宇
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nanchang University
Original Assignee
Nanchang University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nanchang University filed Critical Nanchang University
Priority to CN202010523812.XA priority Critical patent/CN111797700B/zh
Publication of CN111797700A publication Critical patent/CN111797700A/zh
Application granted granted Critical
Publication of CN111797700B publication Critical patent/CN111797700B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2415Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/253Fusion techniques of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/047Probabilistic or stochastic networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/08Detecting or categorising vehicles

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computational Linguistics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Evolutionary Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Probability & Statistics with Applications (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Abstract

本发明提供了一种基于细粒度判别网络与二阶重排序的车辆重识别方法,所述方法主要由两个部分组成:细粒度判别网络和二阶段重排序算法;所述细粒度判别网络的整个网络架构采用多元损失来监督,由两部分组成:孪生网络和细粒度网络;所述二阶段重排序算法融合两部分的深度特征向量来计算最终的融合特征,并将其分为两个阶段。在本发明中,细粒度判别网络可用于提取更多细微特征并改进重排序方法。首先,将孪生网络和细粒度网络结合以提取融合特征。提取的特征具有更强的判别细微差异的能力。应用二阶段重排序算法来获得样本均值特征,然后将其添加到最终距离度量中,使得匹配列表中的前k个候选样本所包含的正样本数量增加了。

Description

一种基于细粒度判别网络与二阶重排序的车辆重识别方法
技术领域
本发明涉及车辆重识别技术领域,具体为一种基于细粒度判别网络与二阶重排序的车辆重识别方法。
背景技术
重识别的目的是在不同的拍摄场景和时间内识别相同的目标,它是计算机视觉中的一个重要领域分支,其中车辆重识别是热门的话题之一。一个最直接的方式是通过识别车牌来区分车辆是否对应于同一车型。若能准确识别车牌字符,车辆重识别则能获得很好的效果。然而监控录像的分析仍然存在着车牌缺省、图像分辨率模糊和光照也可能会因视角和相机性质而不同等问题。来自不同相机的监控视频也使得车辆重识别任务充满了挑战。
车辆重识别往往被认为是比行人重识别更加困难的检索任务,由于相同车型只能由细微差异区分出来。先前的几种方法主要聚焦于车辆的外观属性,比如颜色、形状、和车型。然而不同的车辆ID在特定情况下可能对应相同的车型,且同一相机捕获的不同车辆之间可能只存在较小的细微差异。不同车辆图像之间细微的实例间差异和同一车辆图像之间较大的实例内差异阻碍了车辆再识别性能的提高。很难根据简单的外观属性来区分车辆。导致较大的实例内与实例间的差异。
在对象关联中经常考虑到时空关系。一些方法结合时空和位置数据来估计每对车辆图像之间的关系,以改善重识别结果。然而缺少具有时空信息的数据集是一个关键问题,这也会产生额外的计算成本。细粒度分类也与重识别问题紧密相关。但是值得注意的是较小的视觉差异可能影响排名列表的准确性。
发明内容
本发明提供一种基于细粒度判别网络与二阶重排序的车辆重识别方法,旨在准确区分有着相似外观的不同ID的车辆,并获取更高质量的检索排名表。因此提出了一种混合架构来解决考虑到的车辆重识别问题。
为实现上述目的,本发明提供如下技术方案:一种基于细粒度判别网络与二阶重排序的车辆重识别方法,所述方法主要由两个部分组成:细粒度判别网络和二阶段重排序算法;
所述细粒度判别网络的整个网络架构采用多元损失来监督,由两部分组成:孪生网络和细粒度网络;首先,所述孪生网络将同步学习图像的深度特征,并通过鉴别损失和验证损失将图像对投射到欧几里得空间进行相似度映射;之后,所述细粒度网络应用细粒度分类损失来鉴别车辆间的细微差异;
所述二阶段重排序算法融合两部分的深度特征向量来计算最终的融合特征,并将其分为两个阶段;在第一阶段,从融合特征中获取k-倒数特征;在第二阶段,通过提取k-倒数最近邻的均值中心来计算样本均值特征;最终距离由马氏距离、欧氏距离和杰卡德距离加权获得,用于获取排名列表。
进一步的,所述孪生网络主要包含两个相同架构的子网络,它们在训练期间共享权重,共享的卷积神经网络同时结合鉴别损失和验证损失;
鉴别模型将重识别视为多分类任务,该模型在强标签信息的基础上通过监督学习获取深度网络表征;通过使用交叉熵损失,鉴别损失函数的定义与传统的softmax损失函数类似,可写成如下形式:
Figure GDA0003765953300000021
其中K表示训练集中的样本数;C表示总类数;
Figure GDA0003765953300000022
是目标车辆的正确概率;w=[w1,w2,...,wC]是预测车辆概率矩阵;wt表示正确的车辆标签矩阵;f表示相应的提取特征;
反过来,验证模型将这问题作为二分类相似回归任务来解决,分析输入到网络中的图像对,预测它们是否对应同一类,孪生深度网络能够通过鉴别监督来学习欧氏空间中的相似度量;交叉熵损失仍然适用于训练验证模型,其公式如下:
Figure GDA0003765953300000023
其中G是图片对总数,
Figure GDA0003765953300000024
表示对应同一目标的图像对,当被检测图像对匹配同一目标时,
Figure GDA0003765953300000031
否则
Figure GDA0003765953300000032
添加了一个正方形层来融合从孪生网络中提取的特征,这两个输入特征向量由(f1-f2)2计算,然后得到融合特征;ws代表正确检测到的车辆标签的矩阵。
进一步的,所述细粒度网络使用紧凑的双线性池化方法获得细粒度特征,用紧凑双线性池化层取代原始池化层,并添加了signed square-root层
Figure GDA0003765953300000033
且使用L2正则化层执行归一化步骤;通过使用紧凑双线性层提取全局图像描述符如下公式所示:
Figure GDA0003765953300000034
其中S表示一系列空间位置,X=(x1,...,x|S|)表示一系列局部描述符,XS是从HOG、SIFT或者通过基于卷积神经网络的前向反馈的局部描述符;
所述细粒度网络在训练过程中被细粒度损失所监督学习,使用softmax损失函数作为细粒度损失函数,可以将其定义为:
Figure GDA0003765953300000035
其中K表示训练集中的样本数;C表示总类数;
Figure GDA0003765953300000036
表示目标车辆的正确率,w=[w1,w2,...,wC]是预测车辆的概率矩阵,wt表示正确车辆标签矩阵;f表示对应提取的细粒度特征;且λ是L2正则化的参数;
在强辨别力的细粒度网络的两个分支网络中提取特征,然后将它们合并,融合方法是基于简单的维度叠加,计算公式如下:
fall=[f1,f2,...,fN] (5)
其中N表示子网数,且fN是第N个被提取出的特征向量。
进一步的,所述二阶段重排序算法在第一阶段,采用k-reciprocal编码方法获取k-reciprocal特征,假设定义N张图像的gallery测试集为G={gi|i=1,2,...N},H(p,k)={g1,g2,···,gk}是相似度前k个的样本集,根据公式(6)定义;N(gi,k)表示gi的前k个相似样本集,假设两个集合相似,它们的交集则是与候选目标p最相似;
H(p,k)={gi|(gi∈N(p,k))∩(p∈N(gi,k))} (6)
添加每个候选对象的1/2k-reciprocal最近邻到一个更鲁棒的集合中,使得更多的积极样本集在匹配列表的前面:
Figure GDA0003765953300000041
排名靠前的样本的置信度往往受到邻近样本的影响;
在第二阶段,在使用融合特征计算H(p,k)后,定义p的置信度项
Figure GDA0003765953300000042
来增强正样本的置信度以检索排名列表,这个选择策略是选取前k个样本之间的均值候选样本,根据如下公式(8)获得:
Figure GDA0003765953300000043
鲁棒集合
Figure GDA0003765953300000044
由目标车辆p的均值候选样本
Figure GDA0003765953300000045
计算而来;
应用杰卡德距离来测量两个集合的差异,若两张图片相似,它们的k-reciprocal最近邻集合就会有更多的重叠样本区域,p与gi的杰卡德距离计算如下:
Figure GDA0003765953300000046
最终距离d*由马氏距离、欧氏距离和杰卡德距离加权而得,定义如下:
Figure GDA0003765953300000047
其中dM(p,gi)表示p与gi间的欧氏距离;dE(p,gi)是p与gi间的马氏距离;dJ(y,gi)是y与gi间的杰卡德距离;y包含p和
Figure GDA0003765953300000048
与现有技术相比,本发明的有益效果是:
在本发明中,提出了一种基于细粒度判别网络与二阶重排序的车辆重识别方法。细粒度判别网络可用于提取更多细微特征并改进重排序方法。首先,将孪生网络和细粒度网络结合以提取融合特征。由于验证损失,鉴别损失和细粒度损失的综合影响,提取的特征具有更强的判别细微差异的能力。应用二阶段重排序算法来获得样本均值特征,然后将其添加到最终距离度量中,使得匹配列表中的前k个候选样本所包含的正样本数量增加了。
附图说明
图1为与车辆重识别相关挑战图;
图2为本发明结构框架图;
图3为细微特征信息对车辆重新识别的影响图;
图4为重排序的第二阶段中候选的选择和鲁棒集的定义过程示例图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步的详细说明。此处所描述的具体实施例仅用于解释本发明技术方案,并不限于本发明。
现有重识别方法的挑战在于相同车型的车辆之间的细微差异以及缺少高排名的正确样本。图1(a)-(d)展示了几个有着相似外观的不同ID的车辆之间的细微差异的样例,这些样例来自两个基准数据集,分别叫做VeRi-776和VehicleID。图1(a)和(b)展示的车辆外观十分相似,因此它们可以通过特殊标记来区分,例如汽车引擎盖和挡风玻璃上的贴纸。相同车型的车辆只能通过部分细微差异来区分。再举个例子,图1(c)可以通过判断在两个车顶上是否有接收天线设备,和图1(d)中轮毂样式是否相同来进行区别。匹配列表的重排序方法在重识别中也是至关重要的。图1(e)展示了一个待识别车辆样本的前十排名相似样本的候选图像。虚线框代表一个错误样本,实线框对应一个正确样本。
本发明一种基于细粒度判别网络与二阶重排序的车辆重识别方法,其结构框架如图2所示,主要由两个部分组成:细粒度判别网络和二阶段重排序算法。所提出的细粒度判别网络作为第一个部分。细粒度判别网络的流程如图2的左侧所示。整个网络架构采用多元损失来监督。它由两部分组成:孪生网络和细粒度网络。首先,孪生网络将同步学习图像的深度特征,并通过鉴别损失和验证损失将图像对投射到欧几里得空间进行相似度映射。之后,细粒度网络应用细粒度分类损失来鉴别车辆间的细微差异。所提出的二阶段重排序方法如图2的右侧所示。它意味着融合两部分的深度特征向量来计算最终的融合特征,并将其分为两个阶段。在第一阶段,我们从融合特征中获取k-倒数特征。在第二阶段,通过提取k-倒数最近邻的均值中心来计算样本均值特征。最终距离由马氏距离、欧氏距离和杰卡德距离加权获得,用于获取排名列表。
图2提出的车辆再识别架构概述。首先,将数据集输入到网络中。然后细粒度判别网络部分包括图上半部分的孪生网络和下半部分的细粒度网络。最后,对两个子网进行二阶重排序算法被用于合并两个子网络的特征向量,通过两阶段的计算得到最终距离。
在图2左侧所示,引入孪生网络。该网络主要包含两个相同架构的子网络,它们在训练期间共享权重。共享的卷积神经网络同时结合鉴别损失和验证损失。因此,两个卷积神经网络能由验证监督共同监督管理,又能由鉴定监督分别管理。
鉴别模型将重识别视为多分类任务。该模型在强标签信息的基础上通过监督学习获取深度网络表征。通过使用交叉熵损失,鉴别损失函数的定义与传统的softmax损失函数类似,可写成如下形式:
Figure GDA0003765953300000061
其中K表示训练集中的样本数;C表示总类数;
Figure GDA0003765953300000062
是目标车辆的正确概率;w=[w1,w2,...,wC]是预测车辆概率矩阵;wt表示正确的车辆标签矩阵;f表示相应的提取特征。
反过来,验证模型将这问题作为二分类相似回归任务来解决。分析输入到网络中的图像对,预测它们是否对应同一类。孪生深度网络能够通过鉴别监督来学习欧氏空间中的相似度量。更值得注意到的是对比损失的存在可能导致数据大小有过拟合的风险。因此交叉熵损失仍然适用于训练验证模型,其公式如下:
Figure GDA0003765953300000063
其中G是图片对总数,
Figure GDA0003765953300000064
表示对应同一目标的图像对。当被检测图像对匹配同一目标时,
Figure GDA0003765953300000071
否则
Figure GDA0003765953300000072
在目前的研究中,添加了一个正方形层来融合从孪生网络中提取的特征。这两个输入特征向量由(f1-f2)2计算,然后得到融合特征。ws代表正确检测到的车辆标签的矩阵。
尽管鉴别损失和验证损失可以以相当可观的区别能力来促进特征提取,可是仍然存在一些缺陷。首先,很多输入的积极样本对存在着细微的差异使得网络不能有效地学习细微特征。在车辆重识别的问题中,相似外观的车辆可能属于不同的ID。然而,属于同一类ID的车辆由于各种各样的角度和光照条件的原因,也会被错误匹配。图3说明了这种现象,鉴于角度和相似外观因素,人们经常误判图中的车辆A和B,并将他们看作是同一目标。实际上,车辆A和车辆C才属于同一车辆。为了缓解这个问题,可以将深度网络应用于提取精确和可区分的特征当中。目前,在图像分类中采用细粒度网络获取优异的性能。然而提取的特征是高维的,可能达到数百万的级别,这使得计算负荷过大且难以处理。
基于先前的车辆重识别效果,本发明使用紧凑的双线性池化方法获得细粒度特征。涉及的分支网络是基于VGC-16模型。该模型用紧凑双线性池化层取代原始池化层,并添加了signed square-root层
Figure GDA0003765953300000073
且使用L2正则化层执行归一化步骤。通过使用紧凑双线性层提取全局图像描述符如下公式所示:
Figure GDA0003765953300000074
其中S表示一系列空间位置,X=(x1,...,x|S|)表示一系列局部描述符。XS是从HOG、SIFT或者通过基于卷积神经网络的前向反馈的局部描述符。
使用细粒度分类网络的主要挑战是是否能有效地从图像中检测和提取重要的局部区域信息。这些特定地信息区域对于识别车辆图像间的细微差异至关重要。从上述得出结论,紧凑双线性层可以成功地用于组合与图像不同局部位置地对应特征,从而获得有区分的全局表征向量来表示细粒度特征。此外,归一化步骤被执行,其中紧凑双线性向量将通过signedsquare-root层和L2正则化层。
图2的左下部分展示了这种特别添加的网络结构。为了提取车辆的细粒度特征,该子分支网络在训练过程中被细粒度损失所监督学习。还使用softmax损失函数作为细粒度损失函数,可以将其定义为:
Figure GDA0003765953300000081
其中K表示训练集中的样本数;C表示总类数;
Figure GDA0003765953300000082
表示目标车辆的正确率。w=[w1,w2,...,wC]是预测车辆的概率矩阵,wt表示正确车辆标签矩阵;f表示对应提取的细粒度特征;且λ是L2正则化的参数。
在强辨别力的细粒度网络的两个分支网络中提取特征,然后将它们合并。融合方法是基于简单的维度叠加,计算公式如下:
fall=[f1,f2,...,fN] (5)
其中N表示子网数,且fN是第N个被提取出的特征向量。
公式(5)的计算方法虽然简明;但它能够有效地保留强辨别力的特征。图2右方展示12288维的融合特征向量,包含由孪生网络和细粒度网络部分获取的4096和8192维的输出特征。
本发明提出了一种基于车辆重识别的两阶段重排序算法,用于确定车辆之间的特性和差异。
在第一阶段,采用k-reciprocal编码方法获取k-reciprocal特征。假设定义N张图像的gallery测试集为G={gi|i=1,2,...N}。H(p,k)={g1,g2,···,gk}是相似度前k个的样本集,根据公式(6)定义。N(gi,k)表示gi的前k个相似样本集。假设两个集合相似,它们的交集则是与候选目标p最相似;
H(p,k)={gi|(gi∈N(p,k))∩(p∈N(gi,k))} (6)
由于光照、姿态、视角等一系列变化,正样本可能会被排除到排序列表外,通过添加每个候选对象的1/2k-reciprocal最近邻到一个更鲁棒的集合中,这样使得更多的积极样本集在匹配列表的前面:
Figure GDA0003765953300000091
排名靠前的样本的置信度往往受到邻近样本的影响。
在第二阶段,在使用融合特征计算H(p,k)后,定义p的置信度项p来增强正样本的置信度以检索排名列表。这个选择策略是选取前k个样本之间的均值候选样本,可以根据如下公式(8)获得:
Figure GDA0003765953300000092
鲁棒集合
Figure GDA0003765953300000093
由目标车辆p的均值候选样本
Figure GDA0003765953300000094
计算而来。图4展示了
Figure GDA0003765953300000095
的形成过程。首先,设置图像Q作为目标车辆,且图像C是图4第一行中H(Q,20)的均值样本。然后,在第二行得到H(C,20)。最后,再将H(C,20)中候选的1/2k-reciprocal最近邻添加到图4第三行和第四行的H*(C,20)中。H*(C,20)比H(Q,20)拥有更多正样本。相应地,均值候选样本
Figure GDA0003765953300000096
的k-reciprocal最近邻可以更好地反应出目标车辆p的匹配列表中很难辨别的正样本。
应用杰卡德距离来测量两个集合的差异。若两张图片相似,它们的k-reciprocal最近邻集合就会有更多的重叠样本区域。p与gi的杰卡德距离计算如下:
Figure GDA0003765953300000097
最终距离d*由原始距离(马氏距离和欧氏距离)和杰卡德距离加权而得,定义如下:
Figure GDA0003765953300000098
其中dM(p,gi)表示p与gi间的欧氏距离;dE(p,gi)是p与gi间的马氏距离;dJ(y,gi)是y与gi间的杰卡德距离;y包含p和
Figure GDA0003765953300000099
表1、2展示了本发明提出的方法与现有方法的对比实验结果。对VeRi-7767上的结果,可以看出,在所有提及的车辆重新识别方法中,本发明所提出的方法均取得了最佳结果。LOMO和BOW-CN就手工特征而言表现不佳。采用深度网络学习语义特征的FACT和孪生-虚拟达到可接受的性能。XVGAN和VAMI通过生成多视图表示改善了车辆重识别的结果。它们专注于利用多视图信息获取全局特征,而不是提取细粒度特征。然而它们无法准确地区分车辆的细微差别,因为在相同视点中捕获的相同型号车辆的外观仍然相似。由于结合了孪生网络中的验证和识别,DLCNN的性能优于上述方法。相较于DLCNN,本发明提出的方法在mAP方面获得了11.97%的收益,在rank-1准确性上提高了5.72%。与在VeRi-776上的结果相似,VGG+CCL和MixedDiff+CCL也证明了利用改进的损失函数的卷积神经网络来提取VehicleID中的语义特征的有效性。然而,它们不能精确区分车辆间的细微差异。在小规模测试数据集的情况下,与次优方法(DLCNN)相比,本发明所提出的方法的rank-1准确率提高了4.01%的,rank-5准确率提高了2.34%。在中规模和大型测试数据集的情况下,本发明所提出的方法的rank-1的准确率也分别提高了5.31%和5.29%,rank-5的准确率也分别提高了3.75%和5.25%。通过评估VeRi-776和VehicleID,我们可以观察到通过提取细粒度特征可以显着提高性能。这表明,与其他考虑的最新方法相比,本发明所提出的方法可以更好地区分相似的车辆。
表1 VeRI-776数据集上的各算法的实验结果
Figure GDA0003765953300000101
表2 VehicleID数据集上的各算法的实验结果
Figure GDA0003765953300000102
Figure GDA0003765953300000111
应用重排序方法也能改进车辆重识别的结果。因此,我们利用两个重排序方法来评估上述数据集。表3和4展示了在VeRi-776和VehicleID数据集上的结果。“Base”表示提出的细粒度判别网络,“Base+TR”对应使用两阶段重排方法的整个网络。Zhong等人提出了k-reciprocal编码方法来改善行人重识别的结果,Zhong中描述的方法允许在提出的基本模型上获得其他改进。然而,与Zhong中提出的方法相比,TR方法具有更好的性能。因此,与其他两种方法相比,本发明可以更有效地改进重新排名结果。
表3 VeRi-776数据集中有无度量方法的比较结果
Figure GDA0003765953300000112
表4 VehicleID数据集中有无度量方法的比较结果
Figure GDA0003765953300000113
以上所述仅表达了本发明的优选实施方式,其描述较为具体和详细,但并不能因此而理解为对本发明专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干变形、改进及替代,这些都属于本发明的保护范围。因此,本发明专利的保护范围应以所附权利要求为准。

Claims (1)

1.一种基于细粒度判别网络与二阶重排序的车辆重识别方法,其特征在于:所述方法主要由两个部分组成:细粒度判别网络和二阶段重排序算法;
所述细粒度判别网络的整个网络架构采用多元损失来监督,由两部分组成:孪生网络和细粒度网络;首先,所述孪生网络将同步学习图像的深度特征,并通过鉴别损失和验证损失将图像对投射到欧几里得空间进行相似度映射;之后,所述细粒度网络应用细粒度分类损失来鉴别车辆间的细微差异;
所述孪生网络主要包含两个相同架构的子网络,它们在训练期间共享权重,共享的卷积神经网络同时结合鉴别损失和验证损失;
鉴别模型将重识别视为多分类任务,该模型在强标签信息的基础上通过监督学习获取深度网络表征;通过使用交叉熵损失,鉴别损失函数的定义为如下形式:
Figure FDA0003765953290000011
其中K表示训练集中的样本数;C表示总类数;
Figure FDA0003765953290000012
是目标车辆的正确概率;w=[w1,w2,...,wC]是预测车辆概率矩阵;wt表示正确的车辆标签矩阵;f表示相应的提取特征;
反过来,验证模型将这问题作为二分类相似回归任务来解决,分析输入到网络中的图像对,预测它们是否对应同一类,孪生深度网络能够通过鉴别监督来学习欧氏空间中的相似度量;交叉熵损失仍然适用于训练验证模型,其公式如下:
Figure FDA0003765953290000013
其中G是图片对总数,
Figure FDA0003765953290000014
表示对应同一目标的图像对,当被检测图像对匹配同一目标时,
Figure FDA0003765953290000015
否则
Figure FDA0003765953290000016
添加了一个正方形层来融合从孪生网络中提取的特征,这两个输入特征向量由(f1-f2)2计算,然后得到融合特征;ws代表正确检测到的车辆标签的矩阵;
所述细粒度网络使用紧凑的双线性池化方法获得细粒度特征,用紧凑双线性池化层取代原始池化层,并添加了signed square-root层
Figure FDA0003765953290000021
且使用L2正则化层执行归一化步骤;通过使用紧凑双线性层提取全局图像描述符如下公式所示:
Figure FDA0003765953290000022
其中S表示一系列空间位置,X=(x1,...,x|S|)表示一系列局部描述符,XS是从HOG、SIFT或者通过基于卷积神经网络的前向反馈的局部描述符;
所述细粒度网络在训练过程中被细粒度损失所监督学习,使用softmax损失函数作为细粒度损失函数,其定义为:
Figure FDA0003765953290000023
其中K表示训练集中的样本数;C表示总类数;
Figure FDA0003765953290000024
表示目标车辆的正确率,w=[w1,w2,...,wC]是预测车辆的概率矩阵,wt表示正确车辆标签矩阵;f表示对应提取的细粒度特征;且λ是L2正则化的参数;
在强辨别力的细粒度网络的两个分支网络中提取特征,然后将它们合并,融合方法是基于简单的维度叠加,计算公式如下:
fall=[f1,f2,...,fN] (5)
其中N表示子网数,且fN是第N个被提取出的特征向量;
所述二阶段重排序算法融合两部分的深度特征向量来计算最终的融合特征,并将其分为两个阶段;在第一阶段,从融合特征中获取k-倒数特征;在第二阶段,通过提取k-倒数最近邻的均值中心来计算样本均值特征;最终距离由马氏距离、欧氏距离和杰卡德距离加权获得,用于获取排名列表;
所述二阶段重排序算法在第一阶段,采用k-reciprocal编码方法获取k-reciprocal特征,假设定义N张图像的gallery测试集为G={gi|i=1,2,...N},H(p,k)={g1,g2,···,gk}是相似度前k个的样本集,根据公式(6)定义;N(gi,k)表示gi的前k个相似样本集,假设两个集合相似,它们的交集则是与候选目标p最相似;
H(p,k)={gi|(gi∈N(p,k))∩(p∈N(gi,k))} (6)
添加每个候选对象的1/2k-reciprocal最近邻到一个更鲁棒的集合中,使得更多的积极样本集在匹配列表的前面:
Figure FDA0003765953290000031
排名靠前的样本的置信度受到邻近样本的影响;
在第二阶段,在使用融合特征计算H(p,k)后,定义p的置信度项p来增强正样本的置信度以检索排名列表,这个选择策略是选取前k个样本之间的均值候选样本,根据如下公式(8)获得:
Figure FDA0003765953290000032
鲁棒集合
Figure FDA0003765953290000033
由目标车辆p的均值候选样本
Figure FDA0003765953290000034
计算而来;
应用杰卡德距离来测量两个集合的差异,若两张图片相似,它们的k-reciprocal最近邻集合就会有更多的重叠样本区域,p与gi的杰卡德距离计算如下:
Figure FDA0003765953290000035
最终距离d*由马氏距离、欧氏距离和杰卡德距离加权而得,定义如下:
Figure FDA0003765953290000036
其中dM(p,gi)表示p与gi间的欧氏距离;dE(p,gi)是p与gi间的马氏距离;dJ(y,gi)是y与gi间的杰卡德距离;y包含p和
Figure FDA0003765953290000037
CN202010523812.XA 2020-06-10 2020-06-10 一种基于细粒度判别网络与二阶重排序的车辆重识别方法 Active CN111797700B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010523812.XA CN111797700B (zh) 2020-06-10 2020-06-10 一种基于细粒度判别网络与二阶重排序的车辆重识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010523812.XA CN111797700B (zh) 2020-06-10 2020-06-10 一种基于细粒度判别网络与二阶重排序的车辆重识别方法

Publications (2)

Publication Number Publication Date
CN111797700A CN111797700A (zh) 2020-10-20
CN111797700B true CN111797700B (zh) 2022-12-06

Family

ID=72803998

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010523812.XA Active CN111797700B (zh) 2020-06-10 2020-06-10 一种基于细粒度判别网络与二阶重排序的车辆重识别方法

Country Status (1)

Country Link
CN (1) CN111797700B (zh)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112241764B (zh) * 2020-10-23 2023-08-08 北京百度网讯科技有限公司 图像识别方法、装置、电子设备及存储介质
CN113434671B (zh) * 2021-06-23 2024-06-07 平安国际智慧城市科技股份有限公司 数据处理方法、装置、计算机设备及存储介质
CN114067293B (zh) * 2022-01-17 2022-04-22 武汉珞信科技有限公司 基于双重属性的车辆重识别重排列方法、系统及电子设备

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10176405B1 (en) * 2018-06-18 2019-01-08 Inception Institute Of Artificial Intelligence Vehicle re-identification techniques using neural networks for image analysis, viewpoint-aware pattern recognition, and generation of multi- view vehicle representations
CN108921107B (zh) * 2018-07-06 2021-10-01 北京市新技术应用研究所 基于排序损失和Siamese网络的行人再识别方法
CN109063649B (zh) * 2018-08-03 2021-05-14 中国矿业大学 基于孪生行人对齐残差网络的行人重识别方法
CN109214441A (zh) * 2018-08-23 2019-01-15 桂林电子科技大学 一种细粒度车型识别系统及方法
CN109446898B (zh) * 2018-09-20 2021-10-15 暨南大学 一种基于迁移学习和特征融合的行人重识别方法
CN110084215A (zh) * 2019-05-05 2019-08-02 上海海事大学 一种二值化三元组孪生网络模型的行人重识别方法及系统
CN111079785A (zh) * 2019-11-11 2020-04-28 深圳云天励飞技术有限公司 一种图像识别方法、装置及终端设备

Also Published As

Publication number Publication date
CN111797700A (zh) 2020-10-20

Similar Documents

Publication Publication Date Title
CN107679078B (zh) 一种基于深度学习的卡口图像车辆快速检索方法及系统
CN111797700B (zh) 一种基于细粒度判别网络与二阶重排序的车辆重识别方法
Wojek et al. Multi-cue onboard pedestrian detection
Ruta et al. Real-time traffic sign recognition from video by class-specific discriminative features
Ruta et al. Robust class similarity measure for traffic sign recognition
Chen et al. Fast human detection using a novel boosted cascading structure with meta stages
CN109583305B (zh) 一种基于关键部件识别和细粒度分类的车辆重识别的先进方法
CN111914664A (zh) 基于重识别的车辆多目标检测和轨迹跟踪方法
Everingham et al. Pascal visual object classes challenge results
CN109063649B (zh) 基于孪生行人对齐残差网络的行人重识别方法
CN111639564B (zh) 一种基于多注意力异构网络的视频行人重识别方法
JP2008310796A (ja) コンピュータにより実施される、訓練データから分類器を構築し、前記分類器を用いてテストデータ中の移動物体を検出する方法
CN110633632A (zh) 一种基于循环指导的弱监督联合目标检测和语义分割方法
CN109165658B (zh) 一种基于Faster-RCNN的强负样本水下目标检测方法
CN112200186B (zh) 基于改进yolo_v3模型的车标识别方法
CN112990282B (zh) 一种细粒度小样本图像的分类方法及装置
CN112464983A (zh) 一种用于苹果树叶病害图像分类的小样本学习方法
CN115690541A (zh) 提高小样本、小目标识别准确率的深度学习训练方法
Ding et al. Let features decide for themselves: Feature mask network for person re-identification
Chen et al. A visual attention based convolutional neural network for image classification
CN114429649B (zh) 目标图像识别方法及装置
CN114821152A (zh) 基于前景-类别感知对齐的域自适应目标检测方法及系统
Asgarian Dehkordi et al. Vehicle type recognition based on dimension estimation and bag of word classification
Symeonidis et al. Neural attention-driven non-maximum suppression for person detection
Xue et al. Tiny obstacle discovery by occlusion-aware multilayer regression

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant