CN113269117B - 一种基于知识蒸馏的行人重识别方法 - Google Patents

一种基于知识蒸馏的行人重识别方法 Download PDF

Info

Publication number
CN113269117B
CN113269117B CN202110625592.6A CN202110625592A CN113269117B CN 113269117 B CN113269117 B CN 113269117B CN 202110625592 A CN202110625592 A CN 202110625592A CN 113269117 B CN113269117 B CN 113269117B
Authority
CN
China
Prior art keywords
pedestrian
image
network
complete
partial
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202110625592.6A
Other languages
English (en)
Other versions
CN113269117A (zh
Inventor
葛永新
谢佳宏
李文鑫
郭帧廷
张俊银
华博誉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Chongqing University
Original Assignee
Chongqing University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Chongqing University filed Critical Chongqing University
Priority to CN202110625592.6A priority Critical patent/CN113269117B/zh
Publication of CN113269117A publication Critical patent/CN113269117A/zh
Application granted granted Critical
Publication of CN113269117B publication Critical patent/CN113269117B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • G06V20/53Recognition of crowd images, e.g. recognition of crowd congestion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Molecular Biology (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Mathematical Physics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Image Analysis (AREA)

Abstract

本发明涉及一种基于知识蒸馏的行人重识别方法,该方法建立结构完整行人网络和部分行人网络,以完整行人图像训练完整行人网络,以随机截取的部分图像训练部分行人网络,当损失不再下降,两个网络的训练结束;对于待预测图像,若待预测图像是完整行人图像,则输入训练好的完整行人网络中,否则输入训练好的部分行人网络中,计算待预测图像的特征与数据库中各图像的特征之间的距离,根据距离由大到小的顺序输出与待预测图像的特征之间距离排在前M的图像。本发明方法通过损失计算将完整行人网络和部分行人网络进行联合,提高了检测结果的鲁棒性。

Description

一种基于知识蒸馏的行人重识别方法
技术领域
本发明涉及图像识别技术领域,特别涉及基于知识蒸馏的行人重识别方法。
背景技术
当前的部分行人重识别研究中面临的一大难题是训练数据集的缺乏,为此,一些部分行人重识别方法会利用随机裁剪的方式从完整行人图像获得部分行人图像,例如:方法1用二分类网络判断输入的图像是否是完整图像来使网络学习到关于遮挡的隐藏知识;方法2,VPM的方法,核心思路是运用自监督的方式,使模型能感知到图像区域的可见性;方法3,在网络中嵌入空间转换网络模块,来实现部分图像与完整图像的自动匹配。然而这些方法都没有考虑完整行人图像和部分行人图像在特征空间上的差异。从数据的角度上说,完整图像和部分图像服从不一样的概率分布,因此在它们之间实际上就存在着领域间隔(domain gap)的问题。在行人重识别中领域间隔问题是广泛存在的,以下几种受到较多研究者的关注:1)不同数据集之间的间隔;2)同一数据集中不同的摄像头之间的间隔;3)RGB-红外模态图像之间的间隔。值得指出的是,部分行人重识别问题也属于一种领域间隔问题,因此也可以用类似的范式加以解决。
发明内容
针对现有技术存在的上述问题,本发明的要解决的技术问题是:现有方法输出的图像特征缺少全局相关性知识而不够鲁棒。
为解决上述技术问题,本发明采用如下技术方案:一种基于知识蒸馏的行人重识别方法,包括如下步骤:
S100:建立完整行人网络和部分行人网络,所述完整行人网络和部分行人网络具有相同的网络结构。
S200:从现有的公开数据集中获取多张完整行人图像构建数据库,将完整行人图像随机裁剪得到部分行人图像,初始化完整行人网络和部分行人网络的参数。
对于完整行人网络,以完整行人图像作为训练样本,提取训练样本的特征进行完整行人网络训练,对于每个训练样本,计算完整行人网络输出与对应的样本真实身份标签间的损失,反向传播更新完整行人网络参数,当损失不再下降,训练结束。
对于部分行人网络,以部分行人图像作为训练样本,提取训练样本的特征进行部分行人网络的训练,对于每个训练样本,计算部分行人网络输出与对应的样本真实身份标签间的损失,反向传播更新部分行人网络参数,当损失不再下降,训练结束。
S300:对于待预测图像,若待预测图像是完整行人图像,则将待预测图像输入训练好的完整行人网络中,训练好的完整行人网络计算待预测图像的特征与数据库中各图像的特征之间的距离,根据距离由大到小的顺序输出与待预测图像的特征之间距离排在前M的图像。
若待预测图像是部分行人图像,则将待预测图像输入训练好的部分行人网络中,训练好的部分行人网络计算待预测图像的特征与数据库中各图像的特征之间的距离,根据距离由大到小的顺序输出与待预测图像的特征之间距离排在前M的图像。
作为优选,所述S100建立的完整行人网络Nh和部分行人网络Np以ResNet-50作为骨干网络,将每个图像映射到固定大小的向量表示,RW×H×3→RD
对原始的ResNet-50做了如下修改:将原始的ResNet-50最后一个ReLU激活函数和最终的分类层均使用BNNeck层代替,将原始的ResNet-50最后一个残差块的步长从2减小到1。
作为优选,所述S200中对于完整行人网络计算完整行人网络输出与对应的样本标签间的损失以及对于部分行人网络计算部分行人网络输出与对应的样本标签间的损失的方法相同,具体如下:
构建整体损失,如公式(1)所示:
Figure GDA0003771392630000021
其中,LCE为交叉熵损失,LT为三元组损失,
Figure GDA0003771392630000022
为基于特征的损失,
Figure GDA0003771392630000023
为基于距离的损失。
Figure GDA0003771392630000024
其中,y表示输入图像真实的身份标签,
Figure GDA0003771392630000025
表示完整行人网络或部分行人网络的softmax层之后的输出;
总的三元组损失如公式(3)所示:
LT=LT_h+LT_p+LT_h2p+LT_p2h (3)
Figure GDA0003771392630000026
Figure GDA0003771392630000027
Figure GDA0003771392630000031
Figure GDA0003771392630000032
其中,LT_h和LT_p分别表示完整行人网络和部分行人网络各自独立计算的三元组损失,
Figure GDA0003771392630000033
Figure GDA0003771392630000034
分别表示锚点样本(anchor)的正样本集和负样本集,α表示三元组损失中约束正负样本对距离差异的阈值,d表示距离函数,ha表示以完整行人图像作为锚点样本,hp表示以完整行人图像作为正样本,hn表示以完整行人图像作为负样本,pa表示以部分行人图像作为锚点样本,pp表示以部分行人图像作为正样本,pn表示以部分行人图像作为负样本;
LT_h2p表示以完整行人图像作为锚点样本,以部分行人图像作为正负样本构建的三元组损失,LT_p2h表示以部分行人图像作为锚点样本,以完整行人图像作为正负样本构建三元组损失;
对于一个训练批次的第i和第j个图像,计算它们的完整行人图像特征之间的距离Dh[i,j],并且对于它们裁剪后的部分图像,计算它们的部分行人图像特征之间的距离Dp[i,j],基于距离矩阵的损失如公式(8)所示:
Figure GDA0003771392630000035
基于特征的损失函数最小化它们之间的均方误差,如公式(9)所示:
Figure GDA0003771392630000036
其中,N表示一个训练批次的数据量,‖·‖2表示l2距离。
相对于现有技术,本发明至少具有如下优点:
本发明在训练阶段,给定同一个身份行人的完整图像和部分图像,使用完整行人网络提取完整图像的特征,用部分行人网络提取部分图像的特征,然后迫使部分行人网络的输出去模拟完整行人网络的输出,使得两个网络的特征空间一致。经过反向传播训练,全局相关性知识可以自然地从完整行人网络迁移到部分行人网络。
在实验的测试阶段,将测试集中的部分行人图像输入训练好的部分行人网络提取特征,将完整行人图像输入训练好的完整行人网络提取特征,由于两个网络的特征空间趋于一致,所以可以直接计算它们之间的相似度,增加判断部分行人身份的准确率。
附图说明
图1为本发明方法基于知识蒸馏的行人重识别方法的框架图。
图2为实验测试中部分图像到完整图像的测试过程框架图。
具体实施方式
下面对本发明作进一步详细说明。
完整行人图像与部分行人图像之间存在着信息的不对称,增加了在它们之间进行相似性度量的难度。本发明提出了一种全局相关性知识蒸馏(Global RelationalKnowledge Distillation,GRKD)方法,试图将从完整行人网络中学到的全局相关性知识迁移到部分行人网络。在训练阶段,给定同一个身份行人的完整图像和部分图像,使用完整行人网络提取完整图像的特征,用部分行人网络提取部分图像的特征,然后迫使部分行人网络的输出去模拟完整行人网络的输出,使得两个网络的特征空间一致。经过反向传播训练,全局相关性知识可以自然地从完整行人网络迁移到部分行人网络。
GRKD方法整体框架如图1所示,首先,从原始的完整行人图像经过随机裁剪得到部分行人图像,然后建立完整行人网络Nh,部分行人网络Np,分别以完整行人图像和与其对应的部分行人图像作为训练输入,最后通过损失函数的约束实现全局相关性知识从完整行人网络Nh到部分行人网络Np的传递,使得输出特征具有跨域的判别性。
参见图1,一种基于知识蒸馏的行人重识别方法,包括如下步骤:
S100:建立完整行人网络和部分行人网络,所述完整行人网络和部分行人网络具有相同的网络结构;
S200:从现有的公开数据集中获取多张完整行人图像构建数据库,将完整行人图像随机裁剪得到部分行人图像,初始化完整行人网络和部分行人网络的参数;
对于完整行人网络,以完整行人图像作为训练样本,提取训练样本的特征进行完整行人网络训练,对于每个训练样本,计算完整行人网络输出与对应的样本真实身份标签间的损失,反向传播更新完整行人网络参数,当损失不再下降,训练结束;
对于部分行人网络,以部分行人图像作为训练样本,提取训练样本的特征进行部分行人网络的训练,对于每个训练样本,计算部分行人网络输出与对应的样本真实身份标签间的损失,反向传播更新部分行人网络参数,当损失不再下降,训练结束;
S300:对于待预测图像,若待预测图像是完整行人图像,则将待预测图像输入训练好的完整行人网络中,训练好的完整行人网络计算待预测图像的特征与数据库中各图像的特征之间的距离,根据距离由大到小的顺序输出与待预测图像的特征之间距离排在前M的图像;
若待预测图像是部分行人图像,则将待预测图像输入训练好的部分行人网络中,训练好的部分行人网络计算待预测图像的特征与数据库中各图像的特征之间的距离,根据距离由大到小的顺序输出与待预测图像的特征之间距离排在前M的图像。
具体的,所述S100建立的完整行人网络Nh和部分行人网络Np以ResNet-50作为骨干网络,将每个图像映射到固定大小的向量表示,RW×H×3→RD,本发明中D=2048,骨干网络利用ImageNet预训练来初始化网络权重。ResNet-50网络为现有技术。
对原始的ResNet-50做了如下修改:将原始的ResNet-50最后一个ReLU激活函数和最终的分类层均使用BNNeck层代替,(即批量归一化层后接一个全连接层);为了从细粒度的空间细节中获益,将原始的ResNet-50最后一个残差块的步长从2减小到1。
具体的,所述S200中对于完整行人网络计算完整行人网络输出与对应的样本标签间的损失以及对于部分行人网络计算部分行人网络输出与对应的样本标签间的损失的方法相同,具体如下:
一般来说,行人重识别的性能在很大程度上取决于特征表示的鲁棒性。部分行人网络只接收不完整的行人图像作为输入,不能处理行人全局结构关系,因此输出的图像特征缺少全局相关性知识而不够鲁棒。为了解决这个问题,提出了GRKD方法,该方法迫使部分行人网络的输出去模拟完整行人网络的鲁棒性输出,使得两个网络的特征空间一致,通过反向传播算法,部分行人网络可以从完整行人特征中学习全局相关性知识。GRKD由三种类型的损失函数共同实现,一是基于特征的损失,二是基于距离矩阵的损失,最后是三元组损失。
构建整体损失,如公式(1)所示:
Figure GDA0003771392630000051
其中,LCE为交叉熵损失,LT为三元组损失,
Figure GDA0003771392630000052
为基于特征的损失,
Figure GDA0003771392630000053
为基于距离的损失;
Figure GDA0003771392630000054
其中,y表示输入图像真实的身份标签,
Figure GDA0003771392630000055
表示完整行人网络或部分行人网络的softmax层之后的输出身份标签与输出的特征向量是大小相等的矩阵。
总的三元组损失如公式(3)所示:
LT=LT_h+LT_p+LT_h2p+LT_p2h (3)
Figure GDA0003771392630000061
Figure GDA0003771392630000062
Figure GDA0003771392630000063
Figure GDA0003771392630000064
式(4)和式(5)的三元组损失是由完整行人网络和部分行人网络各自独立计算的,两个网络输出的特征并未相互联系。而GRKD的目的是希望完整行人特征和部分行人特征构成一个共享的特征空间,因此还需在两个网络之间交互地计算三元组损失。
其中,LT_h和LT_p分别表示完整行人网络和部分行人网络各自独立计算的三元组损失,
Figure GDA0003771392630000065
Figure GDA0003771392630000066
分别表示描点样本(anchor)的正样本集和负样本集,α表示三元组损失中约束正负样本对距离差异的阈值,d表示距离函数(欧氏距离或余弦距离),ha表示以完整行人图像作为锚点样本,hp表示以完整行人图像作为正样本,hn表示以完整行人图像作为负样本,pa表示以部分行人图像作为锚点样本,pp表示以部分行人图像作为正样本,pn表示以部分行人图像作为负样本。
LT_h2p表示以完整行人图像作为锚点样本,以部分行人图像作为正负样本构建的三元组损失,LT_p2h表示以部分行人图像作为锚点样本,以完整行人图像作为正负样本构建三元组损失;
除了让学生网络一对一地模拟教师网络的输出特征之外,GRKD还鼓励学生网络模拟教师网络跨样本的成对距离,这样对更好地学习到教师网络的嵌入空间结构有积极的意义。对于一个训练批次的第i和第j个图像,计算它们的完整行人图像特征之间的距离Dh[i,j],并且对于它们裁剪后的部分图像,计算它们的部分行人图像特征之间的距离Dp[i,j],距离代表了图像之间的相似性。相似的图像输入应该在教师网络和学生网络中有相似的激活模式,因此,基于距离矩阵的损失如公式(8)所示:
Figure GDA0003771392630000067
为了在一个共享的特征空间中迫使部分行人特征和与之对应的鲁棒的完整行人特征尽可能地接近,基于特征的损失函数最小化它们之间的均方误差,如公式(9)所示:
Figure GDA0003771392630000071
其中,N表示一个训练批次的数据量,‖·‖2表示l2距离。
实验测试
1.在测试阶段,每个待查询行人图像(query)都是部分图像,而查询库(gallery)里的所有行人图像都是完整图像,部分图像到完整图像的检索匹配过程如图2所示。具体来说,使用获得全局相关性知识后的部分行人网络来提取待查询行人图像特征,而查询库图像特征通过完整行人网络来提取。在特征提取后,计算待查询行人特征与每个查询库行人特征之间的距离,然后根据距离进行部分行人到完整行人的检索。
2.数据集
目前主要使用的数据集包括两个,即Partial-ReID数据集和Partial-iLIDS数据集。由于这两个数据集规模较小,所以评测协议规定所有样本都只作为测试集,采用Market-1501数据集的训练集作为训练集。Partial-ReID数据集包括总共60个行人ID的600张图像。其中毎个行人包含5张含有遮挡的半身图和5张全身图,半身图经过人工裁剪去除遮挡物保留人体部分。半身图中遮挡区域随机分布,因此上身、下身、侧身遮挡现象均存在。在检索过程中以所有半身图为query集,所有全身图为gallery集。值得注意的是,由于Partial-ReID数据集规模比较小,所以只评测CMC指标。Partial-iLIDS数据集总共包括119个行人的238张图片,即每个行人包含一张半身图和一张全身图。由于该数据集的采集环境是在机场,所以绝大部分图像的遮挡物为随身携带的行李箱,因此遮挡主要发生在下半身。测试时将所有半身图和全身图分别作为query集和gallery集,同样只评价CMC指标。
3.与现有方法的对比
如表1所示,本发明提出的方法使Rank-1指标在Partial-ReID和Partial-iLIDS上分别达到83.9%和70.4%。
表1 Partial-ReID和Partial-iLIDS数据集上与先进方法的对比
Figure GDA0003771392630000072
Figure GDA0003771392630000081
4.消融实验
为了验证GRKD方法的效果,本实验中,消除了某些或全部GRKD损失函数来训练网络,然后对比识别率。如表2和表3所示,当训练数据只使用未经裁剪(holistic)的Market-1501训练集,而测试集是裁剪后的Market-1501测试集时,识别率非常低,Rank-1和mAP指标仅分别有60.9%和30.4%,测试集为Partial-ReID和Partial-iLIDS时,Rank-1指标仅取得了42.8%和40.3%,这表明在完整图像数据和部分图像数据之间存在着巨大的领域间隔。当训练集采用裁剪后的Market-1501训练集,但并不使用GRKD方法来迁移全局相关性知识时,识别率有所上升,在裁剪后的Market-1501测试集上Rank-1和mAP指标分别为76.6%和53.8%,在Partial-ReID和Partial-iLIDS上Rank-1指标为65.3%和61.4%。随着几个GRKD损失的加入,识别率逐步提高,最终可以使得裁剪后的Market-1501测试集上Rank-1和mAP达到83.0%和61.8,在Partial-ReID和Partial-iLIDS上Rank-1指标达到83.9%和70.4%。这表明GRKD使得部分行人特征从完整行人网络的隐藏知识中获益,匹配精度得到了提升。
表2裁剪后的Market-1501测试集上的对比实验
Figure GDA0003771392630000082
表3 Partial-ReID和Partial-iLIDS上的对比实验
Figure GDA0003771392630000083
表2和表3中,holistic表示只使用完整行人图像训练网络,w/o GRKD表示不加入GRKD损失,
Figure GDA0003771392630000091
表示加入了基于特征的GRKD损失,
Figure GDA0003771392630000092
表示加入了基于特征的GRKD损失和基于距离矩阵的GRKD损失,
Figure GDA0003771392630000093
表示加入了基于特征的GRKD损失、基于距离矩阵的GRKD损失和基于三元组的GRKD损失。
最后说明的是,以上实施例仅用以说明本发明的技术方案而非限制,尽管参照较佳实施例对本发明进行了详细说明,本领域的普通技术人员应当理解,可以对本发明的技术方案进行修改或者等同替换,而不脱离本发明技术方案的宗旨和范围,其均应涵盖在本发明的权利要求范围当中。

Claims (2)

1.一种基于知识蒸馏的行人重识别方法,其特征在于,包括如下步骤:
S100:建立完整行人网络和部分行人网络,所述完整行人网络和部分行人网络具有相同的网络结构;
S200:从现有的公开数据集中获取多张完整行人图像构建数据库,将完整行人图像随机裁剪得到部分行人图像,初始化完整行人网络和部分行人网络的参数;
对于完整行人网络,以完整行人图像作为训练样本,提取训练样本的特征进行完整行人网络训练,对于每个训练样本,计算完整行人网络输出与对应的样本真实身份标签间的损失,反向传播更新完整行人网络参数,当损失不再下降,训练结束;
对于部分行人网络,以部分行人图像作为训练样本,提取训练样本的特征进行部分行人网络的训练,对于每个训练样本,计算部分行人网络输出与对应的样本真实身份标签间的损失,反向传播更新部分行人网络参数,当损失不再下降,训练结束;
全局相关性知识蒸馏方法GRKD,该GRKD迫使部分行人网络的输出去模拟完整行人网络的鲁棒性输出,使得两个网络的特征空间一致,通过反向传播算法,部分行人网络可以从完整行人特征中学习全局相关性知识;
对于完整行人网络计算完整行人网络输出与对应的样本标签间的损失以及对于部分行人网络计算部分行人网络输出与对应的样本标签间的损失的方法相同,具体如下:
构建整体损失,如公式(1)所示:
Figure FDA0003771392620000011
其中,LCE为交叉熵损失,LT为三元组损失,
Figure FDA0003771392620000012
为基于特征的损失,
Figure FDA0003771392620000013
为基于距离的损失;
Figure FDA0003771392620000014
其中,y表示输入图像真实的身份标签,
Figure FDA0003771392620000015
表示完整行人网络或部分行人网络的softmax层之后的输出;
总的三元组损失如公式(3)所示:
LT=LT_h+LT_p+LT_h2p+LT_p2h (3)
Figure FDA0003771392620000016
Figure FDA0003771392620000017
Figure FDA0003771392620000021
Figure FDA0003771392620000022
其中,LT_h和LT_p分别表示完整行人网络和部分行人网络各自独立计算的三元组损失,
Figure FDA0003771392620000023
Figure FDA0003771392620000024
分别表示描点样本(anchor)的正样本集和负样本集,α表示三元组损失中约束正负样本对距离差异的阈值,d表示距离函数,ha表示以完整行人图像作为锚点样本,hp表示以完整行人图像作为正样本,hn表示以完整行人图像作为负样本,pa表示以部分行人图像作为锚点样本,pp表示以部分行人图像作为正样本,pn表示以部分行人图像作为负样本;
LT_h2p表示以完整行人图像作为锚点样本,以部分行人图像作为正负样本构建的三元组损失,LT_p2h表示以部分行人图像作为锚点样本,以完整行人图像作为正负样本构建三元组损失;
对于一个训练批次的第i和第j个图像,计算它们的完整行人图像特征之间的距离Dh[i,j],并且对于它们裁剪后的部分图像,计算它们的部分行人图像特征之间的距离Dp[i,j],基于距离矩阵的损失如公式(8)所示:
Figure FDA0003771392620000025
基于特征的损失函数最小化它们之间的均方误差,如公式(9)所示:
Figure FDA0003771392620000026
其中,N表示一个训练批次的数据量,||·||2表示l2距离;
S300:对于待预测图像,若待预测图像是完整行人图像,则将待预测图像输入训练好的完整行人网络中,训练好的完整行人网络计算待预测图像的特征与数据库中各图像的特征之间的距离,根据距离由大到小的顺序输出与待预测图像的特征之间距离排在前M的图像;
若待预测图像是部分行人图像,则将待预测图像输入训练好的部分行人网络中,训练好的部分行人网络计算待预测图像的特征与数据库中各图像的特征之间的距离,根据距离由大到小的顺序输出与待预测图像的特征之间距离排在前M的图像。
2.如权利要求1所述的基于知识蒸馏的行人重识别方法,其特征在于,所述S100建立的完整行人网络Nh和部分行人网络Np以ResNet-50作为骨干网络,将每个图像映射到固定大小的向量表示,RW×H×3→RD
对原始的ResNet-50做了如下修改:将原始的ResNet-50最后一个ReLU激活函数和最终的分类层均使用BNNeck层代替,将原始的ResNet-50最后一个残差块的步长从2减小到1。
CN202110625592.6A 2021-06-04 2021-06-04 一种基于知识蒸馏的行人重识别方法 Active CN113269117B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110625592.6A CN113269117B (zh) 2021-06-04 2021-06-04 一种基于知识蒸馏的行人重识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110625592.6A CN113269117B (zh) 2021-06-04 2021-06-04 一种基于知识蒸馏的行人重识别方法

Publications (2)

Publication Number Publication Date
CN113269117A CN113269117A (zh) 2021-08-17
CN113269117B true CN113269117B (zh) 2022-12-13

Family

ID=77234344

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110625592.6A Active CN113269117B (zh) 2021-06-04 2021-06-04 一种基于知识蒸馏的行人重识别方法

Country Status (1)

Country Link
CN (1) CN113269117B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116052220B (zh) * 2023-02-07 2023-11-24 北京多维视通技术有限公司 行人重识别方法、装置、设备及介质

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109543537A (zh) * 2018-10-23 2019-03-29 北京市商汤科技开发有限公司 重识别模型增量训练方法及装置、电子设备和存储介质
CN110807434A (zh) * 2019-11-06 2020-02-18 威海若维信息科技有限公司 一种基于人体解析粗细粒度结合的行人重识别系统及方法
GB202001313D0 (en) * 2020-01-30 2020-03-18 Vision Semantics Ltd De-centralised learning for re-identification
CN111325115A (zh) * 2020-02-05 2020-06-23 山东师范大学 带有三重约束损失的对抗跨模态行人重识别方法和系统
CN111738048A (zh) * 2020-03-10 2020-10-02 重庆大学 一种行人再识别的方法
CN111814845A (zh) * 2020-03-26 2020-10-23 同济大学 一种基于多支流融合模型的行人重识别方法
WO2020249961A1 (en) * 2019-06-14 2020-12-17 Vision Semantics Limited Optimised machine learning
CN112560631A (zh) * 2020-12-09 2021-03-26 昆明理工大学 一种基于知识蒸馏的行人重识别方法
CN112597866A (zh) * 2020-12-16 2021-04-02 南京邮电大学 一种基于知识蒸馏的可见光-红外跨模态行人重识别方法

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107247989B (zh) * 2017-06-15 2020-11-24 北京图森智途科技有限公司 一种实时的计算机视觉处理方法及装置
CN110674714B (zh) * 2019-09-13 2022-06-14 东南大学 基于迁移学习的人脸和人脸关键点联合检测方法
CN112016591A (zh) * 2020-08-04 2020-12-01 杰创智能科技股份有限公司 一种图像识别模型的训练方法及图像识别方法
CN111709409B (zh) * 2020-08-20 2020-11-20 腾讯科技(深圳)有限公司 人脸活体检测方法、装置、设备及介质

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109543537A (zh) * 2018-10-23 2019-03-29 北京市商汤科技开发有限公司 重识别模型增量训练方法及装置、电子设备和存储介质
WO2020249961A1 (en) * 2019-06-14 2020-12-17 Vision Semantics Limited Optimised machine learning
CN110807434A (zh) * 2019-11-06 2020-02-18 威海若维信息科技有限公司 一种基于人体解析粗细粒度结合的行人重识别系统及方法
GB202001313D0 (en) * 2020-01-30 2020-03-18 Vision Semantics Ltd De-centralised learning for re-identification
CN111325115A (zh) * 2020-02-05 2020-06-23 山东师范大学 带有三重约束损失的对抗跨模态行人重识别方法和系统
CN111738048A (zh) * 2020-03-10 2020-10-02 重庆大学 一种行人再识别的方法
CN111814845A (zh) * 2020-03-26 2020-10-23 同济大学 一种基于多支流融合模型的行人重识别方法
CN112560631A (zh) * 2020-12-09 2021-03-26 昆明理工大学 一种基于知识蒸馏的行人重识别方法
CN112597866A (zh) * 2020-12-16 2021-04-02 南京邮电大学 一种基于知识蒸馏的可见光-红外跨模态行人重识别方法

Non-Patent Citations (5)

* Cited by examiner, † Cited by third party
Title
Distilled Person Re-identification: Towards a More Scalable System;Ancong Wu 等;《2019 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR)》;20200109;1187-1196 *
Pose-Guided Visible Part Matching for Occluded Person ReID;Shang Gao 等;《2020 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR)》;20200401;11741-11749 *
基于多阶段知识蒸馏的行人再识别;李粘粘;《通信技术》;20210331;第54卷(第3期);604-610 *
基于局部特征的行人重识别技术应用与研究;李承宸;《中国优秀博硕士学位论文全文数据库(硕士)信息科技辑》;20200815(第08期);I138-570 *
基于深度学习的行人重识别算法研究:从无遮挡到遮挡;罗浩;《中国优秀博硕士学位论文全文数据库(博士)信息科技辑》;20210115(第01期);I138-188 *

Also Published As

Publication number Publication date
CN113269117A (zh) 2021-08-17

Similar Documents

Publication Publication Date Title
CN111126360B (zh) 基于无监督联合多损失模型的跨域行人重识别方法
CN111652293B (zh) 一种多任务联合判别学习的车辆重识别方法
CN109299707A (zh) 一种基于模糊深度聚类的无监督行人再识别方法
CN109635726B (zh) 一种基于对称式深度网络结合多尺度池化的滑坡识别方法
CN111695531B (zh) 一种基于异构卷积网络的跨域行人再识别方法
CN113505719B (zh) 基于局部-整体联合知识蒸馏算法的步态识别模型压缩系统及方法
CN110852152A (zh) 一种基于数据增强的深度哈希行人重识别方法
CN105654122A (zh) 基于核函数匹配的空间金字塔物体识别方法
CN111291705B (zh) 一种跨多目标域行人重识别方法
CN113269117B (zh) 一种基于知识蒸馏的行人重识别方法
CN103324753B (zh) 基于共生稀疏直方图的图像检索方法
CN113065409A (zh) 一种基于摄像分头布差异对齐约束的无监督行人重识别方法
CN114579794A (zh) 特征一致性建议的多尺度融合地标图像检索方法及系统
CN114943937A (zh) 行人重识别方法、装置、存储介质及电子设备
CN114495004A (zh) 一种基于无监督跨模态的行人重识别方法
CN115830643B (zh) 一种姿势引导对齐的轻量行人重识别方法
CN113723558A (zh) 基于注意力机制的遥感图像小样本舰船检测方法
CN116543269B (zh) 基于自监督的跨域小样本细粒度图像识别方法及其模型
CN109241315A (zh) 一种基于深度学习的快速人脸检索方法
CN108121970A (zh) 一种基于差异矩阵和矩阵度量的行人重识别方法
CN117173702A (zh) 基于深度特征图融合的多视图多标记学习方法
CN115050044B (zh) 一种基于MLP-Mixer的跨模态行人重识别方法
CN114067356B (zh) 基于联合局部引导与属性聚类的行人重识别方法
Wang et al. Supervised high-level feature learning with label consistencies for object recognition
CN110941994B (zh) 一种基于元类基学习器的行人重识别集成方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant