CN111666843A - 一种基于全局特征和局部特征拼接的行人重识别方法 - Google Patents

一种基于全局特征和局部特征拼接的行人重识别方法 Download PDF

Info

Publication number
CN111666843A
CN111666843A CN202010451903.7A CN202010451903A CN111666843A CN 111666843 A CN111666843 A CN 111666843A CN 202010451903 A CN202010451903 A CN 202010451903A CN 111666843 A CN111666843 A CN 111666843A
Authority
CN
China
Prior art keywords
pedestrian
feature
loss function
global
features
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202010451903.7A
Other languages
English (en)
Other versions
CN111666843B (zh
Inventor
熊炜
熊子婕
熊子庆
杨荻椿
李敏
李利荣
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hubei University of Technology
Original Assignee
Hubei University of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hubei University of Technology filed Critical Hubei University of Technology
Priority to CN202010451903.7A priority Critical patent/CN111666843B/zh
Publication of CN111666843A publication Critical patent/CN111666843A/zh
Application granted granted Critical
Publication of CN111666843B publication Critical patent/CN111666843B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2415Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/253Fusion techniques of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/047Probabilistic or stochastic networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Abstract

本发明公开了一种基于全局特征和局部特征拼接的行人重识别方法,首先构建行人重识别网络;然后采用多损失函数策略对行人重识别网络分支有针对性的进行分开约束;接着采用多损失函数策略对行人重识别网络进行训练,通过对行人重识别网络结构的参数进行优化训练,得到训练好的行人重识别模型;最后在行人查询集中随机选取某个指定对象,将该对象的图像输入至训练好的行人重识别模型中,计算该指定对象和候选集中的每个对象的欧式距离,接着对计算得到的距离进行升序排序,从而获得行人重识别结果。本发明采用多损失函数策略对模型进行约束,通过对损失函数针对性的选择以提高模型的泛化能力。

Description

一种基于全局特征和局部特征拼接的行人重识别方法
技术领域
本发明属于数字图像处理、计算机视觉、人工智能技术领域,涉及一种行人重识别方法,特别是涉及一种基于全局特征与局部特征拼接的行人重识别方法。
背景技术
经济的快速发展带来了不同地域、不同城市间人员的频繁流动,近年来我国安装的监控视频设备呈爆炸式增长,随之而来的公共安全隐患让有关部门耗费了不少精力。随着计算机科学技术的不断进步,作为世界三大尖端技术之一的人工智能技术得到了迅速的发展。因此,为了保障人民生命财产安全,同时促进人工智能在公共安全领域的深度应用,利用人工智能建设和完善智能监控技术就显得非常必要。智能监控技术不仅能够减少监控视频数据后期处理中人员的时间和精力消耗,而且能够达到实时分析与实时反馈的效果。
行人是视频监控中的主体,而行人重识别技术主要是解决跨摄像头跨场景下行人的识别与检索问题。然而,与传统的图像识别与检索任务相比,行人重识别技术依然面临着很多挑战,例如:相机拍摄角度差异较大、行人姿态随时间和空间的变化会产生非常显著的变化、场景杂乱且有遮挡、白天晚上光照差异较大和行人更换服装配饰等。现有的行人重识别技术依然无法非常有效地解决上述挑战,所以对该项技术进行深入研究,提出更有效的方法解决上述挑战对行人重识别技术具有重大意义。同时,行人重识别技术的研究能够帮助我们解决在已建立的智慧社区、智慧医院和智慧校园等项目中存在的公共安全问题。
近年来,随着人工智能技术的发展,行人重识别技术研究得到了快速发展。目前行人重识别的研究主要分为两部分:基于特征表示的方法和基于度量学习的方法。由于真实的监控视频画面十分复杂,实际场景下的行人重识别研究存在挑战:设计一个良好的外观特征,使算法可以做到在不同视角下的不同监控图像中重新识别出同一个身份的行人。而一个好的外观特征应该对视角和照明的变化具有鲁棒性,并且在遮挡和检测器定位有误差的情况下也能具有良好的性能。最为成功的方法是一些基于有监督学习的深度卷积神经网络方法。通过设计合适的网络结构与使用合适的损失函数最终可以获得具有判别力的外观特征。
但目前行人重识别技术在实际场景中的应用还存在着一些差距,行人重识别技术仍然存在巨大的挑战,主要表现在以下几个方面:
(1)人物的姿势变化、视角变化导致提取特征的变化;
(2)混乱的背景和光照变化对特征提取造成干扰;
(3)在人口密集的区域或者由于物体遮挡,采集的行人图像部分缺失。
发明内容
为了解决上述技术问题,本发明提供了一种基于全局特征与局部特征拼接的行人重识别方法,重点在于设计了鲁棒性强的行人图像特征表达方法,即模型提取的行人特征能够很好的区分不同行人,同时所提取的行人特征受光照和视角变化影响小。
本发明所采用的技术方案是:一种基于全局特征和局部特征拼接的行人重识别方法,其特征在于,包括以下步骤:
步骤1:构建行人重识别网络;
将行人图像训练集输入至ResNet50-IBN-a网络,提取行人图像训练集中行人图像的全局特征和行人图像训练集中行人图像的局部特征,并融合行人全局特征与局部特征为最终图像特征;其中,ResNet50-IBN-a网络将实例归一化和批量归一化操作联合在一起应用于ResNet50网络中;
步骤2:采用多损失函数策略对行人重识别网络分支有针对性的进行分开约束;其中,针对全局特征采用排序表损失函数和标签平滑损失函数,对局部特征仅采用softmaxloss损失函数;
步骤3:采用步骤2中所述多损失函数策略对步骤1中所述的行人重识别网络进行训练,通过对行人重识别网络结构的参数进行优化训练,得到训练好的行人重识别模型;
步骤4:在行人查询集中随机选取某个指定对象,将该对象的图像输入至步骤3训练好的行人重识别模型中,计算该指定对象和候选集中的每个对象的欧式距离,接着对计算得到的距离进行升序排序,从而获得行人重识别结果。
相对于现有技术,本发明的有益效果是:
(1)由于行人图像数据集中大多数行人图像很相似且个体差异较小,为提取更具判别性的行人图像特征,本发明利用ResNet50-IBN-a网络提取行人图像特征,首先采用多次提取网络多层特征并进行拼接获取行人图像的全局特征;其次分为两个分支分别对简单处理后的行人特征进行水平切割提取行人局部特征;最终将全局与局部特征拼接作为行人图像的特征属性。
(2)由于不同的损失函数具有不同的特点,学习到的特征重点也会有差异,如果对不同的行人图像特征使用相同的损失函数,会让模型学到无用的特征,降低模型的准确率。本发明在损失函数的使用过程中,采用多损失函数策略对模型进行约束,对全局特征采用排序表损失函数和标签平滑损失函数,对局部特征仅采用softmax loss损失函数,通过对损失函数针对性的选择以提高模型的泛化能力。
附图说明
图1为本发明实施例的流程图;
图2为本发明实施例的行人重识别网络结构图;
图3为本发明实施例的ResNet50-IBN-a内部结构图。
具体实施方式
为了便于本领域普通技术人员理解和实施本发明,下面结合附图及实施例对本发明作进一步的详细描述,应当理解,此处所描述的实施示例仅用于说明和解释本发明,并不用于限定本发明。
请见图1,本发明提供的一种基于全局特征和局部特征拼接的行人重识别方法,包括以下步骤:
步骤1:构建行人重识别网络;
请见图2,为本实施例提出的基于全局特征与局部特征拼接的行人重识别网络框架,首先利用卷积层和池化层多次提取网络多层特征,使用拼接后的多层特征作为行人图像的全局特征属性;其次,将网络分两个分支分别对行人图像的特征进行水平切割提取更细粒度的行人局部特征属性,补充学习行人图像中不显著的特征;最后将全局与局部特征拼接作为行人图像的特征属性。采用多损失函数策略对网络分支有针对性的进行分开约束,针对全局特征采用排序表损失函数和标签平滑损失函数,对局部特征仅采用softmaxloss损失函数。
本实施例将行人图像训练集输入至ResNet50-IBN-a网络,其网络内部结构如图3所示,提取行人图像训练集中行人图像的全局特征和行人图像训练集中行人图像的局部特征,并融合行人全局特征与局部特征为最终图像特征;其中,ResNet50-IBN-a网络将实例归一化和批量归一化操作联合在一起应用于ResNet50网络中;
本实施例中,提取行人图像训练集中行人图像的全局特征,具体实现包括以下子步骤:
步骤1.1.1:在ResNet50-IBN-a网络的每个卷积块的残差学习单元块中,将1×1卷积得到的通道数为64的特征分为两半,其中一半32通道的特征进行实例归一化操作,另外32通道的特征仍然进行批量归一化操作,这样不仅保留了图像的风格和内容信息,而且没有增加模型的参数和计算量,本发明将运用ResNet50-IBN-a网络提取行人图像的特征属性。
步骤1.1.2:将ResNet50-IBN-a网络的conv3_x、conv4_x和conv5_x卷积块输出的行人全局特征映射:f1、f2和f提取出来,获得图像多层次的全局特征属性表示,conv3_x和conv4_x卷积块提取的两个中间层全局特征f1、f2的维度分别为512和1024,对这两个不同尺度的中间层特征分别采用平均池化方法,获得2048维的中间层全局特征f1、f2
步骤1.1.3:将步骤1.2获得的两个2048维的中间层全局特征f1、f2与网络conv5_x卷积块输出平均池化操作后的2048维的全局特征f拼接为最终的行人图像全局特征fg=[f,f1,f2]。
本实施例中,提取行人图像训练集中行人图像的局部特征,具体实现包括以下子步骤:
步骤1.2.1:在提取图像的局部特征时,为保证水平分割后每个子区域有更充分的行人信息,本实施例首先对conv5_x卷积块输出的特征进行1×1卷积处理,将其尺度扩充为[16,8,2048],同时conv4_x输出行人特征映射也进行平均池化处理增加维度,其尺度也变为[16,8,2048],然后将卷积处理后尺度相同的conv4_x的行人特征映射与conv5_x的行人特征映射拼接得到全局特征fc,其尺度大小为[16,8,2048],后续对全局特征fc特征进行水平分块操作获取行人图像的局部特征;
步骤1.2.2:根据人体生态学结构的构成,本实施例将将拼接得到的行人全局特征映射fc按照头、上半身和下半身三部分进行水平分割,按照2:7:7的比例将fc水平分割成3个子区域,3个子区域局部特征的尺寸大小分别为[2,8,2048]、[7,8,2048]和[7,8,2048];对3个子区域分别进行最大池化处理,得到尺寸均为[1,1,2048]的3个子区域;最终将3个子区域的行人局部特征拼接在一起,得到局部特征fp-2,其尺寸大小为[1,1,2048];
步骤1.2.3:为获得更细粒度的行人特征信息,本实施例将将拼接得到的行人全局特征fc水平分割成6个子区域,首先将fc进行卷积处理得到尺寸大小为[6,8,2048]的行人全局特征,然后其水平分割成6个尺寸大小为[1,8,2048]的子区域,接着分别进行最大池化处理,得到尺寸均为[1,1,2048]的6个子区域;最终将6个子区域的行人局部特征映射拼接在一起,得到局部特征映射fp-3,其尺寸大小为[1,1,2048]。
本实施例中,融合行人全局特征与局部特征为最终图像特征,是将fg、fp-2和fp-3进行最后的拼接,得到最后的行人图像特征ffu=[fg,fp-2,fp-3]。
步骤2:采用多损失函数策略对行人重识别网络分支有针对性的进行分开约束;其中,针对全局特征采用排序表损失函数和标签平滑损失函数,对局部特征仅采用softmaxloss损失函数;
本实施例中,排序表损失通过约束目标样本与类内样本的特征距离和类间样本的特征距离来提高性能,将类内样本与类间样本的特征距离以m间隔开,类内样本的特征距离允许存在α-m的分布误差,最终类内样本全部集中于以α-m为半径的球体内,类内样本与类间样本的特征距离为m。
假设目标样本为
Figure BDA0002506140210000053
为使类内样本集P距离越小,并与负样本集N的类间距离存在着m的间隔,同时类内样本集的类内边界为α。故排序表损失函数中类内样本的损失函数如式(1)所示,
Figure BDA0002506140210000051
其中,
Figure BDA0002506140210000052
为行人类别c中的第i个行人图像的特征,f为行人图像的特征。
排序表损失函数中正样本的损失函数如式(2)所示,由于负样本数量较大,故对负样本采用加权方式。
Figure BDA0002506140210000061
其中,N为负样本集;wij为权值,wij=exp(T·(α-dij)),dij
Figure BDA0002506140210000062
Figure BDA0002506140210000063
之间的距离,T是温度因子,当T=0时所有负样本都是一样的,即无难样本挖掘,当T=+∞时为难样本挖掘。
最终,排序表损失函数为式(3)所示:
Figure BDA0002506140210000064
本实施例中,行人训练样本通常会存在少量的错误标签,这些错误标签可能会影响预测结果,标签平滑损失函数被用来防止模型在训练过程中过度依赖标签。当输入行人图像i时,yi为图像中行人的标签,若yi为类别i其值为1,否则为0。本发明对行人标签进行了平滑处理,在每次训练过程中,给标签设置一个错误率ε,则实际标注的行人标签y′i如式(4)所示:
Figure BDA0002506140210000065
qi是网络预测实际标注的行人标签yi′为类别i的概率,如式(5)所示:
Figure BDA0002506140210000066
其中,M为数据集中的行人个数,由交叉熵损失函数可得标签平滑损失如式(6)所示:
Figure BDA0002506140210000067
其中,qi是网络预测实际标注的行人标签yi′为类别i的概率;pi为网络预测标签yi为类别i的概率,K为行人类别的数量;
本实施例中,softmax是由sigmoid扩展而来,主要用来处理多分类问题。softmax一般为分类任务中卷积神经网络的输出层,函数输出为类别选择的概率,假设要将样本分成M类,softmax根据样本大小输出类别的选择概率。假如有一个样本集N,Ni表示样本集N中的第i个样本,则这个样本的softmax值为
Figure BDA0002506140210000071
j为类别数。为使算法在计算过程中更稳定,softmax和交叉熵损失组合在一起称为softmax loss函数,如式(7)所示:
Figure BDA0002506140210000072
其中,f(xi)表示输出样本x的第i个值,即这个样本属于j类的概率。
本实施例中,采用多损失函数策略。由于不同的损失函数具有不同的特点,学习到的特征重点也会有差异。针对不同分支,本发明提出了多损失函数策略,使用不同的损失函数融合的方法,训练出性能更好的网络。
针对全局特征分支,采用排序表损失函数与标签平滑损失函数联合,全局特征的损失函数为:Lg=LRll+Lid
针对局部特征,仅采用softmax loss损失函数进行约束,局部特征的损失函数为:Lp=Lsl
最终,本发明所提的针对全局特征与局部特征的多损失函数为:L=Lg+Lp
步骤3:采用步骤2中多损失函数策略对步骤1中的行人重识别网络进行训练,通过对行人重识别网络结构的参数进行优化训练,得到训练好的行人重识别模型;
步骤4:在行人查询集中随机选取某个指定对象,将该对象的图像输入至步骤3训练好的行人重识别模型中,计算该指定对象和候选集中的每个对象的欧式距离,接着对计算得到的距离进行升序排序,从而获得行人重识别结果。
应当理解的是,本说明书未详细阐述的部分均属于现有技术;上述针对较佳实施例的描述较为详细,并不能因此而认为是对本发明专利保护范围的限制,本领域的普通技术人员在本发明的启示下,在不脱离本发明权利要求所保护的范围情况下,还可以做出替换或变形,均落入本发明的保护范围之内,本发明的请求保护范围应以所附权利要求为准。

Claims (8)

1.一种基于全局特征和局部特征拼接的行人重识别方法,其特征在于,包括以下步骤:
步骤1:构建行人重识别网络;
将行人图像训练集输入至ResNet50-IBN-a网络,提取行人图像训练集中行人图像的全局特征和行人图像训练集中行人图像的局部特征,并融合行人全局特征与局部特征为最终图像特征;其中,ResNet50-IBN-a网络将实例归一化和批量归一化操作联合在一起应用于ResNet50网络中;
步骤2:采用多损失函数策略对行人重识别网络分支有针对性的进行分开约束;其中,针对全局特征采用排序表损失函数和标签平滑损失函数,对局部特征仅采用softmaxloss损失函数;
步骤3:采用步骤2中所述多损失函数策略对步骤1中所述的行人重识别网络进行训练,通过对行人重识别网络结构的参数进行优化训练,得到训练好的行人重识别模型;
步骤4:在行人查询集中随机选取某个指定对象,将该对象的图像输入至步骤3训练好的行人重识别模型中,计算该指定对象和候选集中的每个对象的欧式距离,接着对计算得到的距离进行升序排序,从而获得行人重识别结果。
2.根据权利要求1中所述的基于全局特征和局部特征拼接的行人重识别方法,其特征在于,步骤1中所述提取行人图像训练集中行人图像的全局特征,具体实现包括以下子步骤:
步骤1.1.1:在ResNet50-IBN-a网络的每个卷积块的残差学习单元块中,将1×1卷积得到的通道数为64的特征分为两半,其中一半32通道的特征进行实例归一化操作,另外32通道的特征仍然进行批量归一化操作;
步骤1.1.2:将ResNet50-IBN-a网络的conv3_x、conv4_x和conv5_x卷积块输出的行人全局特征映射:f1、f2和f提取出来,获得图像多层次的全局特征属性表示,conv3_x和conv4_x卷积块提取的两个中间层全局特征f1、f2的维度分别为512和1024,对这两个不同尺度的中间层特征分别采用平均池化方法,获得2048维的中间层全局特征f1、f2
步骤1.1.3:将步骤1.2获得的两个2048维的中间层全局特征f1、f2与网络conv5_x卷积块输出平均池化操作后的2048维的全局特征f拼接为最终的行人图像全局特征fg=[f,f1,f2]。
3.根据权利要求2中所述的基于全局特征和局部特征拼接的行人重识别方法,其特征在于,步骤1中所述提取行人图像训练集中行人图像的局部特征,具体实现包括以下子步骤:
步骤1.2.1:首先对conv5_x卷积块输出的特征进行1×1卷积处理,将其尺度扩充为[16,8,2048],同时conv4_x输出行人特征映射也进行平均池化处理增加维度,其尺度也变为[16,8,2048],然后将卷积处理后尺度相同的conv4_x的行人特征映射与conv5_x的行人特征映射拼接得到全局特征fc,其尺度大小为[16,8,2048],后续对全局特征fc特征进行水平分块操作获取行人图像的局部特征;
步骤1.2.2:将拼接得到的行人全局特征映射fc按照头、上半身和下半身三部分进行水平分割,按照2:7:7的比例将fc水平分割成3个子区域,3个子区域局部特征的尺寸大小分别为[2,8,2048]、[7,8,2048]和[7,8,2048];对3个子区域分别进行最大池化处理,得到尺寸均为[1,1,2048]的3个子区域;最终将3个子区域的行人局部特征拼接在一起,得到局部特征fp-2,其尺寸大小为[1,1,2048];
步骤1.2.3:将拼接得到的行人全局特征fc水平分割成6个子区域,首先将fc进行卷积处理得到尺寸大小为[6,8,2048]的行人全局特征,然后其水平分割成6个尺寸大小为[1,8,2048]的子区域,接着分别进行最大池化处理,得到尺寸均为[1,1,2048]的6个子区域;最终将6个子区域的行人局部特征映射拼接在一起,得到局部特征映射fp-3,其尺寸大小为[1,1,2048]。
4.根据权利要求3中所述的基于全局特征和局部特征拼接的行人重识别方法,其特征在于,步骤1中所述融合行人全局特征与局部特征为最终图像特征,是将fg、fp-2和fp-3进行最后的拼接,得到最后的行人图像特征ffu=[fg,fp-2,fp-3]。
5.根据权利要求1中所述的基于全局特征和局部特征拼接的行人重识别方法,其特征在于,步骤2中所述排序表损失函数为:
Figure FDA0002506140200000031
其中,
Figure FDA0002506140200000032
为排序表损失函数中类内样本的损失函数,
Figure FDA0002506140200000033
为排序表损失函数中正样本的损失函数;
Figure FDA0002506140200000034
为行人类别c中的第i个行人图像的特征,f为行人图像的特征;
排序表损失通过约束目标样本与类内样本的特征距离和类间样本的特征距离来提高性能,将类内样本与类间样本的特征距离以m间隔开,类内样本的特征距离允许存在α-m的分布误差,最终类内样本全部集中于以α-m为半径的球体内,类内样本与类间样本的特征距离为m;
假设目标样本为
Figure FDA0002506140200000035
为使类内样本集P距离越小,并与负样本集N的类间距离存在着m的间隔,同时类内样本集的类内边界为α;
则排序表损失函数中类内样本的损失函数为:
Figure FDA0002506140200000036
排序表损失函数中正样本的损失函数为:
Figure FDA0002506140200000037
其中,N为负样本集;wij为权值,wij=exp(T·(α-dij)),dij
Figure FDA0002506140200000038
Figure FDA0002506140200000039
之间的距离,T是温度因子,当T=0时所有负样本都是一样的,即无难样本挖掘,当T=+∞时为难样本挖掘。
6.根据权利要求1中所述的基于全局特征和局部特征拼接的行人重识别方法,其特征在于,步骤2中所述标签平滑损失函数为:
Figure FDA00025061402000000310
其中,qi是网络预测实际标注的行人标签yi′为类别i的概率;pi为网络预测标签yi为类别i的概率,K为行人类别的数量;
当输入行人图像i时,yi为图像中行人的标签,若yi为类别i其值为1,否则为0;对行人标签进行了平滑处理,在每次训练过程中,给标签设置一个错误率ε,则实际标注的行人标签y′i为:
Figure FDA0002506140200000041
则qi为:
Figure FDA0002506140200000042
其中,M为数据集中的行人个数。
7.根据权利要求1中所述的基于全局特征和局部特征拼接的行人重识别方法,其特征在于,步骤2中所述softmaxloss损失函数为:
Figure FDA0002506140200000043
其中,f(xi)表示输出样本x的第i个值,即这个样本属于j类的概率;
假设将样本分成M类,softmax根据样本大小输出类别的选择概率;假如有一个样本集N,Ni表示样本集N中的第i个样本,则这个样本的softmax值为
Figure FDA0002506140200000044
j为类别数;softmax和交叉熵损失组合在一起称为softmax loss函数。
8.根据权利要求1中所述的基于全局特征和局部特征拼接的行人重识别方法,其特征在于:步骤2中针对全局特征分支,采用排序表损失函数LRll与标签平滑损失函数Lid联合,全局特征的损失函数为:Lg=LRll+Lid;针对局部特,仅采用softmax loss损失函数Lsl进行约束,局部特征的损失函数为:Lp=Lsl;针对全局特征与局部特征的多损失函数为:L=Lg+Lp
CN202010451903.7A 2020-05-25 2020-05-25 一种基于全局特征和局部特征拼接的行人重识别方法 Active CN111666843B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010451903.7A CN111666843B (zh) 2020-05-25 2020-05-25 一种基于全局特征和局部特征拼接的行人重识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010451903.7A CN111666843B (zh) 2020-05-25 2020-05-25 一种基于全局特征和局部特征拼接的行人重识别方法

Publications (2)

Publication Number Publication Date
CN111666843A true CN111666843A (zh) 2020-09-15
CN111666843B CN111666843B (zh) 2023-04-28

Family

ID=72384635

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010451903.7A Active CN111666843B (zh) 2020-05-25 2020-05-25 一种基于全局特征和局部特征拼接的行人重识别方法

Country Status (1)

Country Link
CN (1) CN111666843B (zh)

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112084998A (zh) * 2020-09-22 2020-12-15 杭州云栖智慧视通科技有限公司 一种基于属性信息辅助的行人再识别方法
CN112101300A (zh) * 2020-11-02 2020-12-18 北京妙医佳健康科技集团有限公司 药材识别方法、装置及电子设备
CN112560604A (zh) * 2020-12-04 2021-03-26 中南大学 一种基于局部特征关系融合的行人重识别方法
CN112699855A (zh) * 2021-03-23 2021-04-23 腾讯科技(深圳)有限公司 基于人工智能的图像场景识别方法、装置及电子设备
CN113128461A (zh) * 2021-05-06 2021-07-16 东南大学 基于人体关键点挖掘全尺度特征的行人重识别性能提升方法
CN113269070A (zh) * 2021-05-18 2021-08-17 重庆邮电大学 融合全局和局部特征的行人重识别方法、存储器及处理器
CN113392766A (zh) * 2021-06-16 2021-09-14 哈尔滨理工大学 一种基于注意力机制的人脸表情识别方法
CN113408492A (zh) * 2021-07-23 2021-09-17 四川大学 一种基于全局-局部特征动态对齐的行人重识别方法
CN113627380A (zh) * 2021-08-20 2021-11-09 中国矿业大学 一种用于智能安防及预警的跨视域行人重识别方法及系统
CN113936301A (zh) * 2021-07-02 2022-01-14 西北工业大学 基于中心点预测损失函数的目标重识别方法
CN114581858A (zh) * 2022-05-06 2022-06-03 中科智为科技(天津)有限公司 一种小股人群重识别方法及模型训练方法
CN117351522A (zh) * 2023-12-06 2024-01-05 云南联合视觉科技有限公司 基于风格注入与跨视角难样本挖掘的行人重识别方法
CN117612266A (zh) * 2024-01-24 2024-02-27 南京信息工程大学 基于多尺度图像及特征层对齐的跨分辨率行人重识别方法

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107316031A (zh) * 2017-07-04 2017-11-03 北京大学深圳研究生院 用于行人重识别的图像特征提取方法
CN109101865A (zh) * 2018-05-31 2018-12-28 湖北工业大学 一种基于深度学习的行人重识别方法
CN109784258A (zh) * 2019-01-08 2019-05-21 华南理工大学 一种基于多尺度特征切割与融合的行人重识别方法
CN109902658A (zh) * 2019-03-15 2019-06-18 百度在线网络技术(北京)有限公司 行人特征识别方法、装置、计算机设备和存储介质
CN109961051A (zh) * 2019-03-28 2019-07-02 湖北工业大学 一种基于聚类和分块特征提取的行人重识别方法
CN109977823A (zh) * 2019-03-15 2019-07-05 百度在线网络技术(北京)有限公司 行人识别跟踪方法、装置、计算机设备和存储介质
CN110569779A (zh) * 2019-08-28 2019-12-13 西北工业大学 基于行人局部和整体属性联合学习的行人属性识别方法
CN110717411A (zh) * 2019-09-23 2020-01-21 湖北工业大学 一种基于深层特征融合的行人重识别方法
CN110728263A (zh) * 2019-10-24 2020-01-24 中国石油大学(华东) 一种基于距离选择的强判别特征学习的行人重识别方法
CN110796026A (zh) * 2019-10-10 2020-02-14 湖北工业大学 一种基于全局特征拼接的行人重识别方法

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107316031A (zh) * 2017-07-04 2017-11-03 北京大学深圳研究生院 用于行人重识别的图像特征提取方法
WO2019007004A1 (zh) * 2017-07-04 2019-01-10 北京大学深圳研究生院 用于行人重识别的图像特征提取方法
CN109101865A (zh) * 2018-05-31 2018-12-28 湖北工业大学 一种基于深度学习的行人重识别方法
CN109784258A (zh) * 2019-01-08 2019-05-21 华南理工大学 一种基于多尺度特征切割与融合的行人重识别方法
CN109902658A (zh) * 2019-03-15 2019-06-18 百度在线网络技术(北京)有限公司 行人特征识别方法、装置、计算机设备和存储介质
CN109977823A (zh) * 2019-03-15 2019-07-05 百度在线网络技术(北京)有限公司 行人识别跟踪方法、装置、计算机设备和存储介质
CN109961051A (zh) * 2019-03-28 2019-07-02 湖北工业大学 一种基于聚类和分块特征提取的行人重识别方法
CN110569779A (zh) * 2019-08-28 2019-12-13 西北工业大学 基于行人局部和整体属性联合学习的行人属性识别方法
CN110717411A (zh) * 2019-09-23 2020-01-21 湖北工业大学 一种基于深层特征融合的行人重识别方法
CN110796026A (zh) * 2019-10-10 2020-02-14 湖北工业大学 一种基于全局特征拼接的行人重识别方法
CN110728263A (zh) * 2019-10-24 2020-01-24 中国石油大学(华东) 一种基于距离选择的强判别特征学习的行人重识别方法

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
冯川: "基于深度学习的行人重识别技术研究" *
熊炜;冯川;熊子婕;王娟;刘敏: "基于CNN的改进行人重识别技术" *
熊炜;杨荻椿;熊子婕;童磊;李利荣: "基于全局特征拼接的行人重识别算法研究" *
熊炜;熊子婕;杨荻椿;童磊;刘敏: "基于深层特征融合的行人重识别方法" *

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112084998A (zh) * 2020-09-22 2020-12-15 杭州云栖智慧视通科技有限公司 一种基于属性信息辅助的行人再识别方法
CN112101300A (zh) * 2020-11-02 2020-12-18 北京妙医佳健康科技集团有限公司 药材识别方法、装置及电子设备
CN112560604A (zh) * 2020-12-04 2021-03-26 中南大学 一种基于局部特征关系融合的行人重识别方法
CN112699855B (zh) * 2021-03-23 2021-10-22 腾讯科技(深圳)有限公司 基于人工智能的图像场景识别方法、装置及电子设备
CN112699855A (zh) * 2021-03-23 2021-04-23 腾讯科技(深圳)有限公司 基于人工智能的图像场景识别方法、装置及电子设备
CN113128461A (zh) * 2021-05-06 2021-07-16 东南大学 基于人体关键点挖掘全尺度特征的行人重识别性能提升方法
CN113269070A (zh) * 2021-05-18 2021-08-17 重庆邮电大学 融合全局和局部特征的行人重识别方法、存储器及处理器
CN113392766A (zh) * 2021-06-16 2021-09-14 哈尔滨理工大学 一种基于注意力机制的人脸表情识别方法
CN113936301A (zh) * 2021-07-02 2022-01-14 西北工业大学 基于中心点预测损失函数的目标重识别方法
CN113936301B (zh) * 2021-07-02 2024-03-12 西北工业大学 基于中心点预测损失函数的目标重识别方法
CN113408492A (zh) * 2021-07-23 2021-09-17 四川大学 一种基于全局-局部特征动态对齐的行人重识别方法
CN113408492B (zh) * 2021-07-23 2022-06-14 四川大学 一种基于全局-局部特征动态对齐的行人重识别方法
CN113627380A (zh) * 2021-08-20 2021-11-09 中国矿业大学 一种用于智能安防及预警的跨视域行人重识别方法及系统
CN113627380B (zh) * 2021-08-20 2024-03-15 中国矿业大学 一种用于智能安防及预警的跨视域行人重识别方法及系统
CN114581858A (zh) * 2022-05-06 2022-06-03 中科智为科技(天津)有限公司 一种小股人群重识别方法及模型训练方法
CN117351522A (zh) * 2023-12-06 2024-01-05 云南联合视觉科技有限公司 基于风格注入与跨视角难样本挖掘的行人重识别方法
CN117612266A (zh) * 2024-01-24 2024-02-27 南京信息工程大学 基于多尺度图像及特征层对齐的跨分辨率行人重识别方法
CN117612266B (zh) * 2024-01-24 2024-04-19 南京信息工程大学 基于多尺度图像及特征层对齐的跨分辨率行人重识别方法

Also Published As

Publication number Publication date
CN111666843B (zh) 2023-04-28

Similar Documents

Publication Publication Date Title
CN111666843B (zh) 一种基于全局特征和局部特征拼接的行人重识别方法
Ye et al. PurifyNet: A robust person re-identification model with noisy labels
CN111709311B (zh) 一种基于多尺度卷积特征融合的行人重识别方法
CN107330396B (zh) 一种基于多属性和多策略融合学习的行人再识别方法
CN111259786B (zh) 一种基于视频的外观和运动信息同步增强的行人重识别方法
CN109190479A (zh) 一种基于混合深度学习的视频序列表情识别方法
CN110807434B (zh) 一种基于人体解析粗细粒度结合的行人重识别系统及方法
CN108108657A (zh) 一种基于多任务深度学习的修正局部敏感哈希车辆检索方法
CN108537136A (zh) 基于姿态归一化图像生成的行人重识别方法
CN108256421A (zh) 一种动态手势序列实时识别方法、系统及装置
CN110717411A (zh) 一种基于深层特征融合的行人重识别方法
CN109598268A (zh) 一种基于单流深度网络的rgb-d显著目标检测方法
CN111178208A (zh) 基于深度学习的行人检测方法、装置及介质
CN107133569A (zh) 基于泛化多标记学习的监控视频多粒度标注方法
CN108427740B (zh) 一种基于深度度量学习的图像情感分类与检索算法
CN109829414B (zh) 一种基于标签不确定性和人体组件模型的行人再识别方法
TWI525574B (zh) 協作性人臉標註方法以及協作性人臉標註系統
CN109492528A (zh) 一种基于高斯和深度特征的行人再识别方法
CN112149538A (zh) 一种基于多任务学习的行人重识别方法
CN110956158A (zh) 一种基于教师学生学习框架的遮挡行人再标识方法
CN111401132A (zh) 监控场景下高层语义指导的行人属性识别方法
Oluwasammi et al. Features to text: a comprehensive survey of deep learning on semantic segmentation and image captioning
CN112381987A (zh) 基于人脸识别的智能门禁防疫系统
CN116778530A (zh) 一种基于生成模型的跨外观行人重识别检测方法
CN117011883A (zh) 一种基于金字塔卷积和Transformer双分支的行人重识别方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant