CN112686135B - 基于分布拟合的可泛化的行人重识别方法 - Google Patents
基于分布拟合的可泛化的行人重识别方法 Download PDFInfo
- Publication number
- CN112686135B CN112686135B CN202011588793.5A CN202011588793A CN112686135B CN 112686135 B CN112686135 B CN 112686135B CN 202011588793 A CN202011588793 A CN 202011588793A CN 112686135 B CN112686135 B CN 112686135B
- Authority
- CN
- China
- Prior art keywords
- pedestrian
- neural network
- image
- identification
- network model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Image Analysis (AREA)
Abstract
本发明公开了一种基于分布拟合的可泛化的行人重识别方法,包括选取原始的神经网络模型;获取训练数据集,训练神经网络模型得到初步行人重识别模型;获取测试数据集,测试和修正初步行人重识别模型得到最终的行人重识别模型;实时获取行人图像,采用行人重识别模型进行识别并完成行人的重识别。本发明有效地减少了图像分布差异引起的性能下降,同时提升模型的泛化能力来适应不同场景;因此本发明方法不仅解决了图像分布差异所引起的性能下降问题,而且提升了模型的泛化能力,同时可靠性高、泛化性好而且精确度高。
Description
技术领域
本发明属于图像处理领域,具体涉及一种基于分布拟合的可泛化的行人重识别方法。
背景技术
随着经济技术的发展和人们生活水平的提高,公共安全也成为了人们越来越关注的方面之一。公共安全,是指社会和公民个人从事和进行正常的生活、工作、学习、娱乐和交往所需要的稳定的外部环境和秩序。维护社会公共安全,对于国家和公民均具有重要意义。
在维护公共安全的工作中,监控系统承担着巨大的作用。监控系统最为常用的功能之一是帮助找到特定的行人,例如帮助警方找到罪犯、走失儿童等,但是想要准确且快速地定位到特定行人,仅仅利用现有人为控制的监控系统,显然是不现实的。
如今的监控系统大多依靠人眼来对大量监控视频中的行人进行辨认,从而找到特定的行人。但是这一过程是十分低效并且成本极高的,不仅需要雇佣大量人员来辨识监控视频,而且靠人眼来进行识别是对人力资源的浪费。同时,由于一般监控视频中行人的人脸特征难以获取,因此一般的人脸识别方法无法应用到监控系统中。
因此,为了帮助监控系统更好地定位到特定的行人,基于计算机辅助的行人重识别技术应运而生。针对全监督行人重识别,研究学者们开展了大量研究工作,然而在这些研究中,模型训练和测试都在相同场景下进行,即研究所用行人图像都拍摄于短时间内并且拍摄范围较小,因此这些图像之间的分布差异较小。在这一类场景下,各种深度学习算法取得了很好的效果。
但是这类算法大多仅仅考虑了较为理想的场景,即小范围、短时间内的行人重识别,通常图像数据都采集于大学校园内。然而,想要将行人重识别技术真正应用到实际生活场景中来,首先需要保证算法模型在多场景变换下依然能够保持良好的泛化性能,因为实际中的监控系统往往范围较广、时间跨度大,导致所拍摄图像的分布难以保持一致。但可惜的是现有全监督的行人重识别算法泛化能力不佳,在应用于不同分布图像的时候性能往往较差。
发明内容
本发明的目的在于提供一种可靠性高、泛化性好而且精确度高的基于分布拟合的可泛化的行人重识别方法。
本发明提供的这种基于分布拟合的可泛化的行人重识别方法,包括如下步骤:
S1.选取原始的神经网络模型;
S2.获取训练数据集,并采用训练数据集对步骤S1获取的神经网络模型进行训练,得到初步行人重识别模型;
S3.获取测试数据集,并采用测试数据集对步骤S2获取的初步行人重识别模型进行测试和修正,从而得到最终的行人重识别模型;
S4.实时获取行人图像,并采用步骤S3得到的行人重识别模型进行识别,从而完成行人的重识别。
步骤S1所述的选取原始的神经网络模型,具体为选取ResNet50作为骨干网络,并在公开数据集ImageNet数据集上进行预训练,从而得到原始的神经网络模型。
步骤S2所述的采用训练数据集对步骤S1获取的神经网络模型进行训练,得到初步行人重识别模型,具体包括如下步骤:
A.将训练集中自然场景下的行人图像输入到神经网络模型,从而提取图像风格特征;
B.根据步骤A得到的图像风格特征,采用聚类算法进行聚类,从而给每一张行人图像贴上一个聚类标签;
C.根据步骤B得到的聚类标签,计算神经网络模型中批正则化的统计量;
D.根据步骤C得到的统计量,对神经网络模型中的所有正则层进行批正则化处理;
E.将神经网络模型的全连接层的输出维度设设置为行人总数;
F.采用交叉熵损失函数作为训练时的损失函数;
G.训练完毕后,得到初步行人重识别模型。
步骤A所述的提取图像风格特征,具体为采用如下算式提取图像风格特征:
fd={μ(f1),σ(f1),μ(f2),σ(f2),...,μ(fn),σ(fn)}
式中fd为提取到的图像风格特征;μ为特征的均值;σ为特征的方差;fi为从第i层网络提取出的图像特征。
步骤B所述的采用聚类算法进行聚类,具体为采用如下算式进行聚类:
步骤C所述的计算神经网络模型中批正则化的统计量,具体为采用如下算式计算统计量:
步骤D所述的对神经网络模型中的所有正则层进行批正则化处理,具体为采用如下算式进行正则化处理:
步骤F所述的采用交叉熵损失函数作为训练时的损失函数,具体为采用如下算式作为损失函数:
式中LReID为损失函数;B为训练图像数;pi(y)为网络对输入所预测的属于标签y的概率。
步骤S3所述的采用测试数据集对步骤S2获取的初步行人重识别模型进行测试,具体包括如下步骤:
a.将测试数据通过步骤A和步骤B得到聚类标签;
b.对每一个聚类的图像进行随机采样;
c.将随机采样得到的图像依次送入神经网络模型,估计测试数据不同聚类的统计量;在每估计完一个聚类的统计量后,提取对应聚类测试图像的特征;
d.利用提取得到的特征矩阵给出识别结果;
e.采用用欧氏距离来衡量特征之间的相似度。
本发明提供的这种基于分布拟合的可泛化的行人重识别方法,提出一种基于分布拟合的可泛化的行人重识别方法,利用神经网络模型对图像提取特征,对得到的图像特征进行聚类算法来区别不同分布的图像,然后将同一分布的图像在训练的同时进行批正则化处理,减小图像之间的分布差异;在测试的时候,对测试数据进行聚类再分别对其采样,利用采样数据来估计得到测试数据的统计量,最后利用估计得到的统计量结合网络模型给出识别结果,有效地减少了图像分布差异引起的性能下降,同时提升模型的泛化能力来适应不同场景;因此本发明方法不仅解决了图像分布差异所引起的性能下降问题,而且提升了模型的泛化能力,同时可靠性高、泛化性好而且精确度高。
附图说明
图1为本发明方法的方法流程示意图。
图2为本发明方法的结构示意图。
图3为本发明方法中的分布拟合示意图。
图4为本发明方法在Market1501数据集上的部分实验结果示意图。
具体实施方式
如图1所示为本发明方法的方法流程示意图,图2则为本发明方法的结构示意图:本发明提供的这种基于分布拟合的可泛化的行人重识别方法,包括如下步骤:
S1.选取原始的神经网络模型;具体为选取ResNet50作为骨干网络,并在公开数据集ImageNet数据集上进行预训练,从而得到原始的神经网络模型;
S2.获取训练数据集,并采用训练数据集对步骤S1获取的神经网络模型进行训练,得到初步行人重识别模型;具体包括如下步骤:
A.将训练集中自然场景下的行人图像输入到神经网络模型,从而提取图像风格特征;具体为采用如下算式提取图像风格特征:
fd={μ(f1),σ(f1),μ(f2),σ(f2),...,μ(fn),σ(fn)}
式中fd为提取到的图像风格特征;μ为特征的均值;σ为特征的方差;fi为从第i层网络提取出的图像特征;
B.根据步骤A得到的图像风格特征,采用聚类算法进行聚类,从而给每一张行人图像贴上一个聚类标签;具体为采用如下算式进行聚类:
C.根据步骤B得到的聚类标签,计算神经网络模型中批正则化的统计量;具体为采用如下算式计算统计量:
D.根据步骤C得到的统计量,对神经网络模型中的所有正则层进行批正则化处理;具体为采用如下算式进行正则化处理:
式中为正则层的输出;xn为正则层的输入;γ和β为系数因子;ε为避免除数为0的正数,且取值越小越好;μ(c)为步骤C得到的特征的均值;为步骤C得到的特征的方差;如图3所示,不同分布的特征会被投射到同一特征分布下;
E.将神经网络模型的全连接层的输出维度设设置为行人总数;
F.采用交叉熵损失函数作为训练时的损失函数;具体为采用如下算式作为损失函数:
式中LReID为损失函数;B为训练图像数;pi(y)为网络对输入所预测的属于标签y的概率;
G.训练完毕后,得到初步行人重识别模型;
S3.获取测试数据集,并采用测试数据集对步骤S2获取的初步行人重识别模型进行测试和修正,从而得到最终的行人重识别模型;具体包括如下步骤:
a.将测试数据通过步骤A和步骤B得到聚类标签;
b.对每一个聚类的图像进行随机采样;
c.将随机采样得到的图像依次送入神经网络模型,估计测试数据不同聚类的统计量;在每估计完一个聚类的统计量后,提取对应聚类测试图像的特征;
d.利用提取得到的特征矩阵给出识别结果;
e.采用用欧氏距离来衡量特征之间的相似度;
式中d(x,y)为欧式距离,xi和yi为空间任意两点;
S4.实时获取行人图像,并采用步骤S3得到的行人重识别模型进行识别,从而完成行人的重识别。
本发明方法,采用mAP和rank1精确度等指标来评价算法,在Market→Duke数据集上mAP和rank1可以达到36.8%和68.4%,部分实验结果如图4所示。从图4可以看到,本发明方法能够较好的实现行人的重识别。
Claims (8)
1.一种基于分布拟合的可泛化的行人重识别方法,包括如下步骤:
S1.选取原始的神经网络模型;
S2.获取训练数据集,并采用训练数据集对步骤S1获取的神经网络模型进行训练,得到初步行人重识别模型;具体包括如下步骤:
A.将训练集中自然场景下的行人图像输入到神经网络模型,从而提取图像风格特征;
B.根据步骤A得到的图像风格特征,采用聚类算法进行聚类,从而给每一张行人图像贴上一个聚类标签;
C.根据步骤B得到的聚类标签,计算神经网络模型中批正则化的统计量;
D.根据步骤C得到的统计量,对神经网络模型中的所有正则层进行批正则化处理;
E.将神经网络模型的全连接层的输出维度设置为行人总数;
F.采用交叉熵损失函数作为训练时的损失函数;
G.训练完毕后,得到初步行人重识别模型;
S3.获取测试数据集,并采用测试数据集对步骤S2获取的初步行人重识别模型进行测试和修正,从而得到最终的行人重识别模型;
S4.实时获取行人图像,并采用步骤S3得到的行人重识别模型进行识别,从而完成行人的重识别。
2.根据权利要求1所述的基于分布拟合的可泛化的行人重识别方法,其特征在于步骤S1所述的选取原始的神经网络模型,具体为选取ResNet50作为骨干网络,并在公开数据集ImageNet数据集上进行预训练,从而得到原始的神经网络模型。
3.根据权利要求2所述的基于分布拟合的可泛化的行人重识别方法,其特征在于步骤A所述的提取图像风格特征,具体为采用如下算式提取图像风格特征:
fd={μ(f1),σ(f1),μ(f2),σ(f2),...,μ(fn),σ(fn)}
式中fd为提取到的图像风格特征;μ为特征的均值;σ为特征的方差;fi为从第i层网络提取出的图像特征。
8.根据权利要求7所述的基于分布拟合的可泛化的行人重识别方法,其特征在于步骤S3所述的采用测试数据集对步骤S2获取的初步行人重识别模型进行测试,具体包括如下步骤:
a.将测试数据通过步骤A和步骤B得到聚类标签;
b.对每一个聚类的图像进行随机采样;
c.将随机采样得到的图像依次送入神经网络模型,估计测试数据不同聚类的统计量;在每估计完一个聚类的统计量后,提取对应聚类测试图像的特征;
d.利用提取得到的特征矩阵给出识别结果;
e.采用欧氏距离来衡量特征之间的相似度。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011588793.5A CN112686135B (zh) | 2020-12-29 | 2020-12-29 | 基于分布拟合的可泛化的行人重识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011588793.5A CN112686135B (zh) | 2020-12-29 | 2020-12-29 | 基于分布拟合的可泛化的行人重识别方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112686135A CN112686135A (zh) | 2021-04-20 |
CN112686135B true CN112686135B (zh) | 2022-10-14 |
Family
ID=75454857
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011588793.5A Active CN112686135B (zh) | 2020-12-29 | 2020-12-29 | 基于分布拟合的可泛化的行人重识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112686135B (zh) |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109033971A (zh) * | 2018-06-27 | 2018-12-18 | 中国石油大学(华东) | 一种基于残差网络思想的高效行人重识别方法 |
CN109740413A (zh) * | 2018-11-14 | 2019-05-10 | 平安科技(深圳)有限公司 | 行人重识别方法、装置、计算机设备及计算机存储介质 |
CN110263697A (zh) * | 2019-06-17 | 2019-09-20 | 哈尔滨工业大学(深圳) | 基于无监督学习的行人重识别方法、装置及介质 |
CN110796026A (zh) * | 2019-10-10 | 2020-02-14 | 湖北工业大学 | 一种基于全局特征拼接的行人重识别方法 |
CN112052819A (zh) * | 2020-09-15 | 2020-12-08 | 浙江智慧视频安防创新中心有限公司 | 一种行人重识别方法、装置、设备及存储介质 |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9336436B1 (en) * | 2013-09-30 | 2016-05-10 | Google Inc. | Methods and systems for pedestrian avoidance |
US10395385B2 (en) * | 2017-06-27 | 2019-08-27 | Qualcomm Incorporated | Using object re-identification in video surveillance |
CN110914834B (zh) * | 2017-08-01 | 2024-04-16 | 3M创新有限公司 | 用于图像变型和识别的神经风格迁移 |
CN110008842A (zh) * | 2019-03-09 | 2019-07-12 | 同济大学 | 一种基于深度多损失融合模型的行人重识别方法 |
CN110942025A (zh) * | 2019-11-26 | 2020-03-31 | 河海大学 | 一种基于聚类的无监督跨域行人重识别方法 |
CN112069920B (zh) * | 2020-08-18 | 2022-03-15 | 武汉大学 | 基于属性特征驱动聚类的跨域行人重识别方法 |
-
2020
- 2020-12-29 CN CN202011588793.5A patent/CN112686135B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109033971A (zh) * | 2018-06-27 | 2018-12-18 | 中国石油大学(华东) | 一种基于残差网络思想的高效行人重识别方法 |
CN109740413A (zh) * | 2018-11-14 | 2019-05-10 | 平安科技(深圳)有限公司 | 行人重识别方法、装置、计算机设备及计算机存储介质 |
CN110263697A (zh) * | 2019-06-17 | 2019-09-20 | 哈尔滨工业大学(深圳) | 基于无监督学习的行人重识别方法、装置及介质 |
CN110796026A (zh) * | 2019-10-10 | 2020-02-14 | 湖北工业大学 | 一种基于全局特征拼接的行人重识别方法 |
CN112052819A (zh) * | 2020-09-15 | 2020-12-08 | 浙江智慧视频安防创新中心有限公司 | 一种行人重识别方法、装置、设备及存储介质 |
Non-Patent Citations (6)
Title |
---|
Arbitrary Style Transfer in Real-time with Adaptive Instance Normalization;Xun Huang et al;《arXiv:1703.06868v2》;20170730;第1-11页 * |
Domain Generalization Using a Mixture of Multiple Latent Domains;Toshihiko Matsuura et al;《arXiv:1911.07661v1》;20191118;第1-9页 * |
Rethinking the Distribution Gap of Person Re-identification with Camera-based Batch Normalization;Z.Zhuang et al;《arXiv:2001.08680v3》;20200718;第1-21页 * |
Style Normalization and Restitution for Generalizable Person Re-Identification;Xin Jin et al;《2020 IEEE/CVF Conference on Computer Vision and Pattern Recognition》;20200805;第3140-3149页 * |
多区域差异化的图像风格迁移算法;王杨 等;《计算机工程与应用》;20200701;第57卷(第12期);第211-215页 * |
弱监督场景下的行人重识别研究综述;祁磊 等;《软件学报》;20200915;第31卷(第9期);第2883-2902页 * |
Also Published As
Publication number | Publication date |
---|---|
CN112686135A (zh) | 2021-04-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109919031B (zh) | 一种基于深度神经网络的人体行为识别方法 | |
CN113936339B (zh) | 基于双通道交叉注意力机制的打架识别方法和装置 | |
CN106778595B (zh) | 基于高斯混合模型的人群中异常行为的检测方法 | |
CN107169117B (zh) | 一种基于自动编码器和dtw的手绘图人体运动检索方法 | |
CN109902564B (zh) | 一种基于结构相似性稀疏自编码网络的异常事件检测方法 | |
CN110399835B (zh) | 一种人员停留时间的分析方法、装置及系统 | |
CN110852152B (zh) | 一种基于数据增强的深度哈希行人重识别方法 | |
CN103049459A (zh) | 一种基于特征识别的快速录像检索方法 | |
CN109117774B (zh) | 一种基于稀疏编码的多视角视频异常检测方法 | |
CN108960142B (zh) | 基于全局特征损失函数的行人再识别方法 | |
CN112818790A (zh) | 一种基于注意力机制与空间几何约束的行人重识别方法 | |
CN111723773A (zh) | 遗留物检测方法、装置、电子设备及可读存储介质 | |
CN112464730A (zh) | 一种基于域无关前景特征学习的行人再识别方法 | |
CN113705383A (zh) | 一种基于三元约束的跨年龄人脸识别方法及系统 | |
CN112749633A (zh) | 分离与重构的个体辐射源识别方法 | |
CN108875448B (zh) | 一种行人再识别方法及装置 | |
CN110874576A (zh) | 一种基于典型相关分析融合特征的行人再识别方法 | |
CN114782997A (zh) | 基于多损失注意力自适应网络的行人重识别方法及系统 | |
CN112686135B (zh) | 基于分布拟合的可泛化的行人重识别方法 | |
CN110738129A (zh) | 一种基于r-c3d网络的端到端视频时序行为检测方法 | |
CN113537240B (zh) | 一种基于雷达序列图像的形变区智能提取方法及系统 | |
CN114943862A (zh) | 一种基于结构性解析字典学习的两阶段图像分类方法 | |
CN115205972A (zh) | 一种基于深度学习的六步洗手评估方法及装置 | |
EP3800578A1 (en) | Hierarchical sampling for object identification | |
CN114581769A (zh) | 一种基于无监督聚类的在建房屋识别方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |