CN110781817B - 一种解决部件不对齐的行人再识别方法 - Google Patents

一种解决部件不对齐的行人再识别方法 Download PDF

Info

Publication number
CN110781817B
CN110781817B CN201911024291.7A CN201911024291A CN110781817B CN 110781817 B CN110781817 B CN 110781817B CN 201911024291 A CN201911024291 A CN 201911024291A CN 110781817 B CN110781817 B CN 110781817B
Authority
CN
China
Prior art keywords
pedestrian
feature
features
image
layer depth
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201911024291.7A
Other languages
English (en)
Other versions
CN110781817A (zh
Inventor
杨育彬
林喜鹏
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nanjing University
Original Assignee
Nanjing University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nanjing University filed Critical Nanjing University
Priority to CN201911024291.7A priority Critical patent/CN110781817B/zh
Publication of CN110781817A publication Critical patent/CN110781817A/zh
Application granted granted Critical
Publication of CN110781817B publication Critical patent/CN110781817B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/103Static body considered as a whole, e.g. static pedestrian or occupant recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/253Fusion techniques of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • G06T5/73
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Molecular Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种解决部件不对齐的行人再识别方法,包括:对行人图像进行数据预处理,调整行人图像的大小并进行数据增强,再进行数据标准化处理;构造行人再识别的网络模型,即构造行人图像的深度表征,通过骨干网络模型提取多层特征,使用子模块增强并融合多层特征,形成多分支的结构,提取各个分支的部件特征与全局特征;训练所构造的网络模型,定义实验相关配置,对网络模型的模型参数进行优化;行人再识别,通过训练好的网络模型提取查询图像的深度表征,使用二范式范化后根据每个查询图像与被查询集的相似度,返回每个查询图像的识别结果。通过基于融合多尺度特征解决部件不对齐的行人再识别方法,实现了现阶段最佳的行人再识别性能。

Description

一种解决部件不对齐的行人再识别方法
技术领域
本发明涉及机器学习和计算机视觉领域,尤其涉及一种解决部件不对齐问题的方法。
背景技术
随着现代社会的发展,公共安全逐步受到人们的关注。商场、公寓、学校、医院、办公楼、大型广场等人群密集并且容易发生公共安全事件的场所都安装了大量的监控摄像系统,对监控视频的研究集中体现在对其中可视对象进行识别,尤其是行人识别。这是因为行人一般是监控系统的目标。更确切地讲,监控系统的任务是在监控视频数据中搜索到某个特定的行人,即行人再识别的任务。
然而,一方面由于监控视频的数据量往往十分庞大,另一方面,受到行人所处环境的光线、遮挡物、行人本身的穿着、拍摄角度及摄像头等因素的影响,在海量的监控视频数据中发现特定的行人非常有挑战性。然而通过人工识别进行监控不仅成本高昂,且效率不高,稳定性较差,长远来看仅仅依靠人工识别进行行人再识别是不现实的。因此,通过快速分析公共安全场所的监控视频数据,自动发现特定行人,可以显著提高监控质量,对城市建设以及保障社会安全有着相当重要的意义。
现有的行人再识别方法中,基于部件的深度模型的行人再识别方法拥有最先进的性能,然而由于现阶段基于部件的深度模型往往只切分骨干网络中的高层特征,导致其性能高度依赖于行人部件特征的对齐程度。由于拍摄角度的变化以及现实场景的复杂性,现阶段的行人检测算法有时会输出不够精准的边界框,因此部件不对齐现象在行人再识别任务中是普遍存在的,使得通过部件的深度模型进行行人再识别时的性能不稳定。
发明内容
本发明提供一种解决部件不对齐的行人再识别方法,以解决现阶段基于部件的深度模型的行人再识别方法技术中存在的部件不对齐问题。
一种解决部件不对齐的行人再识别方法,包括:
步骤1,对行人数据集中的行人图像进行数据预处理,包括:调整所述行人图像的大小并进行数据增强,对数据增强后的行人图像进行数据标准化处理,所述行人数据集包括训练集、查询集和被查询集,所述数据增强包括随机水平翻转和随机擦除;
步骤2,构造行人再识别的网络模型,即构造所述行人图像的深度表征,包括:通过骨干网络模型提取多层特征,使用子模块增强并融合所述多层特征,形成多分支的结构,提取各个分支的部件特征与全局特征,所述子模块包括侧向连接模块,上洗模块,融合模块,平滑模块以及缩减模块共五类;
步骤3,训练步骤2所构造的网络模型,包括:定义实验相关配置,对所述网络模型的模型参数进行优化,具体的,通过结合身份分类的交叉熵损失函数以及用于特征度量的改进三元损失函数对模型参数进行优化;
步骤4,行人再识别,包括:通过所述步骤3训练好的网络模型提取查询图像的深度表征,使用二范式范化所述查询图像的深度表征,并根据每个查询图像与被查询集基于余弦距离的相似度,返回所述每个查询图像的识别结果。
进一步地,在一种实现方式中,所述步骤1包括:
步骤1-1,使用双线性插值法调整输入的行人图像的大小,对不同尺寸的行人图像的任一通道,将所述行人图像的尺寸调整为3K×K,所述双线性插值法为以下插值函数:
Figure BDA0002248195250000021
其中,(x1,y1)为行人图像中第一任意点相对于图像宽高的相对坐标,第一任意点坐标(x1,y1)的四个顶点的相对坐标分别记为(0,0),(0,1),(1,0),(1,1);
步骤1-2,通过随机水平翻转所述行人图像进行数据增强,包括:对尺寸为3K×K的行人图像的任一通道,以概率P1随机水平翻转,0<P1<1,所述行人图像上的第二任意点(x2,y2)关于水平方向的翻转后的对称点的坐标为:
(xf,yf)=(x2,3K-y2-1)
其中,(x2,y2)为行人图像中第二任意点坐标,0≤x2≤3K,0≤y2≤K;
步骤1-3,通过随机擦除所述行人图像进行数据增强,包括:对尺寸为3K×K的行人图像的任一通道,以概率P2,0<P2<1,根据以下随机擦出函数,随机擦除一块尺寸为h×w的随机区域,并将所述随机区域内的每个通道的像素值置为该通道的像素值均值:
f(x3:x3+h,y3:y3+w)=m
其中,(x3,y3)为行人图像中第三任意点坐标,0≤x3≤3K,0≤y3≤K,m为行人图像中各个通道的像素值均值;
步骤1-4,将所述行人图像的各个通道的数据进行数据标准化处理,包括:根据以下标准化函数,对尺寸为3K×K的行人图像的任一通道,进行数据标准化处理:
Figure BDA0002248195250000031
其中,x为步骤1-3得到的行人图像,0≤x≤255,μ为公开数据集ImageNet的均值,δ为公开数据集ImageNet的标准差。
进一步地,在一种实现方式中,所述步骤2包括:
步骤2-1,通过所述骨干网络模型提取多层特征,即提取不同深度的特征,所述不同深度的特征包括:第一层深度特征l1、第二层深度特征l2、第三层深度特征l3和第四层深度特征l4,所述子模块包括侧向连接模块、上洗模块、融合模块、平滑模块和缩减模块;
通过侧向连接模块增强所述第一层深度特征l1与第二层深度特征l2的表征能力;
通过两个上洗模块将所述第三层深度特征l3的尺寸分别增大到与第一层深度特征l1和第二层深度特征l2的尺寸一致;
当所述第一层深度特征l1的尺寸为C×H×W时,根据所述骨干网络模型,获得所述第二层深度特征l2的尺寸为2C×H/2×W/2,所述第三层深度特征l3的尺寸为4C×H/4×W/4,其中,C为通道数,H为第一层深度特征l1的高,W为第一层深度特征l1的宽;
通过所述两个上洗模块后,所述第三层深度特征l3的尺寸分别被放大至与第一层深度特征l1的尺寸一致,即C×H×W,以及被放大至与所述第二层深度特征l2的尺寸一致,即2C×H/2×W/2;
将所述第一层深度特征l1与第三层深度特征l3按通道维度进行拼接,得到尺寸为2C×H×W的深度特征;
将所述第二层深度特征l2与第三层深度特征l3按通道维度进行拼接,得到尺寸为4C×H/2×W/2的深度特征;
步骤2-2,通过融合模块消除所述第三层深度特征l3与第一层深度特征l1之间的偏差项,以及消除所述第三层深度特征l3与第二层深度特征l2之间的偏差项,获得融合特征;
步骤2-3,通过平滑模块将所述融合特征的尺寸变换至与第三层深度特征l3的尺寸一致,获得平滑后的融合特征,包括:
通过卷积核大小为5×5,步长为4的降采样卷积层,将所述第一层深度特征l1与第三层深度特征l3融合获得的第一融合特征l13的通道数降低至C,尺寸降低至C×H×W,与所述骨干网络的第三层深度特征l3的尺寸保持一致;
通过卷积核大小为3×3,步长为2的降采样卷积层,将所述第二层深度特征l2与第三层深度特征l3融合获得的第二融合特征l23的通道数降低至C,尺寸降低至C×H×W,同样与所述骨干网络的第三层深度特征l3的尺寸保持一致;
步骤2-4,将所述步骤2-3获得的平滑后的融合特征以及骨干网络中的第三层深度特征l3分别接入骨干网络中的第四层深度特征l4对应的网络层,得到全局特征,即形成所述多分支结构,所述全局特征包括:第一全局特征l4-1,第二全局特征l4-2和第三全局特征l4-3
将所述全局特征切分成部件特征,包括:将所述第一全局特征l4-1切分成粒度为1的第一部件特征,将所述第二全局特征l4-2切分成粒度为2的第二部件特征,将所述第三全局特征l4-3切分成粒度为3的第三部件特征;
使用缩减模块将所述全局特征和部件特征的通道数进一步降低至F,且将所述全局特征和部件特征的尺寸池化为1×1,所述缩减模块为共享的卷积核为1×1卷积层,缩减后的每个所述全局特征和部件特征的尺寸为F×1×1,缩减后的部件特征构成的集合记为S;
将缩减后的所有所述全局特征和部件特征进行拼接即为所构造的行人图像的深度表征,尺寸为M×F,M为所述全局特征与部件特征的总数。
进一步地,在一种实现方式中,所述步骤3包括:
步骤3-1,定义实验相关配置,包括:在所述训练集上训练所述行人再识别模型之前,首先定义用于更新参数的模型优化器;再设置输入图像的批量大小为P×Q,其中,P表示每个批量包括的行人身份的数目,Q表示每个行人身份包括的行人图像的数目;最后设置学习率调度器;所述训练集包含于公开的行人图像数据集,训练集带有行人身份标签,训练集的行人身份标签类数记为Y;
步骤3-2,对所述步骤2中的每个全局特征分别进行优化,包括:通过用于特征度量的改进三元损失函数对每个全局特征取平均,所述改进三元损失函数为:
Figure BDA0002248195250000051
其中,G表示全局特征的数量,G=3,
Figure BDA0002248195250000052
表示第i个行人身份的第g个全局特征的锚样本,
Figure BDA0002248195250000053
表示第i个行人身份的第g个全局特征的正样本,
Figure BDA0002248195250000054
表示第i个行人身份的第g个全局特征的负样本,其中,α是控制类间距离和类内距离之差的超参数,1.0<α<1.5,1≤i≤P,1≤a≤Q;
步骤3-3,对所述步骤2-4中得到的每个缩减后的部件特征分别使用身份分类的交叉熵损失函数进行优化,每个所述部件特征使用一个无偏置项的线性分类器,所述部件特征与线性分类器一一对应,所述身份分类的交叉熵损失函数为;
Figure BDA0002248195250000055
其中,fcj表示第j个线性分类器,fjq表示第j个部件特征fj在一个批量中的第q个行人图像的向量,1≤j≤N,1≤q≤P×Q,如步骤3-1所述,P×Q是一个批量的大小,N表示线性分类器的总数,即部件特征的数目,1r=y表示一个长度为行人身份数量的独热编码向量,其中独热元素的索引r等于行人图像的身份真值y;
步骤3-4,将每个所述部件特征的平均交叉熵损失函数与每个全局特征的平均改进三元损失函数相加,得到最终训练时使用的损失函数,如下所示:
L=Ltriplet+Lid
步骤3-5,在所述训练集上进行网络模型的模型训练。
进一步地,在一种实现方式中,所述步骤4包括:
步骤4-1,加载通过所述步骤3训练好的骨干网络模型,并使用所述模型提取测试集中的行人图像的深度表征,即提取所述查询图像以及被查询图像的深度表征;
如所述步骤2-4所定义,将所述测试集中所有全局特征以及部件特征拼接起来,所述测试集的每个特征表示为:
Figure BDA0002248195250000061
其中,Ntest表示测试集,θT表示迭代次数为T时的参数集合;
最终提取的行人图像的深度表征为:
Figure BDA0002248195250000062
步骤4-2,消除增强的行人数据集中训练集与测试集的偏差,考虑翻转后的行人图像,将所述行人图像的深度表征
Figure BDA0002248195250000065
以及翻转后的行人图像的深度表征
Figure BDA0002248195250000066
相加,作为测试集的行人图像的深度表征
Figure BDA0002248195250000067
步骤4-3,使用二范数范化所述步骤4-2所得的行人图像的深度表征
Figure BDA0002248195250000068
根据以下公式,计算二范数:
Figure BDA0002248195250000063
使用二范数进行范化得到最终的测试集的行人图像的深度表征为:
Figure BDA0002248195250000064
步骤4-4,根据所述最终的测试集的行人图像的深度表征,计算查询集中每个行人图像与被查询集中的每个行人图像的距离,得到查询集中每个行人图像的查询结果,实现行人再识别;
若所述查询集中的每个行人图像的深度表征为
Figure BDA0002248195250000072
所述被查询集中的每个行人图像的深度表征为
Figure BDA0002248195250000073
则查询集与被查询集的距离矩阵为:
Figure BDA0002248195250000071
其中,Ngallery表示被查询集,Nquery表示查询集;
按照由小到大的顺序,对每个查询图像与被查询集中的每个行人图像的距离进行排序,即得到每个查询图像的识别结果。
由以上技术方案可知,本发明实施例提供一种解决部件不对齐的行人再识别方法,包括:步骤1,对行人数据集中的行人图像进行数据预处理,包括:调整所述行人图像的大小并进行数据增强,对数据增强后的行人图像进行数据标准化处理,所述行人数据集包括训练集、查询集和被查询集;步骤2,构造行人再识别的网络模型,即构造所述行人图像的深度表征,包括:通过骨干网络模型提取多层特征,使用子模块增强并融合所述多层特征,形成多分支的结构,提取各个分支的部件特征与全局特征;步骤3,训练步骤2所构造的网络模型,包括:定义实验相关配置,对所述骨干网络模型的模型参数进行优化;步骤4,行人再识别,包括:通过所述步骤3训练好的网络模型提取查询图像的深度表征,使用二范式范化所述查询图像的深度表征,并根据每个查询图像与被查询集基于余弦距离的相似度,返回所述每个查询图像的识别结果。
现有技术中,基于部件的深度模型的行人再识别方法存在部件不对齐的问题,而采用前述方法,通过基于融合的多尺度特征解决部件不对齐的问题,从而提高基于部件的深度模型的行人再识别性能,并基于数据预处理,构建行人深度表征,训练模型及最终完成行人再识别的方法进行,实现了现阶段最佳的行人再识别性能。
附图说明
为了更清楚地说明本发明的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,显而易见地,对于本领域普通技术人员而言,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本发明实施例部分提供的一种解决部件不对齐的行人再识别方法的工作流程示意图;
图2是本发明实施例部分提供的一种解决部件不对齐的行人再识别方法中骨干网络结构示意图;
图3是本发明实施例部分提供的一种解决部件不对齐的行人再识别方法中侧向连接模块和平滑模块卷积网络结构示意图;
图4是本发明实施例部分提供的一种解决部件不对齐的行人再识别方法中上洗模块,融合模块以及缩减模块的卷积网络结构示意图;
图5是本发明实施例部分提供的一种解决部件不对齐的行人再识别方法中原始行人图像实例以及融合多尺度特征前后的行人特征的可视化示意图;
图6是本发明实施例部分提供的一种解决部件不对齐的行人再识别方法中查询结果实例图。
具体实施方式
为使本发明的上述目的、特征和优点能够更加明显易懂,下面结合附图和具体实施方式对本发明作进一步详细的说明。
本发明实施例公开一种解决部件不对齐的行人再识别方法,本方法应用于快速分析公共安全场所的监控视频数据,自动发现特定行人,可以显著提高监控质量,对城市建设、社会安全有着重要的意义。
如图1所示,为本发明实施例部分提供的一种解决部件不对齐的行人再识别方法的工作流程示意图,本实施例公开一种解决部件不对齐的行人再识别方法,包括:
步骤1,对行人数据集中的行人图像进行数据预处理,包括:调整所述行人图像的大小并进行数据增强,对数据增强后的行人图像进行数据标准化处理,本步骤中,所述行人数据集包括训练集和测试集,所述测试集包括查询集和被查询集,具体的,本发明所使用的行人数据集为任意公开的规范的行人数据集,如Market-1501,DukeMTMC-reID等。所述数据增强包括随机水平翻转和随机擦除,所述行人图像可以通过人工标注或者行人检测算法得到。本实施例中,通过对行人数据集中的行人图像进行数据预处理,可以有效提高样本的多样性。
步骤2,构造行人再识别的网络模型,即构造所述行人图像的深度表征,包括:通过骨干网络模型提取多层特征,使用子模块增强并融合所述多层特征,形成多分支的结构,提取各个分支的部件特征与全局特征。本步骤中,所述各分支的全局特征用于表征对应的行人图像,所述子模块包括侧向连接模块,上洗模块,融合模块,平滑模块以及缩减模块共五类。本发明实施例部分提供的一种解决部件不对齐的行人再识别方法中骨干网络结构示意图如图2所示。图2中,标号为0的箭头表示骨干网络各层,标号为1的箭头表示侧向连接模块,标号为2的箭头表示上洗模块,标号为3的箭头表示融合模块,标号为4的箭头表示平滑模块,标号为5的箭头表示缩减模块。
步骤3,训练步骤2所构造的网络模型,包括:定义实验相关配置,对所述网络模型的模型参数进行优化,具体的,本实施例中,通过结合身份分类的交叉熵损失函数以及用于特征度量的改进三元损失函数对模型参数进行优化。最终训练时使用的损失函数为每个部件的平均交叉熵损失函数与每个全局特征的平均改进三元损失函数之和。
步骤4,行人再识别,包括:在测试集与训练集的行人身份不重复的情况下,通过所述步骤3训练好的网络模型提取查询图像的深度表征,使用二范式范化所述查询图像的深度表征,并根据每个查询图像与被查询集基于余弦距离的相似度,返回所述每个查询图像的识别结果。本步骤中,在行人身份不重复的情况下进行行人再识别,通过返回的识别结果能够验证模型有效性。
在现代社会中,快速分析公共安全场所的监控视频数据,自动发现特定行人,可以显著提高监控质量,对城市建设、社会安全有着重要的意义。现阶段基于部件的深度模型的行人再方法取得了最先进的性能但存在部件不对齐的问题,本发明提供一种解决部件不对齐的行人再识别方法,并实现了现阶段最佳的行人再识别性能。
下面详述本发明的各个步骤,本实施例所述的一种解决部件不对齐的行人再识别方法中,所述步骤1包括:
步骤1-1,使用双线性插值法调整输入的行人图像的大小,对不同尺寸的行人图像的任一通道,将所述行人图像的尺寸调整为3K×K,K一般取自{96,128,192},所述双线性插值法为以下插值函数,本实施例中,实际训练时K值取128:
Figure BDA0002248195250000101
其中,(x1,y1)为行人图像中第一任意点相对于图像宽高的相对坐标,第一任意点坐标(x1,y1)的四个顶点的相对坐标分别记为(0,0),(0,1),(1,0),(1,1)。
步骤1-2,通过随机水平翻转所述行人图像进行数据增强,包括:对尺寸为3K×K的行人图像的任一通道,以概率P1随机水平翻转,0<P1<1,本实施例中,概率P1在实际实验时取0.5,所述行人图像上的第二任意点(x2,y2)关于水平方向的翻转后的对称点的坐标为:
(xf,yf)=(x2,3K-y2-1)
其中,(x2,y2)为行人图像中第二任意点坐标,0≤x2≤3K,0≤y2≤K。
步骤1-3,通过随机擦除所述行人图像进行数据增强,包括:对尺寸为3K×K的行人图像的任一通道,以概率P2,0<P2<1,本实施例中,概率P2在实际实验时取0.5,根据以下随机擦出函数,随机擦除一块尺寸为h×w的随机区域,并将所述随机区域内每个通道的像素值置为该通道的像素值均值:
f(x3:x3+h,y3:y3+w)=m
其中,(x3,y3)为行人图像中第三任意点坐标,0≤x3≤3K,0≤y3≤K,m为行人图像中各个通道的像素值均值。
步骤1-4,将所述行人图像的各个通道的数据进行数据标准化处理,包括:根据以下标准化函数,对尺寸为3K×K的行人图像的任一通道,进行数据标准化处理:
Figure BDA0002248195250000102
其中,x为步骤1-3得到的行人图像,0≤x≤255,μ为公开数据集ImageNet的均值,δ为公开数据集ImageNet的标准差。本实施例中,各个通道的μ和δ实际使用的是ImageNet数据集上的均值和方差,具体地,RGB各通道的均值分别为0.485,0.456,0.406,方差分别为0.229,0.224,0.225。
在完成数据预处理之后,需要通过步骤2构筑行人图像的深度表征,本实施例所述的一种解决部件不对齐的行人再识别方法中,所述步骤2包括:
步骤2-1,通过骨干网络模型提取多层特征,本实施例中,所述骨干网络模型是指现有的基础深度卷积神经网络模型,如ResNet,VGG等,通过骨干网络ResNet101即可提取不同深度的特征,所述不同深度的特征包括:第一层深度特征l1、第二层深度特征l2、第三层深度特征l3和第四层深度特征l4,图2中,第四层深度特征l4未示出,所述子模块包括侧向连接模块、上洗模块、融合模块、平滑模块和缩减模块,具体的,图2中,标号为0的箭头表示骨干网络各层,标号为1的箭头表示侧向连接模块,标号为2的箭头表示上洗模块,标号为3的箭头表示融合模块,标号为4的箭头表示平滑模块,标号为5的箭头表示缩减模块。
如图3所示,为本发明实施例部分提供的一种解决部件不对齐的行人再识别方法中侧向连接模块和平滑模块卷积网络结构示意图,其中Conv为卷积层,Conv之后的数字是该卷积层的卷积核大小,BatchNorm2d为批量范化层,ReLU为非线性激活函数层。如图4所示,为本发明实施例部分提供的一种解决部件不对齐的行人再识别方法中上洗模块,融合模块以及缩减模块的卷积网络结构示意图,其中PixelShuffle为像素重排层,MaxPooling为全局最大化池化层。
本实施例中,所述步骤2-1包括:通过侧向连接模块增强所述第一层深度特征l1与第二层深度特征l2的表征能力。通过两个上洗模块将所述第三层深度特征l3的尺寸分别增大到与第一层深度特征l1和第二层深度特征l2的尺寸一致。
当所述第一层深度特征l1的尺寸为C×H×W时,本实施例中,一般取W=K/4,H=3W,根据所述骨干网络模型,获得所述第二层深度特征l2的尺寸为2C×H/2×W/2,所述第三层深度特征l3的尺寸为4C×H/4×W/4,其中,C为通道数,H为第一层深度特征l1的高,本实施例中为96,W为第一层深度特征l1的宽,本实施例中为32。
通过所述两个上洗模块后,所述第三层深度特征l3的尺寸分别被放大至与第一层深度特征l1的尺寸一致,即C×H×W,以及被放大至与所述第二层深度特征l2的尺寸一致,即2C×H/2×W/2;
将所述第一层深度特征l1与第三层深度特征l3按通道维度进行拼接,得到尺寸为2C×H×W的深度特征;
将所述第二层深度特征l2与第三层深度特征l3按通道维度进行拼接,得到尺寸为4C×H/2×W/2的深度特征;
步骤2-2,通过融合模块消除所述第三层深度特征l3与第一层深度特征l1之间的偏差项,以及消除所述第三层深度特征l3与第二层深度特征l2之间的偏差项,获得融合特征。本步骤中,不同层的特征拥有的语义信息不同,存在一定的偏差,所述融合模块消除其内在的偏差项,所述融合模块并不改变特征尺寸。本实施例中,通过融合模块进行融合后的特征可以有效解决部件不对齐的问题。
步骤2-3,通过平滑模块将所述融合特征的尺寸变换至与第三层深度特征l3的尺寸一致,获得平滑后的融合特征,包括:
通过卷积核大小为5×5,步长为4的降采样卷积层,将所述第一层深度特征l1与第三层深度特征l3融合获得的第一融合特征l13的通道数降低至C,尺寸降低至C×H×W,与所述骨干网络的第三层深度特征l3的尺寸保持一致;
通过卷积核大小为3×3,步长为2的降采样卷积层,将所述第二层深度特征l2与第三层深度特征l3融合获得的第二融合特征l23的通道数降低至C,尺寸降低至C×H×W,同样与所述骨干网络的第三层深度特征l3的尺寸保持一致。
步骤2-4,将所述步骤2-3获得的平滑后的融合特征以及骨干网络中的第三层深度特征l3分别接入骨干网络中的第四层深度特征l4对应的网络层,得到全局特征,即形成所述多分支结构,所述全局特征包括:第一全局特征l4-1,第二全局特征l4-2和第三全局特征l4-3,本实施例中,l4-1、l4-2、l4-3分别为第一、第二及第三分支。
将所述全局特征切分成部件特征,包括:将所述第一全局特征l4-1切分成粒度为1的第一部件特征,将所述第二全局特征l4-2切分成粒度为2的第二部件特征,将所述第三全局特征l4-3切分成粒度为3的第三部件特征;
使用缩减模块将所述全局特征和部件特征的通道数进一步降低至F,且将所述全局特征和部件特征的尺寸池化为1×1,所述缩减模块为共享的卷积核为1×1卷积层,缩减后的每个所述全局特征和部件特征的尺寸为F×1×1,缩减后的部件特征构成的集合记为S;具体的,本实施例中,F取256。
将缩减后的所有所述全局特征和部件特征进行拼接即为所构造的行人图像的深度表征,尺寸为M×F,M为所述全局特征与部件特征的总数,具体的,本实施例中,M取9。
如图5所示,为本发明实施例部分提供的一种解决部件不对齐的行人再识别方法中原始行人图像实例以及融合多尺度特征前后的行人特征的可视化示意图。其中(a)为原始行人图像,(b)为骨干网络特征,(c)为融合的多尺度特征,方框标志出了骨干网络特征出现的不对齐问题。
本实施例所述的一种解决部件不对齐的行人再识别方法中,所述步骤3包括:
步骤3-1,定义实验相关配置,包括:在所述训练集上训练行人再识别模型之前,首先定义用于更新参数的模型优化器,具体的,本实施例中,使用Adam优化器并加载步骤2中构造的行人再识别模型的参数并使用AMSGrad方法;再设置输入图像的批量大小为P×Q,其中,P表示每个批量包括的行人身份的数目,Q表示每个行人身份包括的行人图像的数目。具体的,本实施例中P取12,Q取4;最后设置学习率调度器;所述训练集包含于公开的行人图像数据集,训练集带有行人身份标签,训练集的行人身份标签类数记为Y。具体的,本实施例中,使用多步学习率调度器MultiStepLR,当训练达到预设的迭代次数点时,学习率就降低为原来的gamma倍,本实施例中gamma取0.1,每隔40次迭代就预设一个迭代次数点。
步骤3-2,对所述步骤2中的每个全局特征分别进行优化,包括:通过用于特征度量的改进三元损失函数对每个全局特征取平均,所述改进三元损失函数为:
Figure BDA0002248195250000131
其中,G表示全局特征的数量,G=3,
Figure BDA0002248195250000132
表示第i个行人身份的第g个全局特征的锚样本,
Figure BDA0002248195250000142
表示第i个行人身份的第g个全局特征的正样本,
Figure BDA0002248195250000143
表示第i个行人身份的第g个全局特征的负样本,其中,α是控制类间距离和类内距离之差的超参数,1.0<α<1.5,1≤i≤P,1≤a≤Q,本实施例中,α取1.2。
步骤3-3,对所述步骤2-4中得到的每个缩减后的部件特征分别使用身份分类的交叉熵损失函数进行优化,本实施例中,由于身份分类需要将输出维度与行人身份标签类数Y保持一致,需要为每个部件特征增加一个无偏置项的线性层,从而使得维度为F的部件特征通过线性层将输出维度置为Y,每个所述部件特征使用一个无偏置项的线性分类器,所述部件特征与线性分类器一一对应,所述身份分类的交叉熵损失函数为;
Figure BDA0002248195250000141
其中,fcj表示第j个线性分类器,fjq表示第j个部件特征fj在一个批量中的第q个行人图像的向量,1≤j≤N,1≤q≤P×Q,如步骤3-1所述,P×Q表示一个批量的大小,N表示线性分类器的总数,即部件特征的数目,1r=y表示一个长度为行人身份数量的独热编码向量,其中独热元素的索引r等于行人图像的身份真值y。
步骤3-4,将每个所述部件特征的平均交叉熵损失函数与每个全局特征的平均改进三元损失函数相加,得到最终训练时使用的损失函数,如下所示:
L=Ltriplet+Lid
步骤3-5,在所述训练集上进行网络模型的模型训练。具体的训练算法如下所示:
输入:训练集D;行人身份标签y;迭代次数T;采样器S,优化器OPT,学习率调度器LR;初始化参数θ0,下标为当前迭代次数,初始模型Φ(x;θ0);
输出:模型Φ(x;θT);
1加载公开数据集ImageNet上的预训练模型θ0
2for t:0→T:
3采样器S根据步骤3-1的配置从训练集D中采样Nb个预处理的行人图像
Figure BDA0002248195250000144
4优化器OPT清零累积的梯度;
5提取全局特征和部件特征:
Figure BDA0002248195250000153
6使用步骤3-4中的损失函数得到损失值
Figure BDA0002248195250000154
7由损失值loss进行反向传播;
8优化器OPT更新模型参数θt
9学习率调度器LR更新学习率。
其中,训练算法输出的模型中的参数下标数字表示迭代次数,即for t:0→T:中的t值,for循环结束时t=T,且批量大小Nb=P×Q。
本实施例所述的一种解决部件不对齐的行人再识别方法中,所述步骤4包括:
步骤4-1,加载通过所述步骤3训练好的网络模型,并提取测试集中的行人图像的深度表征,所述测试集包括查询集和被查询集,即使用所述模型提取所述查询图像以及被查询图像的深度表征。
如所述步骤2-4所定义,将所述测试集中所有全局特征以及部件特征拼接起来,所述测试集的每个特征表示为:
Figure BDA0002248195250000151
其中,Ntest表示测试集,θT表示迭代次数为T时的参数集合;
最终提取的行人图像的深度表征为:
Figure BDA0002248195250000152
步骤4-2,消除增强的行人数据集中训练集与测试集的偏差,由于训练集进行随机水平翻转显著改变了数据分布,具体测试时,需要考虑翻转后的行人图像,将所述行人图像的深度表征
Figure BDA0002248195250000155
以及翻转后的行人图像的深度表征
Figure BDA0002248195250000157
相加,作为测试集的行人深度表征
Figure BDA0002248195250000156
具体的,本实施例中,所述翻转函数如步骤1-2所示。
步骤4-3,使用二范数范化所述步骤4-2所得的行人深度表征
Figure BDA0002248195250000158
根据以下公式,计算二范数:
Figure BDA0002248195250000161
使用二范数进行范化得到最终的测试集的行人深度表征为:
Figure BDA0002248195250000162
步骤4-4,根据所述最终的测试集的行人深度表征,计算查询集中每个行人图像与被查询集中的每个行人图像的距离,得到查询集中每个行人图像的查询结果,实现行人再识别;
若所述查询集中的每个行人图像的深度表征为
Figure BDA0002248195250000164
所述被查询集中的每个行人图像的深度表征为
Figure BDA0002248195250000165
则查询集与被查询集的距离矩阵为:
Figure BDA0002248195250000163
其中,Ngallery表示被查询集,Nquery表示查询集;
按照由小到大的顺序,对每个查询图像与所有被查询集中的每个行人图像的距离进行排序,被查询集中的行人图像与查询图像的距离越小,则说明是同一行人身份的可能性越高,由此即可得到每个查询图像的识别结果,一般取前十个查询结果进行评价。
如图6所示,为本发明实施例部分提供的一种解决部件不对齐的行人再识别方法中查询结果实例图,其中√表示正确检索,×表示错误检索,表示部件不对齐的情况下依旧正确检索,每个实例查询中,第一行是本发明所得到的查询结果,第二行是经典部件模型PCB的查询结果,可以看到当查询和被查询集中的图像不对齐时,本发明依旧可以正确检索,实现了现阶段最佳的行人再识别性能。
由以上技术方案可知,本发明实施例提供一种解决部件不对齐的行人再识别方法,包括:步骤1,对行人数据集中的行人图像进行数据预处理,包括:调整所述行人图像的大小并进行数据增强,对数据增强后的行人图像进行数据标准化处理,所述行人数据集包括训练集、查询集和被查询集;步骤2,构造行人再识别的网络模型,即构造所述行人图像的深度表征,包括:通过骨干网络模型提取多层特征,使用子模块增强并融合所述多层特征,形成多分支的结构,提取各个分支的部件特征与全局特征;步骤3,训练步骤2所构造的网络模型,包括:定义实验相关配置,对所述网络模型的模型参数进行优化;步骤4,行人再识别,包括:通过所述步骤3训练好的网络模型提取查询图像的深度表征,使用二范式范化所述查询图像的深度表征,并根据每个查询图像与被查询集基于余弦距离的相似度,返回所述每个查询图像的识别结果。
现有技术中,由于基于部件的深度模型往往只切分骨干网络中的高层特征,导致其性能高度依赖于行人部件特征的对齐程度。由于拍摄角度的变化以及现实场景的复杂性,现阶段的行人检测算法有时会输出不够精准的边界框,因此部件不对齐现象在行人再识别任务中是普遍存在的,使得通过部件的深度模型进行行人再识别时的性能不稳定。
而采用前述方法,通过基于融合的多尺度特征解决部件不对齐的问题,从而提高基于部件的深度模型的行人再识别性能,并基于数据预处理,构建行人深度表征,训练模型及最终完成行人再识别的方法进行,实现了现阶段最佳的行人再识别性能。
具体实现中,本发明还提供一种计算机存储介质,其中,该计算机存储介质可存储有程序,该程序执行时可包括本发明提供的一种解决部件不对齐的行人再识别方法的各实施例中的部分或全部步骤。所述的存储介质可为磁碟、光盘、只读存储记忆体(英文:read-only memory,简称:ROM)或随机存储记忆体(英文:random access memory,简称:RAM)等。
本领域的技术人员可以清楚地了解到本发明实施例中的技术可借助软件加必需的通用硬件平台的方式来实现。基于这样的理解,本发明实施例中的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品可以存储在存储介质中,如ROM/RAM、磁碟、光盘等,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施例或者实施例的某些部分所述的方法。
本说明书中各个实施例之间相同相似的部分互相参见即可。以上所述的本发明实施方式并不构成对本发明保护范围的限定。

Claims (4)

1.一种解决部件不对齐的行人再识别方法,其特征在于,包括:
步骤1,对行人数据集中的行人图像进行数据预处理,包括:调整所述行人图像的大小并进行数据增强,对数据增强后的行人图像进行数据标准化处理,所述行人数据集包括训练集、查询集和被查询集;
步骤2,构造行人再识别的网络模型,即构造所述行人图像的深度表征,包括:通过骨干网络模型提取多层特征,使用子模块增强并融合所述多层特征,形成多分支的结构,提取各个分支的部件特征与全局特征;
步骤3,训练步骤2所构造的网络模型,包括:定义实验相关配置,对所述网络模型的模型参数进行优化;
步骤4,行人再识别,包括:通过所述步骤3训练好的网络模型提取查询图像的深度表征,使用二范式范化所述查询图像的深度表征,并根据每个查询图像与被查询集基于余弦距离的相似度,返回所述每个查询图像的识别结果;
所述步骤2包括:
步骤2-1,通过骨干网络模型提取多层特征,即提取不同深度的特征,所述不同深度的特征包括:第一层深度特征l1、第二层深度特征l2、第三层深度特征l3和第四层深度特征l4,所述子模块包括侧向连接模块、上洗模块、融合模块、平滑模块和缩减模块;
通过侧向连接模块增强所述第一层深度特征l1与第二层深度特征l2的表征能力;
通过两个上洗模块将所述第三层深度特征l3的尺寸分别增大到与第一层深度特征l1和第二层深度特征l2的尺寸一致;
当所述第一层深度特征l1的尺寸为C×H×W时,根据所述骨干网络模型,获得所述第二层深度特征l2的尺寸为2C×H/2×W/2,所述第三层深度特征l3的尺寸为4C×H/4×W/4,其中,C为通道数,H为第一层深度特征l1的高,W为第一层深度特征l1的宽;
通过所述两个上洗模块后,所述第三层深度特征l3的尺寸分别被放大至与第一层深度特征l1的尺寸一致,即C×H×W,以及被放大至与所述第二层深度特征l2的尺寸一致,即2C×H/2×W/2;
将所述第一层深度特征l1与第三层深度特征l3按通道维度进行拼接,得到尺寸为2C×H×W的深度特征;
将所述第二层深度特征l2与第三层深度特征l3按通道维度进行拼接,得到尺寸为4C×H/2×W/2的深度特征;
步骤2-2,通过融合模块消除所述第三层深度特征l3与第一层深度特征l1之间的偏差项,以及消除所述第三层深度特征l3与第二层深度特征l2之间的偏差项,获得融合特征;
步骤2-3,通过平滑模块将所述融合特征的尺寸变换至与第三层深度特征l3的尺寸一致,获得平滑后的融合特征,包括:
通过卷积核大小为5×5,步长为4的降采样卷积层,将所述第一层深度特征l1与第三层深度特征l3融合获得的第一融合特征l13的通道数降低至C,尺寸降低至C×H×W,与所述骨干网络的第三层深度特征l3的尺寸保持一致;
通过卷积核大小为3×3,步长为2的降采样卷积层,将所述第二层深度特征l2与第三层深度特征l3融合获得的第二融合特征l23的通道数降低至C,尺寸降低至C×H×W,同样与所述骨干网络的第三层深度特征l3的尺寸保持一致;
步骤2-4,将所述步骤2-3获得的平滑后的融合特征以及骨干网络中的第三层深度特征l3分别接入骨干网络中的第四层深度特征l4对应的网络层,得到全局特征,即形成多分支结构,所述全局特征包括:第一全局特征l4-1,第二全局特征l4-2和第三全局特征l4-3
将所述全局特征切分成部件特征,包括:将所述第一全局特征l4-1切分成粒度为1的第一部件特征,将所述第二全局特征l4-2切分成粒度为2的第二部件特征,将所述第三全局特征l4-3切分成粒度为3的第三部件特征;
使用缩减模块将所述全局特征和部件特征的通道数进一步降低至F,且将所述全局特征和部件特征的尺寸池化为1×1,所述缩减模块为共享的卷积核为1×1卷积层,缩减后的每个所述全局特征和部件特征的尺寸为F×1×1,缩减后的部件特征构成的集合记为S;
将缩减后的所有所述全局特征和部件特征进行拼接即为所构造的行人图像的深度表征,尺寸为M×F,M为所述全局特征与部件特征的总数。
2.根据权利要求1所述的一种解决部件不对齐的行人再识别方法,其特征在于,所述步骤1包括:
步骤1-1,使用双线性插值法调整输入的行人图像的大小,对不同尺寸的行人图像的任一通道,将所述行人图像的尺寸调整为3K×K,所述双线性插值法为以下插值函数:
Figure FDA0003480672750000031
其中,(x1,y1)为行人图像中第一任意点相对于图像宽高的相对坐标,第一任意点坐标(x1,y1)的四个顶点的相对坐标分别记为(0,0),(0,1),(1,0),(1,1);
步骤1-2,通过随机水平翻转所述行人图像进行数据增强,包括:对尺寸为3K×K的行人图像的任一通道,以概率P1随机水平翻转,0<P1<1,所述行人图像上的第二任意点(x2,y2)关于水平方向的翻转后的对称点的坐标为:
(xf,yf)=(x2,3K-y2-1)
其中,(x2,y2)为行人图像中第二任意点坐标,0≤x2≤3K,0≤y2≤K;
步骤1-3,通过随机擦除所述行人图像进行数据增强,包括:对尺寸为3K×K的行人图像的任一通道,以概率P2,0<P2<1,根据以下随机擦出函数,随机擦除一块尺寸为h×w的随机区域,并将所述随机区域内的每个通道所有像素值置为该通道的像素值均值:
f(x3:x3+h,y3:y3+w)=m
其中,(x3,y3)为行人图像中第三任意点坐标,0≤x3≤3K,0≤y3≤K,m为行人图像中各个通道的像素值均值;
步骤1-4,将所述行人图像的各个通道的数据进行数据标准化处理,包括:根据以下标准化函数,对尺寸为3K×K的行人图像的任一通道,进行数据标准化处理:
Figure FDA0003480672750000041
其中,x为步骤1-3得到的行人图像,0≤x≤255,μ为公开数据集ImageNet的均值,δ为公开数据集ImageNet的标准差。
3.根据权利要求2所述的一种解决部件不对齐的行人再识别方法,其特征在于,所述步骤3包括:
步骤3-1,定义实验相关配置,包括:在所述训练集上训练行人再识别模型之前,首先定义用于更新参数的模型优化器;再设置输入图像的批量大小为P×Q,其中,P表示每个批量包括的行人身份的数目,Q表示每个行人身份包括的行人图像的数目;最后设置学习率调度器;所述训练集包含于公开的行人图像数据集,训练集带有行人身份标签,训练集的行人身份标签类数记为Y;
步骤3-2,对所述步骤2中的每个全局特征分别进行优化,包括:通过用于特征度量的改进三元损失函数对每个全局特征取平均,所述改进三元损失函数为:
Figure FDA0003480672750000042
其中,G表示全局特征的数量,G=3,
Figure FDA0003480672750000043
表示第i个行人身份的第g个全局特征的锚样本,
Figure FDA0003480672750000044
表示第i个行人身份的第g个全局特征的正样本,
Figure FDA0003480672750000045
表示第i个行人身份的第g个全局特征的负样本,其中,α是控制类间距离和类内距离之差的超参数,1.0<α<1.5,1≤i≤P,1≤a≤Q;
步骤3-3,对所述步骤2-4中得到的每个缩减后的部件特征分别使用身份分类的交叉熵损失函数进行优化,每个所述部件特征使用一个无偏置项的线性分类器,所述部件特征与线性分类器一一对应,所述身份分类的交叉熵损失函数为;
Figure FDA0003480672750000046
其中,fcj表示第j个线性分类器,fjq表示第j个部件特征fj在一个批量中的第q个行人图像的向量,1≤j≤N,1≤q≤P×Q,如步骤3-1所述,P×Q表示一个批量的大小,N则表示线性分类器的总数,即部件特征的数目,1r=y表示一个长度为行人身份数量的独热编码向量,其中独热元素的索引r等于行人图像的身份真值y;
步骤3-4,将每个所述部件特征的平均交叉熵损失函数与每个全局特征的平均改进三元损失函数相加,得到最终训练时使用的损失函数,如下所示:
L=Ltriplet+Lid
步骤3-5,在所述训练集上进行网络模型的模型训练。
4.根据权利要求3所述的一种解决部件不对齐的行人再识别方法,其特征在于,所述步骤4包括:
步骤4-1,加载通过所述步骤3训练好的网络模型,并使用所述模型提取测试集中的行人图像,即提取所述查询图像以及被查询图像的深度表征;
如所述步骤2-4所定义,将所述测试集中所有全局特征以及部件特征拼接起来,所述测试集的每个特征表示为:
Figure FDA0003480672750000051
其中,Ntest表示测试集,θT表示迭代次数为T时的参数集合;
最终提取的行人图像的深度表征为:
Figure FDA0003480672750000052
步骤4-2,消除增强的行人数据集中训练集与测试集的偏差,考虑翻转后的行人图像,将所述行人图像的深度表征
Figure FDA0003480672750000053
以及翻转后的行人图像的深度表征
Figure FDA0003480672750000054
相加,作为测试集的行人图像的深度表征
Figure FDA0003480672750000055
步骤4-3,使用二范数范化所述步骤4-2所得的行人图像的深度表征
Figure FDA0003480672750000056
根据以下公式,计算二范数:
Figure FDA0003480672750000061
使用二范数进行范化得到最终的测试集的行人图像的深度表征为:
Figure FDA0003480672750000062
步骤4-4,根据所述最终的测试集的行人图像的深度表征,计算查询集中每个行人图像与被查询集中的每个行人图像的距离,得到查询集中每个行人图像的查询结果,实现行人再识别;
若所述查询集中的每个行人图像的深度表征为
Figure FDA0003480672750000063
所述被查询集中的每个行人图像的深度表征为
Figure FDA0003480672750000064
则查询集与被查询集的距离矩阵为:
Figure FDA0003480672750000065
其中,Ngallery表示被查询集,Nquery表示查询集;
按照由小到大的顺序,对每个查询图像与被查询集中的每个行人图像的距离进行排序,即得到每个查询图像的识别结果。
CN201911024291.7A 2019-10-25 2019-10-25 一种解决部件不对齐的行人再识别方法 Active CN110781817B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201911024291.7A CN110781817B (zh) 2019-10-25 2019-10-25 一种解决部件不对齐的行人再识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201911024291.7A CN110781817B (zh) 2019-10-25 2019-10-25 一种解决部件不对齐的行人再识别方法

Publications (2)

Publication Number Publication Date
CN110781817A CN110781817A (zh) 2020-02-11
CN110781817B true CN110781817B (zh) 2022-05-17

Family

ID=69386834

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201911024291.7A Active CN110781817B (zh) 2019-10-25 2019-10-25 一种解决部件不对齐的行人再识别方法

Country Status (1)

Country Link
CN (1) CN110781817B (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111709311B (zh) * 2020-05-27 2023-11-28 西安理工大学 一种基于多尺度卷积特征融合的行人重识别方法
TWI790658B (zh) * 2021-06-24 2023-01-21 曜驊智能股份有限公司 影像再識別方法

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11074495B2 (en) * 2013-02-28 2021-07-27 Z Advanced Computing, Inc. (Zac) System and method for extremely efficient image and pattern recognition and artificial intelligence platform
US10402701B2 (en) * 2017-03-17 2019-09-03 Nec Corporation Face recognition system for face recognition in unlabeled videos with domain adversarial learning and knowledge distillation
CN109697391A (zh) * 2017-10-23 2019-04-30 北京京东尚科信息技术有限公司 封闭场所内人物再识别的方法、系统及终端设备
CN108596138A (zh) * 2018-05-03 2018-09-28 南京大学 一种基于迁移层次网络的人脸识别方法
CN109034044B (zh) * 2018-06-14 2022-04-05 天津师范大学 一种基于融合卷积神经网络的行人再识别方法
CN109670405B (zh) * 2018-11-23 2021-01-19 华南理工大学 一种基于深度学习的复杂背景行人检测方法
CN109583379A (zh) * 2018-11-30 2019-04-05 常州大学 一种基于随机擦除行人对齐网络的行人重识别方法
CN109784166A (zh) * 2018-12-13 2019-05-21 北京飞搜科技有限公司 行人重识别的方法及装置
CN109784258A (zh) * 2019-01-08 2019-05-21 华南理工大学 一种基于多尺度特征切割与融合的行人重识别方法
CN110008861A (zh) * 2019-03-21 2019-07-12 华南理工大学 一种基于全局和局部特征学习的行人再识别方法
CN110110601B (zh) * 2019-04-04 2023-04-25 深圳久凌软件技术有限公司 基于多时空注意力模型的视频行人重识别方法及装置
CN110008913A (zh) * 2019-04-08 2019-07-12 南京工业大学 基于姿态估计与视点机制融合的行人再识别方法
CN110263697A (zh) * 2019-06-17 2019-09-20 哈尔滨工业大学(深圳) 基于无监督学习的行人重识别方法、装置及介质

Also Published As

Publication number Publication date
CN110781817A (zh) 2020-02-11

Similar Documents

Publication Publication Date Title
CN111080628B (zh) 图像篡改检测方法、装置、计算机设备和存储介质
CN110738207B (zh) 一种融合文字图像中文字区域边缘信息的文字检测方法
Kao et al. Visual aesthetic quality assessment with a regression model
CN104866616B (zh) 监控视频目标搜索方法
Kim et al. Color–texture segmentation using unsupervised graph cuts
Mathur et al. Crosspooled FishNet: transfer learning based fish species classification model
CN112396027A (zh) 基于图卷积神经网络的车辆重识别方法
US8503768B2 (en) Shape description and modeling for image subscene recognition
CN111177447B (zh) 一种基于深度网络模型的行人图像识别方法
CN110781817B (zh) 一种解决部件不对齐的行人再识别方法
CN109325407B (zh) 基于f-ssd网络滤波的光学遥感视频目标检测方法
CN112215190A (zh) 基于yolov4模型的违章建筑检测方法
CN112200031A (zh) 一种用于生成图像对应文字说明的网络模型训练方法与设备
CN111325237A (zh) 一种基于注意力交互机制的图像识别方法
Chen et al. An improved local descriptor and threshold learning for unsupervised dynamic texture segmentation
CN116434010A (zh) 一种多视图的行人属性识别方法
Mao et al. An image authentication technology based on depth residual network
CN113837015A (zh) 一种基于特征金字塔的人脸检测方法及系统
Li et al. Finely Crafted Features for Traffic Sign Recognition
CN112651996A (zh) 目标检测跟踪方法、装置、电子设备和存储介质
Ge et al. A visual tracking algorithm combining parallel network and dual attention-aware mechanism
Chen et al. An efficient framework for location-based scene matching in image databases
Hahmann et al. Combination of facial landmarks for robust eye localization using the Discriminative Generalized Hough Transform
Chen et al. FPAN: fine-grained and progressive attention localization network for data retrieval
Biadgie et al. Speed-up feature detector using adaptive accelerated segment test

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant