CN109711366B - 一种基于群组信息损失函数的行人重识别方法 - Google Patents
一种基于群组信息损失函数的行人重识别方法 Download PDFInfo
- Publication number
- CN109711366B CN109711366B CN201811634042.5A CN201811634042A CN109711366B CN 109711366 B CN109711366 B CN 109711366B CN 201811634042 A CN201811634042 A CN 201811634042A CN 109711366 B CN109711366 B CN 109711366B
- Authority
- CN
- China
- Prior art keywords
- pedestrian
- batch
- similarity
- pictures
- super
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Abstract
本发明公开了一种基于群组信息损失函数的行人重识别方法。该方法通过使用超图对训练样本的群组信息进行建模、学习和表达,提供了一种包含群组信息的损失函数。不同于以往行人重识别中重排序方法,该方法将群组信息引入神经网络的训练过程中。同时,该方法针对不同的基础网络结构,都能提升所训练特征的表达能力和鲁棒性。
Description
技术领域
本发明属于图像分割、自动识别和目标表示邻域,特别地涉及一种基于群组信息损失函数的行人重识别方法。模型训练部分,涉及到超图模型和损失函数的构建以及卷积神经网络的特征学习。
背景技术
视频监控在安全告警、追踪疑犯、走失寻人等工作中起到十分关键的作用。然而,在实际应用的过程中,单一的摄像头并不能分析行人在场景中的位置信息。所以在实际应用场景中,需要根据行人目标的查询图片,在视频监控网络中进行行人重识别。而在多摄像机监控网络中,如何进行行人身份信息有效关联建模,是行人重识别方向的主要难点和核心问题。
针对于行人重识别的问题,传统的方法是通过对行人的颜色、纹理、姿态,以及深度学习方法进行特征提取,然后利用特征相似度进行排序,从而得到最后的行人重识别结果。但是由于不同的而摄像机之间存在角度、光照、摄像机内参等差异,使得在不同的摄像机下同一行人的外观会出现显著的改变,所以在特征提取的过程中,仅仅利用样本对之间的特征相似性,并不足以获得较高的行人再识别准确率。而群组相似性的引入,缓解了相同行人样本在不同摄像机下的差异所带来的影响,提升了最终排序的准确度。然而,目前主流的使用群组相似性的行人重识别算法,都是作为后处理步骤,针对已提取的特征序列进行重排序,而忽略了在特征提取过程中群组信息的利用。
发明内容
本发明为了解决现有行人再识别技术中所存在的问题,提出了一种基于群组信息损失函数的行人重识别方法,从而提升行人重识别的特征的鲁棒性和精确度。
为实现上述目的,本发明公开了一种基于深度群组信息损失的行人重识别方法。该方法为:
步骤1:获取训练用数据集D0,所述数据集D0中包含K个行人标签,i=1…K,每个行人标签包含了N个行人图片,因此,该数据集D0中了包含了N×K个行人图片。
步骤2,:从数据集D0随机选取若干个图片,构建多个批次的样本,每个批次的样本中,至少包含了4个行人标签,每个行人标签对应的行人图片数量相同,且至少为4张;每个批次中的图像,均采用卷积神经网络提取其特征向量;
步骤3:针对包含P个标签、每个标签包含Q个行人图片的批次,构建基于群组相似性的超图模型H(v,e,w)。其中,其中v是由该批次中P*Q个样本图像的特征向量构成的特征向量矩阵,e是由P个超边构成的超边矩阵,其中第j个超边为基于该批次中第j类标签的行人图像所构成的超边,w为该批次的权重;
步骤4:基于步骤2中所建立的基于群组相似性的超图模型H(v,e,w),引入正则化项,构建该批次概率超图目标函数E(f,v,w)。f为该批次中P*Q样本图像的分类相似度向量构成的分类相似度矩阵,所述的分类相似度向量为1*P向量,其中的元素表示图像属于对应类标签的相似度。
步骤5,利用步骤4中所建立的目标函数,求取使得该批次概率超图目标函数E取得最小值的最优解f0;将最优解f0代入目标函数E(f,v,w),得损失函数
Lossgroup=E(f0,v,w)=E1(v,w)。
步骤6,采用卷积神经网络对所有批次中的损失函数进行误差反向传播,输出最后一个批次的最优权重w,作为特征提取的权重;
步骤7.将包含待识别对象的图片输入到步骤6中所述的卷积神经网络中,基于步骤6得到的权重w,获得该识别对象的特征向量;
步骤8.根据步骤7获得的特征向量,计算其与数据集D0中各个行人图片的特征向量的相似度,按照相似度高低输出识别结果。
进一步地,步骤2中的所描述的构建超图模型具体方法为:
(2.1)利用样本特征欧式距离建立相似性关联A(v,e,w),之间在投影空间中的关联性;
(2.2)利用(2.1)中所建立的相似性关联,结合顶点和超边从属关系,构建概率超图模型H(v,e,w);
进一步地,所述步骤8中的相似度包括但不限于欧氏距离、余弦距离、马氏距离等。
进一步地,采用的神经网络包括但不限于深度残差网络。
进一步地,所述步骤4中的正则化项包括但不限于L1正则化项、L2正则化项。
本发明的有益效果:本发明所提出的基于深度群组信息和概率超图损失的行人重识别方法,能够在特征提取的过程中有效地利用训练样本之间的排序信息和群组相似性,学习得到判别性更强的特征表达。本发明能够有效结合训练图片中的群组相似性和成对相似性,有效缓解深度学习特征提取过程中出现的过拟合现象,获得比现有行人重识别技术更加精确的候选图片排序结果。
附图说明:
图1是基于群组信息损失函数行人重识别算法流程图;
图2是基于群组信息损失函数行人重识别的运算框图;
图3是行人重识别展示结果,其中左侧是待检测图像,右侧最为算法判断的最相似的候选图像。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚,下面结合具体实施例,对本发明的技术方案做进一步的详细说明。
本发明中,训练用数据集D0可以在http://www.liangzheng.org/网址下载获取;
本发明中,基于群组相似性的超图模型的构建方法可以参考论文实现:《Learningwith hypergraphs:Clustering,classification,and embedding》。
本发明中,批次概率超图目标函数E的构建方法及其目标函数的求解方法,可以参考凸优化问题的相关求解算法。
以下实施例在以本发明技术方案为前提下进行实施,给出了详细的实施方式和具体的操作过程,但本发明的保护范围不限于下述的实施例。
参考图1所示,为本发明实施例的基于群组信息损失的行人重识别方法的模型流程图。
本实施例从Duke-MTMC数据集以及Market-1501数据集获取训练用数据集D0。数据集D0中包含K个行人标签,i=1…K,每个行人标签包含了N个行人图片,因此,该数据集D0中了包含了N×K个行人图片。按照以下方法进行处理:
1.从数据集D0随机选取若干个图片,构建多个批次的样本,每个批次的样本中,至少包含了4个行人标签,每个行人标签对应的行人图片数量相同,且至少为4张;每个批次中的图像,均采用深度残差网络卷积神经网络提取其特征向量;本实施例中,深度残差网络卷积神经网络采用基础网络框架选择深度残差网络ResNet-50。
2.训练特征表达模型
(1.1)构建超图模型,针对每个训练批次,构建基于群组相似性的超图模型H(v,e,w),其中v是由该批次中P×Q个样本图像的特征向量构成的特征向量矩阵,e是由P个超边构成的超边矩阵,其中第j个超边为基于该批次中第j类标签的行人图像所构成的超边,w为该批次的权重。
本实施例中,采用如下方法构建超边:每个图片类会被看作一次超边中心类,将该批次中具有相同标签的所有图片生成一条超边,超边中图片与超边之间的距离通过与超边所有图片的平均中心点的变权欧式距离来进行度量。
其中β表示控制权重的参数,固定为0.7。
(1.2)引入正则化损失项,结合能量函数获得目标函数E(f,v,w),其中正则化损失项的表达式为:
r(f)=μ||f-r||2
其中r为初始标签向量,u为正则化参数,而目标函数的表达式为:
E(f,v,w)=ω(f,v,w)+r(f)
本实施例采用的能量函数为:
其中d(u)=∑e∈εH(u,e,w)表示顶点度,δ(e)=∑v∈VH(v,e,w)表示超边度。
(1.3)通过对(1.2)所建立的目标函数E(f,v,w),利用其凸优化特性,在该函数一阶导数为0处,可得关于v的f最优解。
(1.4)将(1.3)步骤中计算所得的f代入目标函数E(f,v,w),得损失函数Lossgroup=E(f0,v,w)=E1(v,w)。本实施例中,损失函数使用包括归一化指数函数,三元组损失函数以及超图损失函数的线性组合,其中三者的权重相等。通过该损失函数,可以学习超图模型H(v,e,w)中的权重系数w和特征v。
(1.5)采用卷积神经网络对所有批次中的损失函数进行误差反向传播,其中神经网络训练策略使用随机梯度下降算法,迭代一定次数或者网络收敛时,完成神经网络训练步骤,从而输出最后一个批次的最优权重w,作为特征提取的权重;从而构建出可以用于行人重识别的神经网络模型。作为本领域的公知常识,在训练前,通常对图像进行预处理,包括现有的随机擦除算法,随机裁剪算法和翻转算法,最后将输入图像归一化到256×128大小。
下面采用该神经网络模型进行行人识别,具体如下:
1.将原始输入图片进行预处理,将输入图像归一化到256×128大小。
2.将图片输入到卷积神经网络中,基于步骤6得到的权重w,获得该识别对象的特征向量;之后计算查询图片与数据集D0中各个行人图片的特征向量的相似度,其中相似度度量方式使用欧式距离,并按照相似度高低输出最为相似的10个识别结果。图3展示了行人重识别的单张识别结果,从结果中可以看出,使用本发明所提出的算法,在行人重识别任务上具有较为优秀的表现。
以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明的保护范围之内。
Claims (5)
1.一种基于群组信息损失函数的行人重识别方法,其特征在于,该方法为:
步骤1:获取训练用数据集D0,所述数据集D0中包含K个行人标签,i=1…K,每个行人标签包含了N个行人图片,因此,该数据集D0中包含了N×K个行人图片;
步骤2:从数据集D0随机选取若干个图片,构建多个批次的样本,每个批次的样本中,至少包含了4个行人标签,每个行人标签对应的行人图片数量相同,且至少为4张;每个批次中的图像,均采用卷积神经网络提取其特征向量;
步骤3:针对包含P个标签、每个标签包含Q个行人图片的批次,构建基于群组相似性的超图模型H(v,e,w);其中, v是由该批次中P×Q个样本图像的特征向量构成的特征向量矩阵,e是由P个超边构成的超边矩阵,其中第j个超边为基于该批次中第j类标签的行人图像所构成的超边,w为该批次的权重;所述超边通过如下方法构建:每个图片类会被看作一次超边中心类,将该批次中具有相同标签的所有图片生成一条超边,超边中图片与超边之间的距离通过与超边所有图片的平均中心点的变权欧式距离来进行度量;
步骤4:基于步骤3中所建立的基于群组相似性的超图模型H(v,e,w),引入正则化项,构建该批次概率超图目标函数E(f,v,w);f为该批次中P*Q样本图像的分类相似度向量构成的分类相似度矩阵,所述的分类相似度向量为1*P向量,其中的元素表示图像属于对应类标签的相似度;
E(f,v,w)=ω(f,v,w)+r(f)
r(f)为正则化损失项;
能量函数为:
其中d(u)=∑e∈εH(u,e,w)表示顶点度,δ(e)=∑v∈VH(v,e,w)表示超边度;
步骤5:利用步骤4中所建立的目标函数,求取使得该批次概率超图目标函数E取得最小值的最优解f0;将最优解f0代入目标函数E(f,v,w),得损失函数:
Lossgroup=E(f0,v,w)=E1(v,w)
步骤6:采用卷积神经网络对所有批次中的损失函数进行误差反向传播,输出最后一个批次的最优权重w,作为特征提取的权重;
步骤7:将包含待识别对象的图片输入到步骤6中所述的卷积神经网络中,基于步骤6得到的权重w,获得该识别对象的特征向量;
步骤8:根据步骤7获得的特征向量,计算其与数据集D0中各个行人图片的特征向量的相似度,按照相似度高低输出识别结果。
2.根据权利要求1中所述的方法,其特征在于,步骤3中的所描述的构建超图模型具体方法为:
(3.1)利用样本特征欧式距离建立相似性关联A(v,e,w)特征矩阵之间在投影空间中的关联性;
(3.2)利用(3.1)中所建立的相似性关联,结合顶点和超边从属关系,构建概率超图模型H(v,e,w)。
3.根据权利要求1所述的方法,其特征在于,所述步骤8中的相似度为欧氏距离、余弦距离或马氏距离。
4.根据权利要求1所述的方法,其特征在于,采用的神经网络包括深度残差网络。
5.根据权利要求1所述的方法,其特征在于,所述步骤4中的正则化项为L1正则化项或L2正则化项。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811634042.5A CN109711366B (zh) | 2018-12-29 | 2018-12-29 | 一种基于群组信息损失函数的行人重识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811634042.5A CN109711366B (zh) | 2018-12-29 | 2018-12-29 | 一种基于群组信息损失函数的行人重识别方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109711366A CN109711366A (zh) | 2019-05-03 |
CN109711366B true CN109711366B (zh) | 2021-04-23 |
Family
ID=66259424
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811634042.5A Active CN109711366B (zh) | 2018-12-29 | 2018-12-29 | 一种基于群组信息损失函数的行人重识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109711366B (zh) |
Families Citing this family (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110321862B (zh) * | 2019-07-09 | 2023-01-10 | 天津师范大学 | 一种基于紧致三元损失的行人再识别方法 |
CN110751018A (zh) * | 2019-09-03 | 2020-02-04 | 上海交通大学 | 一种基于混合注意力机制的群组行人重识别方法 |
CN111144233B (zh) * | 2019-12-10 | 2022-06-14 | 电子科技大学 | 基于toim损失函数的行人重识别方法 |
CN113239776B (zh) * | 2021-05-10 | 2023-06-06 | 北方工业大学 | 一种基于能量模型的行人重识别方法 |
CN113657254B (zh) * | 2021-08-16 | 2023-09-19 | 浙江大学 | 一种基于可靠价值样本和新身份样本挖掘的行人重识别域适应方法 |
CN113420737B (zh) * | 2021-08-23 | 2022-01-25 | 成都飞机工业(集团)有限责任公司 | 一种基于卷积神经网络的3d打印图形识别方法 |
CN114332169B (zh) * | 2022-03-14 | 2022-05-06 | 南京甄视智能科技有限公司 | 基于行人重识别的行人跟踪方法、装置、存储介质及设备 |
CN114463601B (zh) * | 2022-04-12 | 2022-08-05 | 北京云恒科技研究院有限公司 | 一种基于大数据的目标识别的数据处理系统 |
CN114463602B (zh) * | 2022-04-12 | 2022-07-08 | 北京云恒科技研究院有限公司 | 一种基于大数据的目标识别的数据处理方法 |
CN115273154B (zh) * | 2022-09-26 | 2023-01-17 | 哈尔滨工业大学(深圳)(哈尔滨工业大学深圳科技创新研究院) | 基于边缘重构的热红外行人检测方法、系统及存储介质 |
Family Cites Families (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9117147B2 (en) * | 2011-04-29 | 2015-08-25 | Siemens Aktiengesellschaft | Marginal space learning for multi-person tracking over mega pixel imagery |
CN103390063B (zh) * | 2013-07-31 | 2016-08-10 | 南京大学 | 一种基于蚁群算法和概率超图的相关反馈图像检索方法 |
CN104850857B (zh) * | 2015-05-15 | 2017-12-05 | 浙江大学 | 基于视觉空间显著性约束的跨摄像机行人目标匹配方法 |
US10417226B2 (en) * | 2015-05-29 | 2019-09-17 | International Business Machines Corporation | Estimating the cost of data-mining services |
CN106776554A (zh) * | 2016-12-09 | 2017-05-31 | 厦门大学 | 一种基于多模态超图学习的微博情感预测方法 |
EP3333771A1 (en) * | 2016-12-09 | 2018-06-13 | Fujitsu Limited | Method, program, and apparatus for comparing data hypergraphs |
CN107145826B (zh) * | 2017-04-01 | 2020-05-08 | 浙江大学 | 基于双约束度量学习和样本重排序的行人再识别方法 |
CN108694356A (zh) * | 2017-04-10 | 2018-10-23 | 京东方科技集团股份有限公司 | 行人检测装置及方法、辅助驾驶系统 |
US10360002B2 (en) * | 2017-06-06 | 2019-07-23 | Informatica Llc | Method, apparatus, and computer-readable medium for generating an alternative implementation of a program on one or more engines |
US20180336467A1 (en) * | 2017-07-31 | 2018-11-22 | Seematics Systems Ltd | System and method for enriching datasets while learning |
CN107832672B (zh) * | 2017-10-12 | 2020-07-07 | 北京航空航天大学 | 一种利用姿态信息设计多损失函数的行人重识别方法 |
CN108764308B (zh) * | 2018-05-16 | 2021-09-14 | 中国人民解放军陆军工程大学 | 一种基于卷积循环网络的行人重识别方法 |
CN108897805A (zh) * | 2018-06-15 | 2018-11-27 | 江苏大学 | 一种专利文本自动分类方法 |
CN108960127B (zh) * | 2018-06-29 | 2021-11-05 | 厦门大学 | 基于自适应深度度量学习的遮挡行人重识别方法 |
-
2018
- 2018-12-29 CN CN201811634042.5A patent/CN109711366B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
CN109711366A (zh) | 2019-05-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109711366B (zh) | 一种基于群组信息损失函数的行人重识别方法 | |
CN111126360B (zh) | 基于无监督联合多损失模型的跨域行人重识别方法 | |
CN110443143B (zh) | 多分支卷积神经网络融合的遥感图像场景分类方法 | |
CN106897675B (zh) | 双目视觉深度特征与表观特征相结合的人脸活体检测方法 | |
CN112069896B (zh) | 一种基于孪生网络融合多模板特征的视频目标跟踪方法 | |
CN111709311B (zh) | 一种基于多尺度卷积特征融合的行人重识别方法 | |
CN107153817B (zh) | 行人重识别数据标注方法和装置 | |
CN108520226B (zh) | 一种基于躯体分解和显著性检测的行人重识别方法 | |
CN107145826B (zh) | 基于双约束度量学习和样本重排序的行人再识别方法 | |
CN111767882A (zh) | 一种基于改进yolo模型的多模态行人检测方法 | |
CN108090406B (zh) | 人脸识别方法及系统 | |
CN109766873B (zh) | 一种混合可变形卷积的行人再识别方法 | |
CN109002755B (zh) | 基于人脸图像的年龄估计模型构建方法及估计方法 | |
CN109544603B (zh) | 基于深度迁移学习的目标跟踪方法 | |
CN111126412B (zh) | 基于特征金字塔网络的图像关键点检测方法 | |
CN111008618B (zh) | 一种自注意力深度学习端到端的行人再识别方法 | |
CN108509925B (zh) | 一种基于视觉词袋模型的行人重识别方法 | |
CN112581540B (zh) | 一种大场景下基于人体姿态估计的相机标定方法 | |
CN109635634A (zh) | 一种基于随机线性插值的行人再识别数据增强方法 | |
CN110728216A (zh) | 一种基于行人属性自适应学习的无监督行人再识别方法 | |
CN103080979A (zh) | 从照片合成肖像素描的系统和方法 | |
CN111680705A (zh) | 适于目标检测的mb-ssd方法和mb-ssd特征提取网络 | |
Zou et al. | Microarray camera image segmentation with Faster-RCNN | |
CN112329771A (zh) | 一种基于深度学习的建筑材料样本识别方法 | |
Hirner et al. | FC-DCNN: A densely connected neural network for stereo estimation |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |