CN112115781B - 基于对抗攻击样本和多视图聚类的无监督行人重识别方法 - Google Patents
基于对抗攻击样本和多视图聚类的无监督行人重识别方法 Download PDFInfo
- Publication number
- CN112115781B CN112115781B CN202010803524.XA CN202010803524A CN112115781B CN 112115781 B CN112115781 B CN 112115781B CN 202010803524 A CN202010803524 A CN 202010803524A CN 112115781 B CN112115781 B CN 112115781B
- Authority
- CN
- China
- Prior art keywords
- different
- view
- pseudo
- label
- features
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/23—Clustering techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/088—Non-supervised learning, e.g. competitive learning
Abstract
本发明公开了一种基于对抗样本和多视图聚类的无监督行人重识别方法,该方法提出联合训练多个神经网络,随后的得到不同网络的特征来用于伪标签估计。本发明提出的整个框架专注于解决两个问题:第一个是怎么样让不同的深度神经网络学习到多样和互补的特征表达,第二个是怎么更好地估计无标签数据的伪标签。1)对于第一个问题,的方法将对抗攻击样本引入深度网络训练并且提出了一个对抗损失去约束不同的深度网络学习不同的参数。2)对于第二个方法,提出了一种可以联合多个不同神经网络特征的多视图聚类方法。本发明可以对大量的无标签数据提供伪标签,从而协助深度神经网络可以利用大量的无标签数据进行训练。
Description
技术领域
本发明属于计算机视觉图像处理技术领域,具体涉及一种基于对抗攻击样本和多视图聚类的无监督行人重识别方法。
背景技术
行人重识别在计算机视觉领域是一个具有挑战性的任务,该任务目标是要识别出不同摄像头下的同一个人。之前的大多数方法利用人工设计的特征来计算图像之间的相似度。随着深度卷积网络的发展,目前深度卷积特征取得了最好的效果。然而,大多数的卷积神经网络基于监督学习。监督学习通常需要大量的有标注样本。在现实情况中,获取样本标签需要花费大量的时间和人力,因此,研究者们提出了一系列的半监督和无监督学习方法。
为了能更好的训练卷积神经网络,一些无监督方法为无标签数据估计伪标签,随后用于神经网络的训练。大多数的无监督方法利用单个的神经网络提取特征,随后估计无标签样本的伪标签。然而,单个神经网络学习到的特征较为单一,得到伪标签的精度较低。
发明内容
本发明的目的是针对现有技术的不足,提供了一种基于对抗攻击样本和多视图聚类的无监督行人重识别方法。为了能得到更为精确的伪标签,利用对抗样本约束不同的深度网络学习互补特征,并且采用多视图聚类方法对多个不同的深度网络特征进行聚类,从而得到无标签数据的伪标签。
本发明采用如下技术方案来实现的:
基于对抗攻击样本和多视图聚类的无监督行人重识别方法,包括以下步骤:
1)互补的图像特征提取:首先,对于不同结构的神经网络模型,根据当前训练的参数值生成对抗攻击样本,接着,利用提出的对抗损失约束不同的神经网络学习不同的参数;
2)伪标签的生成:对于无标签数据,首先利用步骤1)训练的模型对其提取特征,不同的卷积神经网络特征代表不同视图的特征,随后,采用提出的多视图聚类算法对多视图特征进行聚类得到伪标签;
3)利用步骤2)得到的伪标签微调多个异构神经网络:卷积神经网络和伪标签交替迭代优化直到伪标签不在改变。
本发明进一步的改进在于,步骤1)的具体实现方法如下:
101)引入对抗攻击样本并且提出一种新的正则损失来约束多个神经网络学习不同以及互补的特征
102)基于步骤101)学习到的互补特征,提出了一种可以联合多个不同神经网络特征的多视图聚类方法,根据聚类,得到无标签样本的伪标签;
103)基于步骤102)得到的伪标签,采用无标签数据和其伪标签的组合微调多个神经网络,聚类和神经网络训练的训练交替进行,直到伪标签不再改变,得到最终的网络参数。
本发明进一步的改进在于,步骤2)的具体实现方法如下:
201)给定一个已有的能够额外利用的有标签的数据集,首先根据当前模型生成给定数据的对抗攻击样本,再根据对抗样本,对抗正则,以及cross-entropy和triplet损失训练多个深度神经网络;
202)根据步骤201)得到的模型对无标签数据集提取特征,随后利用提出的多视图聚类对多个网络的特征聚类,得到无标签数据的伪标签;
203)利用带有伪标签的无标签数据微调多个神经网络,接着采用更新过的网络再次对无标签数据提取特征,随后采用多视图聚类更新伪标签,深度网络和伪标签的更新交替进行直到伪标签不在改变。
本发明至少具有如下有益的技术效果:
本发明方法所得到的来自不同卷积神经网络的特征表达具有多样性和互补性,这使得多视图聚类方法能得到更加准确的伪标签。从而能更加有效的微调卷积神经网络。在的方法中,卷积神经网络训练和伪标签估计相互促进,共同提高。
附图说明
图1为本发明的方法流程图。
图2为对抗攻击样本说明图。
具体实施方式
以下结合附图和实施例对本发明做出进一步的说明。
为了让不同的深度神经网络学习到多样和互补的特征表达,的方法将对抗攻击样本引入深度网络训练并且提出了一个对抗损失去约束不同的深度网络学习不同的参数。在介绍的对抗损失之前,先介绍对抗攻击样本:
给定一个现有的深度神经网络模型,根据metric损失来产生对抗攻击样本。图2展示了对抗攻击样本的性质。对于一个Anchor,它和其正样本之间的距离比较小,但是和正样本的对抗攻击样本之间的距离较大。同样地,对于负样本对,给定一个深度模型,当把对抗噪声添加到负样本上时,该模型下负样本对间的特征距离会变大。在的工作中,仅使用Anchor和其本身的对抗攻击样本。Anchor和其本身可以看作特殊的正样本对。Anchor和自己的特征距离为零,和其本身的对抗样本距离会变大。利用对抗样本的特性,提出了一个对抗损失:
式中:D代表欧式距离;C1(x)和C2(x)分别代表深度网络1和深度网络2的特征;G1(x)和G2(x)表示不同网络产生的对抗样本,在的方法中,Ladv1和Ladv2在每个batch中交替优化。对于在一个batch里面的任意一张图,首先产生其自己的对抗样本C1(G1(x))。根据对抗样本的性质,知道C1(x)和C1(G1(x))之间的特征距离较大。为了从网络2中学习互补的特征信息,通过最小化Ladv1来优化网络2使得网络2可以学习到与网络1不同的参数。G1(x)只能迷惑网络1但不能迷惑网络2。同样地,随后产生对抗攻击样本G2(x)基于网络2当前训练的参数。优化网络1的参数通过最小化Ladv2。G2(x)只能迷惑网络2但是不能迷惑网络1。基于的对抗损失,的框架可以鼓励不同的深度模型学习多样化和具有补充性质的特征。
对于第二个问题,提出了一个多视图聚类的方法来估计无标签数据的伪标签。将不同深度网络提取的特征看作不同视图下的特征。为了更好的利用多视图特征以及抑制聚类方法陷入不好的局部最小值,引入了一个自步正则项。的多视图聚类可以写成如下形式:
其中代表无标签数据组合成的矩阵,矩阵的每一列为一个无标签数据。代表第υ个视图的深度卷积网络特征。为第υ个视图下的中心点矩阵。满足1-of-Ku的形式。Ku为期望聚类的数目。为第υ个视图下的权重因子。W=[ω1;…;ωM]。表示第υ个视图下数据i的特征。λ用来控制聚类优化过程中的样本选择。通过梯度下降,可以得到
其中lυi为υ视图下无标签样本i的重建损失,λ在优化的过程中逐渐增大用于选择更多的无标签样本。
本发明方法的全部流程如下:
在的方法中,神经网络和多视图聚类的训练交替进行,包含几个步骤:
1)利用MSMT17[3]训练集训练多个不同的神经网络模型作为多个模型的初始化参数。
2)多视图聚类优化,细节可以参考[4]。
3)对于每一个batch,针对现有的模型参数和第二步得到的伪标签,利用MI-FGSM[5]产生对抗样本。
交替地迭代2),3),4)步直到行人重识别的精度不在增加。
本发明的改进在于:
1)提出一种多模型协同的无监督行人重识别框架,区别于传统算法只利用单个模型进行训练,的多个模型能得到互补的具有区分性的特征。
2)为了使多个模型训练学习出具有互补性的特征,引入对抗攻击样本并且提出了一种新的对抗损失来约束不同的模型。
3)为了得到更为精确的伪标签,提出一种可以联合多个不同神经网络特征的多视图聚类方法。
4)在发明的方法中,神经网络训练和伪标签训练交替学习,共同促进。
在实际的应用中,大多数的数据没有标签,神经网络的训练需要大量的有标签数据而且标记数据十分耗时耗力,这使得本发明提出的方法易于被使用到实际应用当中。
Claims (1)
1.基于对抗攻击样本和多视图聚类的无监督行人重识别方法,其特征在于,包括以下步骤:
1)互补的图像特征提取:首先,对于两种不同结构神经网络,根据当前训练的参数值生成对抗攻击样本,接着,利用提出的对抗损失约束两种不同结构神经网络学习不同的参数;总的损失函数为:
其中为第υ个视图下的中心点矩阵,满足1-of-Ku的形式,W=[ω1;…;ωM],表示第υ个视图下数据i的特征,λ用来控制聚类优化过程中的样本选择,为Triplet损失,为交叉熵损失,为多视图聚类,为对抗损失,公式如下:
式中:D代表欧式距离;C1(x)和C2(x)分别代表深度网络1和深度网络2的特征;G1(x)和G2(x)表示不同网络产生的对抗样本,Ladv1和Ladv2在每个batch中交替优化;
2)伪标签的生成:对于无标签数据,首先利用步骤1)训练的模型对其提取特征,两种不同结构神经网络特征代表不同视图的特征,随后,采用提出的多视图聚类算法对多视图特征进行聚类得到伪标签;
3)利用步骤2)得到的伪标签微调两种不同结构神经网络:两种不同结构神经网络和伪标签交替迭代优化直到伪标签不在改变。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010803524.XA CN112115781B (zh) | 2020-08-11 | 2020-08-11 | 基于对抗攻击样本和多视图聚类的无监督行人重识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010803524.XA CN112115781B (zh) | 2020-08-11 | 2020-08-11 | 基于对抗攻击样本和多视图聚类的无监督行人重识别方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112115781A CN112115781A (zh) | 2020-12-22 |
CN112115781B true CN112115781B (zh) | 2022-08-16 |
Family
ID=73804859
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010803524.XA Active CN112115781B (zh) | 2020-08-11 | 2020-08-11 | 基于对抗攻击样本和多视图聚类的无监督行人重识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112115781B (zh) |
Families Citing this family (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112613433B (zh) * | 2020-12-28 | 2022-08-19 | 厦门市美亚柏科信息股份有限公司 | 一种行人重识别的生成数据的伪标签分配方法及系统 |
CN112766318B (zh) * | 2020-12-31 | 2023-12-26 | 新奥新智科技有限公司 | 业务任务执行方法、装置以及计算机可读存储介质 |
CN113553975B (zh) * | 2021-07-29 | 2023-04-07 | 西安交通大学 | 基于样本对关系蒸馏的行人重识别方法、系统、设备及介质 |
CN113505855B (zh) * | 2021-07-30 | 2023-09-08 | 中国科学院计算技术研究所 | 一种对抗攻击模型的训练方法 |
CN113869233A (zh) * | 2021-09-30 | 2021-12-31 | 湖南大学 | 一种基于上下文特征不一致性的多专家对抗攻击检测方法 |
CN114333062B (zh) * | 2021-12-31 | 2022-07-15 | 江南大学 | 基于异构双网络和特征一致性的行人重识别模型训练方法 |
CN114429648B (zh) * | 2022-01-27 | 2023-11-28 | 西安交通大学 | 一种基于对比特征的行人重识别方法及系统 |
CN114742132A (zh) * | 2022-03-17 | 2022-07-12 | 湖南工商大学 | 基于共有差异学习的深度多视图聚类方法、系统及设备 |
CN114881917A (zh) * | 2022-03-17 | 2022-08-09 | 深圳大学 | 基于自监督和语义分割的溶栓疗效预测方法及相关装置 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108764281A (zh) * | 2018-04-18 | 2018-11-06 | 华南理工大学 | 一种基于半监督自步学习跨任务深度网络的图像分类方法 |
CN110070183A (zh) * | 2019-03-11 | 2019-07-30 | 中国科学院信息工程研究所 | 一种弱标注数据的神经网络模型训练方法及装置 |
CN111476168A (zh) * | 2020-04-08 | 2020-07-31 | 山东师范大学 | 一种基于三阶段的跨域行人重识别方法和系统 |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106296692A (zh) * | 2016-08-11 | 2017-01-04 | 深圳市未来媒体技术研究院 | 基于对抗网络的图像显著性检测方法 |
CN108664999B (zh) * | 2018-05-03 | 2021-02-12 | 北京图森智途科技有限公司 | 一种分类模型的训练方法及其装置、计算机服务器 |
US11537817B2 (en) * | 2018-10-18 | 2022-12-27 | Deepnorth Inc. | Semi-supervised person re-identification using multi-view clustering |
CN110991299B (zh) * | 2019-11-27 | 2023-03-14 | 中新国际联合研究院 | 一种物理域上针对人脸识别系统的对抗样本生成方法 |
CN111160217B (zh) * | 2019-12-25 | 2023-06-23 | 中山大学 | 一种行人重识别系统对抗样本生成方法及系统 |
CN111488904A (zh) * | 2020-03-03 | 2020-08-04 | 清华大学 | 基于对抗分布训练的图像分类方法及系统 |
-
2020
- 2020-08-11 CN CN202010803524.XA patent/CN112115781B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108764281A (zh) * | 2018-04-18 | 2018-11-06 | 华南理工大学 | 一种基于半监督自步学习跨任务深度网络的图像分类方法 |
CN110070183A (zh) * | 2019-03-11 | 2019-07-30 | 中国科学院信息工程研究所 | 一种弱标注数据的神经网络模型训练方法及装置 |
CN111476168A (zh) * | 2020-04-08 | 2020-07-31 | 山东师范大学 | 一种基于三阶段的跨域行人重识别方法和系统 |
Also Published As
Publication number | Publication date |
---|---|
CN112115781A (zh) | 2020-12-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112115781B (zh) | 基于对抗攻击样本和多视图聚类的无监督行人重识别方法 | |
CN106991440B (zh) | 一种基于空间金字塔的卷积神经网络的图像分类方法 | |
CN110120064B (zh) | 一种基于互强化与多注意机制学习的深度相关目标跟踪算法 | |
CN103761710B (zh) | 基于边缘自适应的高效图像盲去模糊方法 | |
CN107944410B (zh) | 一种基于卷积神经网络的跨领域面部特征解析方法 | |
CN109165735B (zh) | 基于生成对抗网络与自适应比例生成样本图片的方法 | |
CN112085055B (zh) | 一种基于迁移模型雅克比阵特征向量扰动的黑盒攻击方法 | |
CN111160553B (zh) | 一种新的领域自适应学习方法 | |
CN111899254A (zh) | 基于半监督学习自动标注工业产品外观缺陷图像的方法 | |
CN104217214A (zh) | 基于可配置卷积神经网络的rgb-d人物行为识别方法 | |
CN110516533B (zh) | 一种基于深度度量的行人再辨识方法 | |
CN107301382B (zh) | 基于时间依赖约束下深度非负矩阵分解的行为识别方法 | |
CN112434655A (zh) | 一种基于自适应置信度图卷积网络的步态识别方法 | |
CN113807340B (zh) | 一种基于注意力机制的不规则自然场景文本识别方法 | |
CN112800876A (zh) | 一种用于重识别的超球面特征嵌入方法及系统 | |
CN112115780A (zh) | 一种基于深度多模型协同的半监督行人重识别方法 | |
CN109711411B (zh) | 一种基于胶囊神经元的图像分割识别方法 | |
Zhu et al. | Facial aging and rejuvenation by conditional multi-adversarial autoencoder with ordinal regression | |
CN112146879A (zh) | 一种滚动轴承故障智能诊断方法及其系统 | |
CN113743474A (zh) | 基于协同半监督卷积神经网络的数字图片分类方法与系统 | |
CN113255569B (zh) | 一种基于图空洞卷积编码器解码器的3d姿态估计方法 | |
CN109063725B (zh) | 面向多视图聚类的多图正则化深度矩阵分解方法 | |
CN109447147A (zh) | 基于双图稀疏的深度矩阵分解的图像聚类方法 | |
CN110717402B (zh) | 一种基于层级优化度量学习的行人再识别方法 | |
Lu et al. | A fruit sensing and classification system by fractional fourier entropy and improved hybrid genetic algorithm |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |