CN114692732A - 一种在线标签更新的方法、系统、装置及存储介质 - Google Patents
一种在线标签更新的方法、系统、装置及存储介质 Download PDFInfo
- Publication number
- CN114692732A CN114692732A CN202210241586.5A CN202210241586A CN114692732A CN 114692732 A CN114692732 A CN 114692732A CN 202210241586 A CN202210241586 A CN 202210241586A CN 114692732 A CN114692732 A CN 114692732A
- Authority
- CN
- China
- Prior art keywords
- feature
- label
- pseudo
- extraction model
- feature extraction
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 72
- 238000003860 storage Methods 0.000 title claims description 12
- 239000013598 vector Substances 0.000 claims abstract description 50
- 238000000605 extraction Methods 0.000 claims abstract description 48
- 230000006870 function Effects 0.000 claims abstract description 43
- 238000004422 calculation algorithm Methods 0.000 claims abstract description 42
- 230000008569 process Effects 0.000 claims abstract description 11
- 238000009795 derivation Methods 0.000 claims abstract description 6
- 238000012549 training Methods 0.000 claims description 33
- 238000013528 artificial neural network Methods 0.000 claims description 29
- 239000011159 matrix material Substances 0.000 claims description 18
- 238000009826 distribution Methods 0.000 claims description 16
- 238000013461 design Methods 0.000 claims description 9
- 238000010380 label transfer Methods 0.000 claims description 4
- 238000005457 optimization Methods 0.000 claims description 4
- 230000000295 complement effect Effects 0.000 claims description 3
- 238000005065 mining Methods 0.000 claims description 3
- 238000007781 pre-processing Methods 0.000 claims description 3
- 238000003064 k means clustering Methods 0.000 claims description 2
- 238000012360 testing method Methods 0.000 description 6
- 230000009286 beneficial effect Effects 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 4
- 238000002474 experimental method Methods 0.000 description 4
- 230000006978 adaptation Effects 0.000 description 3
- 230000008901 benefit Effects 0.000 description 3
- 230000005540 biological transmission Effects 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 3
- 238000003062 neural network model Methods 0.000 description 3
- 241000282414 Homo sapiens Species 0.000 description 2
- 230000003044 adaptive effect Effects 0.000 description 2
- 230000000052 comparative effect Effects 0.000 description 2
- 238000004590 computer program Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 239000000463 material Substances 0.000 description 2
- 238000013508 migration Methods 0.000 description 2
- 230000005012 migration Effects 0.000 description 2
- 238000012544 monitoring process Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000007670 refining Methods 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 238000012935 Averaging Methods 0.000 description 1
- 101100153586 Caenorhabditis elegans top-1 gene Proteins 0.000 description 1
- 101100370075 Mus musculus Top1 gene Proteins 0.000 description 1
- 230000004075 alteration Effects 0.000 description 1
- 230000003321 amplification Effects 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 125000004432 carbon atom Chemical group C* 0.000 description 1
- 238000012512 characterization method Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 230000009977 dual effect Effects 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012806 monitoring device Methods 0.000 description 1
- 238000003199 nucleic acid amplification method Methods 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 230000000644 propagated effect Effects 0.000 description 1
- 230000001902 propagating effect Effects 0.000 description 1
- 238000004904 shortening Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/23—Clustering techniques
- G06F18/232—Non-hierarchical techniques
- G06F18/2321—Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
- G06F18/23213—Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions with fixed number of clusters, e.g. K-means clustering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2415—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/088—Non-supervised learning, e.g. competitive learning
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Molecular Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Evolutionary Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Probability & Statistics with Applications (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种在线标签更新的方法、系统、装置及介质,其中方法包括:获取源域和目标域;根据源域的图像对特征提取模型进行有监督学习,获得训练后的特征提取模型;将目标域中的图像输入所述特征提取模型,获得特征向量,对所有的特征向量进行无监督聚类,获得每个样本的伪标签;根据伪标签和特征向量对特征提取模型进行特征学习,设计软分类损失和软三元组损失;对不同的损失分配权重,获得总损失,对总损失进行求导并反向传播;在线更新伪标签,直至计算的损失函数值不能再减小。本发明能够在对比学习的算法基础上增强模型的特征学习能力,并在对比学习的过程中对伪标签的在线更新起到提高准确率的作用,可广泛应用于计算机视觉技术领域。
Description
技术领域
本发明涉及计算机视觉技术领域,尤其涉及一种在线标签更新的方法、系统、装置及存储介质。
背景技术
计算机视觉是一门研究如何使机器“看”的学科,是指相机和计算机相互协作进而代替人眼对客观世界物体进行识别,测量等视觉任务,并最终目标是代替人类进行决策。行人重识别被认为是利用计算机视觉技术判断图像或者视频序列中是否存在特定行人的技术,因此也被认为是图像检索领域的子问题。给定一个监控设备下的行人图片,找出所有设备下的该人图片,可以广泛用于智能视频监控、智能安防等领域。
行人重识别(Person Re-Identification)相关研究主要是有监督学习,即根据数据中已经标注好的行人身份标签(identity)和对应的行人图像来对深度神经网络进行训练。但这种方法存在致命缺陷,首先行人图像获取相对容易,只需要相机采集,但是图像所对应的行人身份标签信息需要额外地人为标定。当一个数据集中的图片数量达到数万量级,那么标定需要耗费大量人力和资源。因此学界开始转而研究不再需要真实行人标签信息的无监督行人重识别问题。
无监督行人重识别是根据类别标签未知(没有被标记)的行人图像,来挖掘这些行人图像的特征相关性知识,并使得神经网络能够学到样本之间内在的关联知识,以此解决行人重识别问题。但是纯无监督学习在行人重识别应用,使用的图像特征提取器是从ImageNet中训练得到的Backbone网路,在ImageNet上预训练(pretrained)的网络不能很好地提取行人语义特征(semantic feature)。因此学术界将无监督领域自适应(Unsupervised Domain Adaptation)技术引入行人重识别中,以解决上述不足。无监督域适应技术(UDA)是指在源域(Source Domain)上使用标记的数据集有监督地训练神经网络模型,并将这个能够很好提取行人语义特征的神经网络应用到目标域(Target Domain),并在目标域上使用无标记的数据集进行模型的微调,并在无标记的测试集上测试算法的性能。
对于无监督域自适应的行人重识别(Unsupervised Domain Adaptive PersonRe-Identification,简称UDARe-ID),现有的方法,核心思想是对目标域中的无id标签的样本提取特征,并对所有特征进行离线聚类,这种离线聚类方法可以获得有一定可靠性的伪标签(pseudo labels),并随着神经网络训练的迭代次数增加,伪标签的准确率可以提升。但是这个方法存在的问题:错误的伪标签训练神经网络,会放大这个错误,表现在测试集上精度不高。这是因为伪标签只能通过图像中语义特征作为唯一先验知识来聚类得到,因此相似的两个行人图像(衣着、体态),但不是同一个人,也容易被聚类算法认为是同一个人。
离线聚类算法与神经网络模型训练是分开的,意味着先通过离线聚类算法得到的伪标签,再将伪标签与对应行人图像作为输入到神经网络进行训练。由于聚类和训练的独立,当离线聚类算法得到的伪标签出现了错误,那么会严重影响神经网路的训练。
发明内容
为至少一定程度上解决现有技术中存在的技术问题之一,本发明的目的在于提供一种在线标签更新的方法、系统、装置及存储介质。
本发明所采用的技术方案是:
一种在线标签更新的方法,包括以下步骤:
获取源域和目标域,其中源域数据集含有真实标签;
根据源域的图像对特征提取模型进行有监督学习,获得训练后的特征提取模型;
将目标域中的图像输入所述特征提取模型,获得特征向量,对所有的特征向量进行无监督聚类,获得每个样本的伪标签;
根据伪标签和特征向量对特征提取模型进行特征学习,设计软分类损失和软三元组损失;
对不同的损失分配权重,获得总损失,对总损失进行求导并反向传播,以用于特征提取模型的权重的梯度更新;
在线更新伪标签,直至计算的损失函数值不能再减小。
进一步地,所述获取源域和目标域,包括:
获取两个图像的数据集分别作为源域和目标域;其中,根据源域有监督学习深度神经网络,获得特征提取模型;将所述特征提取模型部署在目标域,并进行无监督学习。
进一步地,所述特征提取模型采用ResNet-50网络结构,所述特征提取模型输入为源域的图像,输出为特征向量和输入图像的分类概率logits;
所述根据源域的图像对特征提取模型进行有监督学习,包括:
对源域的图像进行预处理;
采用对称式的双特征提取器进行协同训练;
利用真实标签和网络输出的分类概率,设计分类损失函数,衡量真实标签和输出的分类概率的差异,并减小该差异;
利用真实标签所提供的先验信息和特征间的距离,设计三元组损失函数,挖掘那些特征距离远但相同id的正样本和特征距离近但不相同id的难负样本。
进一步地,采用K-Means聚类算法对所有的特征向量进行无监督聚类。
进一步地,经过源域有监督学习的特征提取模型,需要在目标域上进行微调;由于目标域中没有真实行人标签,只能使用伪标签来进行特征学习;
由于有监督学习过程中使用的是对称式双特征提取器,在无监督学习过程中采用相互平均教学的框架,用于硬伪标签和软伪标签进行联合训练;
其中,硬伪标签由标签更新算法产生,在每个训练迭代之前能够更新一次;软伪标签由另一个协同训练的网络生成,并随着网络的更新而被更新。
进一步地,所述软分类损失的表达式为:
其中,E(T)[θ1]和E(T)[θ2]的表示如下:
E(T)[θ1]=αE(T-1)[θ1]+(1-α)θ1
E(T)[θ2]=αE(T-1)[θ2]+(1-α)θ2
式中,θ1与θ2分别表示两个对称式且互补式的神经网络,lce表示二元交叉熵损失函数,Nt表示表示训练时mini-batch中的所有样本数量,表示神经网络θ1编码目标域t中的样本后得到的特征向量,x和x′分别表示同一张图经过不同的随机数据增强方式,E(T)[θ1]、E(T)[θ2]分别表示经过滑动平均后得到的神经网络θ1,θ2的期望权重,分别表示神经网络输出的全连接层,目的是将特征向量通过全连接层输出成为分类概率;
所述软三元组损失的表达式为:
进一步地,所述在线更新伪标签,包括:
每个图像xi经特征提取模型得到特征向量fi,通过fi特征映射到一组K个可学习的原组向量,并计算指出概率pi;伪标签采用QKxN∈[0,1]来监督组概率P,并且在训练过程中采用Label Transfer在线更新伪标签;其中原组向量矩阵的内部数值可以通过非参数原组分类器或参数线性分类器实现;并通过交叉熵损失函数来优化聚类分配概率;
使用原组矩阵来计算伪标签分配的概率,这样所有样本都能够被原组矩阵平均分配,且这个方法确保了不同的图像之间的伪标签是不同的;分配算法的优化策略:
式中,p表示每个图像xi经模型得到特征向量fi,然后通过fi特征映射到一组K个可学习的原组向量,并计算指出概率pi,q表示伪标签矩阵QKxN∈[0,1]中的列向量,相当于每个图像xi在K个类别中的概率分布,θ表示神经网络中的权重参数,表示输入样本xi的伪标签,xi表示输入样本,N表示输入样本总数,k表示初始聚类得到的伪类别总数(pseudoclasses),表示在线更新算法的损失函数。
本发明所采用的另一技术方案是:
一种在线标签更新的系统,包括:
数据获取模块,用于获取源域和目标域,其中源域数据集含有真实标签;
有监督学习模块,用于根据源域的图像对特征提取模型进行有监督学习,获得训练后的特征提取模型;
无监督学习模块,用于将目标域中的图像输入所述特征提取模型,获得特征向量,对所有的特征向量进行无监督聚类,获得每个样本的伪标签;
损失设计模块,用于根据伪标签和特征向量对特征提取模型进行特征学习,设计软分类损失和软三元组损失;
权重分配模块,用于对不同的损失分配权重,获得总损失,对总损失进行求导并反向传播,以用于特征提取模型的权重的梯度更新;
更新迭代模块,用于在线更新伪标签,直至计算的损失函数值不能再减小。
本发明所采用的另一技术方案是:
一种在线标签更新的装置,包括:
至少一个处理器;
至少一个存储器,用于存储至少一个程序;
当所述至少一个程序被所述至少一个处理器执行,使得所述至少一个处理器实现上所述方法。
本发明所采用的另一技术方案是:
一种计算机可读存储介质,其中存储有处理器可执行的程序,所述处理器可执行的程序在由处理器执行时用于执行如上所述方法。
本发明的有益效果是:本发明提出了一种在线聚类的方法,能够在对比学习的算法基础上增强模型的特征学习能力,并在对比学习的过程中对伪标签的在线更新起到提高准确率的作用。
附图说明
为了更清楚地说明本发明实施例或者现有技术中的技术方案,下面对本发明实施例或者现有技术中的相关技术方案附图作以下介绍,应当理解的是,下面介绍中的附图仅仅为了方便清晰表述本发明的技术方案中的部分实施例,对于本领域的技术人员而言,在无需付出创造性劳动的前提下,还可以根据这些附图获取到其他附图。
图1是本发明实施例中一种在线标签更新的方法的整体流程图。
具体实施方式
下面详细描述本发明的实施例,所述实施例的示例在附图中示出,其中自始至终相同或类似的标号表示相同或类似的元件或具有相同或类似功能的元件。下面通过参考附图描述的实施例是示例性的,仅用于解释本发明,而不能理解为对本发明的限制。对于以下实施例中的步骤编号,其仅为了便于阐述说明而设置,对步骤之间的顺序不做任何限定,实施例中的各步骤的执行顺序均可根据本领域技术人员的理解来进行适应性调整。
在本发明的描述中,需要理解的是,涉及到方位描述,例如上、下、前、后、左、右等指示的方位或位置关系为基于附图所示的方位或位置关系,仅是为了便于描述本发明和简化描述,而不是指示或暗示所指的装置或元件必须具有特定的方位、以特定的方位构造和操作,因此不能理解为对本发明的限制。
在本发明的描述中,若干的含义是一个或者多个,多个的含义是两个以上,大于、小于、超过等理解为不包括本数,以上、以下、以内等理解为包括本数。如果有描述到第一、第二只是用于区分技术特征为目的,而不能理解为指示或暗示相对重要性或者隐含指明所指示的技术特征的数量或者隐含指明所指示的技术特征的先后关系。
本发明的描述中,除非另有明确的限定,设置、安装、连接等词语应做广义理解,所属技术领域技术人员可以结合技术方案的具体内容合理确定上述词语在本发明中的具体含义。
本实施例提出了一种在线标签更新的方法,在经过初始化聚类算法得到的伪标签,使用在线标签更新算法,每次迭代(epoch)计算下一次迭代的伪标签分布,这个方法可以被认为是一种最优传输问题(optimal transport)。最优传输问题简单来说将M个样本各自都分配一个标签,最终分配成N个伪标签。这个最优传输问题可以使用Sinkhorn-Knopp算法来获得近似解。同时利用每次更新的伪标签,设计基于对比学习(ContrastiveLearning)的损失函数与ReID常见的分类损失函数(Classification Loss,简称cls)和三元组损失函数(Triplet Loss,简称tri)共同约束神经网络模型的训练。由于UDA Re-ID领域重点研究的是特征学习(Representation Learning)和伪标签精炼(Label Refinery)二者之间的联合,它的精度的上限是伪标签的分布与真实标签的分布一致,因此我们的目标是设计算法使得伪标签的分布无限接近真实标签的分布,进而使得UDA Re-ID的精度无限接近有监督Re-ID的精度效果。
如图1所示,本实施例提供一种在线标签更新的方法,包括以下步骤:
步骤S1、首先随机选择Re-ID学术界的两个数据集,如Market-1501和Duke-MTMC,分别作为源域和目标域,并以此来模拟从源域有监督学习深度神经网络,并将该神经网络部署在目标域并使用我们设计的算法来提升无监督学习的精度。
步骤S2、使用ResNet-50作为特征提取模块,该模块输入是源域的图像,输出足够维数的特征向量和输入图像的分类概率logits。源域数据集含有真实标签,因此可以分别使用分类损失和三元组损失计算损失,计算梯度,并反向传播更新特征提取网络的权重。
其中,步骤S2包括步骤S2.1-S2.3:
S2.1、图片的预处理。对于行人重识别数据集,对训练集中的图像,使用Resize,将图像的高宽设置为(384,128);使用RandomHorizontalFlip,以0.5是否执行该操作的概率,将图像垂直翻转;使用Pad(10)将图像上下左右均填充10个pixel。填充之后,再在扩大的图像上再随机裁剪(384,128)大小的图片。经过归一化后的图片经过RandomErasing,使图像中随机位置的区域被填充空白,即被擦除。
S2.2、对称式的双特征提取器作协同训练。此处采用的两个结构相同,功能上相互监督的两个特征提取网络。由于神经网络具备学习和获取数据分布的能力,所以神经网络通过分类模块的输出,可以作为一种有效的监督。通过网络输出的概率分布,如果将该概率分布用来训练自己的网络,将会造成误差的放大。因此,我们尝试了一种对称式的双特征提取网络,并同步训练这两个网络,在协同训练的过程中,以达到互相监督的效果,从而避免对网络自身的输出误差形成过拟合。
S2.3、classification loss和triplet loss设计。在此阶段,由于源域数据集的样本拥有真实身份标签,利用真实标签和网络输出的分类概率,设计分类损失函数(交叉熵损失函数),衡量真实标签和输出的分类概率的差异,并减小该差异。利用真实标签所提供的先验信息和特征间的距离,挖掘那些特征距离远但相同id的正样本和特征距离近但不相同id的难负样本。三元组(triplet)损失目标,将样本之间的正样本特征距离拉近,样本之间的难负样本特征距离拉远。
步骤S3、步骤S2中经过源域有监督学习得到的模型用于目标域数据集无监督学习。首先将目标域的图像xi作为模型的输入,以此得到各个图像对应的特征向量(featureembedding)。对所有特征向量进行无监督聚类,可以选择使用K-Means或者DBSCAN等学界常用算法,结果得到每个样本的初始伪标签
S3.1、本发明实施例中的聚类算法选择K-Means。思想是,基于欧式距离的聚类算法,算法如果认为两个目标距离越近,那么其相似度也就越大。算法基本步骤:1)选择初始化的k个样本作为类的中心,k的选择意味着我们认为无标签数据集中存在可能多少类别。2)针对数据集中的每个样本xi,计算它到k个类心的聚类并将xi分配到距离最小的类心所对应的类中。3)针对每个类别aj,重新计算它的类心(即属于该类的所有样本的质心)。4)重复上面2),3)步骤,直到达到算法终止条件(误差变化小于设定阈值)。
步骤S4、经步骤S3获得伪标签和对应的图像特征向量,使用这两个先验信息对模型进行特征学习,分别计算“软”分类损失(soft classification loss)和“软”三元组损失(soft triplet loss)。
步骤S4包括步骤S4.1-S4.2
S4.1、经步骤S2完成的源域有监督学习的神经网络,需要在目标域上进行微调。目标域的微调,由于没有真实行人标签,只能使用伪标签来进行特征学习。且由步骤S2.2中使用的是对称式双特征提取器,我们使用了一种“相互平均教学”的框架,用于“硬”伪标签和“软”伪标签进行联合训练。“硬”伪标签由标签更新算法产生,在每个训练epoch之前能够更新一次;“软”伪标签由另一个协同训练的网络生成,并随着网络的更新而被更新。直观地说,该框架利用协同网络的输出来降低自身伪标签中的噪声,并利用该输出的互补性来优化彼此。技术的细节:1、对协同训练的两个网络net1和net2使用不同的初始化参数。2、训练两个网络net1和net2时采用不同的“软”监督,软标签来自于另一个网络的“平均模型”。
上式中,是目标域图像的“硬”伪标签,可由步骤S6的标签在线更新算法产生。在“相互平均教学”的框架中,soft cross-entropy loss中的soft label是“平均模型”的分类预测结果针对分类预测,我们设计了soft cross-entropy loss,本质上是用来减小“软”“硬”伪标签的数据分布的距离。因此采用的是双特征提取器,故:
上式中x和x′分别表示同一张图经过不同的随机数据增强方式。该式子目的在于让Net1的分类预测值逼近Mean-Net2的分类预测值,让Net2的分类预测值逼近Mean-Net1的分类预测值。
其中E(T)[θ1]和E(T)[θ2]的表示如下:
E(T)[θ1]=αE(T-1)[θ1]+(1-α)θ1
E(T)[θ2]=αE(T-1)[θ2]+(1-α)θ2
上式中θ1与θ2分别表示两个对称式且互补式的神经网络,二者在训练阶段能够相互促进提升彼此精度。lce表示二元交叉熵损失函数。
Nt表示训练时mini-batch中的所有样本数量,因此需要计算每个样本的 表示神经网络θ1编码目标域t中的样本后得到的特征向量E(T)[θ1],E(T)[θ2]分别表示经过滑动平均后得到的神经网络θ1,θ2的期望权重。而E(T-1)[θ1],E(T-1)[θ2]即分别表示上一训练阶段的期望网络权重值。分别表示神经网络输出的全连接层,目的是将特征向量通过全连接层输出成为分类概率。
2)Soft triplet loss,传统三元组损失函数表示为:
这里的正样本和难负样本可以根据更新后的标签来判定,所以传统triplet loss可以用于“硬”伪标签的训练。上式中表示输入样本。表示相对输入样本的positive样本,即相对相似的样本。表示相对输入样本的negative样本,即相对不相似的样本。传统三元组损失函数的物理意义在于,通过极大化函数,将与positive样本靠近,与negative样本远离。
对于本小节提出的Soft triplet loss,如下式:
3)基于对比学习的损失函数的设计:对比学习(Contrastive Learning)被广泛应用于无监督学习中提升模型特征学习的能力。我们设计的基于对比学习策略的损失函数,需要结合标签的在线更新算法。使用的是“硬”伪标签作为对比学习的先验信息。我们设计了类内的对比学习(intra-cluster contrastive learning,简称intra-CCL)和类间的对比学习(inter-cluster contrastive learning,简称inter-CCL)。intra-CCL根据伪标签所提供的每个类中的所有样本,在每个mini-batch,选取一个样本,以及它所属类别伪标签的其他样本和这些样本的经过transformation之后的样本。在一个样本和其他所关注的所有样本之间进行特征学习,即降低它们的类内特征距离,增大类内相似度。公式如下:
进一步分析,如果只关注类内的样本相似度,往往不能获得更加鲁棒的特征表达。原因在于,mini-batch中的样本,似乎可能存在一些与之不同身份伪标签id的样本,而这些样本是应该被划分到同一个类别中的。对于这样的模棱两可的样本(比如两个衣着相似、外貌相似的人,在现有清晰度图片下,算法会认为他们是同一个id人),归属到真实的类别是一个很困难的问题。这种模棱两可的标签的归属的问题,本质上是一个与分类损失竞争的问题。因此,我们提出了一种inter-CCL的方法,mini-batch中的单个样本,在整个特征空间中计算相邻样本之间的距离,并按照距离大小进行排序,通过一个选取靠前的超参数m,实验得到这个参数应该控制在50,即选择前50个距离较近的样本,并排除相同id的样本。公式如下:
步骤S5、经步骤S4计算得到的三种损失函数,对不同的损失乘上对应的权重系数,求和得到总损失。接下来对损失求导并反向传播用于模型中的权重的梯度更新。
步骤S6、在线标签更新,使得步骤S4的伪标签能够更新,并最终朝着真实分布演变。
1)每个图像xi经模型得到特征向量fi,然后通过fi特征映射到一组K个可学习的原组向量,并计算指出概率pi。伪标签采用QKxN∈[0,1]来监督组概率P,并且在训练过程中采用Label Transfer在线更新伪标签。其中原组向量矩阵的内部数值可以通过非参数原组分类器或参数线性分类器实现。并通过交叉熵损失函数来优化聚类分配概率。对于一个原组矩阵内部数值的预测问题,将交叉熵损失改为如下:
2)由于离线聚类算法在聚类过程中不可避免产生噪声,神经网络精度下降,我们提出了一种结合表征学习和在线伪标签更新来校准在线训练中的伪标签。我们在1)的基础上尝试原组矩阵和群概率来消除伪标签中的噪声。我们使用原组矩阵来计算伪标签分配的概率,这样所有样本都能够被原组矩阵平均分配,且这个方法确保了不同的图像之间的伪标签是不同的。分配算法的优化策略:
3)由于上式中的目标在q中是组合的,难以通过端到端进行优化,然而OptimialTransport Algorithm最优传输算法可以解决这个问题,我们通过下式将矩阵Q松弛条件转化为可移动原组中的元素:
由于实践中计算量很大,我们使用Sinkhom-Knopp算法来解决这个问题,相当于引入一个正则化项:
由于使用一个小的λ会有一个强的熵正则化,会导致一个无意义的解,所有的样本都有一个唯一的表示,并均匀地分配给所有的原组矩阵,因此我们要使用一个大的λ,根据Sinkhorn-Knopp算法,上面式子正则化项的最小值可以表示为:
Q=diag(α)Pλdiag(β)=diag(α)(CTF)λdiag(β) (1)
α和β是标度系数的两个归一化向量,通过迭代Sinkhorn-Knopp算法,向量α和β可以通过简单的矩阵缩放迭代得到。
当λ很大时,此算法的优化与公式(1)的算法基本相同。但是,即使对于α的中间值,结果仍然趋向于接近最优解。
在这个的实验中,只是把λ作为一个超参数,因为这个实验并不是解决最优的传输问题,更关心的是在最终的聚类和表示学习结果中获得更好的性能。
利用组概率矩阵P对伪标签矩阵Q进行更新后,然后使用当前Q作为伪标签来训练模型来优化组概率P。伪标签预测和带有伪标签的特征学习这两个步骤交替进行,直到训练收敛。
步骤S7、重复步骤S4至步骤S6,直至在训练数据集上计算的损失函数值不能再减小。此时可以认为算法能够对目标域上的数据特征有一个比较好的学习的能力,并且能够在测试集有一个很好的精度。
步骤S8、测试阶段:经步骤S7训练好的模型,使用目标域中的测试集验证模型的效果和精度。
步骤S9、选定其他不同源域及目标域的数据集,并重复步骤S1至步骤S8,以验证我们发明的算法在不同benchmark上的性能。
本发明产生的有益效果,将从两方面阐述。其一是相比较其他学术界UDARe-ID的方法,我们的发明在各个数据集上精度的优势。其二是相比较其他方法,我们的发明在计算资源和时间开销上有明显的优势。
本发明实施例着重研究的是无监督的领域自适应问题,我们的方法在从数据集DukeMTMC迁移到Market-1501上取得了81.9%的mAP(平均准确率)和93.2%的Rank-1(Top-1准确率,即对于一个图片,如果概率最大的是正确答案,才被认为是正确的)。在Market-1501迁移到DukeMTMC上取得了70.3%mAP和83.4%Rank-1。以及在DukeMTMC迁移到MSMT数据集上,取得了29.6%mAP和61.3%Rank-1;Market-1501迁移到MSMT上,取得了27.3%mAP和57.3%Rank-1。
同时本发明是基于在线标签更新方法,先通过聚类算法初始化各个图像的伪标签,再通过计算标签转移矩阵来更新伪标签。相比其他传统方法,它们都需要每个epoch都使用一次聚类算法来更新伪标签。如果设定训练80个epoch且每个epoch聚类算法耗时3min,那么耗费大量时间,我们的方法,只需要一次3min的初始化聚类,那么将节省大量训练时间。实验表明,在训练80个epoch的情况下,我们可以节省大约4小时的时间。
本实施例还提供一种在线标签更新的系统,包括:
数据获取模块,用于获取源域和目标域,其中源域数据集含有真实标签;
有监督学习模块,用于根据源域的图像对特征提取模型进行有监督学习,获得训练后的特征提取模型;
无监督学习模块,用于将目标域中的图像输入所述特征提取模型,获得特征向量,对所有的特征向量进行无监督聚类,获得每个样本的伪标签;
损失设计模块,用于根据伪标签和特征向量对特征提取模型进行特征学习,设计软分类损失和软三元组损失;
权重分配模块,用于对不同的损失分配权重,获得总损失,对总损失进行求导并反向传播,以用于特征提取模型的权重的梯度更新;
更新迭代模块,用于在线更新伪标签,直至计算的损失函数值不能再减小。
本实施例的一种在线标签更新的系统,可执行本发明方法实施例所提供的一种在线标签更新的方法,可执行方法实施例的任意组合实施步骤,具备该方法相应的功能和有益效果。
本实施例还提供一种在线标签更新的装置,包括:
至少一个处理器;
至少一个存储器,用于存储至少一个程序;
当所述至少一个程序被所述至少一个处理器执行,使得所述至少一个处理器实现图1所示的方法。
本实施例的一种在线标签更新的装置,可执行本发明方法实施例所提供的一种在线标签更新的方法,可执行方法实施例的任意组合实施步骤,具备该方法相应的功能和有益效果。
本申请实施例还公开了一种计算机程序产品或计算机程序,该计算机程序产品或计算机程序包括计算机指令,该计算机指令存储在计算机可读存介质中。计算机设备的处理器可以从计算机可读存储介质读取该计算机指令,处理器执行该计算机指令,使得该计算机设备执行图1所示的方法。
本实施例还提供了一种存储介质,存储有可执行本发明方法实施例所提供的一种在线标签更新的方法的指令或程序,当运行该指令或程序时,可执行方法实施例的任意组合实施步骤,具备该方法相应的功能和有益效果。
在一些可选择的实施例中,在方框图中提到的功能/操作可以不按照操作示图提到的顺序发生。例如,取决于所涉及的功能/操作,连续示出的两个方框实际上可以被大体上同时地执行或所述方框有时能以相反顺序被执行。此外,在本发明的流程图中所呈现和描述的实施例以示例的方式被提供,目的在于提供对技术更全面的理解。所公开的方法不限于本文所呈现的操作和逻辑流程。可选择的实施例是可预期的,其中各种操作的顺序被改变以及其中被描述为较大操作的一部分的子操作被独立地执行。
此外,虽然在功能性模块的背景下描述了本发明,但应当理解的是,除非另有相反说明,所述的功能和/或特征中的一个或多个可以被集成在单个物理装置和/或软件模块中,或者一个或多个功能和/或特征可以在单独的物理装置或软件模块中被实现。还可以理解的是,有关每个模块的实际实现的详细讨论对于理解本发明是不必要的。更确切地说,考虑到在本文中公开的装置中各种功能模块的属性、功能和内部关系的情况下,在工程师的常规技术内将会了解该模块的实际实现。因此,本领域技术人员运用普通技术就能够在无需过度试验的情况下实现在权利要求书中所阐明的本发明。还可以理解的是,所公开的特定概念仅仅是说明性的,并不意在限制本发明的范围,本发明的范围由所附权利要求书及其等同方案的全部范围来决定。
所述功能如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。
在流程图中表示或在此以其他方式描述的逻辑和/或步骤,例如,可以被认为是用于实现逻辑功能的可执行指令的定序列表,可以具体实现在任何计算机可读介质中,以供指令执行系统、装置或设备(如基于计算机的系统、包括处理器的系统或其他可以从指令执行系统、装置或设备取指令并执行指令的系统)使用,或结合这些指令执行系统、装置或设备而使用。就本说明书而言,“计算机可读介质”可以是任何可以包含、存储、通信、传播或传输程序以供指令执行系统、装置或设备或结合这些指令执行系统、装置或设备而使用的装置。
计算机可读介质的更具体的示例(非穷尽性列表)包括以下:具有一个或多个布线的电连接部(电子装置),便携式计算机盘盒(磁装置),随机存取存储器(RAM),只读存储器(ROM),可擦除可编辑只读存储器(EPROM或闪速存储器),光纤装置,以及便携式光盘只读存储器(CDROM)。另外,计算机可读介质甚至可以是可在其上打印所述程序的纸或其他合适的介质,因为可以例如通过对纸或其他介质进行光学扫描,接着进行编辑、解译或必要时以其他合适方式进行处理来以电子方式获得所述程序,然后将其存储在计算机存储器中。
应当理解,本发明的各部分可以用硬件、软件、固件或它们的组合来实现。在上述实施方式中,多个步骤或方法可以用存储在存储器中且由合适的指令执行系统执行的软件或固件来实现。例如,如果用硬件来实现,和在另一实施方式中一样,可用本领域公知的下列技术中的任一项或他们的组合来实现:具有用于对数据信号实现逻辑功能的逻辑门电路的离散逻辑电路,具有合适的组合逻辑门电路的专用集成电路,可编程门阵列(PGA),现场可编程门阵列(FPGA)等。
在本说明书的上述描述中,参考术语“一个实施方式/实施例”、“另一实施方式/实施例”或“某些实施方式/实施例”等的描述意指结合实施方式或示例描述的具体特征、结构、材料或者特点包含于本发明的至少一个实施方式或示例中。在本说明书中,对上述术语的示意性表述不一定指的是相同的实施方式或示例。而且,描述的具体特征、结构、材料或者特点可以在任何的一个或多个实施方式或示例中以合适的方式结合。
尽管已经示出和描述了本发明的实施方式,本领域的普通技术人员可以理解:在不脱离本发明的原理和宗旨的情况下可以对这些实施方式进行多种变化、修改、替换和变型,本发明的范围由权利要求及其等同物限定。
以上是对本发明的较佳实施进行了具体说明,但本发明并不限于上述实施例,熟悉本领域的技术人员在不违背本发明精神的前提下还可做作出种种的等同变形或替换,这些等同的变形或替换均包含在本申请权利要求所限定的范围内。
Claims (10)
1.一种在线标签更新的方法,其特征在于,包括以下步骤:
获取源域和目标域,其中源域数据集含有真实标签;
根据源域的图像对特征提取模型进行有监督学习,获得训练后的特征提取模型;
将目标域中的图像输入所述特征提取模型,获得特征向量,对所有的特征向量进行无监督聚类,获得每个样本的伪标签;
根据伪标签和特征向量对特征提取模型进行特征学习,设计软分类损失和软三元组损失;
对不同的损失分配权重,获得总损失,对总损失进行求导并反向传播,以用于特征提取模型的权重的梯度更新;
在线更新伪标签,直至计算的损失函数值不能再减小。
2.根据权利要求1所述的一种在线标签更新的方法,其特征在于,所述获取源域和目标域,包括:
获取两个图像的数据集分别作为源域和目标域;其中,根据源域有监督学习深度神经网络,获得特征提取模型;将所述特征提取模型部署在目标域,并进行无监督学习。
3.根据权利要求1所述的一种在线标签更新的方法,其特征在于,所述特征提取模型采用ResNet-50网络结构,所述特征提取模型输入为源域的图像,输出为特征向量和输入图像的分类概率logits;
所述根据源域的图像对特征提取模型进行有监督学习,包括:
对源域的图像进行预处理;
采用对称式的双特征提取器进行协同训练;
利用真实标签和网络输出的分类概率,设计分类损失函数,衡量真实标签和输出的分类概率的差异,并减小该差异;
利用真实标签所提供的先验信息和特征间的距离,设计三元组损失函数,挖掘那些特征距离远但相同id的正样本和特征距离近但不相同id的难负样本。
4.根据权利要求1所述的一种在线标签更新的方法,其特征在于,采用K-Means聚类算法对所有的特征向量进行无监督聚类。
5.根据权利要求3所述的一种在线标签更新的方法,其特征在于,经过源域有监督学习的特征提取模型,需要在目标域上进行微调;由于目标域中没有真实行人标签,只能使用伪标签来进行特征学习;
由于有监督学习过程中使用的是对称式双特征提取器,在无监督学习过程中采用相互平均教学的框架,用于硬伪标签和软伪标签进行联合训练;
其中,硬伪标签由标签更新算法产生,在每个训练迭代之前能够更新一次;软伪标签由另一个协同训练的网络生成,并随着网络的更新而被更新。
6.根据权利要求1所述的一种在线标签更新的方法,其特征在于,所述软分类损失的表达式为:
其中,E(T)[θ1]和E(T)[θ2]的表示如下:
E(T)[θ1]=αE(T-1)[θ1]+(1-α)θ1
E(T)[θ2]=αE(T-1)[θ2]+(1-α)θ2
式中,θ1与θ2分别表示两个对称式且互补式的神经网络,lce表示二元交叉熵损失函数,Nt表示表示训练时mini-batch中的所有样本数量,表示神经网络θ1编码目标域t中的样本后得到的特征向量,x和x′分别表示同一张图经过不同的随机数据增强方式,E(T)[θ1]、E(T)[θ2]分别表示经过滑动平均后得到的神经网络θ1,θ2的期望权重,分别表示神经网络输出的全连接层,目的是将特征向量通过全连接层输出成为分类概率;
所述软三元组损失的表达式为:
7.根据权利要求1所述的一种在线标签更新的方法,其特征在于,所述在线更新伪标签,包括:
每个图像xi经特征提取模型得到特征向量fi,通过fi特征映射到一组K个可学习的原组向量,并计算指出概率pi;伪标签采用QKxN∈[0,1]来监督组概率P,并且在训练过程中采用Label Transfer在线更新伪标签;其中原组向量矩阵的内部数值可以通过非参数原组分类器或参数线性分类器实现;并通过交叉熵损失函数来优化聚类分配概率;
使用原组矩阵来计算伪标签分配的概率,这样所有样本都能够被原组矩阵平均分配,确保不同的图像之间的伪标签是不同的;分配算法的优化策略:
8.一种在线标签更新的系统,其特征在于,包括:
数据获取模块,用于获取源域和目标域,其中源域数据集含有真实标签;
有监督学习模块,用于根据源域的图像对特征提取模型进行有监督学习,获得训练后的特征提取模型;
无监督学习模块,用于将目标域中的图像输入所述特征提取模型,获得特征向量,对所有的特征向量进行无监督聚类,获得每个样本的伪标签;
损失设计模块,用于根据伪标签和特征向量对特征提取模型进行特征学习,设计软分类损失和软三元组损失;
权重分配模块,用于对不同的损失分配权重,获得总损失,对总损失进行求导并反向传播,以用于特征提取模型的权重的梯度更新;
更新迭代模块,用于在线更新伪标签,直至计算的损失函数值不能再减小。
9.一种在线标签更新的装置,其特征在于,包括:
至少一个处理器;
至少一个存储器,用于存储至少一个程序;
当所述至少一个程序被所述至少一个处理器执行,使得所述至少一个处理器实现权利要求1-7任一项所述方法。
10.一种计算机可读存储介质,其中存储有处理器可执行的程序,其特征在于,所述处理器可执行的程序在由处理器执行时用于执行如权利要求1-7任一项所述方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210241586.5A CN114692732B (zh) | 2022-03-11 | 2022-03-11 | 一种在线标签更新的方法、系统、装置及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210241586.5A CN114692732B (zh) | 2022-03-11 | 2022-03-11 | 一种在线标签更新的方法、系统、装置及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN114692732A true CN114692732A (zh) | 2022-07-01 |
CN114692732B CN114692732B (zh) | 2024-06-28 |
Family
ID=82139057
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210241586.5A Active CN114692732B (zh) | 2022-03-11 | 2022-03-11 | 一种在线标签更新的方法、系统、装置及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114692732B (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115271033A (zh) * | 2022-07-05 | 2022-11-01 | 西南财经大学 | 基于联邦知识蒸馏医学图像处理模型构建及其处理方法 |
CN116012569A (zh) * | 2023-03-24 | 2023-04-25 | 广东工业大学 | 一种基于深度学习的含噪数据下的多标签图像识别方法 |
CN116663516A (zh) * | 2023-07-28 | 2023-08-29 | 深圳须弥云图空间科技有限公司 | 表格机器学习模型训练方法、装置、电子设备及存储介质 |
CN118410318A (zh) * | 2024-06-27 | 2024-07-30 | 江西省送变电工程有限公司 | 一种基于大数据的施工数据处理方法及系统 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113326731A (zh) * | 2021-04-22 | 2021-08-31 | 南京大学 | 一种基于动量网络指导的跨域行人重识别算法 |
CN113378632A (zh) * | 2021-04-28 | 2021-09-10 | 南京大学 | 一种基于伪标签优化的无监督域适应行人重识别算法 |
-
2022
- 2022-03-11 CN CN202210241586.5A patent/CN114692732B/zh active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113326731A (zh) * | 2021-04-22 | 2021-08-31 | 南京大学 | 一种基于动量网络指导的跨域行人重识别算法 |
CN113378632A (zh) * | 2021-04-28 | 2021-09-10 | 南京大学 | 一种基于伪标签优化的无监督域适应行人重识别算法 |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115271033A (zh) * | 2022-07-05 | 2022-11-01 | 西南财经大学 | 基于联邦知识蒸馏医学图像处理模型构建及其处理方法 |
CN115271033B (zh) * | 2022-07-05 | 2023-11-21 | 西南财经大学 | 基于联邦知识蒸馏医学图像处理模型构建及其处理方法 |
CN116012569A (zh) * | 2023-03-24 | 2023-04-25 | 广东工业大学 | 一种基于深度学习的含噪数据下的多标签图像识别方法 |
CN116012569B (zh) * | 2023-03-24 | 2023-08-15 | 广东工业大学 | 一种基于深度学习的含噪数据下的多标签图像识别方法 |
CN116663516A (zh) * | 2023-07-28 | 2023-08-29 | 深圳须弥云图空间科技有限公司 | 表格机器学习模型训练方法、装置、电子设备及存储介质 |
CN116663516B (zh) * | 2023-07-28 | 2024-02-20 | 深圳须弥云图空间科技有限公司 | 表格机器学习模型训练方法、装置、电子设备及存储介质 |
CN118410318A (zh) * | 2024-06-27 | 2024-07-30 | 江西省送变电工程有限公司 | 一种基于大数据的施工数据处理方法及系统 |
Also Published As
Publication number | Publication date |
---|---|
CN114692732B (zh) | 2024-06-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113378632B (zh) | 一种基于伪标签优化的无监督域适应行人重识别方法 | |
CN111967294B (zh) | 一种无监督域自适应的行人重识别方法 | |
CN109344736B (zh) | 一种基于联合学习的静态图像人群计数方法 | |
CN110363282B (zh) | 一种基于图卷积网络的网络节点标签主动学习方法和系统 | |
CN105138973B (zh) | 人脸认证的方法和装置 | |
Zhang et al. | Learning noise-aware encoder-decoder from noisy labels by alternating back-propagation for saliency detection | |
CN114692732B (zh) | 一种在线标签更新的方法、系统、装置及存储介质 | |
CN110046671A (zh) | 一种基于胶囊网络的文本分类方法 | |
CN108399406A (zh) | 基于深度学习的弱监督显著性物体检测的方法及系统 | |
CN111985581B (zh) | 一种基于样本级注意力网络的少样本学习方法 | |
CN109522961B (zh) | 一种基于字典深度学习的半监督图像分类方法 | |
CN104866810A (zh) | 一种深度卷积神经网络的人脸识别方法 | |
Wu et al. | Feedback weight convolutional neural network for gait recognition | |
CN110188827A (zh) | 一种基于卷积神经网络和递归自动编码器模型的场景识别方法 | |
CN115359074B (zh) | 基于超体素聚类及原型优化的图像分割、训练方法及装置 | |
Cai et al. | A robust interclass and intraclass loss function for deep learning based tongue segmentation | |
CN115439685A (zh) | 一种小样本图像数据集划分方法及计算机可读存储介质 | |
CN111860823A (zh) | 神经网络训练、图像处理方法及装置、设备及存储介质 | |
CN111259938B (zh) | 基于流形学习和梯度提升模型的图片偏多标签分类方法 | |
CN116910571A (zh) | 一种基于原型对比学习的开集域适应方法及系统 | |
CN117036760A (zh) | 一种基于图对比学习的多视图聚类模型实现方法 | |
CN117152459A (zh) | 图像检测方法、装置、计算机可读介质及电子设备 | |
CN110263808B (zh) | 一种基于lstm网络和注意力机制的图像情感分类方法 | |
CN118279320A (zh) | 基于自动提示学习的目标实例分割模型建立方法及其应用 | |
Perez et al. | Face Patches Designed through Neuroevolution for Face Recognition with Large Pose Variation |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |