CN113610229A - 一种基于范数不确定性指标的主动学习方法 - Google Patents
一种基于范数不确定性指标的主动学习方法 Download PDFInfo
- Publication number
- CN113610229A CN113610229A CN202110915756.9A CN202110915756A CN113610229A CN 113610229 A CN113610229 A CN 113610229A CN 202110915756 A CN202110915756 A CN 202110915756A CN 113610229 A CN113610229 A CN 113610229A
- Authority
- CN
- China
- Prior art keywords
- sample
- uncertainty
- norm
- samples
- active learning
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 49
- 238000012549 training Methods 0.000 claims abstract description 13
- 238000002372 labelling Methods 0.000 claims abstract description 9
- 230000006870 function Effects 0.000 claims description 27
- 239000013598 vector Substances 0.000 claims description 25
- 238000005457 optimization Methods 0.000 claims description 6
- 230000008485 antagonism Effects 0.000 claims description 3
- 238000012512 characterization method Methods 0.000 claims description 3
- 238000012545 processing Methods 0.000 description 3
- 238000013459 approach Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 238000010606 normalization Methods 0.000 description 2
- 230000003044 adaptive effect Effects 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 230000003042 antagnostic effect Effects 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 238000013531 bayesian neural network Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 230000002860 competitive effect Effects 0.000 description 1
- 230000002596 correlated effect Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
- G06F18/2155—Generating training patterns; Bootstrap methods, e.g. bagging or boosting characterised by the incorporation of unlabelled data, e.g. multiple instance learning [MIL], semi-supervised techniques using expectation-maximisation [EM] or naïve labelling
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/088—Non-supervised learning, e.g. competitive learning
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Mathematical Physics (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Image Analysis (AREA)
Abstract
本发明涉及一种基于范数不确定性指标的主动学习方法。包括如下步骤:1:使用编码器和无监督图像重建器对所有图像进行重构,使用标记样本对编码器和有监督目标学习器进行训练;2:使用不确定性得分对样本的状态值进行重新标记,鉴别器依据特征和不确定性得分预测未标记样本的状态值;3:根据状态鉴别器预测的状态值和图像的特征距离去除冗余样本,以降低标记成本。对最终得到的样本组合进行标记,之后对主动学习模型和任务模型分别进行更新训练。本发明使用基于范数的不确定性指标来解决主动学习方法中不确定性估计不准确的问题,除此之外,本发明还设计了去冗余操作以减少人工标记成本。
Description
技术领域:
本发明涉及主动学习领域,尤其涉及一种基于范数不确定性指标的主动学习方法。
背景技术:
最近,得益于大量的标记数据集,图像处理任务在各应用场景中达到了较高性能,但在很多新的应用场景中获得大量的标记数据集是十分困难甚至不现实的。为减轻此类问题造成的影响,有研究者提出了主动学习。主动学习作为一个引人注目的解决方案,通过从一个未标记样本池中搜索含信息量最丰富的样本进行标记,从而充分利用标记信息,以最大化预测性能。主动学习的关键是查询策略,其目标是选择含信息量最丰富的样本,如果标记这些样本,将显著提高任务模型的性能。已经提出了多种类型的主动学习方法,例如基于样本池的方法和基于合成的方法。本发明所提出的方法属于基于池的方法。基于池的方法依据采样方法不同,又可分为基于不确定性的方法和基于数据分布的方法。
基于不确定性方法最简单的方法是利用类的后验概率来定义不确定性。有研究者提出使用预测类别的概率或类别后验概率的熵定义数据点的不确定性。尽管简单,但这种方法在各种场景中表现得非常好。在非贝叶斯经典主动学习方法中,基于不确定性的方法,例如距离决策边界的距离、最大熵和期望风险最小化已经被广泛研究。贝叶斯主动学习方法中,研究者使用概率模型如高斯过程或贝叶斯神经网络来估计不确定性。Bayesianactive learning by disagreement(BALD)方法将样本相对于模型参数的互信息作为不确定性的衡量指标。有研究者通过不确定性和dropout之间的关系来估计神经网络预测的不确定性,并将其应用于主动学习。该方法在小数据集分类中十分有效。作为一种任务不可知的不确定性方法,有研究者通过训练多个模型来构建一个委员会,并评估来自该委员会的多个预测结果之间的一致性。然而,对于目前使用大量数据学习的深度网络来说,建立一个委员会的成本十分高。
在基于数据分布的方法中,有研究者提出使用核心集来选择未标记图像的子集,其中它们最小化采样点和未在训练模型的特征空间中采样的点之间的欧几里德距离。Variational Adversarial Active Learning(VAAL)训练变分自动编码器(VAE)和鉴别器来学习标记和未标记数据的潜在表示。然后,VAAL使用鉴别器的输出作为从未标记数据中选择的不确定性的度量。VAAL仅使用标记图像来训练分类器,并且VAAL仅使用VAE来获取未标记图像。只是依靠数据分布选择的样本可能与任务不直接相关,从而限制模型性能。
最近提出的SRAAL方法使用带注释的信息和标记/未标记的状态信息来选择样本,并取得了极具竞争力的性能。SRAAL继承了VAAL的对抗学习思想,此外,SRAAL还为未标记样本设置了在线不确定度指标(OUI),以计算该样本对模型的贡献。OUI考虑了类别向量中最大元素和方差对不确定性的影响。综上所述,SRAAL综合考虑了样本的多样性和不确定性。
对SRAAL所选样本进行了可视化分析,发现有些样本具有极高的相似性。本发明将相似样本称为冗余样本。冗余样本与正常样本使用了相同的注释成本,但对模型性能贡献极小。针对这一问题,本发明设计了去冗余模块。
发明人在实验中发现,OUI使用整个类别向量来计算不确定性得分,并且得分与向量的方差正相关。这不是一个好的选择。原因如下:由于softmax的引入,样本类别向量中的大部分元素接近于零,对于具有少量类别的数据集,这些微小的值会严重影响方差。例如,对于一个有10个类别的数据集,[0.6,0.4,0,0,0,0,0,0,0,和[0.5,0.5,0,0,0,0,0,0,0,0]向量和的方差分别为0.42和0.40,这在数值上非常相似,而实际上,它们的不确定性是非常不同的。为了弥补这一缺陷,本发明设计了一个新的输出单位范数输出单位,它不再依赖于方差来计算不确定度,而是使用向量的p-范数。范数OUI对向量的不确定性更为敏感。
发明内容:
本发明的目的是针对主动学习方法中对无法准确估计不确定性的问题,提出一种基于范数不确定性指标的主动学习方法,以解决主动学习方法中不能准确评估不确定性的问题。
一种基于范数不确定性指标的主动学习方法,其特征在于,包括如下步骤:
步骤1:使用编码器和无监督图像重建器对所有图像进行重构,使用标记样本对编码器和有监督目标学习器进行训练;
步骤2:使用不确定性得分对样本的状态值进行重新标记,鉴别器依据特征和不确定性得分预测未标记样本的状态值;
步骤3:根据状态鉴别器预测的状态值和图像的特征距离去除冗余样本,以降低标记成本。对最终得到的样本组合进行标记,之后对主动学习模型和任务模型分别进行更新训练。
所述步骤1包括如下步骤:
步骤1.1:本发明设计的表示生成器包括编码器、无监督图像重建器(UIR)和有监督目标学习器(STL)。UIR通过重构样本来学习样本的特征表示,而STL则用于将样本的标注信息嵌入到表示中。UIR由转置卷积层组成,STL在结构上与任务模型相似。为了提高UIR的重构能力,进一步提高编码器和UIR学习样本表示的能力,本发明在UIR之后增加了一个样本鉴别器D1来指导编码器和UIR的重构过程。样本鉴别器D1的优化目标定义为:
其中xL和xU分别为实际标记样本和未标记样本,而xL′和xU′分别为生成的标记样本和未标记样本。
步骤1.2:UIR的优化目标定义为:
最后,UIR在D1的引导下重建图像,学习样本的特征表示。STL的目标函数定义为:
LSTL=E[log[pφ(yL|zL)]-DKL(qθ(yL|xL)||p(z))]
由于对样本标签的依赖性,STL只能用标签样本进行训练。最后,本发明将UIR学习到的特征表示和STL学习到的标注信息串联起来作为最终的样本表示。
所述步骤2包括如下步骤:
步骤2.1:考虑到OUI计算出的不确定性得分会受到类别向量中一个极小值的影响,本发明设计了一个新的指标函数:范数OUI。本发明没有使用向量的方差来计算不确定性得分,而是计算向量的p-范数。因此,本发明定义了不确定性得分函数:
其中V是类别向量,max(V)是向量V中最大的元素。定义为:
根据定义,minnorm(V)是最大元素为max(V)的所有向量的最小p-范数。
步骤2.2:使用不确定性得分对样本的状态值进行重新标记。状态鉴别器D2的目标函数为:
LD=-E[log(D2(qθ(zL|xL)))]-E[log(score(xU)-D2(qθ(zL|xL)))]
其中score(xU)是未标记样本xU的新状态值。在于D2对抗性学习过程中,表征生成器的目标函数为:
Ladv=-E[log(D2(qθ(zL|xL)))]-E[log(D2(qθ(zU|xU)))]
表示生成器的总目标函数如下:
LG=λ1LUIR+λ2LSTL+λ3Ladv
其中λ1,λ2和λ3和是控制函数比率的超参数。
所述步骤3包括如下步骤:
步骤3.1:本发明首先将未标记样本按预测值的降序排列,之后对表示生成器学习到的特征表示进行归一化处理。之后,使用归一化表示来计算样本之间的相似度。一对样本之间的相似性定义为:
其中N(xi)和N(xj)分别表示xi和xj的归一化的特征表示。N(xi)k和N(xj)k分别表示N(xi)和N(xj)的特征表示的第k个元素。
步骤3.2:本发明基于贪心算法进行去冗余操作,算法中设置超参数控制两个样本之间的特征距离,最后返回需要oracle标注的样本。
步骤3.3:使用标记后的样本组合对主动学习模型和任务模型进行更新训练。
本发明的有益效果:目前主动学习方法在降低数据标记成本方面已取得了激动人心的成果,但目前基于基于池的方法仍然无法对样本的不确定性进行估计,除此之外,只依据不确定性进行选择的样本,可能存在大量冗余。故本发明设计了一种基于范数不确定性指标的主动学习方法,利用p-范数使不确定性指标更加准确,除此之外,本发明使用基于贪心算法的去冗余方法,依据归一化的样本特征之间的距离进行冗余去除。最终,本发明得到了一组含信息量丰富且冗余度低的样本组合。
附图说明:
图1是一种基于范数不确定性指标的主动学习方法的流程图;
图2是基于范数不确定性指标的主动学习方法的模型结构图;
图3是以本发明为基础的任务模型与以目前主流方法为基础的任务模型的在四个数据集上的性能对比图。
具体实施方式:
下面将结合本发明实施例中的附图对本发明实施例中的技术方案进行清楚、完整地描述。显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
图1是本发明实施的具体流程示意图,该方法包括如下步骤:
步骤1:使用编码器和无监督图像重建器对所有图像进行重构,使用标记样本对编码器和有监督目标学习器进行训练;
步骤2:使用不确定性得分对样本的状态值进行重新标记,鉴别器依据特征和不确定性得分预测未标记样本的状态值;
步骤3:根据状态鉴别器预测的状态值和图像的特征距离去除冗余样本,以降低标记成本。对最终得到的样本组合进行标记,之后对主动学习模型和任务模型分别进行更新训练。
具体的,图2为本发明提出的主动学习方法的整体结构图,所述步骤1包括如下步骤:
步骤1.1:本发明设计的表示生成器包括编码器、无监督图像重建器(UIR)和有监督目标学习器(STL)。UIR通过重构样本来学习样本的特征表示,而STL则用于将样本的标注信息嵌入到表示中。UIR由转置卷积层组成,STL在结构上与任务模型相似。为了提高UIR的重构能力,进一步提高编码器和UIR学习样本表示的能力,本发明在UIR之后增加了一个样本鉴别器D1来指导编码器和UIR的重构过程,如图2所示。样本鉴别器D1的优化目标定义为:
其中xL和xU分别为实际标记样本和未标记样本,而xL′和xU′分别为生成的标记样本和未标记样本。
步骤1.2:UIR的优化目标定义为:
最后,UIR在D1的引导下重建图像,学习样本的特征表示。STL的目标函数定义为:
LSTL=E[log[pφ(yL|zL)]-DKL(qθ(yL|xL)||p(z))]
由于对样本标签的依赖性,STL只能用标签样本进行训练。最后,本发明将UIR学习到的特征表示和STL学习到的标注信息串联起来作为最终的样本表示。
所述步骤2包括如下步骤:
步骤2.1:考虑到OUI计算出的不确定性得分会受到类别向量中一个极小值的影响,本发明设计了一个新的指标函数:范数OUI。本发明没有使用向量的方差来计算不确定性得分,而是计算向量的p-范数。因此,本发明定义了不确定性得分函数:
其中V是类别向量,max(V)是向量V中最大的元素。定义为:
根据定义,minnorm(V)是最大元素为max(V)的所有向量的最小p-范数。
步骤2.2:使用不确定性得分对样本的状态值进行重新标记。状态鉴别器D2的目标函数为:
LD=-E[log(D2(qθ(zL|xL)))]-E[log(score(xU)-D2(qθ(zL|xL)))]
其中score(xU)是未标记样本xU的新状态值。在于D2对抗性学习过程中,表征生成器的目标函数为:
Ladv=-E[log(D2(qθ(zL|xL)))]-E[log(D2(qθ(zU|xU)))]
表示生成器的总目标函数如下:
LG=λ1LUIR+λ2LSTL+λ3Ladv
其中λ1,λ2和λ3和是控制函数比率的超参数。
所述步骤3包括如下步骤:
步骤3.1:本发明首先将未标记样本按预测值的降序排列,之后对表示生成器学习到的特征表示进行归一化处理。之后,使用归一化表示来计算样本之间的相似度。一对样本之间的相似性定义为:
其中N(xi)和N(xj)分别表示xi和xj的归一化的特征表示。N(xi)k和N(xj)k分别表示N(xi)和N(xj)的特征表示的第k个元素。
步骤3.2:本发明基于贪心算法进行去冗余操作,算法中设置超参数控制两个样本之间的特征距离,最后返回需要oracle标注的样本。
步骤3.3:使用标记后的样本组合对主动学习模型和任务模型进行更新训练。图3展示了以本发明为基础的任务模型与以基准方法为基础的任务模型在四个数据集上的性能对比结果。
Claims (4)
1.一种基于范数不确定性指标的主动学习方法,其特征在于,包括如下步骤:
步骤1:使用编码器和无监督图像重建器对所有图像进行重构,使用标记样本对编码器和有监督目标学习器进行训练;
步骤2:使用不确定性得分对样本的状态值进行重新标记,鉴别器依据特征和不确定性得分预测未标记样本的状态值;
步骤3:根据状态鉴别器预测的状态值和图像的特征距离去除冗余样本,以降低标记成本,对最终得到的样本组合进行标记,之后对主动学习模型和任务模型分别进行更新训练。
2.根据权利要求1所述的基于范数不确定性指标的主动学习方法,其特征在于,所述步骤1包括如下步骤:
步骤1.1:本发明设计的表示生成器包括编码器、无监督图像重建器(UIR)和有监督目标学习器(STL),UIR通过重构样本来学习样本的特征表示,而STL则用于将样本的标注信息嵌入到表示中,本发明在UIR之后增加了一个样本鉴别器D1来指导编码器和UIR的重构过程,样本鉴别器D1的优化目标定义为:
其中xL和xU分别为实际标记样本和未标记样本,而xL′和xU′分别为生成的标记样本和未标记样本;
步骤1.2:UIR的优化目标定义为:
最后,UIR在D1的引导下重建图像,学习样本的特征表示,STL的目标函数定义为:
LSTL=E[log[pφ(yL|zL)]-DKL(qθ(yL|xL)||p(z))]
由于对样本标签的依赖性,STL只能用标签样本进行训练,最后,本发明将UIR学习到的特征表示和STL学习到的标注信息串联起来作为最终的样本表示。
3.根据权利要求1所述的基于范数不确定性指标的主动学习方法,其特征在于,所述步骤2包括如下步骤:
步骤2.1:考虑到OUI计算出的不确定性得分会受到类别向量中一个极小值的影响,本发明设计了一个新的指标函数:范数OUI,本发明没有使用向量的方差来计算不确定性得分,而是计算向量的p-范数,因此,本发明定义了不确定性得分函数:
其中V是类别向量,max(V)是向量V中最大的元素,定义为:
根据定义,min norm(V)是最大元素为max(V)的所有向量的最小p-范数;
步骤2.2:使用不确定性得分对样本的状态值进行重新标记,状态鉴别器D2的目标函数为:
LD=-E[log(D2(qθ(zL|xL)))]-E[log(score(xU)-D2(qθ(zL|xL)))]
其中score(xU)是未标记样本xU的新状态值,在于D2对抗性学习过程中,表征生成器的目标函数为:
Ladv=-E[log(D2(qθ(zL|xL)))]-E[log(D2(qθ(zU|xU)))]
表示生成器的总目标函数如下:
LG=λ1LUIR+λ2LSTL+λ3Ladv
其中λ1,λ2和λ3和是控制函数比率的超参数。
4.根据权利要求1所述的基于范数不确定性指标的主动学习方法,其特征在于,所述步骤3包括如下步骤:
步骤3.1:本发明首先将未标记样本按预测值的降序排列,之后对表示生成器学习到的特征表示进行归一化处理,之后,使用归一化表示来计算样本之间的相似度,一对样本之间的相似性定义为:
其中N(xi)和N(xj)分别表示xi和xj的归一化的特征表示,N(xi)k和N(xj)k分别表示N(xi)和N(xj)的特征表示的第k个元素;
步骤3.2:本发明基于贪心算法进行去冗余操作,算法中设置超参数控制两个样本之间的特征距离,最后返回需要oracle标注的样本;
步骤3.3:使用标记后的样本组合对主动学习模型和任务模型进行更新训练。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110915756.9A CN113610229A (zh) | 2021-08-10 | 2021-08-10 | 一种基于范数不确定性指标的主动学习方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110915756.9A CN113610229A (zh) | 2021-08-10 | 2021-08-10 | 一种基于范数不确定性指标的主动学习方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN113610229A true CN113610229A (zh) | 2021-11-05 |
Family
ID=78340168
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110915756.9A Pending CN113610229A (zh) | 2021-08-10 | 2021-08-10 | 一种基于范数不确定性指标的主动学习方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113610229A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115204064A (zh) * | 2022-09-19 | 2022-10-18 | 中国石油大学(华东) | 一种页岩油开采中注气吞吐参数优化方法及系统 |
-
2021
- 2021-08-10 CN CN202110915756.9A patent/CN113610229A/zh active Pending
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115204064A (zh) * | 2022-09-19 | 2022-10-18 | 中国石油大学(华东) | 一种页岩油开采中注气吞吐参数优化方法及系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107122809B (zh) | 基于图像自编码的神经网络特征学习方法 | |
CN110298037B (zh) | 基于增强注意力机制的卷积神经网络匹配的文本识别方法 | |
CN111126386B (zh) | 场景文本识别中基于对抗学习的序列领域适应方法 | |
CN109101938B (zh) | 一种基于卷积神经网络的多标签年龄估计方法 | |
CN111126576B (zh) | 一种深度学习的训练方法 | |
CN113326731A (zh) | 一种基于动量网络指导的跨域行人重识别算法 | |
CN110941734A (zh) | 基于稀疏图结构的深度无监督图像检索方法 | |
CN111310799B (zh) | 一种基于历史评估结果的主动学习方法 | |
CN109214444B (zh) | 基于孪生神经网络和gmm的游戏防沉迷判定系统及方法 | |
CN112488147A (zh) | 一种基于对抗网络的冗余去除主动学习方法 | |
CN107240100B (zh) | 一种基于遗传算法的图像分割方法和系统 | |
CN113762591B (zh) | 一种基于gru和多核svm对抗学习的短期电量预测方法及系统 | |
CN113610229A (zh) | 一种基于范数不确定性指标的主动学习方法 | |
CN114399661A (zh) | 一种实例感知主干网络训练方法 | |
CN109190471B (zh) | 基于自然语言描述的视频监控行人搜索的注意力模型方法 | |
CN115422369B (zh) | 基于改进TextRank的知识图谱补全方法和装置 | |
CN113723476B (zh) | 一种基于融合不定核特征提取的LightGBM变压器故障诊断方法 | |
CN115661539A (zh) | 一种嵌入不确定性信息的少样本图像识别方法 | |
CN114462466A (zh) | 一种面向深度学习的数据去偏方法 | |
CN110909254B (zh) | 基于深度学习模型针对问答社区进行问题热度预测的方法和系统 | |
CN113139464A (zh) | 一种电网故障检测方法 | |
CN113313210A (zh) | 用于数据处理的方法和设备 | |
Li et al. | Diffusion Probabilistic Model Based End-to-End Latent Fingerprint Synthesis | |
CN111984872A (zh) | 基于迭代优化策略的多模态信息社交媒体流行度预测方法 | |
CN117725454B (zh) | 一种输电线路缺陷特征分布学习方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WD01 | Invention patent application deemed withdrawn after publication | ||
WD01 | Invention patent application deemed withdrawn after publication |
Application publication date: 20211105 |