CN111563590A - 一种基于生成对抗模型的主动学习方法 - Google Patents
一种基于生成对抗模型的主动学习方法 Download PDFInfo
- Publication number
- CN111563590A CN111563590A CN202010368402.2A CN202010368402A CN111563590A CN 111563590 A CN111563590 A CN 111563590A CN 202010368402 A CN202010368402 A CN 202010368402A CN 111563590 A CN111563590 A CN 111563590A
- Authority
- CN
- China
- Prior art keywords
- data set
- sample
- model
- samples
- generation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2411—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Software Systems (AREA)
- Mathematical Physics (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Computing Systems (AREA)
- Molecular Biology (AREA)
- General Health & Medical Sciences (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于生成对抗模型的主动学习方法,所述方法包括:首先,利用已标注数据集和未标注数据集训练生成对抗模型,并使用训练后的生成对抗模型将已标注数据集和未标注数据集中的每个样本转换成某个隐藏特征空间中的向量;然后,利用已标注数据集的转换向量对基准分类器进行训练;再使用训练后的基准分类器对测试集中样本进行测试,并检查预设终止条件是否达到;如果预设终止条件达到,从未标注数据集中选择真实基准分类器决策边界周围的样本;之后,让标注者标注选出样本的类别,加入已标记数据集;循环重复上述步骤,直到满足预设终止条件。本发明可以减少人工标注样本的代价,以尽量小的标注代价训练得到高性能模型。
Description
技术领域
本发明涉及计算机技术领域,尤其涉及一种基于生成对抗模型的主动学习方法。
背景技术
目前,深度学习在诸多领域中取得显著成功,例如计算机视觉、语音识别、自然语言处理等等。尽管神经网络在如此多任务中普遍成功,但它有一个明显的缺点,神经网络需要大量的标注数据,这样才能学习大量参数以确保模型的性能。并且拥有更多的数据几乎总是更好的,神经网络的性能通常不会随着数据集的增加而饱和,反而会提升它的泛化性能。
从算法的角度来看,人们期望拥有更多的标注数据。但实际上,标注数据集需要消耗大量的时间和精力,特别是医学图像等专业领域,标注更加繁琐耗时,而且需要标注者具有良好的专业知识技能,标注代价昂贵。
通常,模型的训练集中很可能包含大量的冗余样本。理论上,从训练集中选出具有高价值的部分样本集,利用这部分样本集训练出的模型,能够达到使用所有样本训练的模型同样的性能。主动学习的目标立足于此,如何利用众多未标注样例,从中挑选出对模型训练贡献度高的样例,标注后补充到训练集中来提升模型性能。即,尽可能地减小训练集及标注成本,而达到同样高的模型性能。
随着生成对抗模型的发展,使得信息可以在可视的图像样本空间和看不见的隐空间中相互转换,能够将人类看不见的隐信息以图像的形式展现出来。将生成对抗模型引入主动学习方法中,可以让人类标注者观察到更多信息,将其标注出来后用于模型训练,将会给模型提供更完备的知识,能够提升模型的性能。
现有的一些技术,如Uncertainty-dense(Settles B,Craven M.An Analysis ofActive Learning Strategies for Sequence Labeling Tasks[C].empirical methodsin natural language processing,2008:1070-1079.)和Clustering(Shen X,ZhaiC.Active feedback in ad hoc information retrieval[C].international acm sigirconference on research and development in information retrieval,2005:59-66.),没有让人类专家提供更多的信息供给模型学习,使得模型性能收敛较慢。而ADBA(HuijserM W,Van Gemert J C.Active Decision Boundary Annotation with Deep GenerativeModels[C].international conference on computer vision,2017:5296-5305.)能够让人类标注者直接标注模型的决策边界,利用决策边界标记提升模型的性能收敛速度,但是它严重依赖于其他主动学习方法的性能,在其它主动学习方法性能不够好的情况下,不能达到理想的效果。
发明内容
有鉴于此,本发明提供了一种基于生成对抗模型的主动学习方法,能够利用生成对抗模型选出真实模型决策边界周围的样本,选出的样本对模型性能提升具有较高的贡献度,同时解决了选择到冗余样本、选择到孤立样本点等问题。
本发明的目的至少通过如下技术方案之一实现。
一种基于生成对抗模型的主动学习方法,包括以下步骤:
步骤1、构建生成对抗模型,利用已标注数据集和未标注数据集训练生成对抗模型,并使用训练后的生成对抗模型分别将已标注数据集和未标注数据集中的每个样本转换成某个隐藏特征空间中的向量得到已标注数据集的转换向量和未标注数据集的转换向量;
步骤2、利用步骤1中得到的已标注数据集的转换向量对基准分类器进行训练,得到训练后的基准分类器;
步骤3、使用当前的训练后的基准分类器对测试集中的样本进行测试,并检查预设终止条件是否达到,若预设终止条件未达到,则从未标注数据集中选择真实基准分类器决策边界周围的样本;否则跳至步骤6;
步骤4、让标注者标注步骤3中选出的样本的类别,加入已标记数据集,完成已标记数据集的更新;
步骤5、利用更新后的已标注数据集的转换向量对步骤3中的基准分类器进行训练,得到训练后的基准分类器,完成基准分类器的更新,跳至步骤3;
步骤6、预设终止条件达成,最终基准分类器训练完成,完成基于生成对抗模型的主动学习。
进一步地,步骤1中,从未标注数据集中选择高价值样本时,目标是选出真实模型的决策边界周围的样本,其中需要标注者标记决策边界,此时需要将隐藏特征空间中的向量转换成图像,给标注者直观的视觉展现,因此需要在两种表达空间中进行转换,一个是观察数据所在的数据空间,一个是隐变量所在的隐空间,后者是前者的一种抽象;生成网络用于建立从隐空间到数据空间的映射,视为一个译码器D(z)=x;推断网络用于建立从数据空间到隐空间的映射,视为一个编码器E(x)=z;其中x为原图像样本,z为原图像经推断网络得到的隐变量,D(·)为代表译码器的生成网络,E(·)为代表编码器的推断网络;
标准的GAN拥有生成器和判别器,生成器完成z→D(z)的映射,z从先验分布中进行采样,经过神经网络,得到合成样本;判别器区分来自生成网络的模拟样本和来自实际数据集的真实样本;但是由于标准的GAN没有推断网络,需要将推断网络加入GANs框架下;
所述生成对抗模型为将推断网络和生成网络联合加入GANs框架下的ALI(Adversarially Learned Inference)模型,该模型将推断网络和生成网络一起放入GANs框架下,进而联合训练生成网络和推断网络,而且拥有不错的效果。
进一步地,步骤2中,所述基准分类器为任何可以进行二分类任务的模型。
进一步地,步骤3中,所述预设终止条件包括选择标注的样本数量达到预设数目或基准分类器达到预设的性能指标数值。
进一步地,步骤3中,所述从未标注数据集中选出真实基准分类器决策边界周围的样本具体包括如下步骤:
步骤3.1、计算可容纳未标记数据集和已标记数据集中所有样本的最小超球面;
步骤3.2、通过K-means算法对未标注数据集的转换向量进行聚类得到聚类中心;
步骤3.3、使用步骤3.2中得到的聚类中心对当前基准分类器的决策边界作垂线;
步骤3.4、计算步骤3.3中所作垂线与步骤3.1中得到的最小超球面的两个交点,得到两个交点之间的线段;
步骤3.5、从步骤3.4中得到的线段上均匀采样预定数量个采样点;
步骤3.6、使用生成对抗模型将采样点按顺序生成图像序列,让标注者标记所述图像序列类别发生变化的采样点;
步骤3.7、通过最近邻算法得到离标记的采样点最近的真实样本,该样本为最终选择的样本。
进一步地,所述计算可容纳未标记数据集和已标记数据集中所有样本的最小超球面的方法,具体如下:
其中,zi为未标记数据集和已标记数据集中的第i个样本对应的隐变量,N为所有样本的数量。
进一步地,所述最近邻算法中,采用的距离度量包括欧式距离,计算公式如下:
其中,x、y为任意两个样本,x1,…,xn为样本x在n个维度上的值,y1,…,yn为样本y在n个维度上的值,d(x,y)为样本x与样本y之间的欧式距离。
相比于现有技术,本发明具有以下有益技术效果:
本发明利用标注者标记的决策边界点,能够选择真实模型决策边界周围的样本,选择的样本对模型性能提升具有高贡献度,能够利用尽量少的样本尽可能地提升模型性能;同时,应用K-means聚类算法选择初始点,考虑到选择样本的代表性、覆盖性,解决了选择到孤立点的问题。
附图说明
图1是本发明实施例中一种基于生成对抗模型的主动学习方法的流程示意图。
图2是本发明实施例中选择真实基准分类器决策边界周围的样本方法的流程示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动的前提下所获得的所有其他实施例,都属于本发明保护的范围。
实施例:
一种基于生成对抗模型的主动学习方法,如图1所示,包括以下步骤:
步骤1、构建生成对抗模型,利用已标注数据集和未标注数据集训练生成对抗模型,并使用训练后的生成对抗模型分别将已标注数据集和未标注数据集中的每个样本转换成某个隐藏特征空间中的向量得到已标注数据集的转换向量和未标注数据集的转换向量;
本实施例中,使用的生成对抗模型为将推断网络和生成网络联合加入GANs框架下的ALI(Adversarially Learned Inference)模型,该模型将推断网络和生成网络一起放入GANs框架下,进而联合训练生成网络和推断网络,而且拥有不错的效果。
步骤2、利用步骤1中得到的已标注数据集的转换向量对基准分类器进行训练,得到训练后的基准分类器;
本实施例中,使用的基准分类器为SVM模型。
步骤3、使用当前的训练后的基准分类器对测试集中的样本进行测试,并检查预设终止条件是否达到,本实施例中,预设终止条件是选择标注的样本数量达到450个;若预设终止条件达到,跳至步骤6;否则从未标注数据集中选择真实基准分类器决策边界周围的样本,如图2所示,具体包括如下步骤:
步骤3.1、计算可容纳未标记数据集和已标记数据集中所有样本的最小超球面,具体如下:
其中,zi为未标记数据集和已标记数据集中的第i个样本对应的隐变量,N为所有样本的数量。
步骤3.2、通过K-means算法对未标注数据集的转换向量进行聚类得到聚类中心;
步骤3.3、使用步骤3.2中得到的聚类中心对当前基准分类器的决策边界作垂线;
步骤3.4、计算步骤3.3中所作垂线与步骤3.1中得到的最小超球面的两个交点,得到两个交点之间的线段;
步骤3.5、从步骤3.4中得到的线段上均匀采样预定数量个采样点;
步骤3.6、使用生成对抗模型将采样点按顺序生成图像序列,让标注者标记所述图像序列类别发生变化的采样点;
步骤3.7、通过最近邻算法得到离标记的采样点最近的真实样本,该样本为最终选择的样本,采用的距离度量包括欧式距离,计算公式如下:
其中,x、y为任意两个样本,x1,…,xn为样本x在n个维度上的值,y1,…,yn为样本y在n个维度上的值,d(x,y)为样本x与样本y之间的欧式距离。
步骤4、让标注者标注步骤3中选出的样本的类别,加入已标记数据集,完成已标记数据集的更新;
步骤5、利用更新后的已标注数据集的转换向量对步骤3中的基准分类器进行训练,得到训练后的基准分类器,完成基准分类器的更新,跳至步骤3;
步骤6、已标注预设的450个样本,最终基准分类器训练完成,完成基于生成对抗模型的主动学习。
本实施例中,以在三个数据集上进行分类任务为背景,对本发明提出的基于生成对抗模型的主动学习方法进行验证。
本实施例中,数据集描述如下:
MNIST-08数据集,该数据集包含60000个为“0”或“8”的数字的灰度图像,其中训练集有50000个样本,测试集有10000个样本。
SVHN-08数据集,该数据集采集自Google街景图像中的门牌号码,只包含数字“0”或“8”,其中训练集有73257个样本,测试集有26032个样本。
Shoe-Bag数据集,该数据集采集自Handbags数据集和Shoes数据集,其中训练集有40000个样本,测试集有14000个样本。
本实施例中,为验证本发明提出的基于生成对抗模型的主动学习方法的有效性,基于如下方案设置了实验:随机采样50个样本为初始已标注样本集,根据本发明提出的方法迭代进行主动学习,直到已标注样本集拥有500个样本停止,计算根据每轮基准模型准确率得到的AULC指标,将该指标同其他主动学习方法进行比较。
本发明提出的方法,与随机选择标注样本、根据模型不确定性选择标注样本的对比结果,如下表所示。
表1实验结果表
MNIST-08 | SVHN-08 | Shoe-Bag | |
模型不确定性 | 487.65133 | 445.31160 | 488.99160 |
随机选择 | 480.30215 | 434.81814 | 482.47651 |
本发明 | 487.54729 | 439.09510 | 488.64519 |
通过实验结果可以发现,本发明提出的基于生成对抗模型的主动学习方法是有效的。本发明提出的方法的AULC指标高于随机采样的迭代训练方法,即未采用主动学习模式的常规模型训练方法。而且本发明提出的方法的AULC指标,与经典的主动学习方法——利用模型的不确定性的主动学习方法的AULC指标,是可比的,因此本发明提出的基于生成对抗模型的主动学习方法与常规的主动学习方法一样有效。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,可以通过计算机程序来指令相关硬件来完成,上述的程序可存储于计算机可读取存储介质中,该程序在执行时,可包括如上述各方法的实施例的流程。其中,所述的存储介质可为磁碟、光盘、只读存储器(Read-Only Memory,ROM)或随机存取存储器(Random Access Memory,RAM)等。
上述实施例为本发明较佳的实施方式,但本发明的实施方式并不受上述实施例的限制,其他的任何未背离本发明的精神实质与原理下所作的改变、修饰、替代、组合、简化,均应为等效的置换方式,都包含在本发明的保护范围之内。
Claims (7)
1.一种基于生成对抗模型的主动学习方法,其特征在于,包括以下步骤:
步骤1、构建生成对抗模型,利用已标注数据集和未标注数据集训练生成对抗模型,并使用训练后的生成对抗模型分别将已标注数据集和未标注数据集中的每个样本转换成某个隐藏特征空间中的向量得到已标注数据集的转换向量和未标注数据集的转换向量;
步骤2、利用步骤1中得到的已标注数据集的转换向量对基准分类器进行训练,得到训练后的基准分类器;
步骤3、使用当前的训练后的基准分类器对测试集中的样本进行测试,并检查预设终止条件是否达到,若预设终止条件未达到,则从未标注数据集中选择真实基准分类器决策边界周围的样本;否则跳至步骤6;
步骤4、让标注者标注步骤3中选出的样本的类别,加入已标记数据集,完成已标记数据集的更新;
步骤5、利用更新后的已标注数据集的转换向量对步骤3中的基准分类器进行训练,得到训练后的基准分类器,完成基准分类器的更新,跳至步骤3;
步骤6、预设终止条件达成,最终基准分类器训练完成,完成基于生成对抗模型的主动学习。
2.根据权利要求1所述的一种基于生成对抗模型的主动学习方法,其特征在于,步骤1中,从未标注数据集中选择高价值样本时,目标是选出真实模型的决策边界周围的样本,其中需要标注者标记决策边界,此时需要将隐藏特征空间中的向量转换成图像,给标注者直观的视觉展现,因此需要在两种表达空间中进行转换,一个是观察数据所在的数据空间,一个是隐变量所在的隐空间,后者是前者的一种抽象;生成网络用于建立从隐空间到数据空间的映射,视为一个译码器D(z)=x;推断网络用于建立从数据空间到隐空间的映射,视为一个编码器E(x)=z;其中x为原图像样本,z为原图像经推断网络得到的隐变量,D(·)为代表译码器的生成网络,E(·)为代表编码器的推断网络;
标准的GAN拥有生成器和判别器,生成器完成z→D(z)的映射,z从先验分布中进行采样,经过神经网络,得到合成样本;判别器区分来自生成网络的模拟样本和来自实际数据集的真实样本;但是由于标准的GAN没有推断网络,需要将推断网络加入GANs框架下;
所述生成对抗模型为将推断网络和生成网络联合加入GANs框架下的ALI(Adversarially Learned Inference)模型,该模型将推断网络和生成网络一起放入GANs框架下,进而联合训练生成网络和推断网络。
3.根据权利要求1所述的一种基于生成对抗模型的主动学习方法,其特征在于,步骤2中,所述基准分类器为任何可以进行二分类任务的模型。
4.根据权利要求1所述的一种基于生成对抗模型的主动学习方法,其特征在于,步骤3中,所述预设终止条件包括选择标注的样本数量达到预设数目或基准分类器达到预设的性能指标数值。
5.根据权利要求1所述的一种基于生成对抗模型的主动学习方法,其特征在于,步骤3中,所述从未标注数据集中选出真实基准分类器决策边界周围的样本具体包括如下步骤:
步骤3.1、计算可容纳未标记数据集和已标记数据集中所有样本的最小超球面;
步骤3.2、通过K-means算法对未标注数据集的转换向量进行聚类得到聚类中心;
步骤3.3、使用步骤3.2中得到的聚类中心对当前基准分类器的决策边界作垂线;
步骤3.4、计算步骤3.3中所作垂线与步骤3.1中得到的最小超球面的两个交点,得到两个交点之间的线段;
步骤3.5、从步骤3.4中得到的线段上均匀采样预定数量个采样点;
步骤3.6、使用生成对抗模型将采样点按顺序生成图像序列,让标注者标记所述图像序列类别发生变化的采样点;
步骤3.7、通过最近邻算法得到离标记的采样点最近的真实样本,该样本为最终选择的样本。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010368402.2A CN111563590A (zh) | 2020-04-30 | 2020-04-30 | 一种基于生成对抗模型的主动学习方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010368402.2A CN111563590A (zh) | 2020-04-30 | 2020-04-30 | 一种基于生成对抗模型的主动学习方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN111563590A true CN111563590A (zh) | 2020-08-21 |
Family
ID=72074474
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010368402.2A Pending CN111563590A (zh) | 2020-04-30 | 2020-04-30 | 一种基于生成对抗模型的主动学习方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111563590A (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112200243A (zh) * | 2020-10-09 | 2021-01-08 | 电子科技大学 | 一种基于低问询图像数据的黑盒对抗样本生成方法 |
CN112418293A (zh) * | 2020-11-18 | 2021-02-26 | 武汉大学 | 一种基于信息度和代表度的主动学习抽样方法 |
CN112784990A (zh) * | 2021-01-22 | 2021-05-11 | 支付宝(杭州)信息技术有限公司 | 一种成员推断模型的训练方法 |
CN115937616A (zh) * | 2023-02-21 | 2023-04-07 | 深圳新视智科技术有限公司 | 图像分类模型的训练方法、系统及移动终端 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107644235A (zh) * | 2017-10-24 | 2018-01-30 | 广西师范大学 | 基于半监督学习的图像自动标注方法 |
CN109800785A (zh) * | 2018-12-12 | 2019-05-24 | 中国科学院信息工程研究所 | 一种基于自表达相关的数据分类方法和装置 |
CN110299205A (zh) * | 2019-07-23 | 2019-10-01 | 上海图灵医疗科技有限公司 | 基于人工智能的生物医学信号特征处理及评测方法、装置及应用 |
CN110837870A (zh) * | 2019-11-12 | 2020-02-25 | 东南大学 | 基于主动学习的声呐图像目标识别方法 |
-
2020
- 2020-04-30 CN CN202010368402.2A patent/CN111563590A/zh active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107644235A (zh) * | 2017-10-24 | 2018-01-30 | 广西师范大学 | 基于半监督学习的图像自动标注方法 |
CN109800785A (zh) * | 2018-12-12 | 2019-05-24 | 中国科学院信息工程研究所 | 一种基于自表达相关的数据分类方法和装置 |
CN110299205A (zh) * | 2019-07-23 | 2019-10-01 | 上海图灵医疗科技有限公司 | 基于人工智能的生物医学信号特征处理及评测方法、装置及应用 |
CN110837870A (zh) * | 2019-11-12 | 2020-02-25 | 东南大学 | 基于主动学习的声呐图像目标识别方法 |
Non-Patent Citations (1)
Title |
---|
RONGHUA LUO ET.AL: "Batch Active Learning With Two-Stage Sampling", 《IEEE ACCESS》, vol. 8, pages 1 - 11 * |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112200243A (zh) * | 2020-10-09 | 2021-01-08 | 电子科技大学 | 一种基于低问询图像数据的黑盒对抗样本生成方法 |
CN112200243B (zh) * | 2020-10-09 | 2022-04-26 | 电子科技大学 | 一种基于低问询图像数据的黑盒对抗样本生成方法 |
CN112418293A (zh) * | 2020-11-18 | 2021-02-26 | 武汉大学 | 一种基于信息度和代表度的主动学习抽样方法 |
CN112784990A (zh) * | 2021-01-22 | 2021-05-11 | 支付宝(杭州)信息技术有限公司 | 一种成员推断模型的训练方法 |
CN115937616A (zh) * | 2023-02-21 | 2023-04-07 | 深圳新视智科技术有限公司 | 图像分类模型的训练方法、系统及移动终端 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111563590A (zh) | 一种基于生成对抗模型的主动学习方法 | |
CN110837836B (zh) | 基于最大化置信度的半监督语义分割方法 | |
CN109919183B (zh) | 一种基于小样本的图像识别方法、装置、设备及存储介质 | |
CN108446741B (zh) | 机器学习超参数重要性评估方法、系统及存储介质 | |
CN110889865B (zh) | 一种基于局部加权稀疏特征选择的视频目标跟踪方法 | |
Ji et al. | Image-attribute reciprocally guided attention network for pedestrian attribute recognition | |
CN109063743A (zh) | 基于半监督多任务学习的医疗数据分类模型的构建方法 | |
CN111428448A (zh) | 文本生成方法、装置、计算机设备及可读存储介质 | |
CN107330448A (zh) | 一种基于标记协方差和多标记分类的联合学习方法 | |
WO2020170593A1 (ja) | 情報処理装置及び情報処理方法 | |
CN110110739A (zh) | 一种基于样本选择的域自适应降维方法 | |
Yu et al. | Exemplar-based recursive instance segmentation with application to plant image analysis | |
CN116842354A (zh) | 基于量子人工水母搜索机制的特征选择方法 | |
CN110197213A (zh) | 基于神经网络的图像匹配方法、装置和设备 | |
CN110853072B (zh) | 基于自引导推理的弱监督图像语义分割方法 | |
CN116129189A (zh) | 一种植物病害识别方法、设备、存储介质及装置 | |
CN109284375A (zh) | 一种基于原始数据信息保留的域自适应降维方法 | |
Aoshima et al. | Deep Curvilinear Editing: Commutative and Nonlinear Image Manipulation for Pretrained Deep Generative Model | |
CN109934299A (zh) | 一种考虑了不均衡查询代价的多标签主动学习方法 | |
JP5633424B2 (ja) | プログラム及び情報処理システム | |
CN114821157A (zh) | 基于混合模型网络的多模态影像分类方法 | |
CN115063374A (zh) | 模型训练、人脸图像质量评分方法、电子设备及存储介质 | |
Rai et al. | Improved attribute manipulation in the latent space of stylegan for semantic face editing | |
CN113723433B (zh) | 一种基于动态参考点的多目标特征选择方法和装置 | |
Sun et al. | A robot for classifying Chinese calligraphic types and styles |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |