CN114187493A - 一种基于生成对抗网络的零样本学习算法 - Google Patents
一种基于生成对抗网络的零样本学习算法 Download PDFInfo
- Publication number
- CN114187493A CN114187493A CN202111491153.7A CN202111491153A CN114187493A CN 114187493 A CN114187493 A CN 114187493A CN 202111491153 A CN202111491153 A CN 202111491153A CN 114187493 A CN114187493 A CN 114187493A
- Authority
- CN
- China
- Prior art keywords
- network
- image
- generated
- sample
- generation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/253—Fusion techniques of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Computational Linguistics (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Image Analysis (AREA)
Abstract
本发明一种基于生成对抗网络的零样本学习算法,包括:分别对生成对抗网络中的生成网络和判别网络进行了改进,并设计FD‑FGAN模型;将注意机制集成到图像特征生成过程中,并设计FD‑FGAN注意模型来提高生成图像特征的质量;提出一种同时学习像素特征和深层特征的二值特征空间匹配方法;提出一种半监督GAN,为标记样本和未标记样本设置了特殊的通道;借鉴自然语言处理中的对偶学习,构建从源域到目标域和从目标域到源域的跨域学习闭环,使GAN即使在没有标签数据和有效的无监督学习的情况下,也可以在人工干预期间进行。本发明通过特征融合、有效的特征聚类技术,使得生成对抗网络生成效果大大提高。
Description
技术领域
本发明属于机器学习的零样本学习领域,具体为一一种基于生成对抗网络的零样本学习算法,旨在利用训练类别的特征表示,通过生成对抗网络生成测试类别的特征表示,将零样本图像分类任务转化为经典图像分类任务,获得更高的零样本图像分类精度。
背景技术
随着人工智能的不断推进,机器学习已经成为当前最热门的研究方向之一,并被广泛应用于人工智能的许多领域,如数据挖掘、自然语言处理、计算机视觉、生物识别等。这些技术给人们的生活带来了巨大的变化,同时也丰富了人们的生活。
用机器学习解决图像分类问题时,可分为有监督学习、半监督学习和无监督学习。两者的主要区别在于学习过程中是否有样本标签。监督学习使用样本和标签学习来获得函数。当新样品到达时,可以根据该功能进行分类。无监督学习不依赖样本标签,而是根据样本之间的相似性对样本集进行分类。半监督学习的训练数据一部分是标注的,另一部分是未标注的。尽管机器学习在图像分类任务中得到了广泛的应用,但仍存在一些更关键的问题。最重要的是在学习过程中需要大量的人工标注数据来训练模型,耗费了大量的人力物力。与此同时,随着研究的不断深入,研究人员发现,对于某些类别,如某些濒危动物或某些罕见疾病,无疑很难获得这些样本的图像,但对于他们的研究来说,这是非常必要的。因此,如何利用有限的数据来提高模型的效果也引起了许多学者的关注。
在零样本学习任务中,最重要的任务是图像分类。零样本图像分类可以利用已有的图像样本对新生成的图像样本进行标注,避免了过去的人工标注,减少了人力物力的消耗,促进了人工智能的发展。同时,零样本图像的分类研究可以为智能识别稀有物种、智能识别稀有病灶做出巨大贡献。因此,零样本学习分类的研究具有非常重要的意义和应用价值。
受博弈论中两人零和博弈的启发,2014年Goodfellow等人提出了生成性对抗网络(GANs),通过两个网络之间的对抗,由生成网络和判别网络两部分组成。完成训练过程,估计训练样本的潜在分布,生成新的数据样本。图5展示了生成对抗网络的模型结构,其中G为生成网络,D为判别网络。生成网络G利用输入噪声生成接近真实样本的生成样本,判别网络D判断生成样本和真实样本的真实性。经过一段时间的对抗性学习后,生成网络G试图不断生成更真实的样本来欺骗判别网络D,判别网络D不断提高网络的判别能力。通过这样的交互对抗学习,模型生成的样本越来越接近真实样本。
生成式对抗网络虽然能在一定程度上生成更真实的样本,但它有一个致命的缺点,那就是网络难以收敛。针对这一问题,产生式对抗网络出现了许多改进和变体,如条件对抗网络、深度卷积产生式对抗网络和信息最大化。生成对抗网络(信息最大化生成对抗网络,InfoGAN)等。其中最有效的是WGAN(Wasserstein Generative advantarial Nets),它彻底解决了GAN训练不稳定的问题,并在训练过程中设计了一个价值来指导训练过程。首先,WGAN去除了判别网络最后一层的Sigmoid激活函数。其次,在计算发电网和判别网的损耗时,不取对数。再次,在每次更新鉴别网络之后,参数的绝对值被截断到不超过固定值。常数,最后用随机梯度下降算法代替基于动量的算法。虽然WGAN的收敛需要更长的训练,但其收敛过程更稳定。
随着对生成对抗网络的不断研究,生成对抗网络及其变体已经应用于许多不同的领域,如自然语言处理、计算机视觉和视频生成等,从而产生了例如GANs-Zoo。生成对抗网络逐渐开始应用于零镜头学习分类任务,并产生了一些新的方法。这些方法的主要思想是利用生成对抗网络生成未知类的图像样本,从而将零样本学习分类任务转化为一般的图像分类问题。目前,生成对抗网络的各种应用和变体仍在不断发展,生成对抗网络可以说是深度学习领域最有前途的研究方向。
早期的零样本学习的工作利用人工标注的属性来推断未知类的标签。通常输入数据的属性在第一阶段被预测,然后通过搜索得到最相似属性集的类来推断其类标签。例如,C.H.Lampert等人在2009年提出的直接属性预测模型(Direct Attribute Prediction,DAP)模型和间接属性预测(Indirect Attribute Prediction,IAP)模型。
首先通过学习概率属性分类器来估计图像的每个属性的后验,然后计算类后验并使用最大后验概率预测类标签。IAP首先预测已知类的类后验,然后利用每个类的概率来计算图像的属性后验。通过一个多类分类器来预测已知类的类后验。而在属性不可用的情况下,这种两阶段模型方法得到了扩展。例如,在IAP之后,CONSE首先预测已知类的类后验,然后将图像特征投影到Word2vec空间中,采用最可能的T个已知类的凸组合。两阶段模型在中间任务和目标任务之间存在域漂移问题,例如,虽然目标任务是预测类标签,但DAP的中间任务是学习属性分类器。
当前许多零样本学习方法的主要思路是学习从图像特征空间到语义空间的映射。其中,SOC将图像特征映射到语义空间,然后搜索最近的类嵌入向量。ALE使用等级损失来学习图像和属性空间之间的双线性兼容函数。DeViSE使用了有效的等级损失公式学习了图像与语义空间的线性映射,并在大型数据集ImageNet上进行了评估。SJE优化结构支持向量机的损失来学习双线性兼容性。而SAE提出了一种语义自编码器,通过将图像特征投影到语义空间进行重构,使模型规范化。
基于非线性多模态嵌入的方法也是零样本学习方法之一。LatEm通过学习多个线性映射,将SJE的双线性相容性模型扩展为分段线性相容性模型,其中选择多个线性映射作为潜在变量。CMT利用一个带有两个隐藏层的神经网络,学习从图像特征空间到word2vec空间的非线性投影。
随着生成对抗网络的不断进步,生成对抗网络的一些变体已经能够生成足够逼真的图像样本,这也为许多学者解决零镜头学习分类任务提供了新思路,即利用已知类的图像样本和未知类的一些语义信息来生成未知类的图像样本。许多类似的方法已经出现,如f-CLSWGAN(零镜头学习的特征生成网络)、LisGAN(利用生成零镜头学习的不变边)、f-VAEGAN-D2(任意镜头学习的特征生成框架)等。由于生成式对抗网络还处于发展阶段,使用生成式对抗网络直接生成图像样本的效果并不理想。因此,这些方法都是利用未知图像特征的生成来解决零镜头学习分类问题。
零样本学习被质疑是一种限制性的学习方式,它带有一种强烈的假设,即测试时使用的图像只能来自未知类。因此,有学者提出了广义的零样本学习设置,将零样本学习任务推广到在测试时同时使用可见类和不可见类的情况。尽管ImageNet在分类挑战的性能已经超出了人类,但没有观察到类似行为的方法竞争检测,包括拒绝未知的对象,同时检测位置和标签的已知对象。
本发明利用生成对抗网络,解决基于像素重构的监督学习带来的图像模糊问题,进行改进特征融合,设计一种的有效的半监督GAN方法进行特征选择和聚类,引入对偶学习,提高生层图像的质量,能够有效提高零样本学习识别的准确率。
发明内容
针对于传统的零样本学习缺少样本,和生成对抗网络的生成模型图像可信度低的问题,本发明提出了一种基于生成对抗网络的模型FD-fGAN,来提高零样本图像分类的精度,利用特征空间融合、特征匹配、基于聚类的特征选择等方法,并将其融合,即有效解决了像素重构带来的图像模糊问题、实际中的未标注样本过大和GAN的高位输入问题,大大提高了基于生成对抗网络的零样本学习算法的准确率。
为了达到上述目的,本发明采用的具体技术方案为:
一种基于生成对抗网络的零样本学习算法,基于传统的生成对抗网络模型形成基于特征判别的特征生成对抗网络(Feature Discrimination Based Feature Generativeadvanced Networks,FD-fGAN),具体如下:
步骤1,生成器的图像生成:生成网络G通过生成随机的图像数据产生网络认为可信的图像数据传入判别器。具体为:
1.1)随机噪声z和条件c作为生成器网络的输入。
1.2)通过神经网络产生生成器的输出x作为生成样本。
步骤2,判别器网络的训练:使用生成样本和数据集的原始样本对判别器进行训练,使得生成样本的分数越低,真实样本的分数越高。
步骤3,生成器网络的训练:对生成器网络进行生成样本和真实样本的训练,使得生成样本分布更靠近真实样本。
步骤4,重复步骤2、步骤3,提升生成对抗网络的生成样本的可靠度。
步骤5,利用生成样本进行零图像分类的网络训练。
步骤6,在验证数据上进行训练好的网络实验验证。
对于生成对抗网络:设计两个网络,一个网络为生成网络,输入属性数据,输出模拟的特征数据;一个网络为判别网络,输入为特征数据,输出为真实数据的概率。判别网络是一个能够二分类的分类器,用于判别输入数据是真实特征数据还是模拟特征数据,分类器利用多层神经网络实现。通过两个网络的相互对抗学习,不断增强判断网络真实性的能力,不断增强生成网络生成虚假特征的能力,最终生成一个与真实特征足够接近的未知图像特征,然后将该特征发送给分类器进行处理。
网络的输入被判断为语义信息和图像特征。图像特征是视觉信息,而语义信息是非视觉信息。图像特征和语义信息之间有一个不容忽视的鸿沟,那就是语义分离的问题。为了解决这个问题,首先将语义信息发送到两个完全连通的层中,将其嵌入到图像特征空间中,然后将获得的新图像特征与卷积神经网络提取的图像特征相结合,一起发送到判别网络中。并且引入注意力机制,在该模型中,将已知的类特征和生成的未知类特征送入注意网络,然后与判别条件一起送入判别网络。
本发明的有益效果:本发明通过特征融合、有效的特征聚类技术,使得生成对抗网络生成效果大大提高,加入注意力机制,同时在AwA、CUB等数据集上的识别准确率也大幅提高。
附图说明
图1是f-CLSWGAN模型结构;
图2是改进判别网络的f-CLSWGAN模型结构;
图3是改进生成网络的f-CLSWGAN模型结构;
图4是FD-f GAN模型结构;
图5是生成对抗网络示意图;
图6是零样本分类示意图;
图7是注意力机制结构。
具体实施方式
以下结合附图和技术方案,进一步说明本发明的具体实施方式。
由于使用零样本对图像进行分类的任务,很难在训练类和测试类之间建立关系。为了解决这个问题,本发明使用训练类别的特征表示,通过生成对抗网络生成测试类别的特征表示,并将零样本图像分类任务转换为经典的图像分类任务。本发明给出新的生成对抗网络。所述的具体实施例仅用于说明本发明的实现方式,而不限制本发明的范围。下面结合附图对本发明的实施方式进行详细说明。
本发明用生成对抗网络解决了零样本图像分类问题,分别对生成对抗网络中的生成网络和判别网络进行了改进,并设计了FD-FGAN(基于特征生成对抗网络的特征判别)模型。此外,本发明还将注意机制集成到图像特征生成过程中,并设计了FD-FGAN注意模型来提高生成图像特征的质量。
针对监督GAN中基于像素重构的监督学习导致图像模糊的问题,提出了一种同时学习像素特征和深层特征的二值特征空间匹配方法。前者有助于稳定训练过程,后者可以使图像边缘更加稳定。使用成批的目标图像作为非条件变量,比对称条件变量提供更充分的先验信息,从而更好地引导生成的分布接近真实分布。
由于实际应用中往往存在少量标记样本和大量未标记样本,因此提出一种半监督GAN,为标记样本和未标记样本设置了特殊的通道。
为了提高无监督GAN训练过程的稳定性,借鉴自然语言处理中的对偶学习,构建了从源域到目标域和从目标域到源域的跨域学习闭环,使GAN即使在没有标签数据和有效的无监督学习的情况下,也可以在人工干预期间进行。
通过各种改进设计了FD-FGAN Zero-shot图像分类模型。该模型可以解决零样本图像分类中的几个固有问题,进一步提高零样本图像的分类结果。
本发明的具体步骤如下:
改进f-CLSWGAN的判别网络
为了提高网络模型的判别能力,对判别网络进行了改进。在f-CLSWGAN中,网络的输入被判断为语义信息和图像特征。图像特征是视觉信息,而语义信息是非视觉信息。图像特征和语义信息之间存在一个不可忽视的鸿沟,即语义分离问题。为了解决这个问题,首先发送公式1需要改成公式2,
从新公式中可以看出,首先将语义信息c(y)发送到两个全连接层,嵌入到图像特征空间中,然后将得到的新图像特征xc与卷积提取的图像特征结合起来神经网络将它们一起发送到判别网络
改进f-CLSWGAN的判别网络后,使用ResNet-101网络模型在2048维的ImageNet数据集上提取图像特征和预训练。之后,对于语义描述,使用数据集中包含的默认属性。实验中,参数随机初始化,学习率为0.0001,优化器使用Adam,两个正则化权重均为0.01,轮次均设置为70轮。本次实验在AWA、CUB、SUN三个数据集下进行。
改进f-CLSWGAN的生成网络
随后改进了f-CLSWGAN的生成网络,因为,一个特定的类别,只有一个语义描述,比如一个属性向量或一段文本,但是一个语义描述与视觉空间中的许多图像有关。因此,在生成未知样本时需要保证生成图像的多样性,并保证生成的图像与语义描述高度相关。为了解决这个问题,引入了中间样本,即生成的未知类样本和语义信息之间的样本。由于每个生成的样本都是由一条语义信息生成的,因此中间样本应尽可能不特定,但要能够表现出语义信息所描述的特征,并与尽可能多的样本相关。
因为,中间样本被定义为每个类别的概念表示。进一步考虑了图像的多视图性质,并为每个类别定义了多个中间样本。然后对每个样本进行正则化,使其接近至少一个中间样本。由于一个类别的中间样本应该尽可能地反映该类别最显着的特征,所以使用该类别中所有样本的平均表示来定义该类别的中间样本。
将可见类的真实特征划分为k个簇(k=3)。然后,为每个集群计算一个中间样本。假设a类有k个簇,即{Xc1,Xc2,...,Xck},中间样本为Sc={sc1,sc2,...,sck},所以可见类图像特征的中间样本的定义如公式3所示。同理,生成的未知图像特征的中间样本定义如公式4所示。其中是生成的未知图像特征,并且
其中,n1为生成网络生成的样本数,k为每类中间样本数。由于中间样本可以看成是一个簇的平均点,所以生成的中间样本至少应该接近于真实的同类别中间样本,用公式6表示
其中,A为类别a的类别总数。通过使用两个正则化,LR1和LR2,这种改进可以使生成的特征更加多样化,更接近真实的图像特征。其中,LR1是约束单个样本的正则化,LR2是约束整个中间样本簇的正则化。改进后的f-CLSWGAN网络模型如图2所示。
改进f-CLSWGAN的特征判断
从实验发现生成网络和判别网络的改进都有效果。因此,结合两种改进方法,希望提高鉴别网络的鉴别能力,约束生成网络生成的特征,使最终生成的未知特征与真实图像特征足够接近,从而达到提高分类精度的目的。
同时,改进了分类器,以级联方式部署了两个分类器,并预测未知类的样本。其中,第一个分类器用于评估分类的可信度,第二个分类器用于正确分类样本。这两个分类器都使用Softmax分类器,其中一个分类器使用生成的图像特征来训练它们。由于Softmax层的输出是一个包含所有可能类别概率的向量,因此该向量的熵可用于测量结果的不确定性。因此,使用了熵较低的样本,即更准确的样本,作为对其他未知样本进行分类时的参考。熵的计算如公式7所示。
其中,y是a类的类标签
基于上述改进,提出了一种基于特征生成对抗网络(FD-FGAN)的特征识别模型。与f-CLSWGAN网络模型相比,该模型能生成更真实的未知图像特征。FD FGAN网络模型的结构如图3所示。
并使用注意力机制使生成图像特征的过程更加关注图像的主要特征,忽略无关信息,从而设计了FD-FGAN注意网络模型,进一步提高了零镜头图像的分类精度。同时,注意机制也被纳入f-CLSWGAN网络模型进行比较。使用注意机制解决图像零镜头学习分类的一般过程如图6所示。
首先,将图像特征x通过三个具有不同权重的1*1卷积层以获得三个注意特征,将其中一个特征转置并乘以其中一个特征,然后将结果发送到Softmax函数。获取注意力地图。注意力图β的计算如公式8所示:
其中N为图像特征数,Si的计算如式9所示:
si=(wfx)T*(wgx)…(9)
其中,x是通过卷积网络提取的图像特征,wf和wg是两个权重矩阵,通过1*1卷积实现。
最后,将获得的特征映射β和剩余的最后一个注意特征进行矩阵相乘,并通过1*1卷积层以获得最终的图像特征xo,如公式10所示,其中h(xi)=Wh xi。
为了有效提高生成性对抗网络的生成效果,增加了上述注意机制。图7显示了注意力网络的具体结构。该判别网络利用最终获得的图像特征,能够有效地忽略无关信息,区分关键区域,从而进一步提高生成图像特征的质量。
Claims (3)
1.一种基于生成对抗网络的零样本学习算法,其特征在于,基于传统的生成对抗网络模型形成基于特征判别的特征生成对抗网络,具体如下:
步骤1,生成器的图像生成:生成网络G通过生成随机的图像数据产生网络认为可信的图像数据传入判别器;具体为:
1.1)随机噪声z和条件c作为生成器网络的输入;
1.2)通过神经网络产生生成器的输出x作为生成样本;
步骤2,判别器网络的训练:使用生成样本和数据集的原始样本对判别器进行训练,使得生成样本的分数越低,真实样本的分数越高;
步骤3,生成器网络的训练:对生成器网络进行生成样本和真实样本的训练,使得生成样本分布更靠近真实样本;
步骤4,重复步骤2、步骤3,提升生成对抗网络的生成样本的可靠度;
步骤5,利用生成样本进行零图像分类的网络训练;
步骤6,在验证数据上进行训练好的网络实验验证。
2.根据权利要求1所述的一种基于生成对抗网络的零样本学习算法,其特征在于,所述的生成对抗网络具体为:设计两个网络,一个网络为生成网络,输入属性数据,输出模拟的特征数据;一个网络为判别网络,输入为特征数据,输出为真实数据的概率;判别网络是一个能够二分类的分类器,用于判别输入数据是真实特征数据还是模拟特征数据,分类器利用多层神经网络实现;通过两个网络的相互对抗学习,不断增强判断网络真实性的能力,不断增强生成网络生成虚假特征的能力,最终生成一个与真实特征足够接近的未知图像特征,然后将该特征发送给分类器进行处理。
3.根据权利要求1或2所述的一种基于生成对抗网络的零样本学习算法,其特征在于,网络的输入被判断为语义信息和图像特征,首先将语义信息发送到两个完全连通的层中,将其嵌入到图像特征空间中,然后将获得的新图像特征与卷积神经网络提取的图像特征相结合,一起发送到判别网络中;并且引入注意力机制,将已知的类特征和生成的未知类特征送入注意网络,然后与判别条件一起送入判别网络。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111491153.7A CN114187493A (zh) | 2021-12-08 | 2021-12-08 | 一种基于生成对抗网络的零样本学习算法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111491153.7A CN114187493A (zh) | 2021-12-08 | 2021-12-08 | 一种基于生成对抗网络的零样本学习算法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114187493A true CN114187493A (zh) | 2022-03-15 |
Family
ID=80542699
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111491153.7A Pending CN114187493A (zh) | 2021-12-08 | 2021-12-08 | 一种基于生成对抗网络的零样本学习算法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114187493A (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114779661A (zh) * | 2022-04-22 | 2022-07-22 | 北京科技大学 | 基于多分类生成对抗模仿学习算法的化学合成机器人系统 |
CN115758159A (zh) * | 2022-11-29 | 2023-03-07 | 东北林业大学 | 基于混合对比学习和生成式数据增强的零样本文本立场检测方法 |
CN117132003A (zh) * | 2023-10-26 | 2023-11-28 | 云南师范大学 | 一种基于自训练半监督学习的学生学业表现早预测办法 |
-
2021
- 2021-12-08 CN CN202111491153.7A patent/CN114187493A/zh active Pending
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114779661A (zh) * | 2022-04-22 | 2022-07-22 | 北京科技大学 | 基于多分类生成对抗模仿学习算法的化学合成机器人系统 |
CN115758159A (zh) * | 2022-11-29 | 2023-03-07 | 东北林业大学 | 基于混合对比学习和生成式数据增强的零样本文本立场检测方法 |
CN115758159B (zh) * | 2022-11-29 | 2023-07-21 | 东北林业大学 | 基于混合对比学习和生成式数据增强的零样本文本立场检测方法 |
CN117132003A (zh) * | 2023-10-26 | 2023-11-28 | 云南师范大学 | 一种基于自训练半监督学习的学生学业表现早预测办法 |
CN117132003B (zh) * | 2023-10-26 | 2024-02-06 | 云南师范大学 | 一种基于自训练-半监督学习的在线学习平台学生学业表现的早预测办法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110689086B (zh) | 基于生成式对抗网络的半监督高分遥感图像场景分类方法 | |
Makhzani et al. | Adversarial autoencoders | |
CN107209873B (zh) | 用于深度卷积网络的超参数选择 | |
CN114187493A (zh) | 一种基于生成对抗网络的零样本学习算法 | |
CN110826639B (zh) | 一种利用全量数据训练零样本图像分类方法 | |
CN108427740B (zh) | 一种基于深度度量学习的图像情感分类与检索算法 | |
Chanti et al. | Improving bag-of-visual-words towards effective facial expressive image classification | |
US11823490B2 (en) | Non-linear latent to latent model for multi-attribute face editing | |
CN108154156B (zh) | 基于神经主题模型的图像集成分类方法及装置 | |
Hiriyannaiah et al. | A computationally intelligent agent for detecting fake news using generative adversarial networks | |
CN113688894A (zh) | 一种融合多粒度特征的细粒度图像分类方法 | |
Li et al. | An Image Classification Method Based on Optimized Fuzzy Bag-of-words Model. | |
CN113378949A (zh) | 一种基于胶囊网络和混合注意力的双重生成对抗学习方法 | |
Zhang et al. | A self-supervised deep learning framework for unsupervised few-shot learning and clustering | |
Hu et al. | Semi-supervised learning based on GAN with mean and variance feature matching | |
WO2018203551A1 (ja) | 信号検索装置、方法、及びプログラム | |
Singh | Image spam classification using deep learning | |
Gan et al. | Generative adversarial networks with augmentation and penalty | |
Zhao et al. | Affective video classification based on spatio-temporal feature fusion | |
CN111553202B (zh) | 进行活体检测的神经网络的训练方法、检测方法及装置 | |
Zheng et al. | Fusing bottom-up and top-down pathways in neural networks for visual object recognition | |
El Boujnouni et al. | Generating fake human faces using One Class SVM | |
Zhou et al. | RTMC: A Rubost Trusted Multi-View Classification Framework | |
CN117690178B (zh) | 一种基于计算机视觉的人脸图像识别方法与系统 | |
Ghadekar et al. | A semi-supervised gan architecture for video classification |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |