CN113535953B - 一种基于元学习的少样本分类方法 - Google Patents

一种基于元学习的少样本分类方法 Download PDF

Info

Publication number
CN113535953B
CN113535953B CN202110798113.0A CN202110798113A CN113535953B CN 113535953 B CN113535953 B CN 113535953B CN 202110798113 A CN202110798113 A CN 202110798113A CN 113535953 B CN113535953 B CN 113535953B
Authority
CN
China
Prior art keywords
label
meta
learning
distribution
label distribution
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202110798113.0A
Other languages
English (en)
Other versions
CN113535953A (zh
Inventor
全哲
赵征
乐雨泉
彭阳
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hunan University
Original Assignee
Hunan University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hunan University filed Critical Hunan University
Priority to CN202110798113.0A priority Critical patent/CN113535953B/zh
Publication of CN113535953A publication Critical patent/CN113535953A/zh
Application granted granted Critical
Publication of CN113535953B publication Critical patent/CN113535953B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/35Clustering; Classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2411Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/047Probabilistic or stochastic networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Abstract

本发明公开了一种基于元学习的少样本分类方法,其结合LCM的元学习方法,训练过程主要有两个方面:Attention和岭回归分类器,Attention模块通过组合源池和支持集的分布统计信息来生成特定于类的注意力;岭回归分类器的目标是在从支持集学习之后,对查询集进行预测,由于测试阶段数据量较小,通过LCM试图挽救预测错误的标签,达到在低数据量下较高的分类准确度。

Description

一种基于元学习的少样本分类方法
技术领域
本发明涉及服务计算技术领域,具体涉及一种基于元学习的少样本分类方法。
背景技术
目前有效的文本分类方法都是建立在具有大量的标签数据下的有监督学习,例如常见的textcnn,textrnn等,但是在很多场景下的文本分类是无法提供这么多训练数据的,比如对话场景下的意图识别,这个时候如果我们还以传统的深度学习模型+softmax的形式来分类的话,是极容易陷入过拟合的状态。因此就有很多人研究在少量样本下如何建模。one-shot learning,few-shot learning,甚至是zero-shot learning都是旨在解决这类的问题。
目前对于少样本的文本分类的做法主要分为以下几种:
2.1文本增强。
2.1.1无条件增强
词汇&短语替换:
基于词典:主要从文本中选择词汇或短语进行同义词替换,词典可以采取WordNet或哈工大词林等。著名的EDA(Easy DataAugmentation)就采用了这种方法。
基于词向量:在嵌入空间中找寻相邻词汇进行替换,我们所熟知的TinyBERT就利用这种技术进行了数据增强。
Masked LM:借鉴预训练语言模型(如BERT)中的自编码语言模型,可以启发式地Mask词汇并进行预测替换。
TF-IDF:实质上是一种非核心词替换,对那些low TF-IDF scores进行替换,这一方法最早由Google的UDA提出。
随机噪音注入:
随机插入:随机插入一个词汇、相应的拼写错误、占位符等,UDA则根据Uni-gram词频分布进行了采样。
随机交换:随机交换词汇或交换shuffle句子。
随机删除:随机删除(drop)词汇或句子。
混合&交叉:
混合增强:起源于图像领域的Mixup,这是一种表示增强方法,借鉴这种思想,后来提出了wordMixup和sentMixup将词向量和句向量进行Mixup。
交叉增强:类似于“染色体的交叉操作”,是将相同极性的文本进行交叉
回译:基于机器翻译技术,例如从中文-英文-日文-中文;我们熟知的机器阅读理解模型QANet和UDA都采用了回译技术进行数据增强。
句法交换:通过句法树对文本句子进行解析,并利用相关规则进行转换,例如将主动式变成被动式句子。
对抗增强:不同于CV领域利用GAN生成对抗进行数据增强,NLP中通常在词向量上添加扰动并进行对抗训练。
2.1.1条件增强
定义:所谓条件增强(Conditional Data Augmentation),就是意味着需要强制引入「文本标签」信息到模型中再产生数据。
深度生成模型:既然条件增强需要引入标签信息进行数据增强,那么我们自然就会联想到Conditional变分自编码模型(CVAE),利用CVA进行增强。想生成一个高质量的增强数据,往往需要充分的标注量,但这却与「少样本困境」这一前提所矛盾。这也正是GAN或者CVAE这一类深度生成模型在解决少样本问题时需要考虑的一个现状。
预训练语言模型:众所周知,BERT等在NLP领域取得了巨大成功,特别是其利用大量无标注数据进行了语言模型预训练。如果我们能够结合标签信息、充分利用这一系列语言模型去做文本增强,也许能够克服深度生成模型在少样本问题上的矛盾。近来许多研究者对Conditional Pre-trained Language Models做文本增强进行了有益尝试。
Contextual Augment:这是这一系列尝试的开篇之作,其基于LSTM进行biLM预训练,将标签信息融入网络结构进行finetune,是替换生成的词汇与标签信息兼容一致。
CBERT:其主要思想还是借鉴了Contextual Augment,基于BERT进行finetune,将segment embedding转换融入标签指示的label embedding(如果标签类别数目大于2类,则相应扩充)。
LAMBADA:来自IBM团队,其基于GPT-2将标签信息与原始文本拼接当作训练数据进行finetune,同时也采用一个判别器对生成数据进行了过滤降噪。
2.2.半监督学习
监督学习往往需要大量的标注数据,而标注数据的成本比较高,因此如何利用大量的无标注数据来提高监督学习的效果,具有十分重要的意义。这种利用少量标注数据和大量无标注数据进行学习的方式称为半监督学习(Semi-Supervised Learning,SSL)。在同等的少量标注样本下,半监督学习通常取得比监督学习较好的性能。进入深度学习时代以来,SSL如何在少量标注样本下达到或超越大量标注样本下监督学习的效果,SSL如何在大量标注样本下也不会陷入到“过拟合陷阱”,是SSL研究者面临的一个挑战。
近年来,半监督深度学习取得了长足的进展,特别是在CV领域;相关的研究主要着力于如何针对未标注数据构建无监督信号,与监督学习联合建模;简单地讲,就是如何在损失函数中添加针对未标注数据相关的正则项,使模型能够充分利用大量的未标注数据不断迭代,最终增强泛化性能。
总的来看,深度学习时代的半监督学习,主要针对未标注数据相关的正则化项进行设置,其通常有以下两种:
熵最小化(Entropy Minimization):根据半监督学习的Cluster假设,决策边界应该尽可能地通过数据较为稀疏的地方(低密度区),以能够避免把密集的样本数据点分到决策边界的两侧。也就是模型通过对未标记数据预测后要做出低熵预测,即熵最小化。
一致性正则(Consistency Regularization):对于未标记数据,希望模型在其输入受到扰动时产生相同的输出分布。
2.3.UDA
为克服这一限制,UDA通过一致性训练框架,将有监督的数据增强技术的发展扩展到了有大量未标记数据的半监督学习,尽可能的去利用大量未标记数据,这也正是论文名字——无监督数据增强(Unsupervised DataAugmentation)的由来。
UDA在六个文本分类任务上结合BERT迁移学习框架进行了实验。迁移学习框架分别为:
(1)Random:随机初始化的Transformer;
(2)BERT_base;
(3)BERT_large;
(4)BERT_finetune:基于BERT_large在domain数据集上继续进行预训练;
在少样本场景下,UDA相较于同等监督学习模型,性能明显提升;
在少样本场景下,UDA能够逼近充分样本下的监督学习模型性能,特别地,在IMDb上具有20个标注数据的UDA[8]优于在1250倍标注数据上训练的SOTA模型。相较于2分类任务,5分类任务难度更高,未来仍有提升空间;
UDA兼容了迁移学习框架,进一步domain预训练后,性能更佳。
2.4.迁移学习
通过使用其他人预训练的权重,即使只有一个小的数据集,很可能得到很好的性能。在生物信息学和机器人技术等领域,由于数据采集和标注成本高,构建大规模的、注释良好的数据集非常困难,这限制了数据集的发展。迁移学习不要求训练数据必须与测试数据独立且同分布,激发了我们使用迁移学习来解决训练数据不足的问题,而且给出了相应的解决方法,并回顾了当前关于深度迁移学习各个类别的研究工作,并给出了每个类别的标准化描述和示意图。
发明内容
本发明公开了一种基于元学习的少样本分类方法,其结合LCM的元学习方法,训练过程主要有两个方面:Attention和岭回归分类器,Attention模块通过组合源池和支持集的分布统计信息来生成特定于类的注意力;岭回归分类器的目标是在从支持集学习之后,对查询集进行预测,由于测试阶段数据量较小,通过LCM试图挽救预测错误的标签,达到在低数据量下较高的分类准确度,从而可以有效解决背景技术中涉及的技术问题。
为实现上述目的,本发明的技术方案为:
一种基于元学习的少样本分类方法,其特征在于,该方法包括如下步骤:
步骤一、构建数据集,在Ytrain中选取N个类作为样本,从该N个类中抽取支持集和查询集,再使用来自其余类的示例形成源池;
需要进一步说明的是,所述N为大于0的自然数。
步骤二、对源池的文本经过wiki.en.vec后转化为词向量;
步骤三、在源池中淡化常用的词,强化罕见的词,生成单词的重要性s(w),在支持集中找出支持集与查询集的区别性t(w);
步骤四、将步骤三中得到的s(w)和t(w)通过biLSTM连接起来,得到输出值attention(α);
步骤五、将输出值attention(α)输送给岭回归分类器,得到一个标签分布预测,将LCM得到的模拟标签分布与元学习得到的标签分布预测通过KL散度计算loss,继续训练;
步骤六、经过多次迭代计算,得到训练后的模型;
步骤七、从Ytest样本中选取N个新类,从该N个新类中选择支持集和查询集,使用来自Ytrain的所有示例来形成源池,用支持集去调节模型参数,查询集测试模型效果;
步骤八、实验结果及其讨论。
作为本发明的一种优选改进,在步骤三中,生成单词的重要性s(w)具体包括如下步骤:
利用式(1)衡量一般的词的重要性
Figure GDA0003598297130000051
其中,ε=10-3,P(xi)代表一句话中第i个词xi在source中的统计概率;
利用式(2)反映类特定词的重要性
t(xi)=H(P(y|xi))-1 (2)
其中,H(·)为熵算子,xi为特定词,y为标签。
作为本发明的一种优选改进,在步骤五中,所述岭回归分类器为:
Figure GDA0003598297130000052
Figure GDA0003598297130000053
Figure GDA0003598297130000054
其中,W为权重矩阵,I为单位矩阵,a和b是通过元训练学习的元参数。
作为本发明的一种优选改进,在步骤五中,所述LCM由一个标签编码器和一个模拟标签分配计算块构成,所述标签编码器采用深度神经网络来生成标签表示向量。
作为本发明的一种优选改进,在步骤五中,所述模拟标签分布由相似层和模拟标签分布计算层组成,所述相似层以标签表示和当前实例表示为输入,通过点积计算它们的相似度值,然后应用softmax激活的神经网络得到标签混淆分布,该标签混淆分布通过计算实例和标签之间的相似性来捕获标签之间的依赖关系。
作为本发明的一种优选改进,在步骤五中,所述模拟标签分布由真实标签的one-hot向量乘以系数α与LCD相加得到,所述模拟标签分布由式(3)表示:
Figure GDA0003598297130000061
Figure GDA0003598297130000062
y(s)=softmax(αy(t)+y(c) (3)
其中,fL标签编码器,l1,l2,...lC标签,vl标签表示向量,y(c)为LCD,y(s)为模拟标签分布。
作为本发明的一种优选改进,在步骤五中,KL散度是两个概率分布间差异的非对称性度量,该KL散度由式(4)表示:
Figure GDA0003598297130000063
其中,y(s)为模拟标签分布,y(p)为标签分布预测。
本发明的有益效果如下:
1、第三步和第四步对文本数据添加了的注意力机制,降低常用词的重要性,提高区别词的重要性,对文本分类起着重要作用;
2、第五步则是采用岭回归分类器进行分类,减少数据过少引起的过拟合,对相似度较高的标签采用LCM进行区分,挽回那些预测错误标签;
3、采用结合LCM的元学习方法,元学习的方法提高了模型的泛化性,在小样本领域里有很强的分类能力;LCM则是提高了在文本标签有着较高相似度的情况下的准确度。
附图说明
为了更清楚地说明本发明实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其它的附图,其中:
图1为LSTM流程图。
具体实施方式
下面将结合本发明实施例对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅是本发明的一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其它实施例,都属于本发明保护的范围。
本发明提供一种基于元学习的少样本分类方法,其特征在于,该方法包括如下步骤:
步骤一、构建数据集,在Ytrain中选取N个类作为样本,从该N个类中抽取支持集和查询集,再使用来自其余类的示例形成源池(source pool);
步骤二、对源池的文本经过wiki.en.vec后转化为词向量;
步骤三、在源池中淡化常用的词,强化罕见的词,生成单词的重要性s(w),在支持集中找出支持集与查询集的区别性t(w);
需要进一步说明的是,生成单词的重要性s(w)具体包括如下步骤:
利用式(1)衡量一般的词的重要性
Figure GDA0003598297130000071
其中,ε=10-3,P(xi)代表一句话中第i个词xi在source中的统计概率;
利用式(2)反映类特定词的重要性
t(xi)=H(P(y|xi))-1 (2)
其中,H(·)为熵算子,xi为特定词,y为标签。
步骤四、将步骤三中得到的s(w)和t(w)通过biLSTM连接起来,得到输出值attention(α);
需要进一步说明的是,所述biLSTM就是双向的LSTM,它将s(w)和t(w)拼接起来得到attention(α)。请参阅图1所示,可以看出,LSTM区别于RNN的地方,主要就在于它在算法中加入了一个判断信息有用与否的“处理器”(图1中间的模块)。
LSTM中的重复模块包含四个相互作用的激活函数(三个sigmoid,一个tanh):图中每条线表示一个完整向量,从一个节点的输出到其他节点的输入。图1中间的模块,圆圈代表逐点操作,比如向量加法,而非圆圈表示门限激活函数。线条合并表示串联,线条分差表示复制内容并输出到不同地方。
存储单元中管理向单元移除或添加的结构叫门限,有三种:遗忘门、输入门、输出门。门限由sigmoid激活函数和逐点乘法运算组成。前一个时间步骤的隐藏状态,一个送到遗忘门(输入节点),一个送到输入门,一个送到输出门。就前传递而言,输入门学习决定何时让激活传入存储单元,而输出门学习何时让激活传出存储单元。相应的,对于后传递,输出门学习何时让错误流入存储单元,输入门学习何时让它流出存储单元。
Figure GDA0003598297130000085
用输入xt,t-1次的输出ht-1,计算遗忘率
Figure GDA0003598297130000081
决定一个特征是否要遗忘,0代表完全遗忘,1代表全部记住。
步骤五、将输出值attention(α)输送给岭回归分类器,得到一个标签分布预测(SLD),将LCM得到的模拟标签分布(SLD)与元学习得到的标签分布预测(PLD)通过KL散度计算loss,继续训练;
需要进一步说明的是,所述岭回归分类器为:
Figure GDA0003598297130000082
Figure GDA0003598297130000083
Figure GDA0003598297130000084
其中,W为权重矩阵,I为单位矩阵,a和b是通过元训练学习的元参数。
所述LCM由一个标签编码器和一个模拟标签分配计算块构成,所述标签编码器采用深度神经网络来生成标签表示向量。
所述模拟标签分布由相似层和模拟标签分布计算层组成,所述相似层以标签表示和当前实例表示为输入,通过点积计算它们的相似度值,然后应用softmax激活的神经网络得到标签混淆分布,该标签混淆分布通过计算实例和标签之间的相似性来捕获标签之间的依赖关系。
所述模拟标签分布由真实标签的one-hot向量乘以系数α与LCD相加得到,所述模拟标签分布由式(3)表示:
Figure GDA0003598297130000091
Figure GDA0003598297130000092
y(s)=softmax(αy(t)+y(c) (3)
其中,fL标签编码器,l1,l2,...lC标签,vl标签表示向量,y(c)为LCD,y(s)为模拟标签分布。
KL散度是两个概率分布间差异的非对称性度量,该KL散度由式(4)表示:
Figure GDA0003598297130000093
其中,y(s)为模拟标签分布,y(p)为标签分布预测。
步骤六、经过多次迭代计算,得到训练后的模型;
步骤七、从Ytest样本中选取N个新类,从该N个新类中选择支持集和查询集,使用来自Ytrain的所有示例来形成源池(source pool),用支持集去调节模型参数,查询集测试模型效果;
步骤八、实验结果及其讨论。
本发明的有益效果如下:
1、第三步和第四步对文本数据添加了的注意力机制,降低常用词的重要性,提高区别词的重要性,对文本分类起着重要作用;
2、第五步则是采用岭回归分类器进行分类,减少数据过少引起的过拟合,对相似度较高的标签采用LCM进行区分,挽回那些预测错误标签;
3、采用结合LCM的元学习方法,元学习的方法提高了模型的泛化性,在小样本领域里有很强的分类能力;LCM则是提高了在文本标签有着较高相似度的情况下的准确度。
尽管本发明的实施方案已公开如上,但并不仅仅限于说明书和实施方案中所列运用,它完全可以被适用于各种适合本发明的领域,对于熟悉本领域的人员而言,可容易地实现另外的修改,因此在不背离权利要求及等同范围所限定的一般概念下,本发明并不限于特定的细节和这里所示出与描述的图例。

Claims (3)

1.一种基于元学习的少样本分类方法,其特征在于,该方法包括如下步骤:
步骤一、构建数据集,在Ytrain中选取N个类作为样本,从该N个类中抽取支持集和查询集,再使用来自其余类的示例形成源池;
步骤二、对源池的文本经过wiki.en.vec后转化为词向量;
步骤三、在源池中淡化常用的词,强化罕见的词,生成单词的重要性s(w),在支持集中找出支持集与查询集的区别性t(w);
步骤四、将步骤三中得到的s(w)和t(w)通过biLSTM连接起来,得到输出值attention(α);
步骤五、将输出值attention(α)输送给岭回归分类器,得到一个标签分布预测,将LCM得到的模拟标签分布与元学习得到的标签分布预测通过KL散度计算loss,继续训练,所述LCM由一个标签编码器和一个模拟标签分配计算块构成,所述标签编码器采用深度神经网络来生成标签表示向量;所述模拟标签分布由相似层和模拟标签分布计算层组成,所述相似层以标签表示和当前实例表示为输入,通过点积计算它们的相似度值,然后应用softmax激活的神经网络得到标签混淆分布,该标签混淆分布通过计算实例和标签之间的相似性来捕获标签之间的依赖关系;所述模拟标签分布由真实标签的one-hot向量乘以系数α与LCD相加得到,所述模拟标签分布由式(3)表示:
Figure FDA0003598297120000011
Figure FDA0003598297120000012
y(s)=softmax(αy(t)+y(c)) (3)
其中,fL标签编码器,l1,l2,...lC标签,vl标签表示向量,y(c)为LCD,y(s)为模拟标签分布;
KL散度是两个概率分布间差异的非对称性度量,该KL散度由式(4)表示:
Figure FDA0003598297120000013
其中,y(s)为模拟标签分布,y(p)为标签分布预测;
步骤六、经过多次迭代计算,得到训练后的模型;
步骤七、从Ytest样本中选取N个新类,从该N个新类中选择支持集和查询集,使用来自Ytrain的所有示例来形成源池,用支持集去调节模型参数,查询集测试模型效果;
步骤八、实验结果及其讨论。
2.根据权利要求1所述的一种基于元学习的少样本分类方法,其特征在于:在步骤三中,生成单词的重要性s(w)具体包括如下步骤:
利用式(1)衡量一般的词的重要性
Figure FDA0003598297120000021
其中,ε=10-3,P(xi)代表一句话中第i个词xi在source中的统计概率;
利用式(2)反映类特定词的重要性
t(xi)=H(P(y|xi))-1 (2)
其中,H(·)为熵算子,xi为特定词,y为标签。
3.根据权利要求1所述的一种基于元学习的少样本分类方法,其特征在于:在步骤五中,所述岭回归分类器为:
Figure FDA0003598297120000022
Figure FDA0003598297120000023
Figure FDA0003598297120000024
其中,W为权重矩阵,I为单位矩阵,a和b是通过元训练学习的元参数。
CN202110798113.0A 2021-07-15 2021-07-15 一种基于元学习的少样本分类方法 Active CN113535953B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110798113.0A CN113535953B (zh) 2021-07-15 2021-07-15 一种基于元学习的少样本分类方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110798113.0A CN113535953B (zh) 2021-07-15 2021-07-15 一种基于元学习的少样本分类方法

Publications (2)

Publication Number Publication Date
CN113535953A CN113535953A (zh) 2021-10-22
CN113535953B true CN113535953B (zh) 2022-05-27

Family

ID=78099213

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110798113.0A Active CN113535953B (zh) 2021-07-15 2021-07-15 一种基于元学习的少样本分类方法

Country Status (1)

Country Link
CN (1) CN113535953B (zh)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114328921B (zh) * 2021-12-27 2024-04-09 湖南大学 一种基于分布校准的小样本实体关系抽取方法
CN115033689B (zh) * 2022-05-27 2023-04-18 重庆邮电大学 一种基于小样本文本分类原型网络欧氏距离计算方法
CN115730300B (zh) * 2022-12-12 2023-06-27 西南大学 基于混合式对抗元学习算法的程序安全模型构建方法
CN116094824B (zh) * 2023-02-07 2024-02-20 电子科技大学 一种针对少样本恶意流量的检测系统及方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017158058A1 (en) * 2016-03-15 2017-09-21 Imra Europe Sas Method for classification of unique/rare cases by reinforcement learning in neural networks
CN110569886A (zh) * 2019-08-20 2019-12-13 天津大学 一种双向通道注意力元学习的图像分类方法
CN111476292A (zh) * 2020-04-03 2020-07-31 北京全景德康医学影像诊断中心有限公司 医学图像分类处理人工智能的小样本元学习训练方法
CN111652364A (zh) * 2019-03-04 2020-09-11 富士通株式会社 训练元学习网络的装置和方法
CN113051399A (zh) * 2021-03-31 2021-06-29 浙江大学 一种基于关系型图卷积网络的小样本细粒度实体分类方法

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10354199B2 (en) * 2015-12-07 2019-07-16 Xerox Corporation Transductive adaptation of classifiers without source data
CN113052073A (zh) * 2021-03-25 2021-06-29 浙江工业大学 一种基于元学习的少样本行为识别方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017158058A1 (en) * 2016-03-15 2017-09-21 Imra Europe Sas Method for classification of unique/rare cases by reinforcement learning in neural networks
CN111652364A (zh) * 2019-03-04 2020-09-11 富士通株式会社 训练元学习网络的装置和方法
CN110569886A (zh) * 2019-08-20 2019-12-13 天津大学 一种双向通道注意力元学习的图像分类方法
CN111476292A (zh) * 2020-04-03 2020-07-31 北京全景德康医学影像诊断中心有限公司 医学图像分类处理人工智能的小样本元学习训练方法
CN113051399A (zh) * 2021-03-31 2021-06-29 浙江大学 一种基于关系型图卷积网络的小样本细粒度实体分类方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
"Meta-Learning for Semi-Supervised Few-Shot Classification";Mengye Ren等;《arXiv:1803.00676》;20180302;全文 *
"深度神经网络的小样本学习综述";祝钧桃等;《计算机工程与应用》;20210401;第57卷(第07期);全文 *

Also Published As

Publication number Publication date
CN113535953A (zh) 2021-10-22

Similar Documents

Publication Publication Date Title
CN113535953B (zh) 一种基于元学习的少样本分类方法
Wang et al. An LSTM approach to short text sentiment classification with word embeddings
Zulqarnain et al. Efficient processing of GRU based on word embedding for text classification
CN111753081B (zh) 基于深度skip-gram网络的文本分类的系统和方法
CN110321563B (zh) 基于混合监督模型的文本情感分析方法
CN110347847A (zh) 基于神经网络的知识图谱补全方法
CN111414481A (zh) 基于拼音和bert嵌入的中文语义匹配方法
Han et al. Attention-based memory network for text sentiment classification
CN113392209A (zh) 一种基于人工智能的文本聚类方法、相关设备及存储介质
CN114925205B (zh) 基于对比学习的gcn-gru文本分类方法
Moirangthem et al. Hierarchical and lateral multiple timescales gated recurrent units with pre-trained encoder for long text classification
CN113157919A (zh) 语句文本方面级情感分类方法及系统
CN115292490A (zh) 一种用于政策解读语义的分析算法
CN113806543B (zh) 一种基于残差跳跃连接的门控循环单元的文本分类方法
CN115168579A (zh) 一种基于多头注意力机制和二维卷积操作的文本分类方法
Zhang et al. Description-Enhanced Label Embedding Contrastive Learning for Text Classification
Gao et al. REPRESENTATION LEARNING OF KNOWLEDGE GRAPHS USING CONVOLUTIONAL NEURAL NETWORKS.
CN113204640A (zh) 一种基于注意力机制的文本分类方法
CN114881172A (zh) 一种基于加权词向量和神经网络的软件漏洞自动分类方法
CN113449517B (zh) 基于bert门控多窗口注意力网络模型的实体关系抽取方法
CN115544245A (zh) 一种基于无监督学习的用户攻击性评论风格转换方法
CN114780725A (zh) 一种基于深度聚类的文本分类算法
CN114239575A (zh) 语句分析模型的构建方法、语句分析方法、装置、介质和计算设备
CN114154505A (zh) 一种面向电力规划评审领域的命名实体识别方法
Zhu RNN Language Processing Model-Driven Spoken Dialogue System Modeling Method

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant