CN116127065A - 一种简单易用的增量学习文本分类方法及系统 - Google Patents

一种简单易用的增量学习文本分类方法及系统 Download PDF

Info

Publication number
CN116127065A
CN116127065A CN202211618549.8A CN202211618549A CN116127065A CN 116127065 A CN116127065 A CN 116127065A CN 202211618549 A CN202211618549 A CN 202211618549A CN 116127065 A CN116127065 A CN 116127065A
Authority
CN
China
Prior art keywords
model
new
training
category
mlm
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202211618549.8A
Other languages
English (en)
Inventor
杨兰
周兴发
饶璐
孙锐
展华益
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sichuan Cric Technology Co ltd
Original Assignee
Sichuan Cric Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sichuan Cric Technology Co ltd filed Critical Sichuan Cric Technology Co ltd
Priority to CN202211618549.8A priority Critical patent/CN116127065A/zh
Publication of CN116127065A publication Critical patent/CN116127065A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/35Clustering; Classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Biomedical Technology (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Databases & Information Systems (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Machine Translation (AREA)

Abstract

本发明公开了一种简单易用的增量学习文本分类方法及系统,该方法通过将文本分类任务转化为基于预训练模型的掩码语言任务,结合提示模板和标签词映射函数,设计了一种增量学习文本分类模型,该模型在增量学习中可以不改变模型原有的网络结构,减少人工介入,同时学习新、旧类别数据,降低了模型增量学习难度。

Description

一种简单易用的增量学习文本分类方法及系统
技术领域
本发明涉及自然语言处理领域,更具体地,本发明涉及一种简单易用的增量学习文本分类方法及系统。
背景技术
深度神经网络在意图检测、关系识别等大量文本分类任务上具有较好应用前景。但在神经网络模型监督学习中,模型经常会遇到以前没有见过的新类别数据,神经网络模型会将这些数据错误地分类到已知的类别中,从而导致分类准确率下降。为了解决上述问题,增量学习方法应运而生。
增量学习的目标是让计算机模拟人类学习模式,能够不断地从新样本中学习新的知识,并能保存以前学习到的旧知识。增量学习面临的最大问题是“灾难性遗忘”,即学习新任务忘记旧任务的现象。目前,解决灾难性遗忘主要采用三类技术:基于回放、基于正则化及基于参数隔离。但上述方法依旧存在需要人工介入较多,模型增量学习难度较高的问题。
发明内容
本发明克服了现有技术的不足,提供一种简单易用的增量学习文本分类方法及系统,以期望可以解决现有技术中增量学习需要人工介入较多,模型增量学习难度较高的问题。
本发明一方面提供了一种简单易用的增量学习文本分类方法,包括以下步骤:
S1、获取已标注的原始分类数据集Dori,类别集合为Yn,并将原始分类数据集Dori转化为带提示模板的MLM训练样本集;
S11、制定提示模板prompt;
S12、构建标签词映射函数f,通过标签词映射函数f将类别集合Yn中的类别映射为类别标签,形成类别标签集合Ln
S13、基于所述提示模板prompt和标签词映射函数f,将原分类文本转换为包含掩码填写位置[MASK]的带提示模板数据,所述掩码填写位置[MASK]用于填写与待分类文本匹配的类别标签;
S2、将文本分类任务转化掩码语言(即完型填空)任务,搭建MLM(Mask LanguageModel)模型,模型后续以M表示,作为分类模型,并基于上述原始MLM训练样本集Tn进行模型初始训练,将训练完成的分类模型标记为Mn
S3、从原始分类数据集Dori中筛选信息内容丰富的历史数据集Dold
S31、对原始分类数据Dori做特征提取,将原始MLM训练样本Tn输入至已训练完成的模型M中,将模型输出的[CLS]向量表示作为输入样本的特征;
S32、基于提取的样本特征表示,对样本进行聚类;
S33、挑选典型样本Dold,对聚类后的每一个簇进行处理,计算样本与簇心的欧式距离,将靠近簇心的Top-K个样本作为代表性样本挑选出来进行存储。
S4、搜集新增类别数据集Dnew,并和历史数据集Dold汇总,形成新的训练数据集Dt,并将Dt转换为带提示模板的MLM训练样本集Tn+1
S5、基于所述新的MLM训练样本Tn+1对分类模型Mn进行增量训练,得到可以预测新、旧类别数据的新模型Mn+1
所述预测的概率分布的维度大小等于预训练词典大小,与新、旧类别合并后的集合大小无关。这使得增量训练中神经网络模型结构不用发生任何改变,减少了模型构造的负担。
本发明将文本分类任务转化为基于预训练模型的掩码语言任务,结合提示模板和标签词映射函数,设计了一种增量学习文本分类模型,该模型在增量学习中可以不改变模型原有的网络结构,减少人工介入,同时学习新、旧类别数据,降低了模型增量学习难度。
进一步的技术方案为,所述S2中将文本分类任务转化掩码语言任务,搭建MLM模型作为分类模型,并基于上述原始MLM训练样本集Tn进行模型初始训练,将训练完成的分类模型标记为Mn,具体包括以下步骤:
S21、文本分类模型采用基于transformer结构的MLM预训练模型,预训练模型的词典大小为υ;
S22、基于所述MLM模型,文本分类任务转化为完型填空任务,输入文本x属于某个类y的概率正比于xprompt中[MASK]预测为映射的标签词f(y)的概率,见公式1:
p(y/x)∝M(([MASK]=f(y))/xprompt) (1)
其中,x为输入文本;
p(y/x)为x属于类别y的概率;
M为MLM(Mask Language Model)模型;
[MASK]为掩码填写位置;
f(y)为类别y经标签词映射函数f产生的类别标签;
xprompt为x基于提示模板prompt和标签词映射函数f产生的结果。
利用所述预训练模型预测[MASK]位置在填入不同类别标签时的概率,将产生最大概率的类别标签所对应的类别作为待分类文本的预测类别。
S23、模型预测[MASK]位置的概率分布为:
Figure BDA0004001149960000041
其中,q([MASK]/xprompt)为模型训练的损失函数与[MASK]位置处真实值间的交叉熵;
υ为所述MLM模型输出的概率分布维度;
由于υ与类别集合Yn的大小无关,这使得增量训练中神经网络模型结构不用发生任何改变,减少了模型构造的负担。
更进一步的技术方案为,所述S4中搜集新增类别数据集Dnew,并和历史数据集Dold汇总,形成新的训练数据集Dt,并将Dt转换为带提示模板的MLM训练样本集Tn+1,具体包括以下步骤:
S41、获取到新类别数据,并进行标注,得到标注好的新类别数据Dnew,其中新类别集合为Ynew,Yn∩Ynew=Φ,其中,Φ表示空集;
S42、通过标签词映射函数f,将新类别集合Ynew中的类别映射为类别标签,形成类别标签集合Lnew,Ln∩Lnew=Φ;
S43、合并新、旧类别标签集合,形成新标签集合Ln∪Lnew→Ln+1,合并新、旧类别集合,形成新类别集合Yn∪Ynew→Yn+1
S44、基于提示模板prompt和标签词映射函数f,将新类别数据转换为新MLM训练样本;
S45、将所述新MLM训练样本和旧的典型训练样本合并,形成Tn+1
更进一步的技术方案为,所述分类模型具体为,基于transformer结构的MLM预训练模型。
更进一步的技术方案为,所述特征提取采用语义特征提取模型的方式。
更进一步的技术方案为,所述聚类采用kmeans或变种kmeans的一种。
更进一步的技术方案为,所述挑选典型样本采用挑选Top-K个样本或设置阈值的方式。
更进一步的技术方案为,所述增量训练中,模型的初始网络参数可以是上一轮已训练完成的模型,也可以是未经微调的预训练模型参数。
本发明在另一方面还提供了一种简单易用的增量学习文本分类系统,包括:
原始分类数据集获取模块,用于采集原始分类数据集;
文本分类模型搭建及训练模块,用于搭建分类模型并训练,将训练完成的模型表示为Mn
典型旧样本获取模块,用于从原始分类数据集中获取典型样本;
新增类别样本获取模块,用于采集新增类别数据并标注,将标注好的数据和典型旧样本数据混合后,转换为新MLM训练样本;
增量学习模块,基于新MLM训练样本,对上轮训练完成的模型Mn继续增量学习,获得可以同时预测新、旧类别数据的新模型Mn+1
与现有技术相比,本发明至少具有以下有益效果:本发明提供了一种简单、新颖、有效地缓解灾难性遗忘并提升模型文本分类准确率的增量学习方法。通过将文本分类任务转化为基于预训练模型的掩码语言任务,结合提示模板和标签词映射函数,设计了一种增量学习文本分类模型,该模型在增量学习中可以不改变模型原有的网络结构,减少人工介入,同时学习新、旧类别数据,降低了模型增量学习难度。
附图说明
图1为本发明实施例一的流程示意图;
图2为本发明实施例二的结构框图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
实施例一
参见图1,一种简单易用的增量学习文本分类方法,包括以下步骤:
S1、获取已标注的原始分类数据集Dori,类别集合为Yn,并将原始分类数据集Dori转化为带提示模板的MLM训练样本集;
S11、制定提示模板prompt;
S12、构建标签词映射函数f,通过标签词映射函数f将类别集合Yn中的类别映射为类别标签,形成类别标签集合Ln
S13、基于所述提示模板prompt和标签词映射函数f,将原分类文本转换为包含掩码填写位置[MASK]的带提示模板数据,所述掩码填写位置[MASK]用于填写与待分类文本匹配的类别标签;
经该步骤,原始分类数据集Dori转换为MLM训练样本集Tn
S2、将文本分类任务转化掩码语言(即完型填空)任务,搭建MLM模型(用M表示)作为分类模型,并基于上述原始MLM训练样本集Tn进行模型初始训练,将训练完成的分类模型标记为Mn
S21、文本分类模型采用基于transformer结构的MLM(Mask Language Model)预训练模型,预训练模型的词典大小为υ;
S22、基于所述MLM模型,文本分类任务转化为完型填空任务,输入文本x属于某个类y的概率正比于xprompt中[MASK]预测为映射的标签词f(y)的概率,见公式1;
p(y/x)∝M(([MASK]=f(y))/xprompt) (1)
其中,x为输入文本;
p(y/x)为x属于类别y的概率;
M为MLM(Mask Language Model)模型;
[MASK]为掩码填写位置;
f(y)为类别y经标签词映射函数f产生的类别标签;
xprompt为x基于提示模板prompt和标签词映射函数f产生的结果。
利用所述预训练模型预测[MASK]位置在填入不同类别标签时的概率,将产生最大概率的类别标签所对应的类别作为待分类文本的预测类别。
S23、模型预测[MASK]位置的概率分布为:
Figure BDA0004001149960000071
其中,q([MASK]/xprompt)为模型训练的损失函数与[MASK]位置处真实值间的交叉熵;
υ为所述MLM模型输出的概率分布维度;
S3、从原始分类数据集Dori中筛选信息内容丰富的历史数据集Dold
S31、对原始分类数据Dori做特征提取,将原始MLM训练样本Tn输入至已训练完成的模型M中,将模型输出的[CLS]向量表示作为输入样本的特征;
值得说明的是,所述特征提取采用语义特征提取模型的方式,具体可以为,已微调或者未经微调的预训练模型、卷积神经网络、长短期记忆网络等模型,在本实施例中,采用未经微调的预训练模型。
S32、基于提取的样本特征表示,采用kmeans或变种kmeans对样本进行聚类;
所述聚类采用kmeans或变种kmeans的一种,在本实施例中采用kmeans。
S33、挑选典型样本Dold,对聚类后的每一个簇进行处理,计算样本与簇心的欧式距离,将靠近簇心的Top-K个样本作为代表性样本挑选出来进行存储。
所述挑选典型样本采用挑选Top-K个样本或设置阈值的方式,在本实施例中采用设置阈值的方式。
S4、搜集新增类别数据集Dnew,并和历史数据集Dold汇总,形成新的训练数据集Dt,并将Dt转换为带提示模板的MLM训练样本集Tn+1
S41、获取到新类别数据,并进行标注,得到标注好的新类别数据Dnew,其中新类别集合为Ynew,Yn∩Ynew=Φ;
S42、通过标签词映射函数f,将新类别集合Ynew中的类别映射为类别标签,形成类别标签集合Lnew,Ln∩Lnew=Φ;
S43、合并新、旧类别标签集合,形成新标签集合Ln∪Lnew→Ln+1,合并新、旧类别集合,形成新类别集合Yn∪Ynew→Yn+1
S44、基于提示模板prompt和标签词映射函数f,将新类别数据转换为新MLM训练样本;
S45、将所述新MLM训练样本和旧的典型训练样本合并,形成Tn+1
S5、基于所述新的MLM训练样本Tn+1对分类模型Mn进行增量训练,得到可以预测新、旧类别数据的新模型Mn+1
实施例二
参见图2,一种简单易用的增量学习文本分类系统,包括:
原始分类数据集获取模块,用于采集原始分类数据集;
文本分类模型搭建及训练模块,用于搭建分类模型并训练,将训练完成的模型表示为Mn
典型旧样本获取模块,用于从原始分类数据集中获取典型样本;
新增类别样本获取模块,用于采集新增类别数据并标注,将标注好的数据和典型旧样本数据混合后,转换为新MLM训练样本;
增量学习模块,基于新MLM训练样本,对上轮训练完成的模型Mn继续增量学习,获得可以同时预测新、旧类别数据的新模型Mn+1
尽管这里参照本发明的解释性实施例对本发明进行了描述,但是,应该理解,本领域技术人员可以设计出很多其他的修改和实施方式,这些修改和实施方式将落在本申请公开的原则范围和精神之内。更具体地说,在本申请公开的范围内,可以对主题组合布局的组成部件和/或布局进行多种变型和改进。除了对组成部件和/或布局进行的变型和改进外,对于本领域技术人员来说,其他的用途也将是明显的。

Claims (9)

1.一种简单易用的增量学习文本分类方法,其特征在于,包括以下步骤:
S1、获取已标注的原始分类数据集Dori,类别集合为Yn,并将原始分类数据集Dori转化为带提示模板的MLM训练样本集;
S11、制定提示模板prompt;
S12、构建标签词映射函数f,通过标签词映射函数f将类别集合Yn中的类别映射为类别标签,形成类别标签集合Ln
S13、基于所述提示模板prompt和标签词映射函数f,将原分类文本转换为包含掩码填写位置[MASK]的带提示模板数据,所述掩码填写位置[MASK]用于填写与待分类文本匹配的类别标签;
S2、将文本分类任务转化掩码语言任务,搭建MLM模型,模型后续以M表示,作为分类模型,并基于上述原始MLM训练样本集Tn进行模型初始训练,将训练完成的分类模型标记为Mn
S3、从原始分类数据集Dori中筛选信息内容丰富的历史数据集Dold
S31、对原始分类数据Dori做特征提取,将原始MLM训练样本Tn输入至已训练完成的模型M中,将模型输出的[CLS]向量表示作为输入样本的特征;
S32、基于提取的样本特征表示,对样本进行聚类;
S33、挑选典型样本Dold,对聚类后的每一个簇进行处理,计算样本与簇心的欧式距离,将靠近簇心的Top-K个样本作为代表性样本挑选出来进行存储;
S4、搜集新增类别数据集Dnew,并和历史数据集Dold汇总,形成新的训练数据集Dt,并将Dt转换为带提示模板的MLM训练样本集Tn+1
S5、基于所述新的MLM训练样本Tn+1对分类模型Mn进行增量训练,得到可以预测新、旧类别数据的新模型Mn+1
2.如权利要求1所述的一种简单易用的增量学习文本分类方法,其特征在于,所述S2中将文本分类任务转化掩码语言任务,搭建MLM模型作为分类模型,并基于上述原始MLM训练样本集Tn进行模型初始训练,将训练完成的分类模型标记为Mn,具体包括以下步骤:
S21、文本分类模型采用基于transformer结构的MLM预训练模型,预训练模型的词典大小为υ;
S22、基于所述MLM模型,文本分类任务转化为完型填空任务,输入文本x属于某个类y的概率正比于xprompt中[MASK]预测为映射的标签词f(y)的概率,见公式1;
p(y/x)∝M(([MASK]=f(y))/xprompt)                                     (1)
其中,x为输入文本;
p(y/x)为x属于类别y的概率;
M为MLM(Mask Language Model)模型;
[MASK]为掩码填写位置;
f(y)为类别y经标签词映射函数f产生的类别标签;
xprompt为x基于提示模板prompt和标签词映射函数f产生的结果;
利用所述预训练模型预测[MASK]位置在填入不同类别标签时的概率,将产生最大概率的类别标签所对应的类别作为待分类文本的预测类别。
S23、模型预测[MASK]位置的概率分布为:
Figure FDA0004001149950000021
其中,q([MASK]/xprompt)为模型训练的损失函数与[MASK]位置处真实值间的交叉熵;
υ为所述MLM模型输出的概率分布维度。
3.如权利要求1所述的一种简单易用的增量学习文本分类方法,其特征在于,所述S4中搜集新增类别数据集Dnew,并和历史数据集Dold汇总,形成新的训练数据集Dt,并将Dt转换为带提示模板的MLM训练样本集Tn+1,具体包括以下步骤:
S41、获取到新类别数据,并进行标注,得到标注好的新类别数据Dnew,其中新类别集合为Ynew,Yn∩Ynew=Φ,其中,Φ表示空集;
S42、通过标签词映射函数f,将新类别集合Ynew中的类别映射为类别标签,形成类别标签集合Lnew,Ln∩Lnew=Φ;
S43、合并新、旧类别标签集合,形成新标签集合Ln∪Lnew→Ln+1,合并新、旧类别集合,形成新类别集合Yn∪Ynew→Yn+1
S44、基于提示模板prompt和标签词映射函数f,将新类别数据转换为新MLM训练样本;
S45、将所述新MLM训练样本和旧的典型训练样本合并,形成Tn+1
4.如权利要求1所述的一种简单易用的增量学习文本分类方法,其特征在于,所述分类模型具体为,基于transformer结构的MLM预训练模型。
5.如权利要求1所述的一种简单易用的增量学习文本分类方法,其特征在于,所述特征提取采用语义特征提取模型的方式。
6.如权利要求1所述的一种简单易用的增量学习文本分类方法,其特征在于,所述聚类采用kmeans或变种kmeans的一种。
7.如权利要求1所述的一种简单易用的增量学习文本分类方法,其特征在于,所述挑选典型样本采用挑选Top-K个样本或设置阈值的方式。
8.如权利要求1所述的一种简单易用的增量学习文本分类方法,其特征在于,所述增量训练中,模型的初始网络参数可以是上一轮已训练完成的模型,也可以是未经微调的预训练模型参数。
9.一种简单易用的增量学习文本分类系统,其特征在于,包括:
原始分类数据集获取模块,用于采集原始分类数据集;
文本分类模型搭建及训练模块,用于搭建分类模型并训练,将训练完成的模型表示为Mn
典型旧样本获取模块,用于从原始分类数据集中获取典型样本;
新增类别样本获取模块,用于采集新增类别数据并标注,将标注好的数据和典型旧样本数据混合后,转换为新MLM训练样本;
增量学习模块,基于新MLM训练样本,对上轮训练完成的模型Mn继续增量学习,获得可以同时预测新、旧类别数据的新模型Mn+1
CN202211618549.8A 2022-12-15 2022-12-15 一种简单易用的增量学习文本分类方法及系统 Pending CN116127065A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202211618549.8A CN116127065A (zh) 2022-12-15 2022-12-15 一种简单易用的增量学习文本分类方法及系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202211618549.8A CN116127065A (zh) 2022-12-15 2022-12-15 一种简单易用的增量学习文本分类方法及系统

Publications (1)

Publication Number Publication Date
CN116127065A true CN116127065A (zh) 2023-05-16

Family

ID=86309191

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202211618549.8A Pending CN116127065A (zh) 2022-12-15 2022-12-15 一种简单易用的增量学习文本分类方法及系统

Country Status (1)

Country Link
CN (1) CN116127065A (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116778264A (zh) * 2023-08-24 2023-09-19 鹏城实验室 基于类增学习的对象分类方法、图像分类方法及相关设备
CN117493889A (zh) * 2023-12-27 2024-02-02 中国科学院自动化研究所 增量式持续学习方法、装置、存储介质和电子设备

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116778264A (zh) * 2023-08-24 2023-09-19 鹏城实验室 基于类增学习的对象分类方法、图像分类方法及相关设备
CN116778264B (zh) * 2023-08-24 2023-12-12 鹏城实验室 基于类增学习的对象分类方法、图像分类方法及相关设备
CN117493889A (zh) * 2023-12-27 2024-02-02 中国科学院自动化研究所 增量式持续学习方法、装置、存储介质和电子设备

Similar Documents

Publication Publication Date Title
CN112100383B (zh) 一种面向多任务语言模型的元-知识微调方法及平台
CN116127065A (zh) 一种简单易用的增量学习文本分类方法及系统
CN110765260A (zh) 一种基于卷积神经网络与联合注意力机制的信息推荐方法
CN110046671A (zh) 一种基于胶囊网络的文本分类方法
CN113312501A (zh) 基于知识图谱的安全知识自助查询系统的构建方法及装置
CN113486667A (zh) 一种基于实体类型信息的医疗实体关系联合抽取方法
CN111461025B (zh) 一种自主进化的零样本学习的信号识别方法
CN111695527A (zh) 一种蒙古文在线手写体识别方法
CN111159356B (zh) 基于教学内容的知识图谱构建方法
CN116186594B (zh) 基于决策网络结合大数据实现环境变化趋势智能检测方法
CN112836509A (zh) 一种专家系统知识库构建方法及系统
CN113946677B (zh) 基于双向循环神经网络和注意力机制的事件识别分类方法
CN111581368A (zh) 一种基于卷积神经网络的面向智能专家推荐的用户画像方法
CN111026880A (zh) 基于联合学习的司法知识图谱构建方法
CN111143567A (zh) 一种基于改进神经网络的评论情感分析方法
CN115292490A (zh) 一种用于政策解读语义的分析算法
CN113849653A (zh) 一种文本分类方法及装置
CN117539996A (zh) 一种基于用户画像的咨询问答方法及系统
CN115062727A (zh) 一种基于多阶超图卷积网络的图节点分类方法及系统
CN117993499A (zh) 一种流域防洪四预平台的多模态知识图谱构建方法
CN109344309A (zh) 基于卷积神经网络堆叠泛化的文档图像分类方法和系统
Belaid et al. Administrative document analysis and structure
CN116311380A (zh) 一种面向小样本数据自主学习的皮肤分型方法
CN115033689B (zh) 一种基于小样本文本分类原型网络欧氏距离计算方法
CN114842301A (zh) 一种图像注释模型的半监督训练方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination