CN113297385B - 基于改进GraphRNN的多标签文本分类系统及分类方法 - Google Patents

基于改进GraphRNN的多标签文本分类系统及分类方法 Download PDF

Info

Publication number
CN113297385B
CN113297385B CN202110853595.5A CN202110853595A CN113297385B CN 113297385 B CN113297385 B CN 113297385B CN 202110853595 A CN202110853595 A CN 202110853595A CN 113297385 B CN113297385 B CN 113297385B
Authority
CN
China
Prior art keywords
label
node
information
graph
classification
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
CN202110853595.5A
Other languages
English (en)
Other versions
CN113297385A (zh
Inventor
刘汉东
钟学燕
陈雁
王欣
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Southwest Petroleum University
Original Assignee
Southwest Petroleum University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Southwest Petroleum University filed Critical Southwest Petroleum University
Priority to CN202110853595.5A priority Critical patent/CN113297385B/zh
Publication of CN113297385A publication Critical patent/CN113297385A/zh
Application granted granted Critical
Publication of CN113297385B publication Critical patent/CN113297385B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/35Clustering; Classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/10Text processing
    • G06F40/12Use of codes for handling textual entities
    • G06F40/126Character encoding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/279Recognition of textual entities
    • G06F40/289Phrasal analysis, e.g. finite state techniques or chunking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Data Mining & Analysis (AREA)
  • Biomedical Technology (AREA)
  • Computing Systems (AREA)
  • Molecular Biology (AREA)
  • Evolutionary Computation (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Biophysics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本发明公开了一种基于改进GraphRNN的多标签文本分类系统及分类方法,所述分类系统包括编码器、由改进GraphRNN构成的解码器和Graph2Seq模块构成;采用上述系统对多标签文本分类方法如下:步骤1:将原始样本的标签集转换为标签图;步骤2:文本预处理,包括分词、词语向量化、划分数据集;步骤3:划分数据集,分为训练集、验证集、测试集;步骤4:训练分类系统,在验证集上调整超参数前驱节点数,再在测试集上测试;步骤5:将新样本送入训练好的分类系统,预测对应的标签结果。本发明将多标签分类转换为图生成问题,可缓解标签顺序带来的影响,图生成分为节点生成和边生成,可分别建模标签关联和标签关联程度。

Description

基于改进GraphRNN的多标签文本分类系统及分类方法
技术领域
本发明属于信息技术领域,涉及自然语言处理、文本分类及多标签分类,具体涉及一种基于改进GraphRNN的多标签文本分类系统及分类方法。
多标签分类是机器学习领域中一个重要的学习任务,被广泛应用于文本分类、图 像标注、推荐系统等实际场景。在多标签分类问题中,样本可以被分配到多个标签上。假设 样本空间
Figure 100002_DEST_PATH_IMAGE001
Figure 100002_DEST_PATH_IMAGE002
表示
Figure 100002_DEST_PATH_IMAGE003
维的实数空间,标签空间
Figure 100002_DEST_PATH_IMAGE004
Figure 100002_DEST_PATH_IMAGE005
表示某个标签,
Figure 100002_DEST_PATH_IMAGE006
,当前数据集为
Figure 100002_DEST_PATH_IMAGE007
Figure 100002_DEST_PATH_IMAGE008
表示样本总数,
Figure 100002_DEST_PATH_IMAGE009
表示某样 本输入信息,
Figure 100002_DEST_PATH_IMAGE010
表示某样本对应的标签。多标签分类任务就是从数据中学习一个决策 函数
Figure 100002_DEST_PATH_IMAGE011
,使得每个文本被分配到一组标签上去。当标签空间较大时,输出空间会出 现指数级增长,而利用标签关联可以减小多标签分类难度。
从利用标签关联的角度出发,目前多标签分类方法主要可分为三种:1、一阶方法,典型算法如Binary Relevance、ML-KNN,这类方法简单有效,但忽略了标签关联;2、二阶方法,典型算法如Rank-SVM、Calibrated Label Ranking,这类方法只考虑标签对两两之间的联系,如排序问题中相关标签和不相关标签的排列关系;3、高阶方法,这类方法能建模多个标签之间的关联,但需要预定义顺序,存在累计误差,典型的传统算法如ClassifierChains、Ensemble Classifier Chains。
在以上三类方法中,目前围绕高阶方法展开的研究居多。由于循环神经网络在处理序列数据上的表现优异,近年来不少研究利用循环神经网络建模标签高阶关联,在序列到序列(Sequence to Sequence,Seq2Seq)模型下将多标签分类转换为序列生成问题,但模型易受标签顺序影响。为缓解标签顺序带来的影响,有研究将多标签分类视为标签集合预测,但无法区分标签关联程度,而标签间关联应有不同程度之分。
总的来说,现有的多标签分类方法,在建模标签高阶关联时,要么受标签顺序限制,要么没有考虑标签关联的具体程度。
发明内容
本发明针对多标签分类中如何利用标签关联的问题,提出了一种基于改进GraphRNN的多标签文本分类系统及分类方法,根据标签共现关系构建标签图数据,将多标签分类转换为标签图生成问题,可避免预定义标签顺序;利用标签共现信息,建模标签关联程度,可以更细致地建模标签关联。
为解决上述技术问题,本发明采用的技术方案如下:
一种基于改进GraphRNN的多标签文本分类系统,所述分类系统包括编码器、解码器和Graph2Seq模块,输入信息由编码器进行编码,送入解码器生成标签图,再由Graph2Seq模块将生成的标签图转换为标签集;
所述解码器由改进GraphRNN构成,具体是:基于GraphRNN图生成模型并对其进行改进,改进GraphRNN由节点生成和边生成组成,其中,所述节点生成添加softmax模块后生成标签节点,建模标签关联,所述边生成由二分类改为多分类,建模标签不同的关联程度,具体如下:
所述节点生成为:
节点生成以“<BOS>”作为初始输入节点,第
Figure 100002_DEST_PATH_IMAGE012
时刻,输入包括
Figure 100002_DEST_PATH_IMAGE013
Figure 100002_DEST_PATH_IMAGE014
Figure 100002_DEST_PATH_IMAGE015
,输 出为节点概率分布
Figure 100002_DEST_PATH_IMAGE016
,表示预测当前时刻节点为不同标签的概率,
Figure 100002_DEST_PATH_IMAGE017
为当前 时刻预测节点,
Figure 100002_DEST_PATH_IMAGE018
为当前时刻以前预测出的所有节点,
Figure 100002_DEST_PATH_IMAGE019
为单个样本的文本信息;
Figure 666043DEST_PATH_IMAGE013
为前 一时刻预测节点的嵌入信息,
Figure 100002_DEST_PATH_IMAGE020
为“<BOS>”的嵌入信息,
Figure 255287DEST_PATH_IMAGE014
为预测当前时刻节点时通 过注意力机制从编码信息中获得的上下文信息,
Figure 503866DEST_PATH_IMAGE015
为前一时刻的隐状态;
Figure 367916DEST_PATH_IMAGE014
计算过程如下式所示,
Figure 100002_DEST_PATH_IMAGE021
Figure 119972DEST_PATH_IMAGE015
对于编码器第
Figure 100002_DEST_PATH_IMAGE022
时刻的隐状态
Figure 100002_DEST_PATH_IMAGE023
的注意力 大小,
Figure 100002_DEST_PATH_IMAGE024
为编码器的最后一个时刻,score函数用于计算
Figure 614538DEST_PATH_IMAGE023
Figure 350413DEST_PATH_IMAGE015
之间的注意力分数, softmax模块将输入向量转换为各元素在(0,1)之间且和为1的输出向量,tanh函数为一种 非线性激活函数,
Figure 100002_DEST_PATH_IMAGE025
Figure 100002_DEST_PATH_IMAGE026
Figure 100002_DEST_PATH_IMAGE027
均为将要学习的神经网络参数;
Figure 100002_DEST_PATH_IMAGE028
Figure 100002_DEST_PATH_IMAGE029
Figure 362362DEST_PATH_IMAGE016
计算分别如下式所示;
Figure 100002_DEST_PATH_IMAGE030
GRU为门控循环单元,
Figure 100002_DEST_PATH_IMAGE031
表示图节点个数,初始隐状态
Figure 100002_DEST_PATH_IMAGE032
为编码器最后时刻的 隐状态
Figure 100002_DEST_PATH_IMAGE033
Figure 100002_DEST_PATH_IMAGE034
表示将要学习的神经网络参数;下标enc的表示编码过程,下标node的表 示节点生成过程,
Figure 578711DEST_PATH_IMAGE023
表示编码过程中的隐状态,
Figure 100002_DEST_PATH_IMAGE035
表示节点生成过程中的隐状态;根据 节点概率分布
Figure 509758DEST_PATH_IMAGE016
,选择概率最大的标签作为第
Figure 529667DEST_PATH_IMAGE012
时刻的预测节点
Figure 735520DEST_PATH_IMAGE017
,用于后续 边生成的节点嵌入从而得到
Figure 100002_DEST_PATH_IMAGE036
所述边生成为:
在预测出节点
Figure 196588DEST_PATH_IMAGE017
以后,开始进行边生成,初始输入为“<BOS>”,每个时间步为多分 类问题,边生成完毕时得到
Figure 95274DEST_PATH_IMAGE017
对应的邻接向量
Figure 100002_DEST_PATH_IMAGE037
Figure 9004DEST_PATH_IMAGE037
Figure 752969DEST_PATH_IMAGE017
与前驱节点的连边关系,前驱节点 即第
Figure 865281DEST_PATH_IMAGE012
时刻以前生成的节点
Figure 669289DEST_PATH_IMAGE018
;假定第一个节点
Figure 100002_DEST_PATH_IMAGE038
对应的邻接向量均为零向量;边生成第
Figure 100002_DEST_PATH_IMAGE039
步时,输入包括
Figure 100002_DEST_PATH_IMAGE040
Figure 100002_DEST_PATH_IMAGE041
Figure 100002_DEST_PATH_IMAGE042
,输出为连边概率分布
Figure 100002_DEST_PATH_IMAGE043
,下标edge表示 边生成过程,
Figure 100002_DEST_PATH_IMAGE044
表示边生成过程中的隐状态;
Figure 945681DEST_PATH_IMAGE040
表示
Figure 493337DEST_PATH_IMAGE036
Figure 100002_DEST_PATH_IMAGE045
拼接后的向量,见下 式:
Figure 100002_DEST_PATH_IMAGE046
Figure 397839DEST_PATH_IMAGE036
表示节点生成过程中第
Figure 372748DEST_PATH_IMAGE012
时刻预测节点
Figure 792228DEST_PATH_IMAGE017
的嵌入信息,
Figure 143575DEST_PATH_IMAGE045
表示第
Figure 100002_DEST_PATH_IMAGE047
步时 预测边的嵌入信息,
Figure 100002_DEST_PATH_IMAGE048
为“<BOS>”的嵌入信息;
Figure 100002_DEST_PATH_IMAGE049
表示预测当前边时通过注意力机制从 编码信息中获得的上下文信息,隐状态
Figure 359707DEST_PATH_IMAGE044
如下式所示,初始化为编码器最后时刻
Figure 771096DEST_PATH_IMAGE024
的隐 状态
Figure 474610DEST_PATH_IMAGE033
Figure 100002_DEST_PATH_IMAGE050
表示前驱节点个数,对应于邻接向量
Figure 832910DEST_PATH_IMAGE037
的元素个数;
Figure 100002_DEST_PATH_IMAGE051
经过softmax模块得到第
Figure 100002_DEST_PATH_IMAGE052
步连边概率分布,如下式所示,
Figure 100002_DEST_PATH_IMAGE053
为节点
Figure 100002_DEST_PATH_IMAGE054
与节点
Figure 100002_DEST_PATH_IMAGE055
的连边信息,
Figure 100002_DEST_PATH_IMAGE056
为节点
Figure 321792DEST_PATH_IMAGE054
与第
Figure 904083DEST_PATH_IMAGE052
步以前的前驱节点的连边信息,
Figure 100002_DEST_PATH_IMAGE057
表示要学习的神经网 络参数;
Figure 100002_DEST_PATH_IMAGE058
当预测节点标签为“<EOS>”时,图生成完毕,得到节点集合
Figure 100002_DEST_PATH_IMAGE059
和 邻接向量集合
Figure 100002_DEST_PATH_IMAGE060
,根据VS还原邻接矩阵,据此得到标签图。
进一步地,所述编码器具体为:
单个样本的文本信息
Figure 100002_DEST_PATH_IMAGE061
,文本信息中
Figure 100002_DEST_PATH_IMAGE062
表示某一个词,
Figure 100002_DEST_PATH_IMAGE063
;单个样本的文本信息经过门控循环单元进行编码,第
Figure 376783DEST_PATH_IMAGE022
个时刻,词
Figure 69933DEST_PATH_IMAGE062
经过词 嵌入得到
Figure 100002_DEST_PATH_IMAGE064
作为输入,隐状态
Figure 803534DEST_PATH_IMAGE023
更新如下式所示;
Figure 100002_DEST_PATH_IMAGE065
在0时刻,隐状态
Figure 100002_DEST_PATH_IMAGE066
初始化为0。
进一步地,所述Graph2Seq模块具体为:根据改进GraphRNN得到的标签图,Graph2Seq模块在标签图上进行广度优先搜索得到最终的标签集,作为多标签分类结果。
一种基于改进GraphRNN的多标签文本分类系统的分类方法,包括以下步骤:
步骤1:将原始样本的标签集转换为标签图;
步骤2:文本预处理,包括分词、词语向量化、划分数据集;
步骤3:划分数据集,分为训练集、验证集、测试集;
步骤4:训练分类系统,在验证集上调整超参数前驱节点个数T,再在测试集上测试;
步骤5:将新样本送入训练好的分类系统,预测对应的标签结果。
进一步地,所述步骤1具体为:
将单个样本的所有标签对视为共现标签对,对于
Figure 494409DEST_PATH_IMAGE008
个样本,统计标签频次、标签对 共现频次,标签间的共现程度定义为标签之间的正点互信息,标签之间的正点互信息用 PPMI表示,不同标签
Figure 100002_DEST_PATH_IMAGE067
Figure 100002_DEST_PATH_IMAGE068
之间的正点互信息表示为
Figure 100002_DEST_PATH_IMAGE069
,计算如下式所示,
Figure 579040DEST_PATH_IMAGE067
Figure 75880DEST_PATH_IMAGE068
表示来源于标签空间
Figure 100002_DEST_PATH_IMAGE070
的不同标签,
Figure 100002_DEST_PATH_IMAGE071
Figure 100002_DEST_PATH_IMAGE072
,且
Figure 100002_DEST_PATH_IMAGE073
Figure 100002_DEST_PATH_IMAGE074
为标签空间
Figure 804933DEST_PATH_IMAGE070
的大小,
Figure 100002_DEST_PATH_IMAGE075
表示概率;
Figure 100002_DEST_PATH_IMAGE076
根据
Figure 197868DEST_PATH_IMAGE069
,得到标签共现矩阵
Figure 100002_DEST_PATH_IMAGE077
根据
Figure 35374DEST_PATH_IMAGE077
及划分区间确定标签连边,标签连边用
Figure 100002_DEST_PATH_IMAGE078
表示,
Figure 539168DEST_PATH_IMAGE078
为节点
Figure 309678DEST_PATH_IMAGE017
Figure 100002_DEST_PATH_IMAGE079
的连边大 小,即关联程度,
Figure 100002_DEST_PATH_IMAGE080
Figure 100002_DEST_PATH_IMAGE081
,且
Figure DEST_PATH_IMAGE082
,节点
Figure 748881DEST_PATH_IMAGE017
Figure 604841DEST_PATH_IMAGE079
代表的标签在
Figure 240222DEST_PATH_IMAGE070
中对应的索引 分别为
Figure DEST_PATH_IMAGE083
Figure DEST_PATH_IMAGE084
Figure 537342DEST_PATH_IMAGE078
计算如下式所示,
Figure DEST_PATH_IMAGE085
Figure DEST_PATH_IMAGE086
,表示标签共现程度阈值,采用
Figure DEST_PATH_IMAGE087
表 示标签共现矩阵
Figure 944184DEST_PATH_IMAGE077
中第
Figure 21861DEST_PATH_IMAGE083
行第
Figure 664195DEST_PATH_IMAGE084
列的元素;
Figure DEST_PATH_IMAGE088
标签连边确定之后构建标签图。
进一步地,在步骤3中,将数据集进行随机划分,数据集中80%数量的数据作为训练集,而验证集和测试集各为10%数量的数据。
与现有技术相比,本发明的有益效果是:将多标签分类转换为图生成问题,可缓解标签顺序给模型带来的影响,提升了预测结果在instance-F1和label-F1指标的表现效果,不仅可以建模标签关联,还可以建模标签关联程度,从而更细致地建模标签关联。
附图说明
图1是本发明多标签文本分类系统示意图。
图2是基于本发明分类系统的分类方法流程图。
图3是将单个文本的所有标签对视为共现标签对示意图。
图4是本发明中展示的标签集转换为标签图的过程示意图。
具体实施方式
下面结合附图和具体实施方式对本发明作进一步详细的说明。
一、多标签文本分类系统组成
本发明分类系统由编码器(Encoder)、解码器(改进GraphRNN)和Graph2Seq构成。本发明系统框架如图1所示,输入信息由Encoder进行编码,送入改进GraphRNN进行标签图生成,最后Graph2Seq将生成的标签图转换为标签集,作为分类结果。
1、编码器(Encoder)
负责对输入文本信息进行编码。单个样本的文本信息
Figure 612559DEST_PATH_IMAGE061
,文本信 息中
Figure 846095DEST_PATH_IMAGE062
表示某一个词,
Figure 411068DEST_PATH_IMAGE063
单个样本的文本信息经过GRU进行编码,第
Figure 591514DEST_PATH_IMAGE022
个时刻,词
Figure 937262DEST_PATH_IMAGE062
经过词嵌入得到
Figure 544961DEST_PATH_IMAGE064
作为 输入,隐状态
Figure 597230DEST_PATH_IMAGE023
更新如式(1)所示,下标enc表示边生成过程,在0时刻,隐状态
Figure 50209DEST_PATH_IMAGE066
初始化 为0。
Figure DEST_PATH_IMAGE089
2、解码器(改进GraphRNN)
GraphRNN是You等提出的图生成模型,包括节点生成(Node-level RNN)和边生成 (Edge-level RNN)两部分,但缺少节点输出模块,并且GraphRNN中的边生成为二分类问题, 无法区分多种标签关联程度,因此本发明通过改进GraphRNN,使其既能输出节点也能输出 邻接向量。改进GraphRNN同样由节点生成(Node-level RNN)和边生成(Edge-level RNN)组 成,改进点包括两个方面:
Figure DEST_PATH_IMAGE090
节点生成添加softmax模块后生成标签节点,建模标签关联;
Figure DEST_PATH_IMAGE091
边生成由二分类改为多分类,可以建模标签不同的关联程度。
(1)Node-level RNN:节点生成以“<BOS>”作为初始输入节点,第
Figure 176428DEST_PATH_IMAGE012
时刻,输入包括
Figure 689448DEST_PATH_IMAGE013
Figure 229014DEST_PATH_IMAGE014
Figure 751262DEST_PATH_IMAGE015
,输出为节点概率分布
Figure 59884DEST_PATH_IMAGE016
,表示预测当前时刻节点为不同 标签的概率,
Figure 9385DEST_PATH_IMAGE017
为当前时刻预测节点,
Figure 567406DEST_PATH_IMAGE018
为当前时刻以前预测出的所有节点,
Figure 893345DEST_PATH_IMAGE019
为单个样本 的文本信息。其中,下标node表示节点生成过程,
Figure 56473DEST_PATH_IMAGE013
为前一时刻预测节点的嵌入信息,
Figure 176876DEST_PATH_IMAGE020
为“<BOS>”的嵌入信息,
Figure 691034DEST_PATH_IMAGE014
为预测当前时刻节点时通过注意力机制从编码信息中获 得的上下文信息,
Figure 555084DEST_PATH_IMAGE015
为前一时刻的隐状态。
Figure 572719DEST_PATH_IMAGE014
计算过程如式(2)~(4)所示,
Figure 129602DEST_PATH_IMAGE021
Figure 865477DEST_PATH_IMAGE015
对于编码器第
Figure 533219DEST_PATH_IMAGE022
时刻的隐状态
Figure 405360DEST_PATH_IMAGE023
的注意力大小,
Figure 133144DEST_PATH_IMAGE024
为编码器的最后一个时刻,score函数用 于计算
Figure DEST_PATH_IMAGE092
Figure DEST_PATH_IMAGE093
之间的注意力分数,softmax可将输入向量转换为各元素在(0, 1)之间 且和为1的输出向量,tanh函数为一种非线性激活函数,
Figure DEST_PATH_IMAGE094
Figure DEST_PATH_IMAGE095
Figure DEST_PATH_IMAGE096
均为将要学习的神经网 络参数。
Figure DEST_PATH_IMAGE097
Figure 903786DEST_PATH_IMAGE035
Figure DEST_PATH_IMAGE098
计算分别如式(5)、(6)所示,GRU为门控循环单元,
Figure 375218DEST_PATH_IMAGE031
表示图 节点个数,初始隐状态
Figure 367445DEST_PATH_IMAGE032
为编码器最后时刻的隐状态
Figure 266131DEST_PATH_IMAGE033
Figure 711019DEST_PATH_IMAGE034
表示将要学习的神经网 络参数。下标enc的表示编码过程,下标node的表示节点生成过程,
Figure 720563DEST_PATH_IMAGE023
表示编码过程中的 隐状态,
Figure 832875DEST_PATH_IMAGE035
表示节点生成过程中的隐状态;根据节点概率分布
Figure 371304DEST_PATH_IMAGE016
,选择概率 最大的标签作为第
Figure 834647DEST_PATH_IMAGE012
时刻的预测节点
Figure 116723DEST_PATH_IMAGE017
,用于后续边生成的节点嵌入从而得到
Figure 83542DEST_PATH_IMAGE036
Figure DEST_PATH_IMAGE099
(2)Edge-level RNN:在预测出节点
Figure 527293DEST_PATH_IMAGE017
以后,开始进行边生成,初始输入为“<BOS >”,每个时间步为多分类问题,即预测当前节点与前驱节点的关联程度,边生成完毕时得到
Figure 212352DEST_PATH_IMAGE017
对应的邻接向量
Figure 563699DEST_PATH_IMAGE037
Figure 181762DEST_PATH_IMAGE037
Figure 593152DEST_PATH_IMAGE017
与前驱节点的连边关系,前驱节点即第
Figure 499928DEST_PATH_IMAGE012
时刻以前生成的节点
Figure 389387DEST_PATH_IMAGE018
。在图1中,边生成过程从第2个节点开始,这是因为第一个节点
Figure 330798DEST_PATH_IMAGE038
不存在前驱节点,无法 进行边生成,因此在本发明中考虑设置
Figure 647510DEST_PATH_IMAGE038
对应的邻接向量均为零向量。边生成第
Figure 776003DEST_PATH_IMAGE039
步时,输 入包括
Figure DEST_PATH_IMAGE100
Figure DEST_PATH_IMAGE101
Figure 672415DEST_PATH_IMAGE049
,输出为连边概率分布
Figure 468332DEST_PATH_IMAGE043
,下标edge表示边生成过 程。
Figure 424787DEST_PATH_IMAGE100
表示
Figure 102893DEST_PATH_IMAGE036
Figure 334154DEST_PATH_IMAGE045
拼接后的向量,见式(7),
Figure 187841DEST_PATH_IMAGE036
表示节点生成过程中第
Figure 111935DEST_PATH_IMAGE012
时刻预测 节点
Figure 277337DEST_PATH_IMAGE017
的嵌入信息,
Figure 312289DEST_PATH_IMAGE045
表示第
Figure 817219DEST_PATH_IMAGE047
步时预测边的嵌入信息,
Figure 912214DEST_PATH_IMAGE048
为“<BOS>”的嵌入信息。
Figure 756456DEST_PATH_IMAGE049
表示预测当前边时通过注意力机制从编码信息中获得的上下文信息,计算方法与
Figure DEST_PATH_IMAGE102
类似,隐状态
Figure 798362DEST_PATH_IMAGE044
如式(8)所示,初始化为编码器最后时刻
Figure 423378DEST_PATH_IMAGE024
的编码信息
Figure 423695DEST_PATH_IMAGE033
Figure 501372DEST_PATH_IMAGE050
表示前驱节 点个数,对应于邻接向量
Figure 143706DEST_PATH_IMAGE037
的元素个数。
Figure DEST_PATH_IMAGE103
经过softmax得到第
Figure 92071DEST_PATH_IMAGE052
步连边概率分布,如式(9)所示,
Figure 528868DEST_PATH_IMAGE053
为节点
Figure 890580DEST_PATH_IMAGE054
与节点
Figure 805446DEST_PATH_IMAGE055
的 连边信息,
Figure 405055DEST_PATH_IMAGE056
为节点
Figure 12753DEST_PATH_IMAGE054
与第
Figure 65023DEST_PATH_IMAGE052
步以前的前驱节点的连边信息,
Figure 783580DEST_PATH_IMAGE057
表示要学习的参数。
Figure DEST_PATH_IMAGE104
在图1中,当预测节点标签为“<EOS>”时,图生成完毕,得到节点集合
Figure 440958DEST_PATH_IMAGE059
和邻接向量集合
Figure 219558DEST_PATH_IMAGE060
,根据VS还原邻接矩阵,据此得到 标签图。
3、Graph2Seq模块
Graph2Seq模块将生成的标签图转换为标签集,作为分类结果。具体地,由改进 GraphRNN生成的节点集合
Figure DEST_PATH_IMAGE105
和邻接向量集合
Figure DEST_PATH_IMAGE106
可以还原邻接矩阵,进而得到标签图,在标签 图上以
Figure 696807DEST_PATH_IMAGE105
中的第一个节点
Figure DEST_PATH_IMAGE107
作为起始节点进行广度优先搜索(Breadth-First Search,BFS) 得到标签序列作为分类结果。在图1中,Graph2Seq模块根据图生成结果构建邻接矩阵,进而 画出由标签A、B、C和D构成的标签图,在图上进行BFS得到最终的标签集{A,B,D,C},作为多 标签分类结果。
二、原理说明
为了将seq2seq用于多标签分类时减少标签顺序带来的影响,本发明将多标签视 为集合,为了描述这种集合,本发明使用标签图来表示标签集。将节点集合表示为
Figure DEST_PATH_IMAGE108
,节点对 应的邻接向量集合表示为
Figure DEST_PATH_IMAGE109
,则标签图
Figure DEST_PATH_IMAGE110
,当考虑输入单个样本的文本信息
Figure DEST_PATH_IMAGE111
时,标 签图
Figure DEST_PATH_IMAGE112
的条件概率表示为
Figure DEST_PATH_IMAGE113
,如式(10)所示。
Figure DEST_PATH_IMAGE114
在式(10)中,
Figure DEST_PATH_IMAGE115
表示某种节点顺序,
Figure DEST_PATH_IMAGE116
表示图节点个数,
Figure 438629DEST_PATH_IMAGE054
表示第
Figure DEST_PATH_IMAGE117
个节点,
Figure DEST_PATH_IMAGE118
表示
Figure 481671DEST_PATH_IMAGE054
对应的邻接向量,
Figure 431173DEST_PATH_IMAGE053
表示
Figure 192455DEST_PATH_IMAGE118
中第
Figure 518394DEST_PATH_IMAGE052
个元素,
Figure DEST_PATH_IMAGE119
表示
Figure 884785DEST_PATH_IMAGE118
元素个数,即前驱节点个数。训练目标 如式(11)所示,
Figure DEST_PATH_IMAGE120
表示样本总数,
Figure DEST_PATH_IMAGE121
表示第
Figure DEST_PATH_IMAGE122
个样本的文本信息,
Figure DEST_PATH_IMAGE123
表示第
Figure 677292DEST_PATH_IMAGE122
个样本的标签 图。
Figure DEST_PATH_IMAGE124
三、基于改进GraphRNN的多标签分类流程
如图2所示,基于改进GraphRNN的多标签分类流程包括如下几个步骤:
1、数据转换:将原始样本的标签集转换为标签图;
在建立分类系统之前,需要将文本对应的原始标签集转换为标签图
Figure DEST_PATH_IMAGE125
Figure 129133DEST_PATH_IMAGE108
表示节点集合,
Figure DEST_PATH_IMAGE126
表示边集合。其中节点
Figure DEST_PATH_IMAGE127
表示标签,标签连边
Figure DEST_PATH_IMAGE128
表示
Figure 134129DEST_PATH_IMAGE017
Figure 151763DEST_PATH_IMAGE079
的关联 程度,可通过标签共现信息进行描述,具体做法为根据标签共现大小划分多个区间,不同的 区间对应不同的标签关联程度,从而表示标签之间的连边大小。如图3所示,将单个样本的 所有标签对视为共现标签对,对于
Figure 708647DEST_PATH_IMAGE008
个样本,统计标签频次、标签对共现频次,标签间的共 现程度定义为标签之间的正点互信息,标签之间的正点互信息用PPMI表示,PPMI可衡量两 个标签间的相关性,不同标签
Figure 444521DEST_PATH_IMAGE067
Figure 643422DEST_PATH_IMAGE068
之间的正点互信息表示为
Figure 781142DEST_PATH_IMAGE069
,计算如式(12) 所示,
Figure 508927DEST_PATH_IMAGE067
Figure 466518DEST_PATH_IMAGE068
表示来源于标签空间
Figure 937951DEST_PATH_IMAGE070
的不同标签,
Figure 930178DEST_PATH_IMAGE071
Figure 297705DEST_PATH_IMAGE072
,且
Figure 8172DEST_PATH_IMAGE073
Figure 17716DEST_PATH_IMAGE074
为标签空 间
Figure 864450DEST_PATH_IMAGE070
的大小,
Figure 934037DEST_PATH_IMAGE075
表示概率。
Figure DEST_PATH_IMAGE129
根据
Figure 131800DEST_PATH_IMAGE069
,得到标签共现矩阵得到标签共现矩阵
Figure 945035DEST_PATH_IMAGE077
,其保存了标签两两之 间的共现信息,值越大表示二者关联程度越大。最后,根据
Figure 923573DEST_PATH_IMAGE077
及划分区间确定标签连边,标 签连边用
Figure 898482DEST_PATH_IMAGE078
表示,
Figure 583541DEST_PATH_IMAGE078
为节点
Figure 934888DEST_PATH_IMAGE017
Figure 490635DEST_PATH_IMAGE079
的连边大小,即关联程度,
Figure 636445DEST_PATH_IMAGE080
Figure 543221DEST_PATH_IMAGE081
,且
Figure 698259DEST_PATH_IMAGE082
,节点
Figure 374091DEST_PATH_IMAGE017
Figure 956382DEST_PATH_IMAGE079
代表的标签在
Figure 350454DEST_PATH_IMAGE070
中对应的索引分别为
Figure 43604DEST_PATH_IMAGE083
Figure 636259DEST_PATH_IMAGE084
Figure DEST_PATH_IMAGE130
计算如式(13)所示,
Figure DEST_PATH_IMAGE131
Figure DEST_PATH_IMAGE132
,表示标签共现程度阈值,值越大关联程度越大,0表示不存在连边,即标签关 联程度较低,以此对标签关联程度进行区分,采用
Figure DEST_PATH_IMAGE133
表示标签共现矩阵
Figure DEST_PATH_IMAGE134
中第
Figure DEST_PATH_IMAGE135
行第
Figure DEST_PATH_IMAGE136
列的元素。
Figure DEST_PATH_IMAGE137
标签连边确定之后即可构建标签图,图4展示了标签集{A,B,C}转换为标签图的过程。
2、文本预处理:分词,词语向量化,划分数据集;
3、划分数据集:将数据集进行随机划分,数据集中80%数量的数据作为训练集,而验证集和测试集各为10%数量的数据;
4、训练、测试分类系统;
训练分类系统,在验证集上调整超参数前驱节点个数
Figure 874605DEST_PATH_IMAGE050
(AAPD数据集
Figure 490394DEST_PATH_IMAGE050
取3时最佳, SLASHDOT数据集
Figure 987234DEST_PATH_IMAGE050
取4时最佳),最后在测试集上测试,对比实验结果如表1所示,本发明所提 出的改进GraphRNN在instance-F1和label-F1上表现最佳,instance-F1和label-F1分别度 量样本和标签的F1值,值越大越好,如式(14)、(15)所示,
Figure 434396DEST_PATH_IMAGE008
表示样本总数,
Figure 358490DEST_PATH_IMAGE074
表示标签空间 大小,
Figure DEST_PATH_IMAGE138
表示第
Figure DEST_PATH_IMAGE139
个样本的真实标签集是否包含标签空间
Figure 664837DEST_PATH_IMAGE070
中索引为
Figure DEST_PATH_IMAGE140
的标签,若包含则值 为1,反之为0,
Figure DEST_PATH_IMAGE141
表示第
Figure 371893DEST_PATH_IMAGE139
个样本的预测标签结果是否包含标签空间
Figure 876824DEST_PATH_IMAGE070
中索引为
Figure 971819DEST_PATH_IMAGE140
的标签,若 包含则值为1,反之为0;
Figure DEST_PATH_IMAGE142
对比方法说明如下:
(1) Binary Relevance(BR):将多标签分类问题转换为二分类问题,没有利用标签之间的相关性。
(2) Classifier Chains(CC):将多个BR级联起来,前一分类器输出作为后一分类器输入,该方法能考虑到标签之间的高阶关联。
(3) Ensemble Classifier Chains(ECC):在Classifier Chains的基础上,选择不同的标签顺序,结合集成学习训练分类系统。
(4) seq2seq-GRU:在seq2seq模型下基于GRU,按标签频次降序训练分类系统,生成多标签序列。
(5) set-RNN:将多标签视为标签集合,直接生成多标签集合。
(6)改进GraphRNN:本发明方法,将原始问题转换为标签图生成问题,在图上进行BFS得到分类结果。
Figure DEST_PATH_IMAGE143
5、将新样本送入训练好的分类系统,预测对应的标签结果。
本发明将多标签分类问题转换为图生成问题,因此在训练分类系统之前,需要将原始样本标签集转换为与之对应的标签图,进一步训练分类系统。模型训练完成后,即可用于预测新样本的标签。

Claims (6)

1.一种基于改进GraphRNN的多标签文本分类系统,所述分类系统包括编码器、解码器和Graph2Seq模块,输入信息由编码器进行编码,送入解码器生成标签图,再由Graph2Seq模块将生成的标签图转换为标签集;其特征在于:
所述解码器由改进GraphRNN构成,具体是:
基于GraphRNN图生成模型并对其进行改进,改进GraphRNN由节点生成和边生成组成,其中,所述节点生成添加softmax模块后生成标签节点,建模标签关联,所述边生成由二分类改为多分类,建模标签不同的关联程度,具体如下:
所述节点生成为:
节点生成以“<BOS>”作为初始输入节点,第
Figure DEST_PATH_IMAGE001
时刻,输入包括
Figure DEST_PATH_IMAGE002
Figure DEST_PATH_IMAGE003
Figure DEST_PATH_IMAGE004
,输出为 节点概率分布
Figure DEST_PATH_IMAGE005
,表示预测当前时刻节点为不同标签的概率,
Figure DEST_PATH_IMAGE006
为当前时刻预 测节点,
Figure DEST_PATH_IMAGE007
为当前时刻以前预测出的所有节点,
Figure DEST_PATH_IMAGE008
为单个样本的文本信息;
Figure 264059DEST_PATH_IMAGE002
为前一时刻 预测节点的嵌入信息,
Figure DEST_PATH_IMAGE009
为“<BOS>”的嵌入信息,
Figure DEST_PATH_IMAGE010
为预测当前时刻节点时通过注意力 机制从编码信息中获得的上下文信息,
Figure DEST_PATH_IMAGE011
为前一时刻的隐状态;
Figure 509227DEST_PATH_IMAGE003
计算过程如下式所示,
Figure DEST_PATH_IMAGE012
Figure 337505DEST_PATH_IMAGE004
对于编码器第
Figure DEST_PATH_IMAGE013
时刻的隐状态
Figure DEST_PATH_IMAGE014
的注意力大 小,
Figure DEST_PATH_IMAGE015
为编码器的最后一个时刻,score函数用于计算
Figure 9926DEST_PATH_IMAGE014
Figure 884341DEST_PATH_IMAGE011
之间的注意力分数, softmax模块将输入向量转换为各元素在(0,1)之间且和为1的输出向量,tanh函数为一种 非线性激活函数,
Figure DEST_PATH_IMAGE016
Figure DEST_PATH_IMAGE017
Figure DEST_PATH_IMAGE018
均为将要学习的神经网络参数;
Figure DEST_PATH_IMAGE019
Figure DEST_PATH_IMAGE020
Figure 339725DEST_PATH_IMAGE005
计算分别如下式所示;
Figure DEST_PATH_IMAGE021
GRU为门控循环单元,
Figure DEST_PATH_IMAGE022
表示图节点个数,初始隐状态
Figure DEST_PATH_IMAGE023
为编码器最后时刻的隐状 态
Figure DEST_PATH_IMAGE024
Figure DEST_PATH_IMAGE025
表示将要学习的神经网络参数;下标enc的表示编码过程,下标node的表示节 点生成过程,
Figure 960193DEST_PATH_IMAGE014
表示编码过程中的隐状态,
Figure DEST_PATH_IMAGE026
表示节点生成过程中的隐状态;根据节点 概率分布
Figure 865832DEST_PATH_IMAGE005
,选择概率最大的标签作为第
Figure 442524DEST_PATH_IMAGE001
时刻的预测节点
Figure 357391DEST_PATH_IMAGE006
,用于后续边生成 的节点嵌入从而得到
Figure DEST_PATH_IMAGE027
所述边生成为:
在预测出节点
Figure 425841DEST_PATH_IMAGE006
以后,开始进行边生成,初始输入为“<BOS>”,每个时间步为多分类问 题,边生成完毕时得到
Figure 830277DEST_PATH_IMAGE006
对应的邻接向量
Figure DEST_PATH_IMAGE028
Figure 85809DEST_PATH_IMAGE028
Figure 69946DEST_PATH_IMAGE006
与前驱节点的连边关系,前驱节点即第
Figure 524061DEST_PATH_IMAGE001
时刻以前生成的节点
Figure 37082DEST_PATH_IMAGE007
;假定第一个节点
Figure DEST_PATH_IMAGE029
对应的邻接向量均为零向量;边生成第
Figure DEST_PATH_IMAGE030
步时, 输入包括
Figure DEST_PATH_IMAGE031
Figure DEST_PATH_IMAGE032
Figure DEST_PATH_IMAGE033
,输出为连边概率分布
Figure DEST_PATH_IMAGE034
,下标edge表示边生成 过程,
Figure DEST_PATH_IMAGE035
表示边生成过程中的隐状态;
Figure 389697DEST_PATH_IMAGE031
表示
Figure 911945DEST_PATH_IMAGE027
Figure DEST_PATH_IMAGE036
拼接后的向量,见下式:
Figure DEST_PATH_IMAGE037
Figure 892671DEST_PATH_IMAGE027
表示节点生成过程中第
Figure 842172DEST_PATH_IMAGE001
时刻预测节点
Figure 869034DEST_PATH_IMAGE006
的嵌入信息,
Figure 929394DEST_PATH_IMAGE036
表示第
Figure DEST_PATH_IMAGE038
步时预测边 的嵌入信息,
Figure DEST_PATH_IMAGE039
为“<BOS>”的嵌入信息;
Figure DEST_PATH_IMAGE040
表示预测当前边时通过注意力机制从编码信 息中获得的上下文信息,隐状态
Figure 561363DEST_PATH_IMAGE035
如下式所示,初始化为编码器最后时刻
Figure 681766DEST_PATH_IMAGE015
的隐状态
Figure 930345DEST_PATH_IMAGE024
Figure DEST_PATH_IMAGE041
表示前驱节点个数,对应于邻接向量
Figure 997658DEST_PATH_IMAGE028
的元素个数;
Figure DEST_PATH_IMAGE042
经过softmax模块得到第
Figure 749713DEST_PATH_IMAGE030
步连边概率分布,如下式所示,
Figure DEST_PATH_IMAGE043
为节点
Figure 509859DEST_PATH_IMAGE006
与节点
Figure DEST_PATH_IMAGE044
的连 边信息,
Figure DEST_PATH_IMAGE045
为节点
Figure 980155DEST_PATH_IMAGE006
与第
Figure 647896DEST_PATH_IMAGE030
步以前的前驱节点的连边信息,
Figure DEST_PATH_IMAGE046
表示要学习的神经网络参 数;
Figure DEST_PATH_IMAGE047
当预测节点标签为“<EOS>”时,图生成完毕,得到节点集合
Figure DEST_PATH_IMAGE048
和邻接向 量集合
Figure DEST_PATH_IMAGE049
,根据VS还原邻接矩阵,据此得到标签图。
2.根据权利要求1所述的一种基于改进GraphRNN的多标签文本分类系统,其特征在于,所述编码器具体为:
单个样本的文本信息
Figure DEST_PATH_IMAGE050
,文本信息中
Figure DEST_PATH_IMAGE051
表示某一个词,
Figure DEST_PATH_IMAGE052
;单 个样本的文本信息经过门控循环单元进行编码,第
Figure 598666DEST_PATH_IMAGE013
个时刻,词
Figure 60871DEST_PATH_IMAGE051
经过词嵌入得到
Figure DEST_PATH_IMAGE053
作为 输入,隐状态
Figure 752884DEST_PATH_IMAGE014
更新如下式所示;
Figure DEST_PATH_IMAGE054
在0时刻,隐状态
Figure DEST_PATH_IMAGE055
初始化为0。
3.根据权利要求2所述的一种基于改进GraphRNN的多标签文本分类系统,其特征在于,所述Graph2Seq模块具体为:根据改进GraphRNN得到的标签图,Graph2Seq模块在标签图上进行广度优先搜索得到最终的标签集,作为多标签分类结果。
4.根据权利要求3所述的一种基于改进GraphRNN的多标签文本分类系统的分类方法,其特征在于,包括以下步骤:
步骤1:将原始样本的标签集转换为标签图;
步骤2:文本预处理,包括分词、词语向量化、划分数据集;
步骤3:划分数据集,分为训练集、验证集、测试集;
步骤4:训练分类系统,在验证集上调整超参数前驱节点个数T,再在测试集上测试;
步骤5:将新样本送入训练好的分类系统,预测对应的标签结果。
5.根据权利要求4所述的一种基于改进GraphRNN的多标签文本分类系统的分类方法,其特征在于,所述步骤1具体为:
将单个样本的所有标签对视为共现标签对,对于
Figure DEST_PATH_IMAGE056
个样本,统计标签频次、标签对共现 频次,标签间的共现程度定义为标签之间的正点互信息,标签之间的正点互信息用PPMI表 示,不同标签
Figure DEST_PATH_IMAGE057
Figure DEST_PATH_IMAGE058
之间的正点互信息表示为
Figure DEST_PATH_IMAGE059
,计算如下式所示,
Figure 568524DEST_PATH_IMAGE057
Figure 295172DEST_PATH_IMAGE058
表示来 源于标签空间
Figure DEST_PATH_IMAGE060
的不同标签,
Figure DEST_PATH_IMAGE061
Figure DEST_PATH_IMAGE062
,且
Figure DEST_PATH_IMAGE063
Figure DEST_PATH_IMAGE064
为标签空间
Figure 69224DEST_PATH_IMAGE060
的大小,
Figure DEST_PATH_IMAGE065
表示 概率;
Figure DEST_PATH_IMAGE066
根据
Figure 717374DEST_PATH_IMAGE059
,得到标签共现矩阵
Figure DEST_PATH_IMAGE067
根据
Figure 930181DEST_PATH_IMAGE067
及划分区间确定标签连边,标签连边用
Figure DEST_PATH_IMAGE068
表示,
Figure 234037DEST_PATH_IMAGE068
为节点
Figure 303624DEST_PATH_IMAGE006
Figure DEST_PATH_IMAGE069
的连边大小,即 关联程度,
Figure DEST_PATH_IMAGE070
Figure DEST_PATH_IMAGE071
,且
Figure DEST_PATH_IMAGE072
,节点
Figure 907912DEST_PATH_IMAGE006
Figure 455568DEST_PATH_IMAGE069
代表的标签在
Figure 156807DEST_PATH_IMAGE060
中对应的索引分别为
Figure DEST_PATH_IMAGE073
Figure DEST_PATH_IMAGE074
Figure 334979DEST_PATH_IMAGE068
计算如下式所示,
Figure DEST_PATH_IMAGE075
Figure DEST_PATH_IMAGE076
,表示标签共现程度阈值,采用
Figure DEST_PATH_IMAGE077
表示标 签共现矩阵
Figure DEST_PATH_IMAGE078
中第
Figure DEST_PATH_IMAGE079
行第
Figure DEST_PATH_IMAGE080
列的元素;
Figure DEST_PATH_IMAGE081
标签连边确定之后构建标签图。
6.根据权利要求5所述的一种基于改进GraphRNN的多标签文本分类系统的分类方法,其特征在于,在步骤3中,将数据集进行随机划分,数据集中80%数量的数据作为训练集,而验证集和测试集各为10%数量的数据。
CN202110853595.5A 2021-07-28 2021-07-28 基于改进GraphRNN的多标签文本分类系统及分类方法 Expired - Fee Related CN113297385B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110853595.5A CN113297385B (zh) 2021-07-28 2021-07-28 基于改进GraphRNN的多标签文本分类系统及分类方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110853595.5A CN113297385B (zh) 2021-07-28 2021-07-28 基于改进GraphRNN的多标签文本分类系统及分类方法

Publications (2)

Publication Number Publication Date
CN113297385A CN113297385A (zh) 2021-08-24
CN113297385B true CN113297385B (zh) 2021-09-28

Family

ID=77331230

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110853595.5A Expired - Fee Related CN113297385B (zh) 2021-07-28 2021-07-28 基于改进GraphRNN的多标签文本分类系统及分类方法

Country Status (1)

Country Link
CN (1) CN113297385B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115599902B (zh) * 2022-12-15 2023-03-31 西南石油大学 一种基于知识图谱的油气百科问答方法及系统

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11257481B2 (en) * 2018-10-24 2022-02-22 Tencent America LLC Multi-task training architecture and strategy for attention-based speech recognition system
CN109299273B (zh) * 2018-11-02 2020-06-23 广州语义科技有限公司 基于改进seq2seq模型的多源多标签文本分类方法及其系统
CN110018820B (zh) * 2019-04-08 2022-08-23 浙江大学滨海产业技术研究院 一种基于深度强化学习的Graph2Seq自动生成Java代码注释的方法
US11157705B2 (en) * 2019-07-22 2021-10-26 International Business Machines Corporation Semantic parsing using encoded structured representation
CN111309918A (zh) * 2020-03-17 2020-06-19 湖南大学 一种基于标签关联性的多标签文本分类方法
CN111552807B (zh) * 2020-04-17 2023-05-30 银江技术股份有限公司 一种短文本多标签分类方法
CN112182191B (zh) * 2020-10-16 2022-08-30 西北师范大学 多轮口语理解的结构化记忆图网络模型
CN112732871B (zh) * 2021-01-12 2023-04-28 上海畅圣计算机科技有限公司 一种机器人催收获取客户意向标签的多标签分类方法
CN112802568A (zh) * 2021-02-03 2021-05-14 紫东信息科技(苏州)有限公司 基于病历文本的多标签胃部疾病分类方法及装置

Also Published As

Publication number Publication date
CN113297385A (zh) 2021-08-24

Similar Documents

Publication Publication Date Title
WO2023065545A1 (zh) 风险预测方法、装置、设备及存储介质
CN114169330B (zh) 融合时序卷积与Transformer编码器的中文命名实体识别方法
CN112380435A (zh) 基于异构图神经网络的文献推荐方法及推荐系统
CN112597296B (zh) 一种基于计划机制和知识图谱引导的摘要生成方法
CN110751188B (zh) 基于多标记学习的用户标签预测方法、系统及存储介质
CN109389151A (zh) 一种基于半监督嵌入表示模型的知识图谱处理方法和装置
CN114896388A (zh) 一种基于混合注意力的层级多标签文本分类方法
CN115145551A (zh) 一种面向机器学习应用低代码开发的智能辅助系统
CN115661550A (zh) 基于生成对抗网络的图数据类别不平衡分类方法及装置
CN110704510A (zh) 一种结合用户画像的题目推荐方法及系统
CN110781271A (zh) 一种基于层次注意力机制的半监督网络表示学习模型
Bonaccorso Hands-on unsupervised learning with Python: implement machine learning and deep learning models using Scikit-Learn, TensorFlow, and more
CN116383399A (zh) 一种事件舆情风险预测方法及系统
CN111461175A (zh) 自注意与协同注意机制的标签推荐模型构建方法及装置
CN111145914A (zh) 一种确定肺癌临床病种库文本实体的方法及装置
CN116431919A (zh) 基于用户意图特征的智能新闻推荐方法和系统
CN114281982B (zh) 一种多模态融合技术的图书宣传摘要生成方法和系统
CN115422518A (zh) 基于无数据知识蒸馏的文本验证码识别方法
CN111581466A (zh) 特征信息存在噪声的偏多标记学习方法
CN113297385B (zh) 基于改进GraphRNN的多标签文本分类系统及分类方法
CN112668633B (zh) 一种基于细粒度领域自适应的图迁移学习方法
CN116029394B (zh) 自适应文本情感识别模型训练方法、电子设备及存储介质
CN117349494A (zh) 空间图卷积神经网络的图分类方法、系统、介质及设备
CN117093849A (zh) 一种基于自动生成模型的数字矩阵特征分析方法
CN114780841A (zh) 一种基于kphan的序列推荐方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20210928