CN112199503B - 一种基于特征增强的非平衡Bi-LSTM的中文文本分类方法 - Google Patents

一种基于特征增强的非平衡Bi-LSTM的中文文本分类方法 Download PDF

Info

Publication number
CN112199503B
CN112199503B CN202011169632.2A CN202011169632A CN112199503B CN 112199503 B CN112199503 B CN 112199503B CN 202011169632 A CN202011169632 A CN 202011169632A CN 112199503 B CN112199503 B CN 112199503B
Authority
CN
China
Prior art keywords
text
word
lstm
unbalanced
sentence
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202011169632.2A
Other languages
English (en)
Other versions
CN112199503A (zh
Inventor
宦海
严嘉宇
陈逸飞
李鹏程
朱蓉蓉
刘源
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nanjing University of Information Science and Technology
Original Assignee
Nanjing University of Information Science and Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nanjing University of Information Science and Technology filed Critical Nanjing University of Information Science and Technology
Priority to CN202011169632.2A priority Critical patent/CN112199503B/zh
Publication of CN112199503A publication Critical patent/CN112199503A/zh
Application granted granted Critical
Publication of CN112199503B publication Critical patent/CN112199503B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/35Clustering; Classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/205Parsing
    • G06F40/211Syntactic parsing, e.g. based on context-free grammar [CFG] or unification grammars
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/279Recognition of textual entities
    • G06F40/289Phrasal analysis, e.g. finite state techniques or chunking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/30Semantic analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/088Non-supervised learning, e.g. competitive learning
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Evolutionary Computation (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Databases & Information Systems (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Machine Translation (AREA)

Abstract

本发明公开了一种基于特征增强的非平衡Bi‑LSTM的中文文本分类方法,首先,预先获取若干条中文文本;使用BERT预训练模型将获取的文本矢量化处理;其次,利用非平衡Bi‑LSTM网络提取文本的深层特征;然后,利用多层注意力机制从词、句两个层级对深层特征信息加以权重;最后,使用Softmax函数对文本进行分类。本发明简化了步骤,将预处理过程写入系统中,不需要人工对文本做初步处理;与传统的Bi‑LSTM网络相比,提高了对双向文本特征的获取能力,相比于现有技术能够更好地提高分类精度。

Description

一种基于特征增强的非平衡Bi-LSTM的中文文本分类方法
技术领域
本发明属于自然语言处理技术领域,尤其涉及一种基于特征增强的非平衡Bi-LSTM的中文文本分类方法。
背景技术
随着网络技术的快速发展,海量的信息资源以文本的形式存在。如何对这些文本进行有效的分类,从海量的文本中快速、准确、全面的挖掘有效信息,已经成为了自然语言处理研究领域的热点之一。文本分类是指按照预先定义的主题类别,为文档集合中的每个文档确定一个类别。文本分类技术在日常生活中具有广泛的应用,例如,对垃圾短信和邮件的过滤,对新闻的分组查阅等等。
近些年来,文本分类研究多注重分类模型的构建和优化。传统机器学习模型,如支持向量机、朴素贝叶斯、最大熵模型等,以及深度学习方法,如卷积神经网络(Convolutional Neural Networks,CNN)、长短时记忆网络(Long Short Term MemoryNetworks,LSTM)等都被广泛研究和运用。随着深度学习在计算机视觉和语音识别中取得的巨大成功,越来越多的研究尝试将深度学习应用到中文文本分类中。与传统的文本分类方法不同的是,深度学习方法通过深度神经网络模型来学习文本的词特征,进而构建文本特征以实现文本分类。基于深度神经网络模型的方法在中文文本分类任务中取得了比传统的机器学习模型更好的分类效果。
深度神经网络中的注意力机制模仿了生物观察行为的内部过程,即一种将内部经验和外部感觉对齐,从而增加部分区域的观察精细度的机制。注意力机制可以快速提取稀疏数据的重要特征,因而被广泛用于自然语言处理任务,特别是机器翻译。而自注意力机制是注意力机制的改进,其减少了对外部信息的依赖,更擅长捕捉数据或特征的内部相关性。
在此之前很多基于深度学习的模型都是使用更高层面的单元对文本或者语言进行建模,比如单词(word2vec),短语(phrases),句子(sentence)层面,或者对语义和语法结构进行分析。这些单词,语句,句子的知识往往是高维的,很难应用于神经网络中。
当前的文本分类方法认为文本中每一个特征对于分类的重要性相同,简单的用文本中所有的特征来表示文本特征,导致分类过程中存在较多的噪音特征。
现有的文本分类中,有的以词作为最小单元对语言进行建模,由于数据量大,文本长度长,导致单词层面的维度较高,神经网络的训练慢,付出的代价较高;有的易导致提取的文本特征单一,也难以涵盖文本所有的语义信息,并且没有重点关注对分类有明显贡献的特征,导致出现了分类过程中存在较多的冗余特征的问题。
发明内容
发明目的:本发明的目的提供一种基于特征增强的非平衡Bi-LSTM的中文文本分类方法,不需要人工对文本做初步处理,且更好地提高分类精度。
技术方案:本发明所述的一种基于特征增强的非平衡Bi-LSTM的中文文本分类方法,具体包括以下步骤:
(1)预先获取若干条中文文本;
(2)使用BERT预训练模型将获取的文本矢量化处理;
(3)利用非平衡Bi-LSTM网络提取文本的深层特征;
(4)利用多层注意力机制从词、句两个层级对深层特征信息加以权重;
(5)使用Softmax函数对文本进行分类。
进一步地,所述步骤(2)的实现过程如下:
(21)对输入文本进行编码将之矢量化,实际的输入值包含三个部分:词向量、句向量、位置向量;
(22)利用BERT预训练模型作为语言特征提取和表示方法,BERT模型采用层次架构的Transformer语言模型;BERT的预训练过程采用无监督方式,通过特殊的随机遮掩词和下一句预测机制实现对中文语料语义的理解;
(23)根据上下文对语义的理解对遮掩词进行预测,通过随机遮掩词与下一句预测的联合训练,以下一句预测的结果为方向引导,作为对随机遮掩词预测的修正,在削弱噪声影响的同时增强对文本语义的学习。
进一步地,所述步骤(3)的实现过程如下:
在非平衡Bi-LSTM网络的前后向两层的每个基础LSTM单元进行循环,提取语义特征,之后通过一组特定权重β整合前后向特征,形成下一层输入:
H=β·hforward+(1-β)·hbackward   (8)
其中,hforward为前向输出信号,hbackward为后向输出信号,β为前后向权重系数。
进一步地,所述步骤(4)的实现过程如下:
(41)将网络层输入的经过特征提取的文本向量,从单词一级对每个词向量各加以权重,突出蕴含能够显示文本类别的关键词:
ui,t=tanh(Wwordhi,t+bword)   (7)
Figure BDA0002746878650000031
Figure BDA0002746878650000032
其中,ui,t为hi,t的隐层表示,ai,t是经过归一化的权重系数,Wword和bword是随机初始化的系数矩阵和偏移量,之后会作为模型的参数参与训练,si是第i个句子的向量表示;
(43)从句子层级对文本中的每一句话加以权重,突出关键句:
ui=tanh(Wsenhi+bsen)   (10)
Figure BDA0002746878650000033
Figure BDA0002746878650000034
其中,ui为hi的隐层表示,ai是经过归一化的权重系数,Wsen和bben是随机初始化的系数矩阵和偏移量,之后会作为模型的参数参与训练,v就是整个文本的向量表示;
(43)形成输出到最后的分类层。
进一步地,所述步骤(5)采用全连接层输出每条网络文本在不同类别标签上的概率。
有益效果:与现有技术相比,本发明的有益效果:
1、本发明通过使用BERT预训练模型将获取的网络文本矢量化,与传统的文本预处理方式相比,简化了步骤,将预处理过程写入系统中,不需要人工对文本做初步处理;
2、本发明通过多模型叠加,大大增强了对文本特征的获取能力,通过自行设计的非平衡Bi-LSTM网络,与传统的Bi-LSTM网络相比,提高了对双向文本特征的获取能力,从这两点出发大大提高了文本分类的精度,经过试验与单一BERT模型相比该方法将分类精度提高约8%;
3、本发明使用多层注意力机制,而非传统方法的单层注意力机制,相比于现有技术能够更好地提高分类精度。
附图说明
图1为本发明的流程图;
图2为BERT模型的输入;
图3为BERT模型示意图;
图4为非平衡Bi-LSTM网络示意图;
图5为为多层注意力机制示意图;
图6为本发明的原理示意图。
具体实施方式
下面结合附图对本发明进行详细说明。
文本分类是自然语言处理的重要组成部分,在网络新闻文本分类中,针对其文本类别多、分类复杂的问题,且蕴含重要信息的特征分布不均匀的问题,本发明提出了一种基于特征增强的非平衡Bi-LSTM的中文文本分类方法,该方法实际工作流程如附图1所示,完整模型如附图6所示,具体包含以下步骤:
本发明提供一种基于特征增强的非平衡Bi-LSTM的中文文本分类方法,首先利用BERT模型将原始中文语料矢量化并提取初步的语义特征,随后利用非平衡Bi-LSTM网络增加蕴含重要语义的文本信息权重,进一步提高关键特征对中文文本识别的效果,同时利用多层注意力机制拉大关键文本信息与非关键信息的差距,最后使用Softmax函数进行分类。通过与多种模型进行分类效果比对,结果表明该模型能显著提高中文文本分类的准确性,具有很强的中文文本特征识别能力,且能够显著提高文本的分类精度。如图1所示,具体包括以下步骤:
步骤1:预先获取若干条中文文本。
从网络获取若干条文本;数据为网络中的新闻文本,并标定输入神经元长度为m,超过m的部分舍弃,不足m的部分用空格补足。
步骤2:使用BERT预训练模型将预先获取的文本矢量化处理。
首先对输入文本进行编码将之矢量化,实际的输入值包含三个部分:词向量(Token Embeddings)、句向量(Segment Embeddings)、位置向量(Position Embeddings),该方法的实际输入如附图2所示。
利用BERT预训练模型作为语言特征提取和表示方法,既能获取新闻文本的丰富的语法、语义特征,又能解决传统基于神经网络结构的语言特征表示方法忽略词语多义性的问题。BERT模型采用而是采用层次架构的Transformer语言模型,其结构如附图3所示。
BERT的预训练过程采用无监督方式,通过特殊的随机遮掩词(Masked LanguageModel)和下一句预测(Next Sentence Prediction)机制实现对中文语料语义的理解。
随机遮掩词的过程可以理解为完形填空,通过随机遮掩每一个句子中15%的词,例如:
My dog is hairy→My dog is[MASK]
然后根据上下文对语义的理解对遮掩词进行预测。为了防止在微调阶段某些单词从未出现,从而影响对全文语义的理解,并未在训练的全过程使用遮掩词机制,而是采用以下机制:
·80%的时间使用随机遮掩,My dog is hairy→My dog is[MASK]
·10%的时间随机取词代替被mask的词,My dog is hairy→My dog is Apple
·10%的时间不使用随机遮掩,My dog is hairy→My dog is hairy
在一定的时间采用随机词的原因是,给一定的干扰选项,防止在训练中Transformer模块记住[MASK]部分就是“hairy”,使用随机词会产生的误差影响,可忽略不计。
所谓下一句预测即在训练的过程中,BERT模型会在训练语料中随机选择一些句子对,设为A与B,在挑选的特定语料中,有50%的数据中句子B是A的下一句,剩余的数据中A与B没有直接联系。通过训练寻找关联语句的潜在联系,获取更深层的语义特征。
随机遮掩词和下一句预测在BERT模型对词向量的训练过程中是并行进行的。BERT首先使用随机遮掩提高感受野内的信息获取量,但是在随机遮掩的过程中加入了一部分的噪声,这在一定程度导致学习能力的下降。通过随机遮掩词与下一句预测的联合训练,以下一句预测的结果为方向引导,作为对随机遮掩词预测的修正,在削弱噪声影响的同时增强对文本语义的学习。
步骤3:利用非平衡Bi-LSTM网络提取文本的深层特征。
非平衡Bi-LSTM网络为本发明的最大创新之处,全称为非平衡长短时记忆网络(Nonequilibrium Bi-LSTM,NEBi-LSTM,NEBi-LSTM)其工作原理如附图4所示。通过在非平衡Bi-LSTM网络的前后向两层的每个基础LSTM单元进行循环,提取语义特征,之后通过一组特定权重β整合前后向特征,形成下一层输入。
传统的Bi-LSTM网络对于前后向所提取的特征进行同权叠加,由于文本特征分布是不均衡的,且受到文本语言、文本类型等各方因素的影响,不同文本间的差异性很大。例如,新闻文本代表其类型的关键词句往往在文本开篇就可体现,但是科技论文等专业性的文章的关键词句需要通读全文以理解。忽视文本间的差异性,对所有文本均采用前后向同权处理显然极不合理,且没有充分利用Bi-LSTM网络提取的语义特征。为此我们提出了一种前后向不同权的NEBi-LSTM网络,通过设置不同的前后向权重比,以达到最大限度的利用Bi-LSTM网络捕获的文本特征。
本发明所提出的NEBi-LSTM网络,在保留之前网络优点的同时,通过在网络前后向组合之间加以权重值β,该值代表网络的前后向比重,对于不同类型的文本取不同β值,用以更好地提取新闻文本的语义特征。
每个LSTM网络的基本单元的门结构可分为四层:输入门、遗忘门、当前时刻细胞状态、输出门。四个部分组合控制该单元处理前一时刻输入与当前时刻输出。
输入门的更新如公式(1)所示:
Figure BDA0002746878650000061
其中,δ为sigmoid激活函数,ht-1为上一时刻的隐藏状态,xt为当前时刻的信号输入,Winput和Binput为输入门计算的系数矩阵和偏移量。
遗忘门的更新如公式(2)所示:
Figure BDA0002746878650000071
其中,Wforget和Bforget为遗忘门计算的系数矩阵和偏移量。
当前细胞状态的更新如公式(3)(4)所示:
Figure BDA0002746878650000072
Figure BDA0002746878650000073
其中,tanh为激活函数,Wcell和Bcell为当前时刻细胞状态计算的系数矩阵和偏移量,
Figure BDA0002746878650000074
为当前时刻的临时细胞状态。
输出门的更新如公式(5)所示:
Figure BDA0002746878650000075
Woutput和Boutput为输出门计算的系数矩阵和偏移量。
当前时刻隐藏层状态的更新如公式(6)所示:
Figure BDA0002746878650000076
隐藏层状态将作为下一个单元的输入继续循环。
完成上述多个LSTM基本单元的循环训练后,得到前向输出信号hforward和后向输出信号hbackward,传统的Bi-LSTM网络不考虑前后向权重问题,其信号输出如公式(7)所示:
H=hforward+hbackward   (7)
本文通过增加前后向权重系数β用以区分以及更好的利用前后向信息,改进后的信号输出如公式(8)所示:
H=β·hforward+(1-β)·hbackward   (8)
其中,β值通过自适应学习得到,将前后向LSTM最后一个时间步的输出各加上一个1×1的卷积,相当于为前后向加上不同权重值,然后通过训练找到适用于该文本的最佳前后向权重比,其比值就是β。
步骤4:利用多层注意力机制从词、句两个层级对深层特征信息加以权重。
将网络层输入的经过特征提取的文本向量,首先从单词一级对每个词向量各加以权重,突出蕴含能够显示文本类别的关键词,之后从句子层级对文本中的每一句话加以权重,突出关键句,最后形成输出到最后的分类层。
在本实施例中,采用多层注意力机制(HAN)。该机制从单词和文本两个层级概括语义信息,首先在单词层面上找出每句话的关键词,然后句子层级上为每句话加以权值,从两个层级获取语义信息。多层注意力机制的结构如付图5所示。
多层注意力机制的结构主要分为四个部分:(1)对词序列编码,(2)基于单词级的注意力层,(3)对句子序列编码,(4)基于句子级的注意力层。
单词级的注意力层的权重计算如公式(7)(8)(9)所示:
ui,t=tanh(Wwordhi,t+bword)   (7)
Figure BDA0002746878650000081
Figure BDA0002746878650000082
其中ui,t为hi,t的隐层表示,ai,t是经过归一化的权重系数,Wword和bword是随机初始化的系数矩阵和偏移量,之后会作为模型的参数参与训练,si是第i个句子的向量表示。
句子级的注意力层的权重计算如公式(10)(11)(12)所示:
ui=tanh(Wsenhi+bsen)   (10)
Figure BDA0002746878650000083
Figure BDA0002746878650000084
其中ui为hi的隐层表示,ai是经过归一化的权重系数,Wsen和bben是随机初始化的系数矩阵和偏移量,之后会作为模型的参数参与训练,v就是整个文本的向量表示。
步骤5:使用Softmax函数对文本进行分类。
在本实施例中,采用全连接层输出每条网络文本在不同类别标签上的概率。在本实施例中,采用清华大学自然语言处理与社会人文计算实验室的THCNews中文文本数据集,该文本共包括60000条新闻文本,包含10类标签,分别为“体育”、“娱乐”、“家居”、“房产”、“教育”、“时尚”、“时政”、“游戏”、“科技”、“财经”等。本发明的方法可以给出每条评论在这10类标签上的概率,实现新闻文本分类。
综上所述,本发明提供了一种基于特征增强的非平衡Bi-LSTM的中文文本分类方法,该方法首先利用BERT模型将原始中文语料矢量化并提取初步的语义特征,随后利用非平衡Bi-LSTM网络增加蕴含重要语义的文本信息权重,进一步提高关键特征对中文文本识别的效果,同时利用多层注意力机制拉大关键文本信息与非关键信息的差距,最后使用Softmax函数进行分类。通过与多种模型进行分类效果比对,结果表明该模型能显著提高中文文本分类的准确性,具有很强的中文文本特征识别能力。相比现有的技术,该方法能够显著提高文本的分类精度,可广泛应用于各种文本的分类。
尽管本发明的内容已经通过上述优选实施例作了详细介绍,但应当认识到上述的描述不应被认为是对本发明的限制。在本领域技术人员阅读了上述内容后,对于本发明的多种修改和替代都将是显而易见的。因此,本发明的保护范围应由所附的权利要求来限定。

Claims (3)

1.一种基于特征增强的非平衡Bi-LSTM的中文文本分类方法,其特征在于,包括以下步骤:
(1)预先获取若干条中文文本;
(2)使用BERT预训练模型将获取的文本矢量化处理;
(3)利用非平衡Bi-LSTM网络提取文本的深层特征;
(4)利用多层注意力机制从词、句两个层级对深层特征信息加以权重;
(5)使用Softmax函数对文本进行分类;
所述步骤(3)的实现过程如下:
在非平衡Bi-LSTM网络的前后向两层的每个基础LSTM单元进行循环,提取语义特征,之后通过权重β整合前后向特征,形成下一层的输入向量H:
H=β·hforward+(1-β)·hbackward    (8)
其中,hforward为前向输出信号,hbackward为后向输出信号,β为前后向权重系数;
所述步骤(4)的实现过程如下:
(41)将网络层输入的经过特征提取的文本向量,从单词一级对每个词向量各加以权重,突出蕴含能够显示文本类别的关键词:
ui,t=tanh(Wwordhi,t+bword)    (7)
Figure FDA0004136312350000011
Figure FDA0004136312350000012
其中,ui,t为hi,t的隐层表示,ai,t是经过归一化的权重系数,Wword和bword是随机初始化的系数矩阵和偏移量,之后会作为模型的参数参与训练,si是第i个句子的向量表示;
(42)从句子层级对文本中的每一句话加以权重,突出关键句:
ui=tanh(Wsenhi+bsen)       (10)
Figure FDA0004136312350000021
Figure FDA0004136312350000022
其中,ui为hi的隐层表示,ai是经过归一化的权重系数,Wsen和bben是随机初始化的系数矩阵和偏移量,之后会作为模型的参数参与训练,v就是整个文本的向量表示;
(43)形成输出到最后的分类层。
2.根据权利要求1所述的基于特征增强的非平衡Bi-LSTM的中文文本分类方法,其特征在于,所述步骤(2)的实现过程如下:
(21)对输入文本进行编码将之矢量化,实际的输入值包含三个部分:词向量、句向量、位置向量;
(22)利用BERT预训练模型作为语言特征提取和表示方法,BERT模型采用层次架构的Transformer语言模型;BERT的预训练过程采用无监督方式,通过特殊的随机遮掩词和下一句预测机制实现对中文语料语义的理解;
(23)根据上下文对语义的理解对遮掩词进行预测,通过随机遮掩词与下一句预测的联合训练,以下一句预测的结果为方向引导,作为对随机遮掩词预测的修正,在削弱噪声影响的同时增强对文本语义的学习。
3.如权利要求1所述的基于特征增强的非平衡Bi-LSTM的中文文本分类方法,其特征在于,所述步骤(5)采用全连接层输出每条网络文本在不同类别标签上的概率。
CN202011169632.2A 2020-10-28 2020-10-28 一种基于特征增强的非平衡Bi-LSTM的中文文本分类方法 Active CN112199503B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011169632.2A CN112199503B (zh) 2020-10-28 2020-10-28 一种基于特征增强的非平衡Bi-LSTM的中文文本分类方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011169632.2A CN112199503B (zh) 2020-10-28 2020-10-28 一种基于特征增强的非平衡Bi-LSTM的中文文本分类方法

Publications (2)

Publication Number Publication Date
CN112199503A CN112199503A (zh) 2021-01-08
CN112199503B true CN112199503B (zh) 2023-04-28

Family

ID=74011702

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011169632.2A Active CN112199503B (zh) 2020-10-28 2020-10-28 一种基于特征增强的非平衡Bi-LSTM的中文文本分类方法

Country Status (1)

Country Link
CN (1) CN112199503B (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114153942B (zh) * 2021-11-17 2024-03-29 中国人民解放军国防科技大学 一种基于动态注意力机制的事件时序关系抽取方法
CN117574159B (zh) * 2024-01-12 2024-05-10 北京华品博睿网络技术有限公司 一种预训练模型的训练方法及系统

Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106570164A (zh) * 2016-11-07 2017-04-19 中国农业大学 一种基于深度学习的集成式食品安全文本分类方法
CN107301225A (zh) * 2017-06-20 2017-10-27 挖财网络技术有限公司 短文本分类方法及装置
CN109471941A (zh) * 2018-11-07 2019-03-15 中国电子科技集团公司第二十八研究所 一种应对类别不平衡的罪名分类方法
CN109558487A (zh) * 2018-11-06 2019-04-02 华南师范大学 基于层次性多注意力网络的文档分类方法
CN109617909A (zh) * 2019-01-07 2019-04-12 福州大学 一种基于smote和bi-lstm网络的恶意域名检测方法
CN109710761A (zh) * 2018-12-21 2019-05-03 中国标准化研究院 基于注意力增强的双向lstm模型的情感分析方法
CN109766427A (zh) * 2019-01-15 2019-05-17 重庆邮电大学 一种基于堆叠Bi-LSTM网络和协同注意力的虚拟学习环境智能问答方法
CN109846472A (zh) * 2019-01-30 2019-06-07 郑州大学 基于BiLSTM-Attention深度神经网络的心搏分类方法
CN110609898A (zh) * 2019-08-19 2019-12-24 中国科学院重庆绿色智能技术研究院 一种面向不平衡文本数据的自分类方法
CN110853680A (zh) * 2019-11-05 2020-02-28 河南工业大学 一种用于语音情感识别的具有多输入多融合策略的双BiLSTM结构
CN111160037A (zh) * 2019-12-02 2020-05-15 广州大学 一种支持跨语言迁移的细粒度情感分析方法
CN111581383A (zh) * 2020-04-30 2020-08-25 上海电力大学 一种基于ERNIE-BiGRU的中文文本分类方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3379429A1 (en) * 2017-03-22 2018-09-26 Siemens Aktiengesellschaft A method for retrieving a recommendation from a knowledge database of a ticketing system

Patent Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106570164A (zh) * 2016-11-07 2017-04-19 中国农业大学 一种基于深度学习的集成式食品安全文本分类方法
CN107301225A (zh) * 2017-06-20 2017-10-27 挖财网络技术有限公司 短文本分类方法及装置
CN109558487A (zh) * 2018-11-06 2019-04-02 华南师范大学 基于层次性多注意力网络的文档分类方法
CN109471941A (zh) * 2018-11-07 2019-03-15 中国电子科技集团公司第二十八研究所 一种应对类别不平衡的罪名分类方法
CN109710761A (zh) * 2018-12-21 2019-05-03 中国标准化研究院 基于注意力增强的双向lstm模型的情感分析方法
CN109617909A (zh) * 2019-01-07 2019-04-12 福州大学 一种基于smote和bi-lstm网络的恶意域名检测方法
CN109766427A (zh) * 2019-01-15 2019-05-17 重庆邮电大学 一种基于堆叠Bi-LSTM网络和协同注意力的虚拟学习环境智能问答方法
CN109846472A (zh) * 2019-01-30 2019-06-07 郑州大学 基于BiLSTM-Attention深度神经网络的心搏分类方法
CN110609898A (zh) * 2019-08-19 2019-12-24 中国科学院重庆绿色智能技术研究院 一种面向不平衡文本数据的自分类方法
CN110853680A (zh) * 2019-11-05 2020-02-28 河南工业大学 一种用于语音情感识别的具有多输入多融合策略的双BiLSTM结构
CN111160037A (zh) * 2019-12-02 2020-05-15 广州大学 一种支持跨语言迁移的细粒度情感分析方法
CN111581383A (zh) * 2020-04-30 2020-08-25 上海电力大学 一种基于ERNIE-BiGRU的中文文本分类方法

Non-Patent Citations (7)

* Cited by examiner, † Cited by third party
Title
Mohit Iyyer.Deep Unordered Composition Rivals Syntactic Methods for Text Classification.《Proceedings of the 53rd Annual Meeting of the Association for Computational Linguistics and the 7th International Joint Conference on Natural Language Processing》.2015,第1卷1681–1691. *
Olga Kononova.Text-mined dataset of inorganic materials synthesis recipes.《Scientific Data》.2019,第6卷1-11. *
曹泽炎 ; 郑静 ; .基于Multi Focal损失函数的中文文本分类研究.杭州电子科技大学学报(自然科学版).2020,(第03期),55-60. *
殷昊.基于多通道LSTM的不平衡情绪分类方法.《中文信息学报》.2018,第32卷(第01期),139-145. *
江明奇 ; 沈忱林 ; 李寿山 ; .面向问答文本的属性分类方法.中文信息学报.2019,(第04期),125-131. *
王甜甜.基于深度强化学习的文本表示与分类研究.《中国优秀硕士学位论文全文数据库 信息科技》.2020,I138-2509. *
程艳 ; 朱海 ; 项国雄 ; 唐天伟 ; 钟林辉 ; 王国玮 ; .融合CNN和EWC算法的不平衡文本情绪分类方法.中文信息学报.2020,(第04期),95-103. *

Also Published As

Publication number Publication date
CN112199503A (zh) 2021-01-08

Similar Documents

Publication Publication Date Title
Zheng et al. A hybrid bidirectional recurrent convolutional neural network attention-based model for text classification
Yao et al. An improved LSTM structure for natural language processing
CN111930942B (zh) 文本分类方法、语言模型训练方法、装置及设备
Wu et al. Sentiment classification using attention mechanism and bidirectional long short-term memory network
CN111522908A (zh) 一种基于BiGRU和注意力机制的多标签文本分类方法
CN112818118B (zh) 基于反向翻译的中文幽默分类模型的构建方法
CN112749274B (zh) 基于注意力机制和干扰词删除的中文文本分类方法
Liu et al. A multi-label text classification model based on ELMo and attention
CN112199503B (zh) 一种基于特征增强的非平衡Bi-LSTM的中文文本分类方法
Kshirsagar et al. A review on application of deep learning in natural language processing
CN111339772B (zh) 俄语文本情感分析方法、电子设备和存储介质
Liu et al. AMFF: A new attention-based multi-feature fusion method for intention recognition
Guo et al. Implicit discourse relation recognition via a BiLSTM-CNN architecture with dynamic chunk-based max pooling
Habbat et al. A novel hybrid network for arabic sentiment analysis using fine-tuned arabert model
CN113326374A (zh) 基于特征增强的短文本情感分类方法及系统
CN114428850A (zh) 一种文本检索匹配方法和系统
Tao et al. News text classification based on an improved convolutional neural network
Yan et al. Implicit emotional tendency recognition based on disconnected recurrent neural networks
Diao et al. Heterographic pun recognition via pronunciation and spelling understanding gated attention network
CN112560440B (zh) 一种基于深度学习的面向方面级情感分析的句法依赖方法
Cai et al. Multi-view and attention-based bi-lstm for weibo emotion recognition
Lu et al. Incorporating Lexicons into LSTM for sentiment classification
WO2023159759A1 (zh) 模型的训练方法、情感消息生成方法和装置、设备、介质
Li et al. Research on dual channel news headline classification based on ERNIE pre-training model
Liu et al. Individual Emotion Recognition Approach Combined Gated Recurrent Unit With Emoticon Distribution Model

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant