CN115758211B - 文本信息分类方法、装置、电子设备和存储介质 - Google Patents
文本信息分类方法、装置、电子设备和存储介质 Download PDFInfo
- Publication number
- CN115758211B CN115758211B CN202211407059.3A CN202211407059A CN115758211B CN 115758211 B CN115758211 B CN 115758211B CN 202211407059 A CN202211407059 A CN 202211407059A CN 115758211 B CN115758211 B CN 115758211B
- Authority
- CN
- China
- Prior art keywords
- word
- text information
- emotion
- vector
- attention
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 72
- 239000013598 vector Substances 0.000 claims abstract description 169
- 230000008451 emotion Effects 0.000 claims abstract description 115
- 230000007246 mechanism Effects 0.000 claims abstract description 37
- 238000003062 neural network model Methods 0.000 claims abstract description 34
- 238000013528 artificial neural network Methods 0.000 claims abstract description 29
- 239000011159 matrix material Substances 0.000 claims description 24
- 230000006870 function Effects 0.000 claims description 19
- 238000012545 processing Methods 0.000 claims description 17
- 238000004590 computer program Methods 0.000 claims description 7
- 230000004913 activation Effects 0.000 claims description 6
- 230000007935 neutral effect Effects 0.000 claims description 6
- 238000007781 pre-processing Methods 0.000 claims description 6
- 238000004364 calculation method Methods 0.000 claims description 3
- 238000013473 artificial intelligence Methods 0.000 abstract description 4
- 239000010410 layer Substances 0.000 description 29
- 238000010586 diagram Methods 0.000 description 11
- 238000004891 communication Methods 0.000 description 8
- 238000004140 cleaning Methods 0.000 description 7
- 238000010801 machine learning Methods 0.000 description 7
- 238000004458 analytical method Methods 0.000 description 6
- 230000011218 segmentation Effects 0.000 description 5
- 238000012549 training Methods 0.000 description 5
- 230000000694 effects Effects 0.000 description 4
- 230000008569 process Effects 0.000 description 4
- 230000009467 reduction Effects 0.000 description 3
- 238000012216 screening Methods 0.000 description 3
- 230000006978 adaptation Effects 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 238000007726 management method Methods 0.000 description 2
- 238000003058 natural language processing Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 239000013307 optical fiber Substances 0.000 description 2
- 230000000644 propagated effect Effects 0.000 description 2
- 230000005477 standard model Effects 0.000 description 2
- 238000012706 support-vector machine Methods 0.000 description 2
- 230000009471 action Effects 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 230000008909 emotion recognition Effects 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 238000012905 input function Methods 0.000 description 1
- 238000007689 inspection Methods 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 238000007637 random forest analysis Methods 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
- 230000003252 repetitive effect Effects 0.000 description 1
- 239000002344 surface layer Substances 0.000 description 1
- 125000001544 thienyl group Chemical group 0.000 description 1
Classifications
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本公开提供了一种文本信息分类方法、装置、电子设备和存储介质,涉及人工智能技术领域。所述方法包括:获取待分类文本的词特征向量;根据词特征向量,得到注意力分数,注意力分数代表词特征向量的重要程度;将注意力分数和词特征向量输入神经网络模型,得到加权向量,神经网络模型包括注意力机制与双向门控循环单元Bi‑GRU的更新门融合的神经网络层;基于加权向量,进行文本信息分类,文本信息分类表征情感信息。本公开通过注意力机制与双向门控循环单元Bi‑GRU的更新门融合的神经网络层进行文本信息分类,可以提高文本信息分类的准确率。
Description
技术领域
本公开涉及人工智能技术领域,尤其涉及一种文本信息分类方法、装置、电子设备和计算机可读存储介质。
背景技术
在人工智能技术领域中,通常使用情感词典的方法来进行分类,需要创建包含褒义和贬义的情感词库,创建两个种子词库,通过不断向两个词库中添加含义相近的词语不断扩充词库量,以及通过人工调整和筛选构建出情感词典,在进行情感分类时,使用构建好的情感词典对文本内容进行匹配,从而实现文本信息的分类。但是,构建情感词典需要过多的人工干预,花费的时间成本和人力成本较高。
相关技术中,通过基于统计机器学习的分类方法来进行分类,相比构建情感词典的方法,使用机器学习模型进行文本信息分类的效率更高,人工干预更少,但不足的是只能提取出表层的情感特征,这导致机器学习模型在情感分类时的准确率不高。
需要说明的是,在上述背景技术部分公开的信息仅用于加强对本公开的背景的理解,因此可以包括不构成对本领域普通技术人员已知的现有技术的信息。
发明内容
本公开提供一种文本信息分类方法、装置、电子设备和存储介质,至少在一定程度上克服准确率不高的问题。
本公开的其他特性和优点将通过下面的详细描述变得显然,或部分地通过本公开的实践而习得。
根据本公开的一个方面,提供一种文本信息分类方法,所述方法包括:获取待分类文本的词特征向量;根据所述词特征向量,得到注意力分数,所述注意力分数代表所述词特征向量的重要程度;将所述注意力分数和所述词特征向量输入神经网络模型,得到加权向量,所述神经网络模型包括注意力机制与双向门控循环单元Bi-GRU的更新门融合的神经网络层;基于所述加权向量,进行文本信息分类,所述文本信息分类表征情感信息。
在本公开的一个实施例中,所述根据所述词特征向量,得到注意力分数,包括:将所述词特征向量输入到注意力机制得到注意力分数。
在本公开的一个实施例中,所述将所述词特征向量输入到注意力机制得到注意力分数,包括:
所述词特征向量根据如下公式,得到注意力分数;
ai=softmax(ui)
其中,ui=tanh(Wwxi+bw),Ww为所述词特征向量的权重系数,bw为所述词特征向量的偏移量,xi为第i个词特征向量,ai为注意力分数,i为正整数。
在本公开的一个实施例中,所述基于所述加权向量,进行文本信息分类,包括:将所述加权向量输入到softmax函数,得到情感分值;根据所述情感分值,进行文本信息分类。
在本公开的一个实施例中,所述神经网络层的更新门的公式如下:
其中,zt=σ(wz·[ht-1,xi]),zt为Bi-GRU的更新门,σ为sigmoid激活函数,wz为第一权重系数,ht-1为Bi-GRU的隐藏状态,xi为第i个词特征向量,at为注意力分数。
在本公开的一个实施例中,将所述注意力分数和所述词特征向量输入神经网络模型,得到加权向量,包括:
所述注意力分数和所述词特征向量根据如下公式,得到加权向量;
其中,c为加权向量,bt为t时刻隐藏状态的注意力权重,Watt和batt为相关参数矩阵,ht为t时刻的隐藏状态,n为正整数,n≥2,k为1到n之间的整数。
在本公开的一个实施例中,所述根据所述情感分值,进行文本信息分类,包括:在所述情感分值大于情感阈值范围的情况下,文本信息分类结果为正向情感文本信息;在所述情感分值位于情感阈值范围内的情况下,文本信息分类结果为中立情感文本信息;在所述情感分值小于情感阈值范围的情况下,文本信息分类结果为负向情感文本信息。
在本公开的一个实施例中,在获取待分类文本的词特征向量之前,所述方法还包括:获取待分类文本;对所述待分类文本进行预处理,得到待识别词;基于共现矩阵和词向量模型Glove,以所述待识别词作为输入,输出与所述待识别词对应的待识别词向量;根据所述待识别词向量,得到与情感相关的情感词;将所述情感词输入Glove,得到词特征向量。
在本公开的一个实施例中,所述根据所述待识别词向量,得到与情感相关的情感词,包括:计算所述待识别词向量与对应的共现矩阵中的上下文词的余弦距离;根据所述余弦距离,得到不相似词;计算所述待识别词向量对应的待识别词与所述不相似词的共现概率比;在所述共现概率比满足预设条件的情况下,得到情感词。
根据本公开的另一个方面,提供一种文本信息分类装置,所述装置包括:获取模块,用于获取待分类文本的词特征向量;处理模块,用于根据所述词特征向量,得到注意力分数,所述注意力分数代表所述词特征向量的重要程度;所述处理模块,还用于将所述注意力分数和所述词特征向量输入神经网络模型,得到加权向量,所述神经网络模型包括注意力机制与双向门控循环单元Bi-GRU的更新门融合的神经网络层;分类模块,用于基于所述加权向量,进行文本信息分类,所述文本信息分类表征情感信息。
根据本公开的再一个方面,提供一种电子设备,包括:处理器;以及存储器,用于存储所述处理器的可执行指令;其中,所述处理器配置为经由执行所述可执行指令来执行上述任一的文本信息分类方法。
根据本公开的又一个方面,提供一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现上述任一的文本信息分类方法。
根据本公开的又一个方面,提供一种计算机程序产品,所述计算机程序产品包括计算机程序或计算机指令,所述计算机程序或所述计算机指令由处理器加载并执行,以使计算机实现上述任一的文本信息分类方法。
本公开的实施例所提供的一种文本信息分类方法、装置、电子设备和存储介质,获取待分类文本的词特征向量;根据词特征向量,得到注意力分数,注意力分数代表词特征向量的重要程度;将注意力分数和词特征向量输入神经网络模型,得到加权向量,神经网络模型包括注意力机制与双向门控循环单元Bi-GRU的更新门融合的神经网络层;基于加权向量,进行文本信息分类。本公开通过注意力机制与双向门控循环单元Bi-GRU的更新门融合的神经网络层进行文本信息分类,可以提高文本信息分类的准确率。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,并不能限制本公开。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本公开的实施例,并与说明书一起用于解释本公开的原理。显而易见地,下面描述中的附图仅仅是本公开的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1示出本公开实施例中一种系统架构的示意图;
图2示出本公开的一个实施例中文本信息分类方法流程图;
图3示出本公开另一实施例中文本信息分类方法流程图;
图4示出本公开神经网络模型架构图;
图5示出本公开注意力机制与双向门控循环单元Bi-GRU的更新门融合的神经网络层的结构图;
图6示出本公开神经网络模型结构图;
图7示出本公开实施例中一种文本信息分类装置示意图;
图8示出本公开实施例中一种电子设备的结构框图。
具体实施方式
现在将参考附图更全面地描述示例实施方式。然而,示例实施方式能够以多种形式实施,且不应被理解为限于在此阐述的范例;相反,提供这些实施方式使得本公开将更加全面和完整,并将示例实施方式的构思全面地传达给本领域的技术人员。所描述的特征、结构或特性可以以任何合适的方式结合在一个或更多实施方式中。
此外,附图仅为本公开的示意性图解,并非一定是按比例绘制。图中相同的附图标记表示相同或类似的部分,因而将省略对它们的重复描述。附图中所示的一些方框图是功能实体,不一定必须与物理或逻辑上独立的实体相对应。可以采用软件形式来实现这些功能实体,或在一个或多个硬件模块或集成电路中实现这些功能实体,或在不同网络和/或处理器装置和/或微控制器装置中实现这些功能实体。
应当理解,本公开的方法实施方式中记载的各个步骤可以按照不同的顺序执行,和/或并行执行。此外,方法实施方式可以包括附加的步骤和/或省略执行示出的步骤。本公开的范围在此方面不受限制。
需要注意,本公开中提及的“第一”、“第二”等概念仅用于对不同的装置、模块或单元进行区分,并非用于限定这些装置、模块或单元所执行的功能的顺序或者相互依存关系。
需要注意,本公开中提及的“一个”、“多个”的修饰是示意性而非限制性的,本领域技术人员应当理解,除非在上下文另有明确指出,否则应该理解为“一个或多个”。
下面结合附图,对本公开实施例的具体实施方式进行详细说明。
图1示出了可以应用于本公开实施例的文本信息分类方法或文本信息分类装置的示例性系统架构的示意图。
如图1所示,该系统架构包括终端101、网络102及服务器103;网络102用以在终端101和服务器103之间提供通信链路的介质,可以是有线网络,也可以是无线网络。
可选地,上述的无线网络或有线网络使用标准通信技术和/或协议。网络通常为因特网、但也可以是任何网络,包括但不限于局域网(Local Area Network,LAN)、城域网(Metropolitan Area Network,MAN)、广域网(Wide Area Network,WAN)、移动、有线或者无线网络、专用网络或者虚拟专用网络的任何组合)。在一些实施例中,使用包括超文本标记语言(Hyper Text Mark-up Language,HTML)、可扩展标记语言(Extensible MarkupLanguage,XML)等的技术和/或格式来代表通过网络交换的数据。此外还可以使用诸如安全套接字层(Secure Socket Layer,SSL)、传输层安全(Transport Layer Security,TLS)、虚拟专用网络(Virtual Private Network,VPN)、网际协议安全(Internet ProtocolSecurity,IPsec)等常规加密技术来加密所有或者一些链路。在另一些实施例中,还可以使用定制和/或专用数据通信技术取代或者补充上述数据通信技术。
图1所示的任意一个终端101可作为远程终端,也可作为中继终端,远程终端和中继终端之间可建立基于邻近服务的通信,远程终端可直接接入网络,也可经中继终端接入网络。
可选地,本公开实施例中的终端101也可以称作UE(User Equipment,用户终端),在具体实现时,终端101可以是手机、平板电脑(Tablet Personal Computer)、膝上型电脑(Laptop Computer)、个人数字助理(Personal Digital Assistant,PDA)、移动上网装置(Mobile Internet Device,MID)、可穿戴式设备(Wearable Device)或车载设备等终端侧设备。
可选地,不同的终端101中安装的应用程序的客户端是相同的,或基于不同操作系统的同一类型应用程序的客户端。基于终端平台的不同,该应用程序的客户端的具体形态也可以不同,比如,该应用程序客户端可以是手机客户端、PC客户端等。
服务器103可以是提供各种服务的服务器,例如对用户利用终端101所进行操作的装置提供支持的后台管理服务器。后台管理服务器可以对接收到的请求等数据进行分析等处理,并将处理结果反馈给终端。
可选地,服务器103可以是独立的物理服务器,也可以是多个物理服务器构成的服务器集群或者分布式系统,还可以是提供云服务、云数据库、云计算、云函数、云存储、网络服务、云通信、中间件服务、域名服务、安全服务、CDN(Content Delivery Network,内容分发网络)、以及大数据和人工智能平台等基础云计算服务的云服务器。服务器103以及终端101可以通过有线或无线通信方式进行直接或间接地连接,本申请在此不做限制。
随着Web2.0互联网时代的到来,用户在各类信息门户网站可自由的发布评论,评论累积了大量的文本内容,而对评论进行情感分类,实现对用户舆情的精准分析,成为获取网民情感倾向重要手段之一。而在海量评论文本中,也存在大量不良评论,使用情感分类的方法筛选出不文明评论,也对建立和谐互联网环境有着重要意义。近年来,随着自然语言处理领域的发展,涌现了大量基于文本信息的分类方法。
相关技术中,使用统计机器学习的方法来进行文本信息分类,需要提前对文本内容打上情感倾向的标签,一般情感倾向主要为正面和负面两个方向,然后使用机器学习模型构建好情感倾向分类器,分类器提取文本中情感特征并预测出其情感倾向,常用的机器学习模型有随机森林,SVM(支持向量机),朴素贝叶斯,KNN(邻近算法)等,相比背景技术中构建情感词典的方法,使用机器学习模型进行情感分类效率更高,人工干预更少,但不足的是只能提取出表层的情感特征,这导致机器学习模型在情感分类时的准确率不高。
近年来,深度学习神经网络被广泛的使用在自然语言处理领域,神经网络可以很好的捕获词语的语义信息,挖掘出文本深层次的特征信息,相对于机器学习模型在情感分类方面准确率更高。因此,本公开提出了基于改进Bi-GRU(Bidirectional-GatedRecurrent Unit,双向门控循环单元)的注意力机制的文本信息分类方法,首先本方法对双向门控网络Bi-GRU进行了改进,将注意力机制与Bi-GRU门控单元更新门融合形成神经网络层,利用包括神经网络层的神经网络模型进行文本信息分类,以获取文本内容中的重要特征信息,从而提高在情感分类时的准确率。
本公开实施例中提供了一种文本信息分类方法,用户通过终端101输入待分类文本,例如,用户可以通过终端101将语音转换成待分类文本,用户还可以通过键盘来输入待分类文本,关于终端101如何获取待分类文本,本公开不做限定。
服务器103通过网络102接收到待分类文本,根据词特征向量,得到注意力分数,注意力分数代表词特征向量的重要程度;将注意力分数和词特征向量输入神经网络模型,得到加权向量,神经网络模型包括注意力机制与双向门控循环单元Bi-GRU的更新门融合的神经网络层;基于加权向量,进行文本信息分类,文本信息分类表征情感信息。该方法可以应用在情感识别的场景中,例如,客服质检、APP(客户端)问答、门户网站问答等。本公开通过注意力机制与双向门控循环单元Bi-GRU的更新门融合的神经网络层进行文本信息分类,可以提高文本信息分类的准确率。
本领域技术人员可以知晓,图1中的终端101、网络102和服务器103的数量仅仅是示意性的,根据实际需要,可以具有任意数目的终端101、网络102和服务器103。本公开实施例对此不作限定。
在上述系统架构下,本公开实施例中提供了一种文本信息分类方法,该方法可以由任意具备计算处理能力的电子设备执行。在一些实施例中,本公开实施例中提供的文本信息分类方法,可以在图1所示的服务器103中执行。
图2示出本公开实施例中一种文本信息分类方法流程图,如图2所示,本公开实施例中提供的文本信息分类方法包括如下S201至S204。
S201,获取待分类文本的词特征向量。
其中,待分类文本为待识别情感的文本,可以通过终端设备获取,也可以通过服务器获取,例如,可以通过手机的语音功能,将声音转换成文字,从而获取待分类文本;还可以通过电脑主机连接的键盘的输入功能,将待分类文本输入到电脑主机中,从而获取待分类文本。待分类文本可以为文字、字母、数字和符号中的一种或几种。词特征向量可以为带有情感的词向量。
S202,根据词特征向量,得到注意力分数,注意力分数代表词特征向量的重要程度。
其中,注意力分数用于表示词特征向量的重要程度,注意力分数越高,则说明词特征向量越重要,反之亦成立,例如,注意力分数的取值范围为0-1,注意力分数为0.9的词特征向量比注意力分数为0.6的词特征向量重要。关于如何根据词特征向量得到注意力分数,本公开实施例对此不做限定,例如,将词特征向量输入到注意力机制得到注意力分数。
S203,将注意力分数和词特征向量输入神经网络模型,得到加权向量,神经网络模型包括注意力机制与双向门控循环单元Bi-GRU的更新门融合的神经网络层。
双向门控循环单元Bi-GRU有两个门,即重置门和更新门。重置门控制着忽略前一时刻的状态信息的程度,重置门的值zt越小,说明前一时刻的状态信息被忽略的越多。更新门用于控制前一时刻的状态信息被带入到当前状态中的程度,更新门的值rt越大说明前一时刻的状态信息带入越多。
其中,Bi-GRU模型中的重置门和更新门的输入信息均为当前时刻的输入xt与上一时刻的隐藏状态ht-1,Bi-GRU模型的输出由激活函数为sigmoid函数的全连接层计算得到。
需要说明的是,如图4所示,神经网络模型在神经网络层42之前设置有Embedding层41,Embedding层41可以将离散变量转为连续向量表示。在神经网络中,Embedding层41还可以减少离散变量的空间维数,同时还可以有意义的表示变量。
在一个实施例中,注意力分数和词特征向量根据如下公式1、公式2和公式3,得到加权向量;
其中,c为加权向量,bt为t时刻隐藏状态的注意力权重,Watt和batt为相关参数矩阵,ht为t时刻的隐藏状态,n为正整数,n≥2,k为1到n之间的整数。
需要说明的是,ht为将注意力分数和词特征向量输入神经网络模型的隐藏状态,将ht输入自注意力机制中对文本的重要特征信息进行整合,从而得到注意力权重bt,对隐藏状态ht加权求和得到文本的最终加权向量c。自注意力机制学习是每一时刻t的隐状态权重,通过词语间的相似度挖掘文本的特征信息,并不依赖于词语间的先后顺序,保留了重要的特征信息。
S204,基于加权向量,进行文本信息分类,文本信息分类表征情感信息。
在一个实施例中,如图4所示,经自注意力机制43对ht进行重要特征信息整合,全连接层44输出加权向量,将加权向量输入到softmax函数45得到文本信息分类的结果,需要说明的是,文本信息分类表征不同感情信息,文本信息分类的结果可以是正向情感文本信息,也可以是中立情感信息,还可以是负向情感文本信息。
在另一实施例中,基于加权向量,进行文本信息分类,包括:将加权向量输入到softmax函数,得到情感分值;根据情感分值,进行文本信息分类。
示例性的,在情感分值大于情感阈值范围的情况下,文本信息分类结果为正向情感文本信息;在情感分值位于情感阈值范围内的情况下,文本信息分类结果为中立情感文本信息;在情感分值小于情感阈值范围的情况下,文本信息分类结果为负向情感文本信息。其中,情感阈值范围为一个取值区间,例如,情感阈值范围为0.4-0.6,当情感分值小于0.4时,文本信息为负向情感文本信息;当情感分值大于0.6时,文本信息为正向情感文本信息;当情感分值大于等于0.4,且小于等于0.6时,文本信息为中立情感文本信息。关于情感阈值范围具体为何,本公开实施了不做限定,可根据经验设置。
上述实施例中,通过注意力机制与双向门控循环单元Bi-GRU的更新门融合的神经网络层进行文本信息分类,可以提高文本信息分类的准确率;此外,本公开再使用自注意力机制,对文本特征进行二次筛选,即对重要特征信息进行整合,最后使用softmax函数对文本信息分类,进一步提升文本信息分类的准确率。
图3示出本公开另一实施例中文本信息分类方法流程图,如图3所示,在获取待分类文本的词特征向量之前,文本信息分类方法可以包括如下S301至S305。
S301,获取待分类文本。
待分类文本可以为文字、字母、数字和符号中的一种或几种。
S302,对待分类文本进行预处理,得到待识别词。接下来将通过多个实施例对待分类文本进行预处理进行说明。
在一个实施例中,对待分类文本进行数据清洗(Data cleaning),数据清洗是对数据进行重新审查和校验的过程,目的在于删除重复信息、纠正存在的错误,并提供数据一致性。示例性的,通过数据清洗去除对待分类文本无意义的非文本字符,如各类标点符号,特殊符号,数字等;以及将字符统一为同类字符,如将英语单词,繁体字转换为中文简体字符。需要说明的是,可以通过数据清理标准模型实现对待分类文本的清洗,数据清理标准模型是将待分类文本输入到数据清理处理器,通过一系列步骤“清理”待分类文本,然后以期望的格式输出清理过的待分类文本。本公开实施例关于如何实现数据清洗的方式不做限定,只要是可以实现上述功能的清洗方式均可。
在另一个实施中,对清洗完的待分类文本进行分词处理,以词为单位将待分类文本的句子按语义分割成多个词语,以获取待分类文本的语义信息,例如,待分类文本的句子“请问有什么可以帮到您”,分词后结果为“请问/有/什么/可以/帮到/您”。关于通过那种方法来进行分词,本公开对此不做限定,例如,通过jieba分词(一种Python中文分词组件)对待分类文本的句子进行分词。
在再一个实施中,对待分类文本进行文本降噪,主要去除对文本信息分类无意义的名词和介词、语气词等,如“呢、额、嗯、北京、电信”等词语,文本降噪能够缩短句子向量的长度,去除无用的文本特征信息。文本降噪可以通过数据清理处理器来实现,关于具体采用何种方法对文本进行降噪,本公开对此不做限定。
S303,基于共现矩阵和词向量模型Glove,以待识别词作为输入,输出与待识别词对应的待识别词向量。
S304,根据待识别词向量,得到与情感相关的情感词。
在对S304进行说明之前,先对共现矩阵和Glove进行说明。
Glove主要通过共现矩阵X来分解生成待识别词向量,共现矩阵中的元素值Xij表示的是在滑动窗口内上下文词Xj在目标词Xi的出现次数,对共现矩阵X第i行求和如下公式4:
其中,Xi为对共现矩阵X第i行求和,表示的是目标i所有上下文词j出现次数的总和,|v|为共现矩阵的列数。
上下文词j的出现次数与所有上下文词出现总次数的比值如下公式5:
其中,Pij为某个上下文词j的出现次数与所有上下文词出现总次数的比值,表示的是此上下文词j出现在目标词i滑动窗口内的概率。
示例性的,本公开对百度百科数据和电信客服文本数据进行词频统计信息分析,如下表1展示的是目标词“便宜”,“优惠”,“谢谢”与其上下文词的共现概率Pij:
表1
概率 | k=套餐 | k=本月 | k=流量 | k=客气 | k=活动 | k=次月 |
P(j|便宜) | 8.9×10-3 | 7.8×10-2 | 2×10-3 | 1×10-5 | 1.2×10-4 | 3.8×10-2 |
P(j|优惠) | 2.6×10-3 | 7.5×10-2 | 5.3×10-3 | 3×10-5 | 3×10-5 | 3.1×10-2 |
P(j|谢谢) | 2.2×10-5 | 7.4×10-2 | 2.0×10-5 | 5.5×10-4 | 1×10-6 | 3.5×10-2 |
P(j|便宜)/P(j|优惠) | 3.42 | 1.04 | 1/2.65 | 1/3 | 4 | 1.22 |
P(j|便宜)/P(j|谢谢) | 404.55 | 1.05 | 100 | 1/55 | 120 | 1.09 |
由表1可知,目标词“便宜”和“优惠”互为相似词,“便宜”/“优惠”与目标词“谢谢”互为不相似词,对于相似词“便宜”和“优惠”,当上下文词j为不相关词(如“本月”,“客气”,“次月”)或者j为相关词(如“套餐”,“流量”,“活动”)时,概率比P(j|便宜)/P(j|优惠)都近似于1;而对于不相似词“便宜”与“谢谢”,当j为相关词(如“套餐”,“流量”,“活动”,“客气”)时,概率比P(j|便宜)/P(j|谢谢)远离于1,当j为不相关词(如“本月”,“次月”)时,概率比P(j|便宜)/P(j|谢谢)近似于1。因此,当两个词语互为不相似词时,若共现概率比接近于1,则可判断j为无关词,则可将无关词去除,需要说明的是,无关词为与情感无关的词,例如,地名。
需要说明的是,可以使用对待分类文本进行预处理后的文本对词向量模型Glove进行训练,基于百度百科文本数据的词频分析,制定文本内容中无关词和噪声词的过滤规则,从而可以降低无关词和噪声词对文本信息分类的噪声影响,提升了词向量模型的训练效率。
在一个实施例中,过滤出共现矩阵中无关词,可以在不影响词特征向量质量的前提下,缩短词特征向量的训练时间,并且能够更好的捕捉词语间的语义信息,并且本公开是基于维基百科文本数据的一般规律提出的方法,因此,具有普遍的实用性,在电信客服文本数据集及其他数据集上,都可以提升词特征向量训练的效率,排除了无关词对文本信息分类效果的影响。
基于对海量百度百科数据的词频统计信息分析结果,利用两个不相似词的共现概率的特性,去除共现矩阵中的无关词,从而得到与情感相关的情感词,S304可以通过下述实施例来实现。
在一个实施例中,计算待识别词向量与对应的共现矩阵中的上下文词的余弦距离;根据余弦距离,得到不相似词;计算待识别词向量对应的待识别词与不相似词的共现概率比;在共现概率比满足预设条件的情况下,得到情感词。
示例性的,关于计算待识别词向量与对应的共现矩阵中的上下文词的余弦距离以及根据余弦距离得到不相似词的过程如下:
(1)使用余弦距离统计共现矩阵中每个词a的不相似词集合set(c),不相似词筛选如下公式6所示:
set(c)={c|cos(wa,wc)<0,c∈V} (6)
其中,a,c∈V,V为词集合,wa,wc分别为a,c对应的词向量,若wa和wc余弦值越小,a和c的上下文相似度越低,当wa和wc的余弦距离小于0时,将词c作为词a的不相似词,并加入set(c)。
通过计算待识别词向量对应的待识别词与不相似词的共现概率比;在共现概率比满足预设条件的情况下,得到情感词。具体过程如下:
(2)对于不相似词a和c,对于两者的上下文词j,以如下公式7和公式8计算共现概率比为:
当共现概率比γ≈1时,则j为无关词,此时可将j从共现矩阵中去除,重新生成共现矩阵,经Glove模型训练得到新的词向量;
当共现概率比γ>>1时,上下文词j为可用于表达a或c语义的相关词,无需过滤出共现矩阵。
通过上述方法可以将无关词过滤掉,从而得到需要的情感词,需要说明的是,预设条件可以为一个阈值,可以对阈值进行设定,例如,阈值为100,当共现概率比γ大于100时,也就是共现概率比γ>>1,上下文词j为可用于表达a或c语义的相关词,无需过滤出共现矩阵。
S305,将情感词输入Glove,得到词特征向量。
在一个实施例中,将词特征向量输入到注意力机制得到注意力分数,可以包括:
词特征向量根据如下公式9,得到注意力分数;
ai=softmax(ui) (9)
其中,ui=tanh(Wwxi+bw),Ww为词特征向量的权重系数,bw为词特征向量的偏移量,xi为第i个词特征向量,ai为注意力分数,i为正整数。
上述说明了如何计算注意力分数,下面对神经网络层的结构进行说明。
图5示出本公开注意力机制与双向门控循环单元Bi-GRU的更新门融合的神经网络层的结构图,如图5所示,神经网络层的计算公式10、公式11、公式12、公式13和公式14,如下:
zt=σ(wz·[ht-1,xi]) (10)
rt=σ(wr·[ht-1,xi]) (12)
其中,xi表示第i个分词的词特征向量,rt为重置门,zi是Bi-GRU的更新门,是添加了注意力机制的更新门,/>和ht-1是Bi-GRU的隐藏状态,at为公式(9)中的注意力分数,ht为t时刻的隐藏状态,σ为sigmoid激活函数。
需要说明的是,图5中51指示的为重置门,52指示的为Bi-GRU的更新门,通过将词特征向量xi输入到神经网络层中,得到t时刻的隐藏状态ht,为公式1计算加权向量的依据。
上述对神经网络层的结构进行说明,下面结合图6对本公开的文本信息分类方法进行说明。
如图6所示,词特征向量xi输入到注意力机制61中,得到注意力分数at,词特征向量xi还输入到神经网络模型中,注意力分数at添加到神经网络模型的隐藏状态62中,得到ht,再将ht输入到自注意力机制63中,经自注意力机制63对ht进行重要特征信息整合,全连接层64输出加权向量c,最后将加权向量c输入到softmax函数得到文本信息分类的结果。
需要说明的是,传统的文本信息分析模型没有充分考虑上下文之间的关系和文本中重要词汇对情感分析的影响,大多数模型为神经网络模型与注意力机制的堆叠。针对这些缺陷,本公开提出具有注意力更新门的Bi-GRU网络模型,利用注意力分数来控制更新门,对神经网络模型进行优化,并将优化后的神经网络模型与自注意力机制相结合,进一步提高模型的准确率。
基于同一发明构思,本公开实施例中还提供了一种文本信息分类装置,如下面的实施例所述。由于该装置实施例解决问题的原理与上述方法实施例相似,因此该装置实施例的实施可以参见上述方法实施例的实施,重复之处不再赘述。
图7示出本公开实施例中一种文本信息分类装置示意图,如图7所示,该装置包括获取模块71、处理模块72和分类模块73。获取模块71,用于获取待分类文本的词特征向量;处理模块72,用于根据词特征向量,得到注意力分数,注意力分数代表词特征向量的重要程度;处理模块72,还用于将注意力分数和词特征向量输入神经网络模型,得到加权向量,神经网络模型包括注意力机制与双向门控循环单元Bi-GRU的更新门融合的神经网络层;分类模块73,用于基于加权向量,进行文本信息分类,文本信息分类表征情感信息。
在一个实施例中,处理模块72,还用于将词特征向量输入到注意力机制得到注意力分数。
在一个实施例中,词特征向量根据如下公式,得到注意力分数;
ai=softmax(ui)
其中,ui=tanh(Wwxi+bw),Ww为词特征向量的权重系数,bw为词特征向量的偏移量,xi为第i个词特征向量,ai为注意力分数,i为正整数。
在一个实施例中,分类模块73,还用于将加权向量输入到softmax函数,得到情感分值;根据情感分值,进行文本信息分类。
在一个实施例中,神经网络层的更新门的公式如下:
其中,zt=σ(wz·[ht-1,xi]),zt为Bi-GRU的更新门,σ为sigmoid激活函数,wz为第一权重系数,ht-1为Bi-GRU的隐藏状态,xi为第i个词特征向量,at为注意力分数。
在一个实施例中,所述注意力分数和所述词特征向量根据如下公式,得到加权向量;
其中,c为加权向量,bt为t时刻隐藏状态的注意力权重, Watt和batt为相关参数矩阵,ht为t时刻的隐藏状态,n为正整数,n≥2,k为1到n之间的整数。
在一个实施例中,分类模块73,还用于在情感分值大于情感阈值范围的情况下,文本信息分类结果为正向情感文本信息;
在情感分值位于情感阈值范围内的情况下,文本信息分类结果为中立情感文本信息;
在情感分值小于情感阈值范围的情况下,文本信息分类结果为负向情感文本信息。
在一个实施例中,获取模块71,还用于在获取待分类文本的词特征向量之前,获取待分类文本;对待分类文本进行预处理,得到待识别词;基于共现矩阵和词向量模型Glove,以待识别词作为输入,输出与待识别词对应的待识别词向量;根据待识别词向量,得到与情感相关的情感词;将情感词输入Glove,得到词特征向量。
在一个实施例中,获取模块71,还用于计算待识别词向量与对应的共现矩阵中的上下文词的余弦距离;根据余弦距离,得到不相似词;计算待识别词向量对应的待识别词与不相似词的共现概率比;在共现概率比满足预设条件的情况下,得到情感词。
所属技术领域的技术人员能够理解,本公开的各个方面可以实现为系统、方法或程序产品。因此,本公开的各个方面可以具体实现为以下形式,即:完全的硬件实施方式、完全的软件实施方式(包括固件、微代码等),或硬件和软件方面结合的实施方式,这里可以统称为“电路”、“模块”或“系统”。
下面参照图8来描述根据本公开的这种实施方式的电子设备800。图8显示的电子设备800仅仅是一个示例,不应对本公开实施例的功能和使用范围带来任何限制。
如图8所示,电子设备800以通用计算设备的形式表现。电子设备800的组件可以包括但不限于:上述至少一个处理单元810、上述至少一个存储单元820、连接不同系统组件(包括存储单元820和处理单元810)的总线830。
其中,所述存储单元存储有程序代码,所述程序代码可以被所述处理单元810执行,使得所述处理单元810执行本说明书上述“示例性方法”部分中描述的根据本公开各种示例性实施方式的步骤。例如,所述处理单元810可以执行上述方法实施例的如下步骤:获取待分类文本的词特征向量;根据词特征向量,得到注意力分数,注意力分数代表词特征向量的重要程度;将注意力分数和词特征向量输入神经网络模型,得到加权向量,神经网络模型包括注意力机制与双向门控循环单元Bi-GRU的更新门融合的神经网络层;基于加权向量,进行文本信息分类,文本信息分类表征情感信息。
存储单元820可以包括易失性存储单元形式的可读介质,例如随机存取存储单元(RAM)8201和/或高速缓存存储单元8202,还可以进一步包括只读存储单元(ROM)8203。
存储单元820还可以包括具有一组(至少一个)程序模块8205的程序/实用工具8204,这样的程序模块8205包括但不限于:操作系统、一个或者多个应用程序、其它程序模块以及程序数据,这些示例中的每一个或某种组合中可能包括网络环境的实现。
总线830可以为表示几类总线结构中的一种或多种,包括存储单元总线或者存储单元控制器、外围总线、图形加速端口、处理单元或者使用多种总线结构中的任意总线结构的局域总线。
电子设备800也可以与一个或多个外部设备840(例如键盘、指向设备、蓝牙设备等)通信,还可与一个或者多个使得用户能与该电子设备800交互的设备通信,和/或与使得该电子设备800能与一个或多个其它计算设备进行通信的任何设备(例如路由器、调制解调器等等)通信。这种通信可以通过输入/输出(I/O)接口850进行。并且,电子设备800还可以通过网络适配器860与一个或者多个网络(例如局域网(LAN),广域网(WAN)和/或公共网络,例如因特网)通信。如图所示,网络适配器860通过总线830与电子设备800的其它模块通信。应当明白,尽管图中未示出,可以结合电子设备800使用其它硬件和/或软件模块,包括但不限于:微代码、设备驱动器、冗余处理单元、外部磁盘驱动阵列、RAID系统、磁带驱动器以及数据备份存储系统等。
通过以上的实施方式的描述,本领域的技术人员易于理解,这里描述的示例实施方式可以通过软件实现,也可以通过软件结合必要的硬件的方式来实现。因此,根据本公开实施方式的技术方案可以以软件产品的形式体现出来,该软件产品可以存储在一个非易失性存储介质(可以是CD-ROM,U盘,移动硬盘等)中或网络上,包括若干指令以使得一台计算设备(可以是个人计算机、服务器、终端装置、或者网络设备等)执行根据本公开实施方式的方法。
在本公开的示例性实施例中,还提供了一种计算机可读存储介质,该计算机可读存储介质可以是可读信号介质或者可读存储介质。其上存储有能够实现本公开上述方法的程序产品。在一些可能的实施方式中,本公开的各个方面还可以实现为一种程序产品的形式,其包括程序代码,当该程序产品在终端设备上运行时,该程序代码用于使该终端设备执行本说明书上述“具体实施方式”部分中描述的根据本公开各种示例性实施方式的步骤。
本公开中的计算机可读存储介质的更具体的例子可以包括但不限于:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。
在本公开中,计算机可读存储介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了可读程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。可读信号介质还可以是可读存储介质以外的任何可读介质,该可读介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。
可选地,计算机可读存储介质上包含的程序代码可以用任何适当的介质传输,包括但不限于无线、有线、光缆、RF等等,或者上述的任意合适的组合。
在具体实施时,可以以一种或多种程序设计语言的任意组合来编写用于执行本公开操作的程序代码,所述程序设计语言包括面向对象的程序设计语言—诸如Java、C++等,还包括常规的过程式程序设计语言—诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算设备上执行、部分地在用户设备上执行、作为一个独立的软件包执行、部分在用户计算设备上部分在远程计算设备上执行、或者完全在远程计算设备或服务器上执行。在涉及远程计算设备的情形中,远程计算设备可以通过任意种类的网络,包括局域网(LAN)或广域网(WAN),连接到用户计算设备,或者,可以连接到外部计算设备(例如利用因特网服务提供商来通过因特网连接)。
公开实施例还提供一种计算机程序产品,计算机程序产品包括计算机程序或计算机指令,计算机程序或计算机指令由处理器加载并执行,以使计算机实现上述“具体实施方式”部分中描述的根据本公开各种示例性实施方式的步骤。
应当注意,尽管在上文详细描述中提及了用于动作执行的设备的若干模块或者单元,但是这种划分并非强制性的。实际上,根据本公开的实施方式,上文描述的两个或更多模块或者单元的特征和功能可以在一个模块或者单元中具体化。反之,上文描述的一个模块或者单元的特征和功能可以进一步划分为由多个模块或者单元来具体化。
此外,尽管在附图中以特定顺序描述了本公开中方法的各个步骤,但是,这并非要求或者暗示必须按照该特定顺序来执行这些步骤,或是必须执行全部所示的步骤才能实现期望的结果。附加的或备选的,可以省略某些步骤,将多个步骤合并为一个步骤执行,以及/或者将一个步骤分解为多个步骤执行等。
通过以上实施方式的描述,本领域的技术人员易于理解,这里描述的示例实施方式可以通过软件实现,也可以通过软件结合必要的硬件的方式来实现。因此,根据本公开实施方式的技术方案可以以软件产品的形式体现出来,该软件产品可以存储在一个非易失性存储介质(可以是CD-ROM,U盘,移动硬盘等)中或网络上,包括若干指令以使得一台计算设备(可以是个人计算机、服务器、移动终端、或者网络设备等)执行根据本公开实施方式的方法。
本领域技术人员在考虑说明书及实践这里公开的发明后,将容易想到本公开的其它实施方案。本公开旨在涵盖本公开的任何变型、用途或者适应性变化,这些变型、用途或者适应性变化遵循本公开的一般性原理并包括本公开未公开的本技术领域中的公知常识或惯用技术手段。说明书和实施例仅被视为示例性的,本公开的真正范围由所附的权利要求指出。
Claims (11)
1.一种文本信息分类方法,其特征在于,包括:
获取待分类文本的词特征向量;
根据所述词特征向量,得到注意力分数,所述注意力分数代表所述词特征向量的重要程度;
将所述注意力分数和所述词特征向量输入神经网络模型,得到加权向量,所述神经网络模型包括注意力机制与双向门控循环单元Bi-GRU的更新门融合的神经网络层,所述神经网络模型的计算公式如下:
zt=σ(wz·[ht-1,xi])
rt=σ(wr·[ht-1,xi])
其中,xi表示第i个分词的词特征向量,rt为重置门,zt是Bi-GRU的更新门,是添加了注意力机制的更新门,/>和ht-1是Bi-GRU的隐藏状态,wz为第一权重系数,at为注意力分数,ht为t时刻的隐藏状态,σ为sigmoid激活函数;
基于所述加权向量,进行文本信息分类,所述文本信息分类表征情感信息。
2.根据权利要求1所述的文本信息分类方法,其特征在于,所述根据所述词特征向量,得到注意力分数,包括:
将所述词特征向量输入到注意力机制得到注意力分数。
3.根据权利要求2所述的文本信息分类方法,其特征在于,所述将所述词特征向量输入到注意力机制得到注意力分数,包括:
所述词特征向量根据如下公式,得到注意力分数;
ai=softmax(ui)
其中,ui=tanh(Wwxi+bw),Ww为所述词特征向量的权重系数,bw为所述词特征向量的偏移量,xi为第i个词特征向量,ai为注意力分数,i为正整数。
4.根据权利要求1所述的文本信息分类方法,其特征在于,所述基于所述加权向量,进行文本信息分类,包括:
将所述加权向量输入到softmax函数,得到情感分值;
根据所述情感分值,进行文本信息分类。
5.根据权利要求1所述的文本信息分类方法,其特征在于,将所述注意力分数和所述词特征向量输入神经网络模型,得到加权向量,包括:
所述注意力分数和所述词特征向量根据如下公式,得到加权向量;
其中,c为加权向量,bt为t时刻隐藏状态的注意力权重,Watt和batt为相关参数矩阵,ht为t时刻的隐藏状态,n为正整数,n≥2,k为1到n之间的整数。
6.根据权利要求4所述的文本信息分类方法,其特征在于,所述根据所述情感分值,进行文本信息分类,包括:
在所述情感分值大于情感阈值范围的情况下,文本信息分类结果为正向情感文本信息;
在所述情感分值位于情感阈值范围内的情况下,文本信息分类结果为中立情感文本信息;
在所述情感分值小于情感阈值范围的情况下,文本信息分类结果为负向情感文本信息。
7.根据权利要求4所述的文本信息分类方法,其特征在于,在获取待分类文本的词特征向量之前,所述方法还包括:
获取待分类文本;
对所述待分类文本进行预处理,得到待识别词;
基于共现矩阵和词向量模型Glove,以所述待识别词作为输入,输出与所述待识别词对应的待识别词向量;
根据所述待识别词向量,得到与情感相关的情感词;
将所述情感词输入Glove,得到词特征向量。
8.根据权利要求7所述的文本信息分类方法,其特征在于,所述根据所述待识别词向量,得到与情感相关的情感词,包括:
计算所述待识别词向量与对应的共现矩阵中的上下文词的余弦距离;
根据所述余弦距离,得到不相似词;
计算所述待识别词向量对应的待识别词与所述不相似词的共现概率比;
在所述共现概率比满足预设条件的情况下,得到情感词。
9.一种文本信息分类装置,其特征在于,包括:
获取模块,用于获取待分类文本的词特征向量;
处理模块,用于根据所述词特征向量,得到注意力分数,所述注意力分数代表所述词特征向量的重要程度;
所述处理模块,还用于将所述注意力分数和所述词特征向量输入神经网络模型,得到加权向量,所述神经网络模型包括注意力机制与双向门控循环单元Bi-GRU的更新门融合的神经网络层,所述神经网络模型的计算公式如下:
zt=σ(wz·[ht-1,xi])
rt=σ(wr·[ht-1,xi])
其中,xi表示第i个分词的词特征向量,rt为重置门,zt是Bi-GRU的更新门,是添加了注意力机制的更新门,/>和ht-1是Bi-GRU的隐藏状态,wz为第一权重系数,at为注意力分数,ht为t时刻的隐藏状态,σ为sigmoid激活函数;
分类模块,用于基于所述加权向量,进行文本信息分类,所述文本信息分类表征情感信息。
10.一种电子设备,其特征在于,包括:
处理器;以及
存储器,用于存储所述处理器的可执行指令;
其中,所述处理器配置为经由执行所述可执行指令来执行权利要求1-8中任意一项所述的方法。
11.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现权利要求1-8中任意一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211407059.3A CN115758211B (zh) | 2022-11-10 | 2022-11-10 | 文本信息分类方法、装置、电子设备和存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211407059.3A CN115758211B (zh) | 2022-11-10 | 2022-11-10 | 文本信息分类方法、装置、电子设备和存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN115758211A CN115758211A (zh) | 2023-03-07 |
CN115758211B true CN115758211B (zh) | 2024-03-01 |
Family
ID=85369211
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202211407059.3A Active CN115758211B (zh) | 2022-11-10 | 2022-11-10 | 文本信息分类方法、装置、电子设备和存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115758211B (zh) |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109472031A (zh) * | 2018-11-09 | 2019-03-15 | 电子科技大学 | 一种基于双记忆注意力的方面级别情感分类模型及方法 |
CN110083705A (zh) * | 2019-05-06 | 2019-08-02 | 电子科技大学 | 一种用于目标情感分类的多跳注意力深度模型、方法、存储介质和终端 |
CN111708864A (zh) * | 2020-06-11 | 2020-09-25 | 兰州理工大学 | 一种用户评论文本情感分析方法及装置 |
CN112527966A (zh) * | 2020-12-18 | 2021-03-19 | 重庆邮电大学 | 基于Bi-GRU神经网络和自注意力机制的网络文本情感分析方法 |
CN114662498A (zh) * | 2022-03-15 | 2022-06-24 | 哈尔滨理工大学 | 一种基于深度学习的属性级情感分析方法 |
CN114881042A (zh) * | 2022-06-02 | 2022-08-09 | 电子科技大学 | 基于图卷积网络融合句法依存与词性的中文情感分析方法 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11335347B2 (en) * | 2019-06-03 | 2022-05-17 | Amazon Technologies, Inc. | Multiple classifications of audio data |
-
2022
- 2022-11-10 CN CN202211407059.3A patent/CN115758211B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109472031A (zh) * | 2018-11-09 | 2019-03-15 | 电子科技大学 | 一种基于双记忆注意力的方面级别情感分类模型及方法 |
CN110083705A (zh) * | 2019-05-06 | 2019-08-02 | 电子科技大学 | 一种用于目标情感分类的多跳注意力深度模型、方法、存储介质和终端 |
CN111708864A (zh) * | 2020-06-11 | 2020-09-25 | 兰州理工大学 | 一种用户评论文本情感分析方法及装置 |
CN112527966A (zh) * | 2020-12-18 | 2021-03-19 | 重庆邮电大学 | 基于Bi-GRU神经网络和自注意力机制的网络文本情感分析方法 |
CN114662498A (zh) * | 2022-03-15 | 2022-06-24 | 哈尔滨理工大学 | 一种基于深度学习的属性级情感分析方法 |
CN114881042A (zh) * | 2022-06-02 | 2022-08-09 | 电子科技大学 | 基于图卷积网络融合句法依存与词性的中文情感分析方法 |
Also Published As
Publication number | Publication date |
---|---|
CN115758211A (zh) | 2023-03-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11900056B2 (en) | Stylistic text rewriting for a target author | |
CN111371806B (zh) | 一种Web攻击检测方法及装置 | |
CN107808011B (zh) | 信息的分类抽取方法、装置、计算机设备和存储介质 | |
CN110705301B (zh) | 实体关系抽取方法及装置、存储介质、电子设备 | |
WO2020211720A1 (zh) | 数据处理方法和代词消解神经网络训练方法 | |
US11755909B2 (en) | Method of and system for training machine learning algorithm to generate text summary | |
US20200081978A1 (en) | Machine-learning based detection and classification of personally identifiable information | |
WO2020147409A1 (zh) | 一种文本分类方法、装置、计算机设备及存储介质 | |
US20210182503A1 (en) | Bilingual corpora screening method and apparatus, and storage medium | |
CN113434683B (zh) | 文本分类方法、装置、介质及电子设备 | |
CN111881398B (zh) | 页面类型确定方法、装置和设备及计算机存储介质 | |
CN113986864A (zh) | 日志数据处理方法、装置、电子设备及存储介质 | |
CN116701574A (zh) | 文本语义相似度计算方法、装置、设备及存储介质 | |
KR20210125449A (ko) | 업계 텍스트를 증분하는 방법, 관련 장치 및 매체에 저장된 컴퓨터 프로그램 | |
CN113761845A (zh) | 一种文本生成方法、装置、存储介质及电子设备 | |
CN115952854B (zh) | 文本脱敏模型的训练方法、文本脱敏方法及应用 | |
CN111859933A (zh) | 马来语识别模型的训练方法、识别方法、装置、设备 | |
CN115758211B (zh) | 文本信息分类方法、装置、电子设备和存储介质 | |
CN116680401A (zh) | 文档处理方法、文档处理装置、设备及存储介质 | |
CN112698977B (zh) | 服务器故障定位方法方法、装置、设备及介质 | |
CN114328916A (zh) | 事件抽取、及其模型的训练方法,及其装置、设备和介质 | |
CN110909777A (zh) | 一种多维特征图嵌入方法、装置、设备及介质 | |
CN112347196B (zh) | 基于神经网络的实体关系抽取方法及装置 | |
CN117077678B (zh) | 一种敏感词识别方法、装置、设备及介质 | |
US20240289199A1 (en) | Method, electronic device, and computer program product for generating logs |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |